Vergleich verschiedener Methoden zur Fixierung der Landau

Werbung
Humboldt-Universität zu Berlin
Mathematisch-Naturwissenschaftliche Fakultät I
Institut für Physik
Vergleich verschiedener Methoden
zur Fixierung der Landau-Eichung
in SU (2)- und SU (3)-Gittereichtheorien
Diplomarbeit
eingereicht von
Peter Schemel
geboren am 27. Januar 1978 in Berlin
Aufgabensteller: Prof. Dr. M. Müller-Preußker
Zweitgutachter: Prof. Dr. Ulrich Wolff
Abgabedatum: 19. Dezember 2005
Zusammenfassung
In dieser Arbeit werden verschiedene Methoden zur Fixierung der Landau-Eichung miteinander verglichen. In der SU (2)-Gittereichtheorie sind dies Simulated Annealing, die
Überrelaxation und die Eichfixierung auf einer endlichen Untergruppe. In der SU (3)Gittereichtheorie sind dies Simulated Annealing, Überrelaxation und die fourierbeschleunigte Eichfixierung. Das Hauptanliegen in dieser Arbeit ist es, den Simulated Anealing
Algorithmus zu optimieren, um eine möglichst eindeutige Fixierung der Landau-Eichung
zu erreichen. Dies ist notwendig, da die Landau-Eichbedingung nicht eindeutig ist und
sogenannte Gribov-Kopien auftauchen, die einen Einfluss auf eichvariante Größen, wie
den Ghost-Propagator haben. Es ist ein Wunsch, diesen Einfluss zu minimieren.
Die wichtigsten Ergebnisse sind eine Optimierung des Simulated Annealing Algorithmus durch das Einfügen von mikrokanonischen Schritten in den Algorithmus. In der
SU (3)-Eichtheorie zeigte sich zudem, dass die Wahl eines nichtlinearen Temperaturverlaufs des Simulated Annealing Fahrplans zu einem optimierten Algorithmus führt.
Nicht zeigen lassen konnte sich hingegen eine Optimierung der numerischen Berechnungen in der SU (2)-Eichtheorie durch die Verlagerung der Berechnungen in die endliche
Ikosaeder-Untergruppe.
Im Rahmen eines Vergleichs von Überrelaxation und fourierbeschleunigter Eichfixierung in der SU (3)-Eichtheorie zeigte sich zudem, dass der Aufwand für fourierbeschleunigte Eichfixierung besser mit der Gittergröße symmetrischer Gitter skaliert als für die
Überrelaxation.
Inhaltsverzeichnis
1 Einleitung
1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
2 Motivation der Eichfixierung
2.1 Kontinuumseichtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Eichfixierung und Faddeev-Popov Trick . . . . . . . . . . . . . . . . . . . .
7
7
9
3 Diskretisierte Eichtheorien
3.1 Einführung in die Gittereichtheorie . . . . . . . . .
3.1.1 Observable . . . . . . . . . . . . . . . . . . .
3.1.2 Propagatoren . . . . . . . . . . . . . . . . .
3.2 Eichfixierung . . . . . . . . . . . . . . . . . . . . .
3.2.1 Gewöhnliche kovariante Eichung . . . . . . .
3.2.2 Laplace-Eichung . . . . . . . . . . . . . . .
3.2.3 Maximal Abelsche Eichung . . . . . . . . . .
3.2.4 Zentrumseichung . . . . . . . . . . . . . . .
3.2.5 Landau- und Coulomb-Eichung . . . . . . .
3.2.6 Gribov-Kopien . . . . . . . . . . . . . . . .
3.2.7 Gribov-Rauschen . . . . . . . . . . . . . . .
3.3 Methoden der Eichfixierung . . . . . . . . . . . . .
3.3.1 Relaxation . . . . . . . . . . . . . . . . . . .
3.3.2 Überrelaxation . . . . . . . . . . . . . . . .
3.3.3 Mikrokanonische Schritte . . . . . . . . . . .
3.3.4 Fourierbeschleunigte Eichfixierung . . . . . .
3.3.5 Multigrid Methode des Gradientenverfahrens
3.3.6 Simulated Annealing . . . . . . . . . . . . .
3.3.7 Eichfixierung auf endlichen Untergruppen .
3.4 Strategien zur Auswahl optimaler Verfahren . . . .
3.4.1 Verteilung über den Funktionalwerten . . . .
3.4.2 Mobilität . . . . . . . . . . . . . . . . . . .
4 Resultate
4.1 SU (2) Eichfixierung . . . . . . . . . . .
4.1.1 Simulated Annealing . . . . . .
4.1.2 I120 -Eichfixierung . . . . . . . .
4.1.3 Simulated Annealing auf großen
4.1.4 Zusammenfassung . . . . . . . .
4.2 SU(3) Eichfixierung . . . . . . . . . . .
1
. . . . .
. . . . .
. . . . .
Gittern
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
17
18
20
20
21
22
23
24
25
27
28
28
29
29
30
31
31
36
37
37
38
.
.
.
.
.
.
41
43
43
58
60
63
64
2
INHALTSVERZEICHNIS
4.2.1
4.2.2
4.2.3
4.2.4
4.2.5
Überrelaxation . . . . . . . . . . . . . . . . . . .
Fourierbeschleunigte Eichfixierung . . . . . . . . .
Skalierung der Iterationszahl für Überrelaxation
schleunigte Eichfixierung . . . . . . . . . . . . . .
Simulated Annealing . . . . . . . . . . . . . . . .
Zusammenfassung . . . . . . . . . . . . . . . . . .
. . .
. . .
und
. . .
. . .
. . .
. . . . . .
. . . . . .
fourierbe. . . . . .
. . . . . .
. . . . . .
. 64
. 65
. 66
. 68
. 79
5 Zusammenfassung und Ausblick
5.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
81
82
83
A Anhang
A.1 Das Ikosaeder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.1 Konstruktion der Ikosaedergruppe . . . . . . . . . . . . . . . . . .
A.1.2 Die elegante Methode . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.3 Fortsetzung auf SU (2) . . . . . . . . . . . . . . . . . . . . . . . .
A.1.4 Diskretisierung der SU (2) . . . . . . . . . . . . . . . . . . . . . .
A.2 Konvergenz einer Markov-Kette . . . . . . . . . . . . . . . . . . . . . . .
A.3 Haarsches Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.4 Aktualisierungsalgorithmen . . . . . . . . . . . . . . . . . . . . . . . . .
A.4.1 Heatbath Aktualisierung in SU (N ) Yang-Mills-Theorien . . . . .
A.4.2 Maximierung von Re tr(gK) . . . . . . . . . . . . . . . . . . . . .
A.4.3 Polarzerlegung von M ∈ GL(N ) . . . . . . . . . . . . . . . . . . .
A.5 Änderung der Wahrscheinlichkeitsverteilung bei Mehrfachanwendung einer
Eichfixierungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
85
85
87
88
90
91
95
97
97
98
100
.
.
.
.
.
.
.
.
.
.
.
. 101
Kapitel 1
Einleitung
1.1
Einleitung
Eichtheorien spielen heutzutage eine wichtige Rolle für die Beschreibung der elementaren
Bestandteile der Materie und ihrer Wechselwirkungen, die im Standardmodell zusammengefaßt sind. Es herrscht allgemeiner Konsens darüber, dass die starke Wechselwirkung, als
Teil des Standardmodells, von der Quantenchromodynamik (QCD) [FGML73] beschrieben wird. Die stark wechselwirkenden Teilchen sind die Hadronen. Verschiedene Untersuchungen, wie die beobachteten Pion-Zerfallsraten, machten die Einführung elektrisch und
farbgeladener Quarks [GM64] als elementare Bausteine der Hadronen erforderlich. Mit
ihrer Einführung war auch eine erfolgreiche Klassifizierung der Hadronen möglich. Daher
sollte die QCD sowohl die Quarkstruktur der Hadronen als auch ihre Wechselwirkung
beschreiben.
Die Struktur der Hadronen wird experimentell in Beschleunigerversuchen untersucht,
bei denen Leptonen als Projektile benutzt werden. Hier hat sich gezeigt, dass für kleine
Abstände, also große Impulsüberträge, die Wechselwirkungskräfte gering sind und sich
die Quarks dort wie freie Teilchen verhalten. Diese Eigenschaft wird als asymptotische
Freiheit der QCD [Gro05] bezeichnet. Diese Freiheit kann jedoch nur eine Eigenschaft
kleiner Abstände sein, da freie Quarks nicht beobachtet werden. Das Gleiche trifft auch
auf die Quanten der QCD-Wechselwirkung, die Gluonen, zu. Somit besteht eine Aufgabe
darin, einen Mechanismus aufzuzeigen, der zu diesem so genannten Confinement 1 , einer
besonderen Eigenschaft der QCD, führt [DG05].
Die Beschreibung von Vorgängen in Hadron-Hadron-Stößen entzieht sich bisher
einer strengen Behandlung durch die QCD und man ist auf Modelle und Näherungen
angewiesen. Umso wichtiger ist es, zu einer theoretischen Erklärung des Hadronspektrums
und der Hadronstruktur ab initio im Rahmen der Gitter-QCD zu kommen.
Mit der von Kenneth G. Wilson eingeführten Gitterformulierung der QCD [Wil74] wurde ein Rahmen geschaffen, in dem sich sowohl störungstheoretische als auch eine Vielzahl
nichtstörungstheoretischer Methoden und Ansätze zur Behandlung der Theorie einführen
lassen. Darunter ist auch die Methode der numerischen Simulation, in der zunächst über
die Diskretisierung hinaus keine weiteren Näherungen notwendig sind. Und obwohl in der
Wilsonschen Formulierung die Eichinvarianz über die Art der Raum-Zeit-Diskretisierung
1
Confinement ist das englische Wort für Beschränkung oder Gefangenschaft und soll die Eigenschaft
der Quarks bezeichnen, nicht als freie Teilchen vorzukommen.
3
4
Kapitel 1
Einleitung
in die Gittereichtheorie eingebunden wird, ist die Gitterstörungstheorie darauf angewiesen, wie im Kontinuum, von einer Eichfixierung auszugehen.
Es wurde versuchte die Ursache des Confinement-Mechanismus zu beschreiben, indem
man mittels einer geeigneten Eichung die für das Confinement relevanten Freiheitsgerade
der Theorie isoliert [Nam74, Man76, ’t 78]. Als geeignete Eichungen stellten sich dabei
die maximal abelsche Eichung [’t 81, KSW87] und die Zentrumseichung [DDFGO97] heraus. Im Ergebnis der entsprechenden Projektionen auf die entsprechenden Freiheitsgrade
wurden die beiden Mechanismen der Monopolperkolation [KSW87, B+ 91] und Vortexperkolation [LRT98, ELRT00] identifiziert. Beide Mechanismen können das Confinement im
Sinne des Flächengesetzes für Wilsonloops erklären. In jüngster Zeit ist die enge Verbindung zwischen ihnen klar herausgearbeitet worden [KPSZ05]. In diesem Zusammenhang
stellte sich heraus, dass die Nichteindeutigkeit der Eichbedingung auf Grund der Existenz von Gribovkopien ein schwieriges algorithmisches Problem bei der Eichfixierung
von Monte-Carlo-generierten Feldkonfigurationen mit sich bringt. Die wahrscheinlich erste systematische Untersuchung dazu im Rahmen der maximal abelschen Eichung mit
Hilfe des Simulated Annealing Verfahrens stellt [BBMPS96] dar.
Die vorliegende Arbeit stellt, in Hinsicht auf die Verbesserung der Eichfixierungsalgorithmen, eine Fortsetzung der Untersuchungen für den Fall der Landau-Eichung dar. Dabei sollen verschiedenen Algorithmen der Landau-Eichung miteinander verglichen werden.
Ein solcher Vergleich wurde bereits in [Gut96] für SU (2)-Gittereichtheorien durchgeführt.
Das Hauptaugenmerk dieser Arbeit liegt dabei auf der Methode des Simulated Annealing
und ihrer Optimierung.
Ein Grund, weshalb gegebene Gittereichkonfigurationen in die Landau-Eichung gebracht werden, ist die Berechnung der entsprechenden Quark-, Gluon- [MO87, LSWP98,
Man99] und Ghost-Propagatoren [SS96] und die Definition des Confinement über deren
Eigenschaften. Solche Propagatoren werden in der Störungstheorie benutzt und beziehen
sich dort immer auf eine bestimmte Eichung. Es konnte gezeigt werden, dass die Eliminierung der für das Confinement verantwortlichen Freiheitsgrade den Charakter der Gluonund Ghost-Propagatoren tatsächlich wesentlich verändert [LRG02, GLR04].
Das Verhalten der Propagatoren wird in unterschiedlichem Maße auch von der
Nichteindeutigkeit der Eichbedingung auf Grund von Gribovkopien bestimmt. In der
Landau-Eichung wird dabei beobachtet, dass sich das singuläre Verhalten der Ghostpropagatoren abmildern lässt, wenn das globale Maximum des Landau-Eichfunktionals
möglichst exakt bestimmt wird [SIMPS05a]. Trotzdem es Untersuchungen gibt, die
besagen, dass der Einfluss der Gribovkopien im unendlichen Volumen vernachlässigt
werden kann [Zwa04], besteht der Wunsch, die Landau-Eichung mit einem möglichst
effizientem Algorithmus fixieren zu können, solange auf kleinen Gittern gerechnet wird.
Vor diesem Hintergrund ist die vorliegende Arbeit entstanden.
In dem Bestreben, einen effizienten Algorithmus zu finden, ist die Arbeit wie folgt
gegliedert. In Kapitel 2 wird eine Einführung in die theoretische Beschreibung der QCD
gegeben. Es werden die für diese Arbeit grundlegenden Größen definiert und eine erste Motivation der Eichfixierung gegeben. Die von Wilson eingeführte Diskretisierung der
QCD wird in Kapitel 3 beschrieben. Es werden weiterhin einige Eichfixierungsbedingungen
und ihre Gitterdiskretisierung angegeben. Für die Landau-Eichung werden Konzepte zur
Umsetzung der Eichfixierung vorgestellt und das Problem der Gribov-Mehrdeutigkeit dargestellt.In Kapitel 4 werden die verschiedenen Eichfixierungskonzepte miteinander vergli-
1.1 Einleitung
5
chen und die Resultate der Vergleiche vorgestellt. Das Kapitel ist in zwei Teile gegliedert.
Im ersten Teil werden die Ergebnisse der Landau-Eichung in einer SU (2)-Gittereichtheorie
dargestellt, um im zweiten Teil zur physikalisch relevanten SU (3)-Gittereichtheorie überzugehen. Abschließend werden in Kapitel 5 die Ergebnisse zusammengefasst und mögliche
Perspektiven herausgearbeitet, mit denen sich zukünftige Untersuchungen beschäftigen
sollten.
6
Kapitel 1
Einleitung
Kapitel 2
Motivation der Eichfixierung
2.1
Kontinuumseichtheorie
Die Quantenchromodynamik (QCD) ist eine renormierbare Quantenfeldtheorie, die
der starken Wechselwirkung. Ihre fundamentalen Bestandteile sind Spin- 21 -Felder, die
gebrochen-rationale, elektrische Ladung tragen und geladene Spin-1-Eichfelder, die mit
den Spin- 12 -Feldern und mit sich selbst wechselwirken. Die Spin- 12 -Felder sind die Quarks,
die Eichfelder beschreiben die Gluonen.
Die fundamentalen Quarkfelder der QCD werden durch Diracspinoren qαA beschrieben, wobei die Indizes die internen Freiheitsgrade der Theorie kennzeichnen. Jeder Index
repräsentiert die fundamentale Darstellung einer Lie-Gruppe. Der Index A bezeichnet
die Flavour -Quantenzahl, die zwar in der QCD keine dynamische Rolle spielt, aber der
Vollständigkeit halber mit erwähnt werden soll. Der Index α bezeichnet den Freiheitsgrad
der Farbladung . Es gibt deutliche Hinweise, wie die beobachtete Baryonenstatistik, darauf, dass exakt drei Farbladungen in der Natur existieren [BFGM72]. Auf Grund dieser
Tatsache sind die einzigen in Frage kommenden einfachen Lie-Gruppen zur Beschreibung
der Farbladung die SU (3) und die SO(3). Dabei kann die SO(3) als farbbeschreibende LieGruppe ausgeschlossen werden. So könnten in einer SO(3)-Eichtheorie Diquark-Systeme
als Singlet-Zustände auftauchen, die in der Realität nicht beobachtet werden. Im Folgenden soll daher die QCD als SU (3)C -Eichtheorie vorgestellt werden.
Die grundlegende Idee der QCD ist, aus einer globalen SU (3)C -Farbsymmetrie eine lokale Symmetrie zu machen. Um diese lokale SU (3)C -Farbsymmetrie umsetzen zu können,
ist es nötig, ein kompensierendes Vektor-Eichpotential Aaµ (x), a = 1, 2, ..., 8 einzuführen:
X
λa
Aµ (x) = −ig
Aaµ (x) ,
(2.1)
2
a
wobei λa ∈ su(3) die Gell-Mann-Matrizen in der Lie-Algebra sind und die Kommutatorgleichung [λa , λb ] = 2if abc λc mit den Strukturkonstanten f abc der SU (3) erfüllen. Das
Oktett der Aaµ sind die oben erwähnten farbgeladenen Gluonenfelder. Sie stellen die dynamischen Variablen einer SU (3)C -Eichtheorie dar.
Mittels einer kanonischen Konstruktion erhält man die durch die SU (3)C Symmetrie
implizierte, lokal eichinvariante, Lagrangedichte1
1
/ A − Fµν F µν
L1 = iq A Dq
(2.2)
4
1
Über sich wiederholende Indizes soll im Weiteren immer summiert werden.
7
8
Kapitel 2
Motivation der Eichfixierung
mit der kovarianten Ableitung
/ := (∂µ + Aµ )γ µ = Dµ γ µ ,
D
(2.3)
wobei γµ der Vierervektor der 4 × 4 Dirac-Matrizen ist, und dem Feldstärketensor
Fµν (x) := [Dµ , Dν ] = ∂µ Aν (x) − ∂ν Aµ (x) + [Aµ (x), Aν (x)]
X
λa
a
≡ −ig
Fµν
(x) .
2
a
(2.4)
(2.5)
Der Antispinor q ist die Kurzschreibweise von q † γ 0 . Der zweite Term in Gleichung 2.2 ist
die Yang-Mills-Lagrangedichte LY M , die die Selbstwechselwirkung der SU (3)C -Eichfelder
beschreibt. Die so definierte Lagrangedichte L1 ist invariant unter lokalen Eichtransformationen g(x) der Form
Aµ (x) → g(x)(Aµ (x) + ∂µ )g † (x),
q A (x) → g(x)q A (x),
wobei g(x) = exp(iω(x)) ist, und ω(x) ∈ su(3)C in der Lie-Algebra su(3)C der SU (3)C
liegen und die Raum-Zeit-abhängigen Parameter der lokalen Eichtransformation
speR g(x)
4
zifizieren. Als Euler-Lagrange-Gleichungen lassen sich aus der Wirkung S1 = d xL1 die
klassischen Feldgleichungen ableiten:
∂µ
δS1
δS1
−
=0
δ(∂µ Aν ) δAν
und
∂µ
δS1
δ(∂µ qα† )
−
δS1
δqα†
= 0.
(2.6)
Man erhält zum einen die Yang-Mills-Gleichungen
∂ µ Fµν + [Aµ , Fµν ] = Jν
(2.7)
mit der Fermionen-Stromdichte Jν und zum anderen die Diracgleichung
/ A = 0.
Dq
(2.8)
Bisher ist die Flavour-Symmetrie noch nicht berücksichtigt worden. Für NF Flavours
wird die Flavourgruppe SU (NF ) angenommen. Da die Lagrangedichte L1 masselose
Quarks beschreibt, ist sie invariant unter chiralen Symmetrietransformationen der Form
SU (NF )R × SU (NF )L × UB (1) × UA (1) [Pag75], mit den rechts- und linkshändigen Komponenten der Quarkfelder qR,L = 21 (1 ± γ5 )q. Dabei entspricht die UB (1)-Symmetrie
der Baryonenzahl-Ladungserhaltung und die UA (1)-Symmetrie der axialen BaryonenzahlLadungserhaltung. Die komplette Symmetrie in der masselosen Theorie ist nicht notwendig und wird auch nicht beobachtet. Die chirale SU (NF ) × SU (NF )-Symmetrie ist nicht
exakt in der realen Welt und kann auch in der QCD leicht gebrochen werden, indem zu
L1 ein Massenterm2 ∆L addiert wird.
∆L = qαA M0AB qαB ,
2
M0AB = δ AB mA
0.
(2.9)
Die Massenmatrix soll nur diagonal sein. In der Defninition von M AB soll auf der rechten Seite nicht
über A summiert werden.
2.2 Eichfixierung und Faddeev-Popov Trick
9
Für die störungstheoretische QCD muss die so entstandende Lagrangedichte L + ∆L
noch um einen eichfixierenden Term Lgauge fix und einen Faddeev-Popov-Ghost-Term Lghost
erweitert werden. Eine Motivation für diese Erweiterung wird im folgenden Abschnitt
gegeben. Der eichfixierende Term stellt eine korrekte Quantisierung sicher, der GhostTerm ist abhängig von der gewählten Eichfixierung und gewährleistet die Unitarität der
S-Matrix. Alle Terme zusammen sind notwendig um eine in sich konsistente Quantenfeldtheorie mit nichtabelschen Eichfeldern zu erhalten [’t 71]. Die komplette Lagrangedichte
lautet dann
LQCD = L1 + ∆L + Lgaugef ix + Lghost .
(2.10)
Diese Lagrangedichte der QCD ist Ausgangspunkt für die Störungstheorie und für gekoppelte Gleichungen, wie die Dyson-Schwinger-Bewegungsgleichung für die Greensfunktionen der Theorie. Die Dyson-Schwinger-Gleichungen bilden dabei eine Methode, die über
die Störungstheorie hinaus geht und mit der es gelingt, Propagatoren nichtstörungstheoretisch zu definieren. Auch wenn man in der Lage ist, die Lagrangedichte für die QCD
anzugeben, bleibt das Problem zu lösen, eine physikalische S-Matrix zu berechnen, die
Eigenschaften wie Endlichkeit, Analytizität, Unitarität und Lorentz-Eichinvarianz aufweist und das Spektrum der Zustände der beobachtbaren hadronischen Welt beschreibt.
Im Folgenden wird nun über die Pfadintegralquantisierung eine Motivation für die beiden
zusätzlich in die Lagrangedichte eingefügten Terme gegeben.
2.2
Eichfixierung und Faddeev-Popov Trick
Mit Hilfe des Pfadintegralformalismus kann eine SU (N )-Eichtheorie quantisiert werden [Fey48, FH65]. Durch die Pfadintegralquantisierung eröffnet sich unter anderem die
Möglichkeit, auf einfache Weise Feynman-Regeln zu gewinnen, um zu einer unitären SMatrix zu gelangen. Eine kurze Skizzierung der Quantisierung soll zunächst mit dem
Fall des stabilen Vakuums beginnen. Am Anfang steht die Quantisierung des kinetischen
Terms des Eichfeldes. Durch Anwendung der Schwingerschen Funktionalableitung [AL73]
lässt sich nun die n-Punkt Greensfunktion als Funktionalableitung
G(x1 , ..., xn ) = h0|T Â(x1 )...Â(xn )|0i
¯
¯
δ n Z[J]
n
¯
= (−i)
δJ(x1 )...δJ(xn ) ¯J=0
(2.11)
(2.12)
des erzeugenden Funktionals mit dem Zeitordnungsoperator T darstellen. Für eine reine
a
F aµν lässt sich das erzeugende
Yang-Mills-Theorie mit der Lagrangedichte LY M = − 41 Fµν
Funktional aus Gleichung2.12 als Pfadintegral darstellen
µ Z
¶
Z
−1
4
Z[J] = N
[dA] exp i d x [LY M (x) + J(x) · A(x)] .
(2.13)
N ist ein Normierungsfaktor, der sicherstellen soll, dass Z[0] = 1 gilt. J(x) ist eine externe Quelle und [dA] repräsentiert das Funktionalintegrationsmaß über alleQFeldkonfigurationen. Zum Integrationsmaß Q
[dA] tragen die Feldkomponenten [dA] = µ,a [dAaµ ] an
a
verschiedenen Punkten [dAµ ] = x dAaµ (x) bei. Ohne die Quellen J · A = Aaµ J aµ ist das
Funktional
Z
−1
Z[0] = N ∝ [dA] exp (iSYM )
(2.14)
10
Kapitel 2
Motivation der Eichfixierung
R
mit SYM = d4 xLYM eichinvariant. Die Funktionalintegration
[dA] kann in eine IntegraQ
a
tion über die Eichgruppe, symbolisiert durch [dσ] = a [dσ ], und über alle Feldkonfigurationen in der jeweiligen Eichung, symbolisiert durch [dA[σ]] zerlegt werden:
Z
Z
−1
Z[0] = N
[dσ] [dA[σ]] exp (iSA [σ])
(2.15)
Die σ a stellen eine Parametrisierung der Gruppe dar. Die Möglichkeit, die Felder zu eichen, ohne dabei die Wirkung zu ändern, stellt ein Problem dar. Ausgehend von einer
gegebenen Feldkonfiguration Abµ (x), lässt sich ein Eichorbit OA im Aaµ -Raum erzeugen.
Die Pfadintegration in einer bestimmten Eichung liefert immer das gleiche Ergebnis. Die
unendliche Anzahl von möglichen Pfaden im Eichorbit führt so zu einer Divergenz der Integration über die kontinuierliche Gruppe der Eichung. Die Integration über eichinvariante
Pfade lässt sich durch die Einführung einer Eichfixierung
Gabµ Abµ = B a
(2.16)
vermeiden. Dabei ist Gabµ ein auf A wirkender Operator und B a eine Funktion der Raumzeit. Mit einer solchen Eichfixierung kann der Eichorbit auf die Feldkonfigurationen Abµ [σ]
eingeschränkt werden, die Gabµ Abµ [σ] = B a erfüllen. Durch diese Bedingung wird die
Lösung im Allgemeinen noch nicht eindeutig festgelegt, da das QCD-Vakuum für gewöhnlich eine nichttriviale Topologie hat. Diese Mehrdeutigkeit ist auch als Gribov-Ambiguity
bekannt [Gri78]. Um die Eichfixierung in die Pfadintegralquantisierung mit einzubeziehen,
soll nur über solche Pfade integriert werden, die die Eichbedingung 2.16 erfüllen. Dies
geschieht durch das Einfügen einer Identität in Gleichung 2.14. Hierfür wird zunächst
implizit ein Funktional ∆G [A] definiert, in das die Eichbedingung als Argument einer
funktionalen δ-Distribution eingeht [Die03]:
Z Y
£
¤
1 = ∆G [A]
[dσ a ]δ (n) Gabµ Abµ [σ] − B a
(2.17)
a
Einsetzen in Gleichung 2.14 ergibt
Z
Z Y
¤
£
−1
[dσ a ]δ (n) Gabµ Abµ [σ] − B a exp (iSA ) .
[dA]∆G [A]
Z[0] = N
(2.18)
a
Da bis auf die Deltadistribution alle Größen eichinvariant sind, lässt sich die durch die
Eichung spezifizierte Feldkonfiguration Aaµ [σ] durch die allgemeinen Aaµ ersetzen, und man
erhält
Z
Z YY
¢ª
© a ¡ abµ b
−1
[dA]∆G [A]
(2.19)
Z[0] = N
dσ δ G Aµ (x) − B a (x) exp (iSA ) .
a
x
RQ Q
a
Der unendliche Faktor
a
x dσ (x) kann aus obigem Ausdruck herausgezogen werden
und wird in die Normierungskonstante einbezogen. Dadurch erhält man eine modifizierte
Definition des erzeugenden Funktionals in der Form:
Z
Z Y
¡
¢
−1
[dA] ∆G [A]
Z[0] = N
δ Gabµ Abµ − B a exp (iSA ) .
(2.20)
|R {z }
a,x
∝ exp(...)
|
{z
}
∝ exp(...)
2.2 Eichfixierung und Faddeev-Popov Trick
11
In dieser Definition ist bereits angedeutet, dass sich sowohl das Funktional ∆G als Grassmannintegral einer Eponentialfunktion, als auch die Deltadistribution durch eine Exponentialfunktion ausdrücken lassen. Die Exponenten der verschiedenen Exponentialfunktionen lassen sich dann zusammenfassen und werden eine effektive Wirkung ergeben. Der
Weg dorthin soll im Folgenden beschrieben werden.
Zunächst erlaubt es die Linearität der Eichbedingung, die Deltadistribution in Gleichung 2.20 durch ein Exponential zu ersetzen [Lee75],
µ Z
¶
Y
¢
¡ abµ b
−i
4
a 2
(2.21)
δ(...) → exp
d x G Aµ − B
α∈ .
2α
a,x
Mit Wiedereinführung des äußeren Flusses gewinnt man so ein erzeugendes Funktional
der Form
¶¸
· Z
µ
Z
¢
1 ¡ abµ b
a 2
−1
4
G Aµ − B
+ J(x) · A(x) .
Z[J] = N
[dA]∆G [A] exp i d x LY M −
2α
(2.22)
Wertet man nun die Definition 2.17 aus, so lässt sich das Funktional ∆G [A] als Determinante einer Matrix MG schreiben [Lee75]. Diese ist gegeben durch
MGab (x, y) =
δGacµ Acµ [σ(x)]
.
δσ b (y)
(2.23)
Durch die Einführung von antikommutierenden Grassmannzahlen C̄a und Ca kann die
Determinante auch als Exponential
¾
½ Z
Z
£ ¤
4
4
a
ab
b
det MG = [dC] dC̄ exp i d xd y C̄ (x)MG (x, y)C (y)
(2.24)
geschrieben werden [Ber66, Lee75]. Die Determinante wird als effektive Wechselwirkung
der neu eingeführten Faddeev-Popov-Geistfelder C und C̄ interpretiert und im erzeugenden
Funktional 2.20 entsteht ein zusätzlicher Term Sghost zur klassischen Wirkung,
Z
Z
4
(2.25)
Sghost = d xLghost = d4 xd4 y C̄a(x)MGab (x, y)C b (y)
Nimmt man nun noch Quellen für die Antigeist- und Geistfelder hinzu, indem man zusätzliche Grassmannzahlen σ und σ̄ einführt, erhält man als Ergebnis des Tricks von Faddeev
und Popov [FP67] das erzeugende Funktional einer reinen Yang-Mills-Theorie:
¶
µ
Z
Z
x
0
b
−1
(2.26)
[dAµ ][dC̄][dC] exp iSef f + i d (J · A + σ̄C + C̄σ) .
Z[J, σ, σ̄] = N
mit der effektiven Wirkung
0
Seff
SYM
Sgauge fix
Sghost
=
=
=
=
S
+ Sgaugef ix + SghostR
RYM
a
4
F aµν
d xL
= − 41 d4 xFµν
¢
¡
R
R 4 YM
1
4
abµ b
a 2
R d4 xLgauge fix = R− 2α4 d4 x aG Aabµ − B b
d xLqhost
=
d xd y C̄ (x)MG (x, y)C (y)
(2.27)
12
Kapitel 2
Motivation der Eichfixierung
Man erkennt, dass Sgauge fix und Sgauge fix eichabhängig sind, da sie die Eichbedingung
explizit enthalten. Um ein besseres Bild von diesen formalen Ausdrücken zu gewinnen,
sollen nun am Beispiel der Landau-Eichung (Gabµ = δ ab ∂ µ und B a ≡ 0) angegeben werden,
wie sich obige Größen berechen. Für die Matrix MGab erhält man in Landau-Eichung
MGab (x, y) = ∂ µ Dµ δ (4) (x − y) = (δ ab ∂ µ ∂µ + gf abc ∂ µ Acµ )δ (4) (x − y),
(2.28)
woraus mit partieller Integration der Determinante die Darstellung der Ghost-Wirkung
folgt. In den eichfixierenden Term braucht nun nur noch die Eichbedingung, B a ≡ 0,
eingesetzt werden und man erhält die folgenden Ausdrücke
R
Sghost
= − dR4 x(∂ µ C̄(x))Dµ C(x)
1
Sgauge fix = − 2α
d4 x(∂ µ Aaµ )2
Zur Quantisierung der Fermionen wird erneut das Konzept der Grassmanvariablen
benötigt. Auf diese Weise wird der antikommutierenden Natur der Feldoperatoren Rechnung getragen. Das vollständige erzeugende Funktional ist dann
Z[J, η, η, σ, σ̄] =
µ
¶
Z
Z
4
−1
b
N
[dAµ ][dq][dq][dC][dC̄] exp iSef f + i d x(J · A + ηq + qη + σ̄C + C̄σ)
0
mit Seff = Seff
+ Sfermion und dem fermionischen Anteil der Wirkung aus Gleichung 2.2
Z
(2.29)
Sfermion = d4 x (q ((∂µ + Aµ )γ µ + m0 ) q) .
Die Verwendung des erzeugenden Funktionals muss nun noch etwas modifiziert werden.
Da die Quellen η und q Grassmann-wertig sind, ist auf zusätzliche Vorzeichen zu achten,
so dass zum Beispiel für die Zweipunkt-Greensfunktion gilt:
h0|T q̂α (x)q̂(y)|0i =
δ 2 Z[J, η, η]
(i)2
Z[0, 0, 0] δ(+η α )δ(−ηβ (y))
(2.30)
Im Folgenden sollen die grundlegenden Propagatoren berechnet werden. Dazu wird
das erzeugenden Funktional in einen freien Anteil Z f und einen wechselwirdenken Anteil Z W W zerlegt. Der freie Anteil enthält alle Terme zweiter Ordnung in den Feldern.
Um eine Separierung zu erreichen, werden die Felder im wechselwirkenden Anteil durch
Funktionalableitungen nach den Quellen ersetzt.
¶¶
µ
µ
δ
δ
δ
δ
δ
Z[J, η, η, σ, σ̄] = exp iSW W
,
,
,
,
,
Z f [J, η, η, σ, σ̄]
iδJ aµ iδσ̄ a iδ(−σ a ) iδη iδ(−η)
(2.31)
f
f
f
Der freie Anteil Z f [J, η, η, σ, σ̄] = Zgauge
[J] · Zghost
[σ, σ̄] · Zfermion
[η, η] faktorisiert weif
ter in Anteile für das Eichfeld mit dem Beitrag der Eichfelder Zgauge
, in Anteile für die
f
f
Faddeev-Popov-Geister Zghost und in Anteile für die Fermionen Zfermion . Die erzeugenden
2.2 Eichfixierung und Faddeev-Popov Trick
13
Funktionale für die unterschiedlichen freien Felder sind nach dieser Faktorisierung wie
folgt gegeben
³ R
´
R
f
= [dA] exp i d4 x(LfYM + Lfgauge fix + A · J) ,
Zgauge
³ R
´
R
f
f
∗
4
Zghost
= [dC][dC ] exp i d x(Lghost + C̄ · σ + σ̄ · C) ,
³ R
´
R
f
Zfermion = [dq][dq] exp i d4 x(Lffermion + qη + ηq)
mit den Lagrangedichten in Landau-Eichung
Lfgauge fix + LY M = − 21 Aaµ K abµν Abn u mit K abµν (x) =
=
Lfghost
Lffermion
= −C̄ a M ab C b
mit
M ab (x) =
= qΛq
mit
Λ(x) =
¯
∂2L ¯
b ¯
∂Aa
µ ∂Aν A=C ∗ =...=0
ab
δ (−g¯µν ∂ τ ∂τ + (1
∂2L ¯
b¯
∂ C̄ a ∂C
¯ C̄=C=...=0
∂2L ¯
∂q∂q ¯
q=q=A=...=0
− α−1 )∂ µ ∂ν ) ,
= δ ab ∂ µ ∂µ ,
= i∂/ + m0 .
Die freien Propagatoren der Teilchen, Gluonpropagator , Ghostpropagator und Quarkpropagator lassen sich nun als Inverse der durch die Funktionalableitung definierten Operatoren definieren.
K caλρ gρµ Dabµν (x − y) = δ cb gρν δ (4) (x − y)
M ca Gab (x − y) = δ cb δ (4) (x − y)
ΛS(x − y) = δ (4) (x − y)
(2.32)
(2.33)
(2.34)
Man erhält die freien Propagatoren in Landau-Eichung. Ihr Wert ist von der Eichung
abhängig, was umgekehrt bedeutet, dass die Propagatoren nur definiert sind, wenn vorher
eine Eichfixierung durchgeführt wurde.
Im folgenden Kapitel soll der Übergang von der kontinuierlichen Eichtheorie zu einer
Gittereichtheorie vollzogen werden und grundlegende Größen definiert werden. Da auf dem
Gitter Propagatoren berechnet werden sollen, wird es auch auf dem Gitter notwendig sein,
eine Eichung zu fixieren.
Ein wichtiger Schritt auf dem Weg zu einer Gittereichtheorie ist die Wick-Rotation .
die Konvergenz der Integrale im Pfadintegralformalismus ist auf Grund von ungedämpften
Oszillationen der Exponentialfunktion nicht automatisch sichergestellt. Als Ausweg wird
die Zeit in der komplexen Ebene um einen negativen Winkel gedreht. Dadurch erhält der
Exponent einen dämpfenden Realteil und die Konvergenz wird erzwungen. Voraussetzung
für diese Transformation ist, dass im überstrichenen Bereich der komplexen t-Ebene keine Singularitäten liegen. Nur dann ist eine analytische Fortsetzung möglich, so dass das
Ergebnis nicht mehr vom Winkel der Drehung abhängt. Bevor man zu einer Gitterformulierung der Eichtheorie übergeht, wird die Zeit um den Winkel π2 gedreht, wodurch sich
eine imaginäre Zeit ergibt. Es findet ein Übergang vom Minkowski-Vektor xµ = (x0 , ~x)
zum Koordinatenvektor (x1 , x2 , x3 , x4 = ix0 ) statt. Durch die Forderung x4 ∈ bilden die
so gewonnenen Vektoren einen euklidischen Raum. Diese Transformation zu imaginären
Zeiten wird Wick-Rotation genannt und ist die Voraussetzung der im Folgenden vorgestellten Gitterdiskretisierung.
14
Kapitel 2
Motivation der Eichfixierung
Kapitel 3
Diskretisierte Eichtheorien
3.1
Einführung in die Gittereichtheorie
Gittereichtheorien sind geeignet für eine nichtstörungstheoretische Behandlung abelscher
und nichtabelscher Theorien. Sie bieten die Möglichkeit, physikalische Größen wie Korrelationsfunktionen ohne Nutzung der Störungstheorie zu berechnen. Im folgenden Abschnitt
wird zunächst beschrieben, wie die Diskretisierung selbst durchgeführt wird und wie sich
Eichpotential und Eichtransformation im Gittermodell definieren lassen. Danach werden
einige Beispiele diskretisierter Eichbedingung gegeben, wobei der Schwerpunkt auf der
Landau-Eichung liegt. Abschließend werden Konzepte zur Fixierung der Landau-Eichung
auf dem Gitter vorgestellt und wichtige Größen vorgestellt, die die statistischen Prozesse
charakterisieren und anhand derer sich Aussagen über die Effizienz der Fixierungsmethode
treffen lassen.
Gittereichtheorien sind auf einer diskretisierten Raumzeit definiert. Die in der Arbeit verwendete Diskretisierung geht auf die von Wilson eingeführte Formulierung zurück
[Wil74], in der die Links Uµ (x) zwischen den Gitterpunkten eines Raum-Zeit-Gitters die
fundamentalen Freiheitsgrade der Theorie sind (Abbildung 3.1). Die herkömmliche Definition der Eichfelder ist durch
Uµ (x) = Peig0
R x+eµ
x
Aµ (z)dz
= eig0 aAµ (x+eµ /2) + O(a3 )
(3.1)
gegeben, wobei P der Pfadordnungsoperator und g0 die nackte Kopplung ist. Die Definition leitet sich aus der Interpretation der Uµ (x) als Paralleltransporter auf dem Gitter ab.
Der Vektor eµ wird hier und im Weiteren für den Vektor der Länge a in µ-Richtung stehen. In einigen Fällen wird auch eine Definition des Gittereichpotentials benötigt. Dieses
ist gegeben durch
#
"
Uµ (x) − Uµ† (x)
+ O(a2 ).
(3.2)
Aµ (x + eµ /2) =
2iag0
spurlos
Da Beziehung 3.2 und 3.1 nur im Limes a → 0 übereinstimmen müssen, sind auch andere
Definitionen für das Gittereichpotential möglich.
Die auf dem Gitter definierten Uµ (x) sind Elemente der SU (N )C Eichgruppe1 in ihrer
1
Der Index C soll auf den physikalischen Hintergrund hinweisen, dass es sich um einen Farbindex
handelt. Er wird im Folgenden nur noch verwendet, wenn nicht bereits aus dem Kontext hervorgeht, um
welches N es sich handelt.
15
16
Kapitel 3
Diskretisierte Eichtheorien
Fundamentaldarstellung. Unter den auf den Gitterpunkten definierten Eichtransformationen g(x) transformieren sie sich mit:
Uµg (x) = g(x)Uµ (x)g † (x + eµ ).
(3.3)
Eichtransformierte von aus den Eichfeldern abgeleiteten Größen lassen sich durch Einsetzen der U g (x) anstelle der U (x) berechnen. Eichtransformierte Größen werden analog
zum Eichfeld mit dem Index g der Eichtransformation gekennzeichnet.
Die Anordnung der Eichkonfigurationen U und Eichtransformationen g auf einer diskretisierten Raum-Zeit ist in Abbildung 3.1 anhand eines zweidimensionalen Schnittes
dargestellt.
q
g(x +q e2 )
q
U2 (x)
q
U−1 (x)
U (x)
g(x) 1
g(x + e1 )
U−2 (x)
q
q
q
g(x − e2 )
Abbildung 3.1: Freiheitsgrade der Eichtheorie auf dem Gitter
Auf den Gitterpunkten sind die Eichtransformationen definiert. Die Links, auf denen
die fundamentalen Eichfelder definiert sind, werden durch Verbindungslinien gekennzeichnet. Auf Grund von Definition (3.1) gilt:
U−µ (x) = Uµ† (x − eµ ).
(3.4)
Die einfachste eichinvariante Größe, die sich auf dem Gitter definieren lässt, ist die
Plaquette
Pµν (x) = Uµ (x)Uν (x + eµ )Uµ† (x + eν )Uν† (x).
(3.5)
Sie beschreibt das pfadgeordnete Produkt von Link-Variablen um die kleinste Schleife
auf dem Gitter. Für eine Yang-Mills-Eichtheorie lässt sich daraus die Wilson-Wirkung für
SU (N )-Gittereichtheorien definieren
¶
XXµ
1
SW [U ] = β
1 − Re tr Pµν (x) .
(3.6)
N
x µ<ν
Der Parameter β ist der einzige freie Parameter der Theorie. Es wird nun gezeigt, dass
die Wilson-Wirkung im Kontinuumslimes in die Yang-Mills-Wirkung übergeht.
a
Mit der Darstellung der Eichfelder Uµ (x) = e−iagAµ (x) und der Feldstärke Fµν
= ∂µ Aaν −
∂ν Aaµ + gf abc Aaµ Acν lässt sich die Plaquette in Termen von Fµν entwickeln2
1
Pµν (x) = − a2 gFµν + a4 Fµν Fµν ± ...
2
2
(3.7)
In dieser Entwicklung soll auf der rechten Seite keine Summation über µ und ν durchgeführt werden.
3.1 Einführung in die Gittereichtheorie
17
Vollzieht man nun die Spurbildung in der Wilsonwirkung und beachtet, dass tr Fµν = 0, so
sieht man, dass im Kontinuumslimes a → 0 für hinreichend glatte Eichfelder die klassische
Yang-Mills-Wirkung gewonnen wird
Z
g2 b b
F F ,
(3.8)
SW −→ −β d4 x
a→0
8NC µν µν
wenn die Kopplungskonstante g durch β = 2N
bestimmt ist. Das erzeugende Funktional
g2
lässt sich nun formal wie folgt auf dem Gitter definieren
Z
lat.
Z = [dU ]e−SW [U ] ,
(3.9)
wobei das Integrationsmaß [dU ] durch
Z
YZ
[dU ] =
dUµ (x)
(3.10)
x,µ
gegeben ist. Es ist das Haarsches Maß der Lie-Gruppe. Eine genauere Beschreibung des
Haarschen Maßes wird in Anhang A.3 gegeben.
3.1.1
Observable
Nun lässt sich auch der Erwartungswert einer Observable O durch
Z
−1
[dU ]O[U ]e−SW [U ]
hOlattice i = Z
(3.11)
angeben. Der Ausdruck beinhaltet im Falle der Gittereichtheorie ein hochdimensionales
Integral über eine kompakte SU (N )-Gruppe. In Simulationen wird dieses Integral in Form
einer Monte-Carlo-Integration
ausgeführt. Dabei werden Konfigurationen mit dem Maß
P
−SW
−β (...)
3
e
∝e
erzeugt , so dass nur noch über diese Konfigurationen gemittelt werden
muss. Der Erwartungswert der Observable schreibt sich daher auch als
hOlattice iM C =
1
NKonf
NX
Konf
Oi .
(3.12)
i=1
Die Methode, die Integration mit einem Maß in eine einfache Sequenz von Zufallsvariablen umzuwandeln, die bereits mit diesem Maß generiert wurden, wird auch Importance
Sampling genannt. Der Kontinuumslimes einer solchen Observablen kann nur als Limes
kleiner werdender Gitterabstände a bei gleichzeitig wachsendem Gittervolumen V
hOi = lim lim hOlattice iM C
V →∞ a→0
(3.13)
erhalten werden. Nun ist die Wilson-Wirkung SW bereits per Definition eichinvariant,
so dass in der Gittereichtheorie im Hinblick auf die Berechnung eichinvarianter Observablen Eichfixierung und die Einführung von Eich- und Geisttermen nicht mehr notwendig
erscheinen.
3
Um Konfigurationen mit einer Boltzmannverteilung erzeugen zu können, wird auf einen Metropolisoder auf einen Heatbath-Algorithmus zurückgegriffen, der beim Weiterlesen in der Beschreibung des Simulated Annealings auftauchen wird.
18
Kapitel 3
3.1.2
Diskretisierte Eichtheorien
Propagatoren
Im Folgenden werden die Berechnungen von Ghost- und Gluon-Propagatoren in der Gittereichtheorie skizziert. Diese Teilchen unterliegen dem Confinement und dies spiegelt
sich im Propagator wider. Wie schon bei der Definition dieser beiden Propagatoren im
Kontinuum angedeutet wurde, handelt es sich um eichabhängige Größen. Bestimmte Eigenschaften4 dieser Propagatoren lassen sich als Folge der nichttrivialen Vakuumstruktur
ansehen. Sie kehren auch in der Gitterdiskretisierung wieder und lassen sich in Zusammenhang mit der Existenz von Monopolen bzw. Vortizes im Vakuum bringen. Im Folgenden
werden die Propagatoren in der Landaueichung diskretisiert.
Gluon-Propagator
Der Gluonpropagator ist als Zwei-Punkt-Greensfunktion der Gluonfelder Aµ (x) definiert.
Die diskretisierte Definition des Gluon-Propagators ist entsprechend durch
­
®
ab
Dµν
(x − y) = Aaµ (x)Abν (y) M C
(3.14)
gegeben. Der Index M C steht für die Monte-Carlo-Mittlung auf dem Gitter. Die Art der
Eichfixierung ist in diesem Fall implizit in der Konstruktion der Eichpotentiale Aµ (x)
enthalten.
Der Propagator im Ortsraum ist eine schnell fallende Funktion, wodurch das genaue
Verhalten bei großen Distanzen kx−yk durch statistisches Rauschen verdeckt wird. Stattdessen wurde die Messung des Propagators im Impulsraum vorgeschlagen [Zwa91, Cuc99].
Im Kontinuum wird der Übergang zum Impulsraum in euklidischer Formulierung durch
die Fouriertransformation erreicht
Z
ab
Dµν (p̂) = −i d4 xh0|P[Aaµ (x)Aaν (0)]|0i exp(ip̂x)
(3.15)
mit dem Pfadordnungsoperator P. Es ist günstig, diesen Propagator in einen transversalen
und einen longitudinalen Anteil zu zerlegen:
·µ
¶
¸
p̂µ p̂ν
p̂µ p̂ν dl (p̂2 )
ab
ab
2
δµν − 2
Dµν (p̂) = −iδ
dt (p̂ ) + α 2
(3.16)
p̂
p̂
p̂2
Die skalare Funktion dl (p̂2 ) reduziert sich für linear kovariante Eichungen auf eine Konstante. In der Landau-Eichung verschwindet der zweite Term wegen α = 0 sogar komplett.
Auch der Gluonpropagator in der SU (N )-Gittereichtheorie kann mittels einer Fouriertransformation in analoger Weise im Impulsraum gegeben werden:
ab
Dµν
(p̂k ) =
1 X ab
D (x − y) exp(ip̂(x − y)))
V x,y µν
mit p̂k =
2π
nk ,
Lk a(β)
(3.17)
wobei nk die Matsubara-Moden in k-Richtung sind und Lk die Zahl der Gitterpunkte in in
dieser Richtung bezeichnet5 . Der Gluonpropagator in Landau-Eichung ist diagonal in den
4
Dies sind bestimmte Analytizitätseigenschaften, verstärkte Singularitäten bzw. das Verschwinden im
Infrarotbereich.
5
Die Abhängigkeit des Gitterabstandes von β ist zum Beispiel in [BCLM03, GM84] untersucht.
3.1 Einführung in die Gittereichtheorie
19
Farbladungen und transversal bezüglich p̂ im Impulsraum. Die wesentliche Information
steckt dann in dem durch
X
F (p2 )
p2
a,µ
X­
®
Aaµ (p̂)Aaµ (−p̂) M C
=
D(p̂) =
aa
Dµµ
(p̂) =:
(3.18)
(3.19)
a,µ
definierten Propagator mit den durch periodische Fouriertransformation definierten
Gluonfeldern. Da die Gitterausdehnung in jeder Richtung durch Lk · a(β) beschränkt
π
ist, ist auch im Impulsraum ein Ultraviolettcutoff durch λ = α(β)
gegeben. Die Fouriertransformierte des Gluonfeldes ist
1 X
A(p̂) := √
A(x + eµ /2) exp(ip̂(x + eµ /2))
V p
1 X
= √
A(x + eµ /2) [cos(p̂(x + eµ /2)) − i sin(p̂(x + eµ /2))] ,
V p
woraus sich nach Einsetzen in Gleichung 3.19 der Propagator zu
!2 Ã
*Ã
!2 +
X
X
1 X
Aaµ (x + eµ /2) cos(p̂(x + eµ /2)) +
Aaµ (x + eµ /2) sin(p̂(x + eµ /2))
D(p̂) =
V a,µ
x
x
MC
(3.20)
berechnet.
Ghostpropagator
Der Ghostpropagator G ist durch Inversion des inversen Faddeev-Popov-Operators M
gegeben (vgl. Gleichung 2.33) und nimmt auf dem Gitter die Form
D¡
E
¢
ab
−1 ab
G(x − y)δ = M
(x, y)
(3.21)
MC
an. Er ist im Impulsraum durch
G(p̂)δ
ab
=
1
√
adj
NC
V
X
x,y
−ip̂(x−y)
e
D¡
M
¢
−1 ab
E
(x, y)
MC
(3.22)
gegeben. Auch hier ist die Eichabhängigkeit implizit in der Definition des Faddeev-PopovOperators enthalten und darf nicht vernachlässigt
P werden. Der Faddeev-Popov-Operator
in Landau-Eichung ist die Hessische Matrix von xmµ Re[tr(Uµ (x))], wie sich später zeigen
wird. Er ist eine symmetrische positiv semidefinite Matrix und kann mittels des Verfahrens
der konjugierten Gradienten invertiert werden. Für den Ghostpropagator wird durch die
implizite Definition
ZG (p2 )
G(p) ∝
(3.23)
p2
die Strukturfunktion ZG gegeben, anhand derer im Weiteren gezeigt wird, warum die
Eindeutigkeit der Eichfixierung wichtig ist.
20
Kapitel 3
3.2
Diskretisierte Eichtheorien
Eichfixierung
Auch wenn Eichfixierung nicht notwendig ist, um die Wohldefiniertheit des Funktionalintegrals auf dem Gitter zu gewährleisten, wird sie im Kontinuumslimes wichtig beim
Verständnis des Zusammenhangs von Kontinuums- und Gittereichtheorie. Im Kontinuum
ist die Betrachtung von eichabhängigen Korrelationsfunktionen und die Untersuchung
von Propagatoren, wie dem Gluon-, Ghost- oder Quarkpropagator ohne Fixierung der
Eichung nicht möglich. Sollen diese Größen ebenfalls auf dem Gitter untersucht werden,
ist auch hier die Eichung zu fixieren, schon um die Eindeutigkeit des Kontinuumslimes zu
gewährleisten.
Im Folgenden werden daher einige wichtige Eichbedingungen und ihre Umsetzung
in der Gittereichtheorie vorgestellt (für eine ausführlichere Zusammenstellung vgl. z.B.
[GPP+ 01]). Begonnen wird mit der gewöhnlichen kovarianten Eichung, anhand derer die
Hauptidee der Eichfixierung auf dem Gitter über die Maximierung eines Eichfunktionals
eingeführt wird. Dass nicht alle Eichungen auf dem Gitter auf einer solchen Maximierung
beruhen, wird anhand der Laplace-Eichung gezeigt. Im weiteren Verlauf werden mit der
maximal abelschen Eichung und der maximalen Zentrumseichung Eichbedingungen vorgestellt, die bei der Beschreibung des QCD-Confinement von Bedeutung sind. An ihrem
Beispiel wird eine Methode vorgestellt, mit Hilfe von SU (2) Algorithmen auch SU (3) Gittereichtheorien eichfixieren zu können. Der letzte und größte Teil dieses Abschnitts widmet
sich der in der Arbeit betrachteten Landau-Eichung und dem Problem der Gribov-Kopien.
3.2.1
Gewöhnliche kovariante Eichung
Die Faddeev-Popov Quantisierung für die kovariante Eichung wird durch Fixierung der
Eichbedingung
∂µ Agµ (x) = Λ(x)
(3.24)
erreicht, wobei Λ(x) fest vorgegeben ist und Werte in der Lie-Algebra der Eichgruppe
annimmt. Die entscheidende Idee zur Fixierung der Eichbedingung besteht darin, die partielle Differentialgleichung (3.24) als Variationsproblem δH[g] zu formulieren, das (3.24)
impliziert. Dazu sucht man ein Funktional HA [g], das einen kritischen Punkt6 erreicht, falls
Gleichung 3.24 erfüllt ist. Anstelle der Lösung der Differentialgleichung (3.24) wird dann
die numerisch besser zu lösende Extremwertaufgabe betrachtet. Diese Idee liegt auch den
meisten der im Folgenden vorgestellten Eichungen zu Grunde. Für die kovariante Eichung
ist dieses Funktional
Z
¤
£
(3.25)
HA [g] = d4 x tr (∂µ Agµ − Λ)† (∂ν Agν − Λ)
und mit
g(x) = eiω(x)
(3.26)
gilt in der Tat
6
¤b
£
δHA [g]
= 2Φab (ω) Dν ∂ν (∂µ Agµ (x) − Λ(x)) ,
a
δω
(3.27)
Transformationen g werden als kritische Punkte von H bezeichnet, falls das Differential von H dort
nicht surjektiv ist.
3.2 Eichfixierung
wobei
21
·
eγ − Φ (ω) =
γ
ab
¸ab
γ ab = f abc ω c .
HA [g] erreicht demnach einen kritischen Punkt, falls
∂µ Agµ (x) − Λ(x) = 0
(3.28)
gilt. Die Umkehrung gilt jedoch im Allgemeinen nicht, so dass zusätzlich ausgeschlossen
werden muss, dass HA [g] auch kritische Punkte mit der Eigenschaft
∂µ Agµ (x) − Λ(x) = konst.
(3.29)
aufweist. Für periodische Randbedingungen kann dies gezeigt werden (vgl. [Giu97]).
Eine gebräuchliche, diskretisierte Form dieses Funktionals ist
HU [g] =
mit
1 X g
tr
J (x)J g† (x)
V
x
(3.30)
J(x) = N (x) − igP
0 Λ(x),
¢
¡
N (x) = −8 · + ν Uν† (x − eν ) + Uν (x) ,
das für seine Minima die diskretisierte Eichbedingung erfüllt. Die genaue Form der diskretisierten Eichbedingung ist zum Beispiel in [Giu97] zu finden. Lösungsmethoden für
die resultierenden Extremwertaufgaben werden in einem späteren Abschnitt am Beispiel
der Landau-Eichung vorgestellt.
3.2.2
Laplace-Eichung
Als Alternative zu den Standardeichfixierungsmethoden soll nun die Laplace-Eichung vorgestellt werden. Ziel der Laplace-Eichung ist eine Eichbedingung, die eindeutig fixierbar ist, um Probleme mit ungewollten Lösungen der Funktionalmaximierung, wie den
später vorgestellten Gribov-Kopien der Landau-Eichung, zu vermeiden. Weiterhin soll die
Laplace-Eichung zu einer möglichst glatten Konfiguration führen.
Zunächst wird der kovariante, positiv semidefinite Laplaceoperator als
X£
¤
2δ(x − y)δ ab − Uµab (x)δ(x + eµ − y) − Uµab† (y)δ(y + eµ − x) . (3.31)
∆[U ]ab (x, y) =
µ
definiert. Die Eigenfunktionen fi von ∆[U ] ergeben sich folglich aus der Eigenwertgleichung
X
∆[U ]ab (x, y)fib (y) = λi fia (x)
(3.32)
b,y
mit den Eigenwerten λi ≥ 0. Für ein nicht entartetes Spektrum sind diese Eigenfunktionen
bis auf globale Phasenverschiebungen orthogonal, eindeutig und transformieren sich unter
einer Eichtransformation g wie fi (x) → g(x)fi (x), wodurch sich ein Gl (N ) Matrixfeld
£
¤
M (x) := f1 · · · fN (x),
fi (x) ∈ N
(3.33)
22
Kapitel 3
Diskretisierte Eichtheorien
definieren lässt, das sich wie eine Eichtransformation verhält7 . Das Transformationsverhalten von M hängt dabei nicht von der Wahl der Eigenfunktionen ab. Um jedoch die
glattesten zu wählen, entscheidet man sich für die mit den kleinsten Eigenwerten. Im
Allgemeinen liegen die M (x) ∈ Gl (N ) nicht in der Eichgruppe. Es ist jedoch mittels
Polarzerlegung invertierbarer Operatoren möglich, M derart zu zerlegen, dass gilt
†
M (x) = g∆
(x)R(x)
mit g∆ ∈ SU (N ).
(3.34)
Die so gewonnene Eichtransformation g∆ fixiert die Laplace-Eichung. Der mathematische
Hintergrund der Polarzerlegung ist in Anhang A.4.3 dargestellt. Das Entscheidende dieser
Eichfixierungsmethode ist jedoch, dass sie nicht auf der Maximierung eines Funktionals
beruht und sich dadurch von den anderen vorgestellten Eichfixierungen unterscheidet.
3.2.3
Maximal Abelsche Eichung
Die maximal abelsche Eichung lässt sich sehr gut für eine SU (2) Eichtheorie beschreiben
[BBMPS96, STW02]. Am Beispiel der maximal abelschen Eichung soll dann auch gezeigt
werden, wie für SU (3)-Eichtheorien eine Eichfixierung umgesetzt werden kann, die auf
SU (2)-Untergruppeneichfixierungen basiert.
Die maximal abelsche Eichung spielt eine entscheidende Rolle für das Verständnis
des Bildes der Flussschläuche in der Beschreibung des Confinement Mechanismus. Ziel
der maximal abelschen Eichung ist es, die Eichfreiheitsgrade derart zu fixieren, dass die
Symmetrie unter der maximal abelsche Untergruppe (U N −1 (1) für SU (N )) ungebrochen
bleibt. Wird in einer SU (2) Eichtheorie A3µ als abelsches Feld gewählt, so sind die Eichbedingungen
¢
¡
(3.35)
∂µ ± iA3µ A±
µ = 0
1
2
√1
mit A±
µ = 2 (Aµ ± iAµ ) zu erfüllen. Auch diese Eichbedingung lässt sich als Extremwertproblem formulieren, so dass Eichtransformationen, die das Eichfunktional
Z
¡
¢
GU [g] = d4 x (A1µ )2 + (A2µ )2
(3.36)
minimieren, auch die Eichbedingung 3.35 erfüllen. In einer Gittereichtheorie wird die
diskretisierte Form dieses Eichfunktionals verwendet:
X ¡
¢
GU [g] =
tr σ3 Uµg (x)σ3 Uµg † (x) .
(3.37)
x,µ
Die Fixierung dieser Eichung ermöglicht die Nebenklassezerlegung der Konfiguration
Uµ (x) = Cµ (x)Vµ (x),
in der sich, unter Berücksichtigung von U (1) Restklassentransformationen, Vµ (x) =
exp(iΦµ (x)τ3 ) wie ein neutrales Eichfeld und Cµ (x) wie ein geladenes Materiefeld verhält.
Das so gewonnene abelsche Eichfeld Vµ (x) kann nun zur Untersuchung der abelsch approximierten Erwartungswerte von Wilson- und Polyakov-Loops und zur Untersuchung
topologischer Größen wie magnetischen Monopolströmen genutzt werden.
7
Unter einer Eichtransformation g verhält sich M wie M (x) → g(x)M (x), da sich die Spalten in dieser
Weise transformieren.
3.2 Eichfixierung
23
Besonders eingegangen werden soll in diesem Abschnitt jedoch auf die Nutzung der
Eichfixierung aus SU (2)-Eichtheorien für die SU (3)-Eichtheorie.
In einer SU (3)-Eichtheorie gibt es zwei abelsche Eichfelder, A3µ und A8µ . Mit der Wahl
der abelschen Eichfelder werden die SU (2) Untergruppen I, V und U mit den zugehörigen
Eichfeldern wie folgt festgelegt (vgl. z.B. [SW01])
I : A1µ , A2µ , A3µ ,
0
V : A4µ , A5µ , A3µ ,
00
U : A6µ , A7µ , A3µ ,
wobei die Wahl der abelschen Eichfelder zu den Definitionen
¡√
¢
0
A3µ = 12 ¡√3A8µ + A3µ ¢ ,
00
3A8µ − A3µ
A3µ = 21
führt. Aus dieser SU (3)-Zerlegung
bedingungen,
I :
V :
U :
mit
ergeben sich sechs nach Untergruppen sortierte Eich¢ ±
¡
3
= 0,
µ
¡ ∂µ ± iA3µ0 ¢ A±
0
= 0,
µ
¡ ∂µ ± iA3µ00 ¢ A±
00
∂µ ± iAµ Aµ = 0,
0
5
4
√1
V : A±
µ = 2 (Aµ ± iAµ ),
00
6
7
√1
U : A±
µ = 2 (Aµ ± iAµ ).
Die einfachste Wahl eines Eichfunktionals, das alle Felder8 gleichberechtigt behandelt,
ist mit
Z
¡
¢
GU [g] = d4 x (A1µ )2 + (A2µ )2 + (A4µ )2 + (A5µ )2 + A6µ )2 + (A7µ )2
dem für die SU (2)-Eichtheorie formulierten Funktional sehr ähnlich. In seiner Umsetzung
auf dem Gitter werden nun die Pauli-Matrizen der SU (2) durch die Gell-Mann-Matrizen
der SU (3) ersetzt und eine Minimierung des Kontinuumsfunktionals ist äquivalent zur
Maximierung des auf dem Gitter definierten Funktionals:
X ¡
¢
GU [g] =
tr λ3 Uµg (x)λ3 Uµg † (x) + λ8 Uµg (x)λ8 Uµg † (x)
x,µ
= 2
X¡
x,µ
¢
|(Uµg )11 |2 + |(Uµg )22 |2 + |(Uµg )33 |2 − 1 .
Somit wurde wieder das Problem der Eichfixierung auf ein Maximierungsproblem zurückgeführt, dass sich iterativ in den Untergruppen lösen lässt.
3.2.4
Zentrumseichung
Eine weitere, für die Untersuchung topologischer Größen wichtige Eichung ist die Zentrumseichung . Als Zentrum einer Gruppe wird die kleinste mit allen Elementen kommutierende Untergruppe bezeichnet. Im Falle der SU (N ) ist dies die Z(N ), die gerade die
Wurzeln der Eins enthält.
©
ª
m
Z(N ) = {z ∈ SU (N ) | ∀s ∈ SU (N ) : zs = sz} = e2πi N | m = 1, ..., N ,
(3.38)
8
Es sind alle Felder, mit Ausnahme der abelschen Felder gemeint.
24
Kapitel 3
Diskretisierte Eichtheorien
Ziel der Zentrumseichung ist nun, die SU (N )-Links der Konfigurationen so gut auf
das Zentrum Z(N ) der Gruppe zu eichen, wie es die volle nichtabelsche Eichfreiheit
zulässt. Die Zentrumseichung lässt sich wieder auf die Maximierung eines Eichfunktionals
zurückführen.
¯2
1 X ¯¯
ZU [g] =
tr Uµg (x)¯
(3.39)
dNC V x,µ
Dabei entspricht d der Zahl der Dimensionen. Analog zur abelschen Eichung lässt sich
die Maximierung von ZU am einfachsten für eine SU (2)-Eichtheorie durchführen. Deshalb
wird in SU (N )-Eichtheorien die Eichung unter Verwendung des Cabibbo-Marinari-Okawa
Verfahrens schrittweise in den SU (2)-Untergruppen fixiert[Mon00]. Die Maximierung von
Bedingung 3.39 ermöglicht die einfache Zerlegung der Eichkonfiguration
Uµ (x) = Zµ (x)Vµ (x)
in einen Anteil Zµ (x) ∈ Z(N ) und einen Nebenklassenanteil Vµ (x) ∈ SU (N ). Die aus
den Zµ (x) konstruierten Plaquettewerte Zµν (x) sind nun auf die NC Wurzeln der Eins
beschränkt (±1 im Falle der SU (2)). Die Hoffnung besteht nun darin, dass auf den
Plaquetten des Gitters definierte eichabhängige P-Vortices (projizierte Vortices) dazu
dienen können, eichunabhängige Zentrums-Vortices zu lokalisieren, was das ZentrumsVortex-Bild des Confinements unterstützen würde [DDFGO97].
3.2.5
Landau- und Coulomb-Eichung
Die in dieser Arbeit untersuchte Eichung ist die Landau-Eichung . Ihr ist deshalb auch
der ausführlichste Abschnitt gewidmet. Die Coulomb-Eichung wird aufgrund ihrer mathematischen Nähe zur Landau-Eichung in diesem Abschnitt gleichzeitig beschrieben.
Dabei gibt es einen grundlegenden Unterschied zwischen beiden Eichungen, denn
während die Landau-Eichung als kovariante Eichung eine Bedingung für räumliche und
zeitliche Freiheitsgrade des Eichpotentials darstellt, erfasst die Coulomb-Eichung ausschließlich die räumlichen Freiheitsgrade. Die differentiellen Eichbedingungen sind die
folgenden
Landau-Eichung
∂µ Aµ = ∂A = 0
Coulomb-Eichung
∂i Ai = div A = 0.
Das korrespondierende Eichfunktional ist
Z
¡
¢
g
g
g
g 2
FA [g] = − tr d4 x Ag†
µ (x)Aµ (x) = (A , A ) = kA k
(3.40)
(3.41)
und erreicht sein Maximum, falls die Eichbedingung 3.40 erfüllt ist. Die Summation über µ
im Integral erfolgt für die Landau-Eichung über alle vier Indizes, für die Coulomb-Eichung
nur über die drei räumlichen.
Das Standardverfahren (siehe z.B. [Rot97]), die Coulomb- oder Landau-Eichung in
einer Gittereichtheorie zu fixieren, basiert auf der numerischen Maximierung des Eichfunktionals
l
XX
1
Uµg(x) (x).
(3.42)
Re tr
FU [g] =
lNc V
x µ=1
3.2 Eichfixierung
25
Die Normierung enthält die Zahl der Farbindizes Nc , das Gittervolumen und die Zahl der
Dimensionen l, über die summiert wird9 . Für kleine Variationen
g(x) = eiλω(x)
gilt
X
∂FU [g](λ)
= − Re tr
iω(x)[Uµg (x − eµ ) − Uµg (x)],
∂λ
x,µ
(3.43)
so dass in Extremal- und Sattelpunkten mit Re tr(iUµ ) = 21 tr(iUµ − iUµ† ) und mit tr(ω) =
tr(ω † ) gelten muss:
"
#
¯
Xi
X
∂FU [g](λ) ¯¯
ω(x)
= − tr
(Uµ (x − eµ ) − Uµ† (x − eµ )) − (Uµ (x) − Uµ† (x))
¯
∂λ
2
λ=0
x
µ
!
= 0
∀ω(x).
(3.44)
Mit der Definition 3.2 des Eichpotentials Aµ (x + eµ /2) ∝ (Uµ (x) − Uµ† (x)) ist in den den
stationären Punkten auch
X¡
¢
Agµ (x + eµ /2) − Agµ (x − eµ /2) = 0
(3.45)
∆g (x) =
µ
erfüllt. Gleichung 3.45 entspricht der diskretisierten Form der differentiellen Eichbedingung.
3.2.6
Gribov-Kopien
1978 beschrieb Vladimir Naumovich Gribov die Nichteindeutigkeit der Eichfixierung in
nichtabelschen Eichtheorien [Gri78], falls sie auf einer gewöhnlichen linearen Eichbedingung basieren. So existieren verschiedene Eichpotentiale, die die Eichbedingung erfüllen,
ohne über eine globale Eichtransformation miteinander verbunden zu sein. Die Anwesenheit solcher Gribov-Kopien bedeutet aber auch, dass die Bedingungen der Landau-Eichung
(3.40) nicht ausreichen, um alle redundanten Freiheitsgrade durch Eichtransformationen
eliminieren zu können. In der kanonischen Quantisierung dient eine Eichfixierung zur
eindeutigen Identifizierung des Feldes und der Sicherstellung, dass im Pfadintegralformalismus keine Doppelzählungen von Konfigurationen vorkommen, obwohl sie eichäquivalent
sind. Um die dadurch entstehenden Mehrdeutigkeiten zu vermeiden, müssen die Eichfreiheitsgrade der Eichfixierung vollständig entfernt werden.
Es werden nun einige Definitionen eingeführt, anhand derer das Gribovproblem beschrieben werden kann.
Für jedes Eichpotential Aµ heißt die Klasse der mit ihm über eine Eichtransformation g
verbundenen Eichpotentiale der Eichorbit OA von Aµ .
©
ª
OA = A0µ | ∃g : g † A0µ g − ig −1 ∂µ g = Aµ .
(3.46)
Die Schnittmenge des Eichorbits mit der durch die Eichbedingung ∂A = 0 definierten
Mannigfaltigkeit enthält die eichfixierten Potentiale. Gibt es nur einen Schnittpunkt, ist
9
l = 3 entspricht der Coulomb-Eichung, l = 4 der Landau-Eichung
26
Kapitel 3
Diskretisierte Eichtheorien
die Eichung eindeutig. Ist dies nicht der Fall, so repräsentiert jeder Punkt der Schnittmenge eine Gribov-Kopie. Mittels Gleichung 3.41 lässt sich auf dem Orbit eine Norm
(3.47) definieren, die es erlaubt, zwischen den verschiedenen lokalen Gribov-Kopien zu
unterscheiden.
FA [g] = kAg k2
(3.47)
Globale Eichtransformationen ändern die Norm nicht und können in einer Äquivalenzklasse zusammengefaßt werden. Kritische Punkte des Funktionals kennzeichnen Transformationen, die die Landau-Eichbedingung erfüllen. Da, wie bereits erwähnt, nach Auffinden
eines kritischen Punktes die Landau-Eichung noch nicht eindeutig fixiert ist, benötigt
man eine schärferen Bedingung, um die Maxima dieses Funktionals zu finden. Sie sind
durch nichtnegative Eigenwerte der Hesse-Matrix von −kAg k2 gekennzeichnet, deren Determinante auch als Faddeev-Popov-Determinante bezeichnet wird. Im Falle der LandauEichung im Kontinuum ist der Faddeev-Popov-Operator durch
M = −∂ µ Dµ
(3.48)
gegeben. Die Menge der Eichpotentiale Ag , die den Maxima des Eichfunktionals entsprechen, wird als Gribovgebiet 10
Ω = { A | ∂A = 0, −∂D > 0 }
(3.49)
bezeichnet. Dabei ist Ω eine konvexe Menge, auf deren Rand ∂Ω, dem so genannten
Gribovhorizont , die niedrigsten nichttrivialen Eigenwerte des Faddeev-Popov-Operators
verschwinden. Um die Zahl der Lösungen, die die Eichbedingung erfüllen, weiter einzuschränken, wird das Gribovgebiet deshalb auf die Untermenge der absoluten Maxima des
Eichfunktionals eingeschränkt. Diese Untermenge heißt Fundamental Modular Region Λ
Λ = { A | ∀g ∈ G : FA [g] ≤ FA [ ] } .
(3.50)
G bezeichnet die Menge der lokalen Eichtransformationen. Diese Einschränkung führt zu
einer exakten Eichfixierung, falls das Eichfunktional für jedes Eichpotential nur ein nicht
entartetes absolutes Maximum besitzt. Da dies im Allgemeinen nicht so ist [Gri78, Sin78],
müssen die anderen Maxima gefunden werden, um nach einem weiteren Kriterium eines
auszuwählen.
Das Problem der Gribov-Kopien ist auch auf dem Gitter vorhanden. Allerdings haben hier die bereits eingeführten Begriffe eine neue Bedeutung, denn die auf dem Gitter
vorgefundenen Kopien sind zum Teil ein Ergebnis der Gitterdiskretisierung und es stellt
sich die Frage, ob Gittergribovkopien im Kontinuumslimes in Kontinuums-Gribov-Kopien
übergehen.
Der Einfluss der Gitter-Gribov-Kopien auf die numerischen Ergebnisse ist jedoch vorhanden und ihre Auswirkung methodisch untersuchbar. Hierfür wird zu einer thermalisierten Startkonfiguration ein Ensemble von Eichkopien dieser Startkonfiguration mittels
zufällig generierter Eichtransformationen erzeugt. Die Eichung wird nun für alle Kopien
unter Berücksichtigung der Eichbedingung fixiert. Im Allgemeinen wird nicht das gesamte
10
Positivität des Faddeev-Popov-Operators M (A) bedeutet, dass alle nichttrivialen Eigenwerte λn [A]
positiv sind. Es gibt triviale Null-Eigenwert für konstante Eigenvektoren ∂µ ω = 0, die Generatoren von
globalen Eichtransformationen sind.
3.2 Eichfixierung
27
Ensemble auf die gleiche eichfixierte Endkonfiguration geeicht werden. Als Folge tauchen
Gitter-Gribov-Kopien mit verschiedenen lokalen Maxima des Eichfunktionals 3.42 auf.
Eine erste Unterscheidung der Gribov-Kopien ist anhand des Eichfunktionals FA möglich,
da es eine eichvariante Größe auf dem Gitter ist. Sie ist nur invariant unter gÄ lobalen
Eichtransformationen, reagiert aber sehr empfindlich auf Gribov-Kopien.
3.2.7
Gribov-Rauschen
Falls ein Algorithmus eine gegebene Eichkonfiguration hinsichtlich FA exakt maximiert,
aber das Ergebnis nicht eindeutig ist, so wird auch eine eichvariante Größe davon
abhängen, welche Gribov-Kopie der Algorithmus findet. Dies kann zu einer teils systematischen Verzerrung der Messergebnisse führen oder sich lediglich durch ein zusätzliches
Rauschen bemerkbar machen, das Gribov-Rauschen .
In der SU (3)-Gittereichtherie zeigt sich, dass die so entstehende Nichteindeutigkeit für
die Landau-Eichung bei der Berechnung des Ghostpropagators zu einer systematischen
Abweichung führt [SIMPS05b]. Der Unterschied der Geist-Strukturfunktion ZG (q 2 ) zwischen Messungen auf der ersten zufällig erzeugten Kopie und der besten auf einer Konfiguration gefundenen Kopie ist in Abbildung 3.2 dargestellt. Im oberen Teil der Abbildung
β = 5.8 164
244
324
β = 6.0 164
244
β = 6.2 164
244
ZG (q 2 )
3.0
2.0
ratio in %
1.0
105
100
95
0.1
1.0
10.0
100.0
q 2 [GeV2 ]
Abbildung 3.2: Darstellung der Strukturfunktion Zg (q 2 ) über dem Impuls für verschiedene Gitter1st
größen und Kopplungsparameter β. In der unteren Abbildung ist das Verhältnis ZZbest von Messungen
auf der ersten Kopie Z 1st und der besten Kopie Z best dargestellt. Die Abbildung wurde mit freundlicher
Genehmigung aus [SIMPS05b] entnommen.
ist die Strukturfunktion ZG (q 2 ) über dem Impuls q aufgetragen, im unteren Bereich ist
das Verhältnis der Messung auf der ersten und auf der besten Kopie dargestellt. Als beste
Kopie wird die Kopie mit maximalem Funktionalwert auf einer Konfiguration bezeichnet.
Insbesondere für kleine Impulse weicht dieses Verhältnis von Eins ab, was bedeutet, dass
die Messung des Ghostpropagators davon abhängt, wie gut das Eichfunktional maximiert
wird.
Bei der Berechnung des Gluonpropagators ist dieser Effekt anscheinend nicht vorhanden [SIMPS05b] oder nur in Form eines sehr schwachen Gribov-Rauschens [SO04]. Ähnliche Untersuchungen lieferten schon für die SU (2)-Gittereichtheorie eine systematische
Abhängigkeit des Ghostpropagators von der Wahl der Gribov-Kopie [Cuc97, BIMMP04,
28
Kapitel 3
Diskretisierte Eichtheorien
NF04]. Dies ist insofern interessant, als dass es die Suche nach entsprechenden Eichfixierungsalgorithmen dringlich macht.
3.3
Methoden der Eichfixierung
Auch wenn ein globaler Algorithmus wünschenswert wäre, der das Eichfunktional (3.42)
für alle Argumente g(x) gleichzeitig maximiert, ist dies auf Grund der großen Zahl von
Argumenten nur schwer umsetzbar. Als Ausweg wird auf Algorithmen zurückgegriffen,
die das Eichfunktional sukzessiv und lokal optimieren. Eine Reihe von Konzepten zur
Maximierung des Eichfunktionals soll im Folgenden vorgestellt werden. Die dabei beschriebenen Methoden dienen auch der Fixierung der Coulomb-Eichung, die sich von der
Landau-Eichung nur in der Nichtsummation über zeitliche Links unterscheidet.
3.3.1
Relaxation
Ein wichtiger lokaler Algorithums, der die Zahl der gleichzeitig zu optimierenden Parameter stark reduziert, ist die Relaxation. Denn bei der Standardrelaxation wird das
Eichfunktional an jedem Gitterpunkt einzeln und nacheinander optimiert und an Stelle
von FU [g] wird nun das lokale Funktional FU [g; x] betrachtet. Aus der Summe über alle
Links lassen sich im Eichfunktional zunächst alle Terme, die g(x) enthalten, separieren.
£ ©
ª¤
P
P
†
Re
tr
g(y)U
(y)g
(y
+
e
)
+
(lNc V ) · FU [g] =
µ
µ
µ
£ µ©6= x
ª¤
P y,y+e
Re tr g(x)Uµ (x)g † (x + eµ ) + g(x − eµ )Uµ (x − eµ )g † (x)
µ
(3.51)
Der erste Term ist nicht mehr von g(x) abhängig, so dass das Optimierungsproblem nur
noch lokal für den zweiten Term
X £ ©
ª¤
FU [g; x] :=
Re tr g(x)Uµ (x)g † (x + eµ ) + g(x − eµ )Uµ (x − eµ )g † (x)
µ
zu lösen ist, also FU [g; x] = max.
der Spur tr(a + b) = tr(a) + tr(b) und
¡ Die† Linearität
¢
die Eigenschaft Re (tr(a)) = Re tr(a ) ermöglichen die Darstellung des zweiten Terms
in folgender Weise
ª¤
P £ ©
FU [g; x] =
Re tr g(x)Uµ (x)g † (x + eµ ) + g(x − eµ )Uµ (x − eµ )g † (x)
µ · ½
¶¾¸
µ
P
†
†
†
.
Uµ (x)g (x + eµ ) + Uµ (x − eµ )g (x − eµ )
= Re tr g(x)
µ
P
Die Summe K(x) := µ Uµ (x)g † (x + eµ ) + Uµ† (x − eµ )g † (x − eµ ) lässt sich sofort bestimmen. Das resultierende mathematische Problem
!
Re tr (g(x)K(x)) = max
(3.52)
wurde oft untersucht und ist in Angang A.4.2 näher beschrieben. Lokal findet nun eine
Aktualisierung
g(x) → r(x) · g(x) = g 0 (x)
(3.53)
3.3 Methoden der Eichfixierung
29
mit r(x) ∈ SU (N ) so statt, dass g 0 (x) das Maximierungsproblem 3.52 löst. Ein vollständiger Relaxationsschritt besteht nun aus der sukzessiven Aktualisierung der Eichtransformation in jedem Punkt des Gitters. Für eine vollständige Eichfixierung ist es dann notwendig, die Relaxationschritte so oft zu wiederholen, bis die Eichbedingung (3.45) hinreichend
präzise erfüllt ist.
3.3.2
Überrelaxation
Mit zunehmender Gittergröße divergiert die Autokorrelationszeit und iterative Eichfixierungsmethoden konvergieren immer langsamer. Der Grund ist hauptsächlich in langreichweitigen Moden der Anfangseichung und nicht optimal konditionierten Algorithmen zu
finden. Divergierende Autokorrelationenszeiten und -längen sind in Gleichgewichtsprozessen als Critical Slowing Down bekannt und es gibt Methoden dort dieser verlangsamten
Thermalisierung zu begegnen [Adl81, Wol90]. Diese Methoden lassen sich analog auch für
das Eichfixieren benutzen und führen dabei zu guten Resultaten.
Überrelaxation ist die erste vorzustellende Methode, der verlangsamten Konvergenz in
SU (N ) Gittereichtheorien zu begegnen. Sie ist eine Erweiterung des Relaxationsalgorithmus und ersetzt an Stelle der zum lokalen Maximum führenden Aktualierung r(x) (vgl.
3.53) ihre Potenz rω (x) in jedem Schritt, so dass ein Aktualisierungsschritt nun in der
Form
g(x) → rω (x) · g(x) = g 0 (x)
(3.54)
durchgeführt wird. Zur Berechnung der Potenz wird die Reihenentwicklung von rω nach
N Schritten abgebrochen (Gleichung 3.55) und das Ergebnis in die Eichgruppe projiziert.
ω
r (x) =
N
X
γn (ω)
n=0
n!
(r − )n mit γn (ω) =
Γ(ω + 1)
Γ(ω + 1 − n)
(3.55)
Die Gammmafunktion ist nur für Γ(ω+1) zu bestimmen, alle weiteren Vorfaktoren können
daraus über Γ(x + 1) = xΓ(x) bestimmt werden. Für gewöhnlich wird 1 < ω < 2 und
2 ≤ N ≤ 4 gewählt. Für ω = 1 erhält man die einfache Relaxation. Der optimale Wert
für den Überrelaxationsparameter ω strebt gegen 2. Allerdings beginnt die Dynamik ein
kritisches Verhalten zu zeigen und es kommt immer häufiger vor, dass die Überrelaxation
innerhalb einer vorgegebenen Zeit die geforderte Präzision in der Eichbedingung nicht
erreicht (Abschnitt 4.2.1, Seite 64). Im Limes ω → 2 tragen die UV-Moden nicht mehr
bei und das lokale Eichfunktional FU [g; x] bleibt erhalten. Der Algorithmus wird mikrokanonisch. Eine hier nicht untersuchte Variation der Überrelaxation ist die stochastische
Überrelaxation [For89], bei der der Parameter ω während der Relaxation als dynamische
Größe betrachtet und stochastisch gewählt wird.
3.3.3
Mikrokanonische Schritte
Die Wahl ω = 2 im Überrelaxationsalgorithmus führt zu mikrokanonischen Aktualisierungsschritten, die das Eichfunktional und damit auch die später definierte Wirkung
invariant lassen. In einer SU (2)-Eichtheorie lässt sich der mikrokanonische Aktualisierungsschritt explizit angeben
g(x) → α · g(x)
mit
α = − + 4
(3.56)
tr (g(x)K)
g(x)K.
tr(KK † )
30
Kapitel 3
Diskretisierte Eichtheorien
Um auch in SU (N ) Modellen mikrokanonische Schritte zu nutzen, wird diese Aktualisierung in allen SU (2)-Untergruppen ausgeführt [BW87].
Für normale Monte-Carlo-Prozesse kann gezeigt werden, dass das Einfügen solcher mikrokanonischen Schritte zu einer schnelleren Dekorrelation im thermischen Gleichgewicht
führt [DF90]. Im Allgemeinen bedeutet dies, dass der Algorithmus schneller thermalisiert.
Da langsames Thermalisieren auch ein Problem des Simulated Annealing Algorithmus ist
(Kapitel 3.3.6, Seite 31), werden mikrokanonische Schritte im Rahmen der Arbeit genutzt,
um auch hier die Konvergenz zu beschleunigen.
3.3.4
Fourierbeschleunigte Eichfixierung
Der zweite vorzustellende Algorithmus zur Reduzierung des Critical Slowing Down ist
die fourierbeschleunigte Eichfixierung [D+ 88, B+ 85]. Sie ist die Weiterentwicklung des
Gradientenverfahrens zu Maximierung des Eichfunktionals 3.42 der Landau-Eichung, bei
dem die Aktualisierung
g(x) → g 0 (x) = f (x) · g(x)
in Richtung des stärksten Anstieges erfolgt. Dazu dient eine Variante des NewtonRaphson-Verfahrens. Mit Definition des Eichpotentials (3.2) lässt sich zunächst die Divergenz von Ag auf dem Gitter definieren:
4
£
¡
¢¤
¡
¢
1
1X
tr ∆−µ Uµg (x) − Uµg† (x) (3.57)
∆−µ Uµg (x) − Uµg† (x) −
∇ · A (x) =
2 µ=1
NC
g
!
mit ∆−µ (Uµ (x)) = Uµ (x − eµ ) − Uµ (x).
(3.58)
Wie weit der Algorithmus dem Anstieg des Gradienten folgt, wird über einen Parameter
α ∈ abgestimmt. Die aktualisierte Transformation ergibt sich dann für das Gradientenverfahren mit
f (x) = exp [α∇ · Ag (x)].
(3.59)
In dieser lokalen Formulierung hat der Algorithmus jedoch stark mit Effekten des Critical
Slowing Down zu kämpfen. Zur Verbesserung der Konvergenz wird Gleichung 3.59 durch
die fourierbeschleunigte Aktualisierung ersetzt.
¾¸
·
½ 2
pmax a2
g
−1
(3.60)
f (x) = exp F̂
α 2 2 F̂ (∇ · A (x)) (p)
pa
2
2
a
Die entscheidende Neuerung in der Aktualisierung ist das Einfügen des Terms pmax
p2 a 2
zwischen den Fouriertransformationen. Dieser Term führt dazu, dass kurz- und langreichweitige Moden gleich schnell konvergieren. Der Grund für das Einfügen dieses Terms wird
unter anderem in [D+ 88] beschrieben. Heuristisch lässt es sich als Berücksichtigung der
zweiten Ableitung im Gradientenverfahren interpretieren, was zu verbesserten Aktualisierungsschritten führt. Unter Nutzung der schnellen Fouriertransformation lassen sich so
theoretisch Rechenzeiten erreichen, die sich proportional zu V log V verhalten[D+ 88].
Die Fouriertransformation bringt jedoch das Problem mit sich, dass sie als globaler Algorithmus nur schwer parallelisierbar ist, was Berechnungen auf großen Gittern erschwert.
Dies ist auch der Grund, die fourierbeschleunigte Eichfixierung in einer Methode anzuwenden, die komplett ohne Fouriertransformationen auskommt, das Multigrid-Verahren
[CM98].
3.3 Methoden der Eichfixierung
3.3.5
31
Multigrid Methode des Gradientenverfahrens
In der Aktualiserung der fourierbeschleunigten Eichfixierung (Gleichung 3.59) lässt sich
das Exponential als Reihe entwickeln, so dass man genähert
¶
µ
(g)
−1 α
f (x) ∝ − F̂
F̂(∇A ) (x)
(3.61)
p2 (k)
erhält. Die Idee des Multigrid-Algorithmus beginnt mit der Feststellung, dass die Fourierzerlegung in Formel 3.61 äquivalent zur Invertierung des Laplace-Operators ist.
F̂−1 p−2 (k)F̂ = −∆−1
Der große Vorteil des Multigrid-Verfahrens ist die Möglichkeit der effizienten Parallelisierung des inversen Laplace-Operators [Sta93]. Wie bei der fourierbeschleunigten Eichfixierung skaliert die Rechenzeit für eine Aktualisierung des ganzen Gitters mit V und die Zahl
der Schritte bis zur Konvergenz mit log V . Das Multigrid-Verfahren ist hier jedoch nur
der Vollständigkeit halber erwähnt. Eine explizite Beschreibung der Umsetzung und der
Konvergenz des Multigrid-Algorithums findet sich in [HLS92, For89] und insbesondere in
[GS89].
3.3.6
Simulated Annealing
Bisher verwendete Verfahren haben Effekte des Critical Slowing Down zu mildern versucht. Dabei unberücksichtigt geblieben ist das Problem der Nichteindeutigkeit der
Landau-Eichung auf Grund von Gribov-Kopien (Abschnitt 3.2.6, S. 25). Eine besondere
Bedeutung kommt nun der Formulierung der Eichfixierung als Maximierungsaufgabe zu.
Im Jahr 1982 beobachteten Kirkpatrick und andere [KGJV83] eine Ähnlichkeit zwischen
dem Tempern (annealing) von Festkörpern und mathematischen Maximierungsaufgaben.
In der Festkörperphysik lässt sich beobachten, dass bestimmte Materialien, die hinreichend langsam abgekühlt werden, in ihrem Grundzustand enden. Dies ist von besonderer
Bedeutung für die Stabilität des Materials. Diese Idee des Abkühlens lässt sich auf die
Maximierung eines beliebigen Funktionals anwenden. Dazu muss die Maximierung als
Prozess verstanden werden, in dem der Grundzustand eines Systems gefunden werden
soll. In unserem Kontext wird das Eichfunktional als “Energie” verstanden, bezüglich
derer das System in seinen Grundzustand gebracht werden soll.
In der Festkörperphysik wird Tempern als Prozess verstanden, zu niedrigen Energiezuständen des Festkörpers durch eine Sequenz von thermischen Gleichgewichtszuständen
zu gelangen. Der Prozess besteht aus zwei Schritten [KGJV83, BH76]
• Anheben der Temperatur bis auf einen Wert, bei dem der Festkörper schmilzt und
• Ein hinreichend langsames Absenken der Temperatur, bis die Teilchen des
Festkörpers sich von selbst im Grundzustand anordnen.
Der Prozess des Temperns kann erfolgreich mit Simulationsmethoden aus der
Festkörperphysik beschrieben werden. 1953 wurde von Metropolis und anderen [MRR+ 53]
für wechselwirkende Mehrteilchensysteme ein einfacher Algorithmus zur Entwicklung des
thermischen Gleichgewichts und zur Untersuchung von Zustandsgleichungen vorgestellt.
Der vorgestellte Algorithmus basiert auf Monte Carlo Techniken und generiert eine Reihe
32
Kapitel 3
Diskretisierte Eichtheorien
von Zuständen des Vielteilchensystems in folgender Weise. Ausgehend vom Zustand i mit
der Energie Ei wird durch kleine Störungen ein Folgezustand j generiert. Die Energie des
nächsten Zustandes ist Ej . Ist die Differenz Ej − Ei kleiner oder gleich Null, wird der
Zustand j zum aktuellen Zustand. Ist die Energiedifferenz positiv, so wird der Zustand j
mit Wahrscheinlichkeit
¶
µ
Ei − Ej
exp
(3.62)
kB T
akzeptiert, wobei T die Temperatur des Wärmebades und kB die Boltzmannkonstante
bezeichnet. Die Akzeptanzentscheidung wird als Metropoliskriterium bezeichnet, und der
so beschriebene Algorithmus ist als Metropolis-Algorithmus bekannt. Wenn die Temperatur hinreichend langsam abgesenkt wird, kann der Festkörper bei jeder Temperatur das
thermische Gleichgewicht erreichen. Im Metropolis-Algorithums wird dies durch die Generation einer großen Zahl von Übergängen erreicht. Das thermische Gleichgewicht wird
durch die Boltzmannverteilung charakterisiert, die die Wahrscheinlichkeit eines Zustandes
i mit der Energie Ei bei der Temperatur T mit
µ
¶
Ei
1
exp −
PT [X = i] =
(3.63)
Z(T )
kB T
angibt. X ist eine stochastische Variable, die den aktuelle Zustand des Festkörpers angibt.
Die Zustandssumme Z(T ) ist definiert als
Z(T ) =
X
j
µ
¶
Ej
exp −
.
kB T
(3.64)
Die Boltzmannverteilung wird von entscheidender Bedeutung für die Analyse des Simulated Annealing Algorithums sein.
Für kombinatorische Optimierungsprobleme11 kann mittels des Metropolis Algorithums ein Abkühlprozess nachgebildet werden. Der so entstehende Algorithmus ist der
Simulated Annealing Algorithmus. Zunächst wird eine Analogie zwischen einem physikalischen Vielteilchensystem und dem kombinatorischen Optimierungsproblem angenommen,
die auf zwei Äquivalenzen basiert:
• Die Lösungen des kombinatorischen Optimierungsproblems entsprechen den
Zuständen des physikalischen Systems und
• die Kosten einer Lösung entsprechen der Energie des Zustandes.
11
Definition: (kombinatorisches Optimierungsproblem )
Sei E eine endliche Grundmenge, I ⊂ 2E eine Teilmenge der Potenzmenge von E (die Elemente in I
heißen zulässige Mengen oder Lösungen)
und c : E → eine Funktion. Für jede Teilmenge F ⊆ E
P
definiert man weiterhin c(F ) = e∈F c(e). Dann heißt das Problem
max c(G)
G∈I
bzw.
(lineares) kombinatorisches Optimierungsproblem.
max c(G)
G∈I
(3.65)
3.3 Methoden der Eichfixierung
33
In Analogie zum physikalischen Prozess wird ein Parameter zur Kontrolle des Simulated
Annealing Algroithmus eingeführt, der die Rolle der Temperatur übernimmt. Er wird im
Folgenden als Simulated Annealing Temperatur oder als Eichtemperatur bezeichnet und
mit T abgekürzt. Bevor die Konvergenz des Simulated Annealing Algorithmus bewiesen
werden kann, müssen noch einige Größen definiert werden. Die Bezeichnungen werden
sich dabei an dem eigentlichen Problem der Maximierung des Eichfunktionals orientieren.
Definition: Sei (E, f ) ein kombinatorisches Optimierungsproblem, in dem E die Menge
aller möglichen Zustände und gi , gj ∈ E Zustände mit den Kosten f [gi ] und f [gj ], wobei
gj durch einen Erzeugeralgorithmus aus gi hervorgegangen sei. Das Akzeptanzkriterium
gibt mit der Akzeptanzwahrscheinlichkeit
(
´ für f [gj ] ≤ f [gj ]
³ 1
PA [gi → gj ] =
(3.66)
f [gj ]−f [gi ]
für f [gj ] > f [gj ]
exp
T
an, ob eine neu erzeugte Lösung gj als neue Lösung akzeptiert wird.
Die Art der Generation neuer Zustände korrespondiert zu den Störungen des Metropolis Algroithmus. Die Übergangswahrscheinlichkeit P [gi → gj ] ergibt sich nun aus dem
Produkt von Tij , der Wahrscheinlichkeit dafür, dass aus dem Zustand gi der³ Zustand ´gj
erzeugt wird und der Akzeptanzwahrscheinlichkeit PA [gi → gj ] = min[1, exp
·
¸
f [gj ]−f [gi ]
P [gi → gj ] = Tij min 1, e T
f [gj ]−f [gi ]
T
].
(3.67)
Solange die Erzeugung neuer Zustände mit symmetrischer Transmissionswahrscheinlichkeit geschieht, also Tij = Tji gilt, ist die Bedingung der Detailed Balance erfüllt, denn
h f [gj ]−f [gi ] i
min 1, e T
f [gj ]−f [gi ]
P [gi → gj ]
PT [X = gj ]
h f [gi ]−f [gj ] i = e T
=
=
.
P [gj → gi ]
PT [X = gi ]
min e T
,1
Somit sind die Eigenschaften Ergodizität, Normiertheit und Stabilität des Fixpunktes
PT (g) ∝ exp( f T(g) ) für den Metropolisalgorithmus gewährleistet, so dass die Konvergenz
der Markovkette sichergestellt ist (Anhang A.2).
Definition: Ein Thermalisierungsschritt ist ein zusammengesetzter Prozess, der vom gegenwärtigen Zustand gi in einen Folgezustand gj führt. Im Falle des Metropolisalgorithmus
besteht er aus zwei Schritten: (i) Erzeugen eines neuen Zustands und (ii) Anwendung des
Akzeptanzkriteriums. Dieser Algorithmus muss am Ende nicht notwendigerweise zu einem
neuen Zustand führen.
Die beiden Schritte des Aktualisierungsprozesses lassen sich zu einem einzigen zusammenfassen, falls der Folgezustand bereits thermalisiert erzeugt werden kann, also der Wahrscheinlichkeitsverteilung
µ
¶
1
f [gj ]
PT [X = gj ] =
exp −
(3.68)
Z(T )
T
34
Kapitel 3
mit
X
µ
f [g]
Z0 (T ) =
exp −
T
g∈E
Diskretisierte Eichtheorien
¶
(3.69)
genügt. Im Allgemeinen ist dies nicht möglich. Im Falle der lokalen SU (N )Aktualisierungen in nur einem Punkt (3.51) besteht jedoch die Möglichkeit, die Elemente
der Eichtransformation mittels eines Heatbath-Algorithmus bereits mit der Verteilung
(3.68) zu erzeugen.
Die Besonderheit des Simulated Annealing Algorithmus ist, dass er nicht nur Verkleinerungen der Kostenfunktion f zulässt, sondern auch Erhöhungen. Anfangs werden
für große Werte von T große Verschlechterungen akzeptiert. Für abnehmendes T werden die akzeptierten Vergrößerungen im Mittel immer kleiner und für T = 0 werden
letztendlich nur noch Verbesserungen der Kostenfunktion zugelassen. Im Gegensatz zu
lokalen Suchalgorithmen kann der Simulated Annealing Algorithmus durch Erhöhung der
Kostenfunktion lokalen Minima entkommen.
Die Gleichgewichtsverteilung für Thermalisierungsprozesse wird wie folgt definiert:
Definition: Ist (E, f ) ein kombinatorisches Optimierungsproblem, dann heißt eine Verteilung Gleichgewichtsverteilung , falls sie folgende Bedingung erfüllt:
¶
µ
1
f [gj ]
PT [X = gj ] = qj (T ) :=
,
exp −
Z(T )
T
(3.70)
wobei X eine stochastische Variable ist, die den aktuellen Zustand des Simulated Annealing Algorithmus darstellt und
X
µ
f [g]
Z0 (T ) =
exp −
T
g∈E
¶
(3.71)
die Normierungskonstante ist. Falls die durch einen Thermalisierungsalgorithmus erzeugte
Verteilung diese Bedingung erfüllt, wird das Ergebnis als thermalisiert bezeichnet.
Mit den so definierten Größen lässt sich nun der Satz über die Konvergenz des Simulated Annealings angeben.
Satz 3.3.1. Ist (E, f ) ein kombinatorisches Optimierungsproblem und ist die Gleichgewichtsverteilung durch (3.70) gegeben, dann gilt
lim qi (T ) := qi∗ =
T →0
1
· χEopt (gi ), 12
|Eopt |
(3.72)
wobei Eopt ⊂ E die Untermenge der global optimalen Lösungen ist und die Mächtigkeit
dieser Untermenge |Eopt | die Zahl der global optimalen Lösungen angibt.
12
Sind A und A0 ⊂ A zwei Mengen, so ist die charakteristische Funktion χA0 : A → {0, 1} auf der
Untermenge A0 ist wie folgt definiert: χA0 (a) = 1 falls a ∈ A0 und χA0 (a) = 0 sonst.
3.3 Methoden der Eichfixierung
35
Beweis:. Unter Nutzung der Tatsache, dass für alle a ≤ 0 gilt, lim ea/x = 1 falls a = 0
x→0
und lim ea/x = 0 sonst, erhält man
x→0
f [gi ]
e− T
lim = lim P f [g]
T →0
T →0
e− T
g∈E
f [gi ]
efopt − T
= lim P
f [g]
T →0
efopt − T
g∈E
= lim P
T →0
g∈E
1
efopt −
f [g]
T
f [gi ]
efopt − T
· χEopt (gi ) + lim P
· χE\Eopt (gi )
f [g]
T →0
efopt − T
g∈E
1
· χEopt (gi ) + 0.
=
|Eopt |
¥
Das Ergebnis ist von großer Bedeutung, da es asymptotische Konvergenz des Simulated Annealing Algorithmus garantiert, solange die Gleichgewichtsverteilung für jedes T
tatsächlich erreicht wird. Insbesondere die Voraussetzung eines thermischen Gleichgewichtes führt jedoch dazu, dass dieser formale Konvergenzbeweis nur realistisch ist, falls der
Simulated Annealing Algorithmus bei jeder Temperatur unendlich viele Schritte tätigt.
In endlicher Zeit ist dies jedoch nicht möglich und die Hauptaufgabe besteht in einer geeigneten Beschreibung von Simulated Annealing Algorithmen, die auf Grund endlicher Aktualisierungsschrittzahlen die Voraussetzung des thermischen Gleichgewichts nicht
mehr erfüllen können. Dazu ist zunächst zu definieren, wie ein Simulated Annealing Algorithmus aussehen soll, der nach endlich vielen Schritten beendet wird. Auch für solche
Algorithmen soll die Temperatur in wohldefinierter Weise abgesenkt werden. Im weiteren
soll die Veränderung der Temperatur wie folgt beschrieben werden.
Definition: Eine Abbildung T : I → +
0 , die einer Indexmenge I eine reelle Zahl zuordnet, wird Simulated Annealing Fahrplan genannt und beschreibt die Temperaturänderung
während des Simulated Annealings.
Die Indexmenge wird im weiteren immer von der Form I = {1, 2, ..., N } sein, so dass mit
den natürlichen Zahlen die Simulated Annealing Schritte i ∈ I durchnummeriert werden
können. Die Mächtigkeit der Menge ist in diesem Falle |I| = N und der Fahrplan wird als
endlicher Fahrplan bezeichnet.
Weiterhin sind die folgenden Definitionen hilfreich.
Definition: Falls sich die Temperatur zwischen zwei aufeinanderfolgenden Schritten
ändert, also T (i) 6= T (i + 1) gilt, wird dies als Temperaturschritt bezeichnet. Die Gesamtzahl der in einem Fahrplan gemachten Temperaturschritte wird mit nT abgekürzt.
Die Zahl der Temperaturschritte ist nicht notwendigerweie gleich der Zahl der insgesamt
getätigten Schritte nT ≤ |I|, da der Fahrplan bei einigen Temperaturen mehrere Schritte
zulassen kann, was zur folgenden Definition führt.
36
Kapitel 3
Diskretisierte Eichtheorien
Definition: Als Thermalisierungsschritt wird in Anlehnung an den Metropolis Algorithmus eine Aktualisierung des gegenwärtigen Zustandes bei fixierter Temperatur bezeichnet.
Die Gesamtzahl der bei fixierter Temperatur durchgeführten Aktualisierungen wird mit
nT h abgekürzt.
Da die Voraussetzung des thermischen Gleichgewichtes bei einer gegebenen Temperatur mit endlichen Fahrplänen (|I| < ∞) nicht erreicht werden kann, wird für ihre
Untersuchung eine neue Größe eingeführt
Definition: Ist (E, f ) ein kombinatorisches Optimierungsproblem, und T : I → +
0 ein
Simulated Annealing Fahrplan, so heißt T quasithermalisiert nach k Schritten, und die
Wahrscheinlichkeitsverteilung PT (k)[X = gj ] Quasigleichgewichtsverteilung, falls sie hinreichend dicht zur Gleichgewichtsverteilung qj (T (k))liegt, also für ein zu spezifizierendes
² gilt:
kPT (k) − q(T (k))k < ²
(3.73)
Der Abstand zweier Wahrscheinlichkeitsverteilungen ist im Anhang durch Gleichung A.5
definiert.
Für Fahrpläne, die in jedem Schritt quasithermalisiert sind, kann nun gezeigt werden,
dass die zugehörige Wahrscheinlichkeitsverteilung im Grenzwert unendlich vieler Schritte
und T → 0 gegen die Verteilung aus Satz 3.3.1 konvergiert (nachlesbar zum Beispiel in
[AK89]). Das Problem besteht aber eben in der Notwendigkeit unendlich vieler Schritte.
Als Optimierung endlicher Fahrpläne wird daher im Folgenden verstanden, ein Quasigleichgewicht bei möglichst geringen Temperaturen herzustellen, da dies auch eine größere
Wahrscheinlichkeit für das Auffinden des Optimums bedeutet.
Für die Landau-Eichung soll das Funktional FA (Gleichung 3.42) maximiert werden. Unter Verwendung des Simulated Annealing Algorithmus wird die Kostenfunktion
f = 1 − FA minimiert und an Stelle von Metropolisaktualisierungen (Gleichung 3.66)
werden Heatbath-Aktualisierungen genutzt (Anhang A.4.1). Praktisch wird innerhalb des
Simulated Annealing Algorithmus das Optimierungsproblem für Eichtemperaturen T > 0
nicht endgültig gelöst. Daher wird ein abschließendes Relaxieren notwendig, durch das
die differentielle Eichbedingung ∂A = 0 umgesetzt wird. Es lässt sich auch, wie bereits
erwähnt, als Simulated Annealing bei T = 0 verstehen.
3.3.7
Eichfixierung auf endlichen Untergruppen
Unabhängig von der Verwendung neuer Algorithmen lässt sich die Rechenzeit durch die
Einschränkung der Eichgruppe auf eine endliche Untergruppe reduzieren.
In dieser Untergruppe ist die Zahl der möglichen Gruppenoperationen überschaubar
und lässt sich in einer Gruppentabelle abrufbar im Speicher behalten. In der Regel ist
der Abruf aus dem Speicher deutlich schneller, als die direkte Ausführung der Gruppenoperation. Da in endlichen Gruppen auch die Zahl der Gruppenoperationen endlich ist,
liegt der Hauptvorteil in der Möglichkeit eine Multiplikationstabelle für Gruppenoperation
zu nutzen. Ein weiterer Vorteil einer endlichen Untergruppe der SU (2) ist der geringere
Speicherbedarf, da die Gruppenelemente keiner Darstellung als Matrizen, sondern nur
einer natürlichen Zahl als Repräsentanten bedürfen.
3.4 Strategien zur Auswahl optimaler Verfahren
37
Vor der Anwendung der Gruppentabelle werden Eichkonfiguration und Eichtransformation auf die Untergruppe abgebildet. Bei der Anwendung der bisher vorgestellten Algorithmen, lassen sich so sämtliche Gruppenmultiplikationen mithilfe der Multiplikationstabelle beschleunigen. Die am Ende des Simulated Annealings oder der Relaxation erhaltene
Eichtransformation mit Werten in der Untergruppe lässt sich nun als Ausgangspunkt einer
abschließenden Eichfixierung der ursprünglichen Eichkonfiguration nutzen.
In einer U (1) Eichtheorie wurde diese Methode erfolgreich eingesetzt und eine Beschleunigung der Rechnungen um den Faktor zehn erreicht[CFIS04]. Als Untergruppe
dient hier eine Darstellung n . Die vielversprechendste diskrete Untergruppe der SU (2)
ist die Ikosaedergruppe I120 (Appendix A.1.3).
Da durch die Projektion auf die Ikosaedergruppe auch das ursprüngliche Eichfeld verändert wird, optimiert der Simulatd Annealing Algorithmus in der projizierten
Ikosaeder-Eichtheorie das Eichfunktional auch nur in Bezug auf die projizierte Eichkonfiguration. Dies kann sich negativ auf die Präkonditionierung der Eichtransformation auswirken. Weiterhin wird der Vorteil der Multiplikation über eine Multiplikationstabelle
zum Teil wieder durch die Notwendigkeit der Addition von Gruppenelementen zunichte
gemacht. Da die Addition keine Gruppenoperation ist, liegt das Ergebnis im Allgemeinen nicht in der I120 und muss in geeigneter Weise wieder zurückprojiziert werden. Diese
Projektion ist allerdings verhältnismäßig aufwändig.
3.4
Strategien zur Auswahl optimaler Verfahren
Die Fixierung der Landau-Eichung in den folgenden Gittersimulationen besteht aus drei
Schritten,
• Erzeugung einer in Bezug auf β thermalisierten Eichkonfiguration,
• Generierung eines Ensembles E aus zufälligen (T = ∞) Anfangseichtransformationen und
• Anwendung verschiedener Eichfixierungsalgorithmen auf jede Anfangseichtransformation.
Da so die verschiedenen Algorithmen auf den gleichen Anfangseichtransformationen untersucht wurden, lassen sich die Algorithmen leichter miteinander vergleichen. Dieser abschließende Vergleich erfolgt anhand der Verteilung über den durch die Algorithmen gefundenen Maxima des Eichfunktionals. Neben dieser Verteilung wird im Folgenden auch
die Mobilität vorgestellt. Sie ist eine Eigenschaft der Aktualisierungen der verschiedenen Algorithmen und ist von besonderer Bedeutung für die Untersuchung des Simulated
Annealing Algorithums.
3.4.1
Verteilung über den Funktionalwerten
Alle untersuchten Konzepte zur Fixierung der Landau-Eichung sind Optimierungsalgorithmen zur Maximierung des Eichfunktionals FU (3.42). Auch wenn das Ziel eine
Eichtransformation ist, die das globale Maximum des Eichfunktionals darstellt, ist dies im
Allgemeinen nicht erreichbar. Am Ende der Eichfixierung wird das Ensemble E daher aus
eichfixierenden Eichtransformationen bestehen, die zu verschiedenen lokalen Maxima des
38
Kapitel 3
Diskretisierte Eichtheorien
Eichfunktionals gehören. Je besser ein Algorithmus funktioniert, desto häufiger wird er
dabei das größte aufgefundene Maximum wiederfinden und die zugehörige Eichtransformation entsprechend häufig im finalen Ensemble auftauchen. Mit dieser Prämisse werden
die Algorithmen daher in Hinblick auf die Häufigkeitsverteilung der durch sie aufgefundenen lokalen Funktionalwerte verglichen. Dies kann auf zwei Arten geschehen.
Die erste Variante besteht darin, die auf einer Konfiguration aufgefundenen lokalen
Maxima der Größe nach zu ordnen
F1 > F2 > F3 > ....
und für die verschiedenen Funktionalwerte die Häufigkeit des Wiederauffindens anzugeben. Die so entstehenden Häufigkeitsverteilungen lassen sich über eine gewisse Anzahl
von Konfigurationen mitteln und ergeben für jeden Algorithmus eine stochastische Wahrscheinlichkeitsverteilung P [F = Fi ]. Da die verschiedenen Maxima auf Grund von Diskretisierungseffekten nicht exakt übereinstimmen, hängt diese Verteilung auch von dem
Kriterium ² ∈ ab, wann zwei Funktionalwerte als gleich gelten sollen.
F =F
ˆ i
kF − Fi k < ²
Ein Beispiel einer solchen Verteilung ist in Abbildung 4.2 auf der linken Seite für verschiedene Simulated Annealing Algorithmen und den Relaxationsalgorithmus zu sehen.
Die zweite Variante der Darstellung besteht darin, zunächst für eine Konfiguration
das größte lokale Maximum Fmax zu finden und daraus die relativen Funktionalwerte
max
Frel = F −F
zu bilden. Diese relativen Funktionalwerte sind nun auch für verschiedene
Fmax
Konfigurationen miteinander vergleichbar und lassen sich für die verschiedenen Algorithmen in Form eines Histogramms (z.B. Abb. 4.15) angeben.
3.4.2
Mobilität
Eine weitere Größe, die sich nicht am Funktionalwert orientiert, sondern stärker das Aktualisierungsverhalten berücksichtigt, ist die Mobilität. Jeder Algorithmus führt Aktualisierungsschritte der Form
g → g0
durch. Für ein schnelles Erreichen der Quasithermalisiertheit ist nun besonders bei Thermalisierungsalgorithmen wichtig, wie stark diese Änderungen sind. Dies führt zu folgender
Mobilität.
Definition: Führt ein Algorithmus in einem Schritt die Aktualisierung g → g 0 durch, so
wird die Größe
#
"
X ¡
¢
1
(3.74)
tr − g(x)g 0† (x)
M [g → g 0 ] = Re
NC V x
als Mobilität des Algorithmus in diesem Schritt bezeichnet.
Die Mobilität ist ein Indiz für die Autokorrelation eines Algorithmus. Je weiter der
Wert in der Nähe von Eins liegt, um so größer sind die Sprünge im Zusandsraum der
Eichtransformation, die bei jeder Aktualisierung durchgeführt werden. Kleine Mobilitäten
bedeuten entsprechend, dass sich alte und neue Eichtransformation nur wenig voneinander
unterscheiden.
3.4 Strategien zur Auswahl optimaler Verfahren
39
Ist die neue Eichtransformation zufällig erzeugt, so dass von unkorrelierten Größen
gesprochen werden kann und ist jeder Punkt im Zustandraum gleich wahrscheinlich, so
heben sich die Terme tr(g(x)g 0† (x)) im Mittel gegenseitig auf und die Mobilität nimmt den
Wert Eins an. Insofern ist eine Mobilität von Eins umgekehrt ein Indiz auf eine geringe
Autokorrelation, wenn auch kein Beweis dafür.
Sind alte und neue Eichtransformation hingegen sehr ähnlich, so gilt für die Spuren
1
tr(g(x)g 0† (x)) ≈ 1, so dass M ≈ 0 folgt. Auch hier ist die Mobilität nur ein Indiz für
NC
eine starke Autokorrelation. Denn es besteht die Möglichkeit, dass bei der Erzeugung der
Eichtransformationen bestimmte Eichtransformationen bevorzugt werden, so dass auch
bei dekorrelierten Algorithmen sich zwei unabhängig voneinander erzeugte Transformationen mit großer Wahrscheinlichkeit sehr ähnlich sind. Diese Vermutung ließe sich auch
für den Simulated Annealing Algorithmus in SU (N ) Eichtheorien aufstellen. Hier sollen
thermalisierten Eichtransformationen der Wahrscheinlichkeitsverteilung
PT [X = g] =
1 − 1−FU [g]
T
e
Z(T )
(3.75)
genügen, wodurch automatisch Transformationen mit großen Funktionalwerten bevorzugt werden. Von entscheidender Bedeutung ist jedoch, dass FU invariant unter globalen
Eichtransformationen ist, was bedeutet, dass auch jeder globale Phasenfaktor eiφ · mit
gleichem Gewicht in die Mobilität eingehen sollte. Es soll nun der Grenzfall einer bei
T ≈ 0 thermalisierten Verteilung betrachtet werden, bei dem sich die Maxima gmax des
Funktionals nur um solche Phasenfaktoren unterscheiden mögen. Die Mobilität für zwei
solche Transformationen nimmt den Wert M = 1 − cos φ an, wird jedoch, da Mittelung
über dekorrelierte Eichtransformationen alle Werte von φ gleich wahrscheinlich sind, den
Wert hM i = 1 annehmen. Da diese Betrachtung auch für jede andere Eichtransformation
gilt, muss ein dekorrelierte Simulated Annealing Algorithmus eine Mobilität hM i = 1
aufweisen. Im Umkehrschluss haben Algorithmen mit geringer Mobilität eine große Autokorrelation.
40
Kapitel 3
Diskretisierte Eichtheorien
Kapitel 4
Resultate
Im Folgenden werden verschiedene Algorithmen und Methoden getestet, die die LandauEichung fixieren. Ziele sind eine kurze Rechenzeit und die Vermeidung von Gitter-GribovKopien durch die globale Maximierung des Eichfunktionals. Zu diesem Zweck werden
die Methoden nach verschiedenen Kriterien miteinander verglichen, bei denen folgende
Größen eine Rolle spielen:
1. Rechenzeit tr für einmalige Anwendung einer Methode,
2. P[F = Fmax ] = pmax , die Wahrscheinlichkeit das größte bekannte Maximum mit
dieser Methode bei einmaliger Anwendung zu erreichen und
3. p(Fi ), die Wahrscheinlichkeitsverteilung für die nach absteigender Größe sortierten
und so durchnummerierten Funktionalwerte1 .
Sowohl Rechenzeiten, als auch Wahrscheinlichkeiten sind stochastische Größen und für
eine hinreichend genaue Bestimmung ist eine Mittelung über eine große Anzahl von Konfigurationen und Kopien notwendig. Die zweite Größe ist über die Gleichung p(F1 ) =
P [F = Fmax ] mit der dritten verknüpft, wird aber separat betrachtet, da nur das Erreichen des globalen Maximums einer Eichfixierung innerhalb der Fundamental Modular
Region gleichbedeutend ist. Es gilt nun, mittels einer Optimierung des Eichfixierungsalgorithmus, einen Kompromiss aus kurzer Rechenzeit und trotzdem hoher Wahrscheinlichkeit
für die Annahme des größten bekannten Maximums zu erzielen.
Performanz verschiedener Methoden
Eine große Rechenzeit erlaubt im Allgemeinen keine Rückschlüsse auf die Wahrscheinlichkeit das Maximum zu finden, beide Größen sind also unabhängig voneinander. Daher
besteht die Notwendigkeit, ein einziges Kriterium zu definieren, das beide Größen vereint
und einen Vergleich verschiedener Methoden anhand dieses neuen Kriteriums zulässt.
Hierfür werden noch einige Vorüberlegungen benötigt. Für weitere Betrachtungen soll
im Vergleich mehrerer Eichfixierungsmethoden diejenige als die beste gelten, die in fest
vorgegebener Zeit das Maximum des Eichfunktionals mit der größten Wahrscheinlichkeit
findet:
P [Auffinden des Maximums von F ](t) = max .
1
Große Funktionalwerte entsprechen kleinen Zahlen in der Nummerierung.
41
42
Kapitel 4
Resultate
Ist die vorgegebene Zeit ein Vielfaches der Rechenzeit t = ntr , so bedeutet dies, dass
die Eichfixierungsmethode n-fach angewendet werden soll. Die Wahrscheinlichkeit, das
Maximum in einem dieser Versuche zu finden beträgt dann
t
1 − (1 − pmax )n = 1 − (1 − pmax ) T .
Diese Größe soll durch Optimierung der Eichfixierungsmethode maximiert werden
t
1 − (1 − pmax ) tr = max .
Formell kann t jeden Wert annehmen, auch wenn nur ganze Vielfache von tr tatsächlich
umsetzbar sind. Durch Anwenden der monotonen Logarithmusfunktion lässt sich dies wie
folgt in die Form
ln (1 − pmax )
t = max .
−
tr
bringen. Bei der Optimierung der Eichfixierungsmethoden ändern sich nur tr und pmax .
Eine einmal optimierte Methode ist zugleich für jede Zeitvorgabe t optimiert, wenn die
von t unabhängige Maximierungsaufgabe
−
ln(1 − p)
= max
tr
gelöst ist. Auf der linken Seite steht eine für jede Eichfixierungsmethode spezifische Kenngröße, was durch folgende Definition ausgedrückt wird.
Definition: Findet ein Algorithmus zur Eichfixierung das größte auffindbare Maximum
für eine Konfiguration im Mittel mit der Wahrscheinlichkeit p = P [F = Fmax ] und
benötigt dafür die Rechenzeit tr , so wird seine Performanz G definiert als2 :
G=−
ln(1 − p)
tr
(4.1)
Die mittlere Rechenzeit weist natürlich eine gewisse Willkür auf, da sie stark von
der genutzten Hardware abhängt. Um trotzdem Simulationen miteinander vergleichen zu
können, die zu verschiedenen Zeitpunkten erzeugt wurden oder verschiede Hardwarevoraussetzungen nutzten, wird parallel zu jeder Simulation als Vergleichsgröße die mittlere
Rechenzeit für die Relaxation gemessen. Sie dient dann zur Normierung aller in der gleichen Simulation verwendeten Methoden, sozusagen als Zeitnormal.
Eine Eichfixierungsmethode wird nun als besser verstanden, wenn sie die größere Performanz hat. Interessiert man sich nicht dafür, wie hoch die Wahrscheinlichkeit des Auffindens des Maximums in einer vorgegebenen Zeit ist, sondern stellt die umgekehrte Frage,
wie lange man mindestens braucht, um das Maximum mit vorgegebener Wahrscheinlichkeit zu finden, so ergibt sich eine wichtige Folgerung.
Folgerung 4.0.1. Haben zwei Eichfixierungsmethoden die Performanzen G1 und G2 , so
stehen die minimalen Rechenzeiten t1 und t2 , die nötig sind, damit das Maximum Fmax
von beiden Methoden mit der gleichen Wahrscheinlichkeit angenommen wird (ggf. durch
Mehrfachanwendung einer Methode), in einem festen Verhältnis und es gilt:
G1 t1 = G2 t2
2
(4.1)
Die Variablenbezeichnung G steht für das deutsche Wort Güte und wurde gewählt, da die vermutlich
offensichtliche Bezeichnung P bereits für die Wahrscheinlichkeit verwendet wird.
4.1 SU (2) Eichfixierung
43
Insbesondere führt also eine Verdopplung der Performanz dazu, dass nur noch die Hälfte der Rechenzeit notwendig ist, um das Maximum mit der gleichen Wahrscheinlichkeit
zu finden.
4.1
SU (2) Eichfixierung
Für eine SU (2) Eichtheorie wurden lokale Relaxations- und Überrelaxationsalgorithmen
sowie Simulated Annealing mit lokalen Heatbath Aktualisierungen zur Fixierung der
Landau-Eichung miteinander verglichen. Das Hauptgewicht der Untersuchung liegt in der
Optimierung des Fahrplans für das Simulated Annealing, da die Resultate als Basis für
die Eichfixierung in einer SU (3) Gittereichtheorie auf großen Gittern dienen sollen. Ein
weiterer Abschnitt widmet sich der Eichfixierung auf der Ikosaeder-Untergruppe I120 der
SU (2). Die Untersuchungen für die SU (2) Gittereichtheorie werden mit einem Abschnitt
komplettiert, der die Vorteile von Eichfixierungsmethoden mit Simulated Annealing gegenüber einfachen Relaxationsverfahren aufzeigt.
4.1.1
Simulated Annealing
Es kann gezeigt werden, dass Simulated Annealing das globale Maximum mit Wahrscheinlichkeit Eins findet. Allerdings muss der Fahrplan des Simulated Annealings hierfür
berücksichtigen, dass für das Erreichen des Maximum in jeder Umgebung von T = 0
unendlich viele Simulated Annealing Schritte ausgeführt werden[GG84], zum Beispiel in
dem sich Temperatur T und Rechenzeit t wie T (t) ∝ 1/ ln(t) verhalten[GG84]. Dies ist
jedoch in der Realität nicht umsetzbar.
In der Konsequenz kann demnach für jede endliche Rechenzeit das Maximum nur mit
einer von 1 verschiedenen Wahrscheinlichkeit erreicht werden und es stellt sich die Frage
nach dem Fahrplan, der in endlicher Rechenzeit das beste Resultat erzielt. Als Kriterium,
um zu entscheiden, wie erfolgreich die einzelnen Fahrpläne sind, werden die Performanz
(Gleichung 4.1) und die ihr zugrunde liegenden Größen dienen.
Die Absenkung der Temperatur lässt eine gewisse Willkür zu. Um eine empirische Untersuchung zu ermöglichen, wird daher jeder Fahrplan durch folgende Parameter bestimmt
sein und seine Abhängigkeit von diesen Parametern untersucht :
1. [Tmin , Tmax ], dem Temperaturintervall zwischen Endtemperatur Tmin und Starttemperatur Tmax des Simulated Annealings und
2. ein Parameter µ und die Zahl von Thermalisierungschritten nT h , beides Größen,
die die Verteilung der Temperaturschritte in diesem Intervall definieren.
Zunächst wird mit Hilfe der Mobilität (Gleichung 3.74) ein Kriterium für die Wahl
der oberen Grenze des Temperaturintervalls Tmax gefunden. Die Untergrenze wird für weitere Simulationen zunächst willkürlich festgelegt. Für Fahrpläne, die die Eichtemperatur
gleichmäßig absenken, wird zunächst die Zahl der Simulated Annealing Schritte optimiert.
Danach wird der Einfluss verschieden großer Thermalisierungsschrittzahlen im Fahrplan
betrachtet und abschließend für das herkömmliche Simulated Annealing das Verhalten
bei beschleunigtem oder abgebremstem Abkühlen untersucht.
Von besonderer Bedeutung für die Maximierung des Eichfunktionals hat sich das
Einfügen von mikrokanonischen Schritten herausgestellt. Die Ergebnisse zur Simulated
44
Kapitel 4
Resultate
Annealing Methode, die mikrokanonische Schritte enthält, wird daher in der zweite Hälfte dieses Abschnitts vorgestellt.
Temperaturintervall
Mobilitat
Funktional
1
0.9
0.9
0.8
4
β = 2.40, 16 Gitter
4
β = 2.20, 8 Gitter
0.7
4
0.7
β = 2.20, 16 Gitter
0.6
0.6
hF i
0.5
0.5
1
2 tr(1 −
g oldg new )
®
0.8
β = 2.40, 84 Gitter
0.4
­
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
0
0.5
1
1.5
T
2
2.5
0
0
0.5
1
1.5
2
2.5
T
Abbildung 4.1: Mobilität und Eichfunktional in Abhängigkeit von der Eichtemperatur für verschiedene
Gittergrößen und verschiedene Werte von β, gemittelt über 50 Konfigurationen mit jeweils 20 Kopien.
Die Varianz ist für alle Messpunkte kleiner als 0.02.
Die Abhängigkeit der Mobilität und des Eichfunktionals vom Wert der Eichtemperatur
ist in Abbildung 4.1 für verschiedene Gittergrößen und Kopplungen dargestellt. Die Kurvenverläufe dieser Observablen sind hauptsächlich von der Kopplung und kaum von der
Gittergröße abhängig.
Das Augenmerk der Betrachtung soll jedoch auf der Monotonie der Kurven liegen.
Sowohl die Mobilität als auch das Eichfunktional sind streng monoton in T . Die Mobilität
steigt mit der Temperatur streng monoton, das Eichfunktional fällt streng monoton. Die
Besonderheit liegt in einem Übergangsbereich, bei dem der Anstieg der Mobilität von
einem schwachen Anstieg bei großen Temperaturen zu einem starken Anstieg bei kleinen Temperaturen übergeht. Dieser Wechsel des Anstiegverhaltens ist auch im Wert des
Eichfunktionals wiederzufinden. In der Abbildung kann man erkennen, dass er mit kleiner
werdender Temperatur für ein bei β = 2.4 präpariertes Ensemble ab einer Übergangstemperatur von ca. T ≈ 1.4 und für ein bei β = 2.2 präpariertes Ensemble etwas später bei
T ≈ 1.3 einsetzt.
Als Maß für die Autokorrelation der Eichtransformationen (Abschnitt 3.4.2, S. 38)
zeigt große Mobilität eine schnelle Dekorrelation oder auch große Sprünge der Eichtransformationen in deren Zustandsraum an. Werden diese Sprünge zu groß, kommt ein Simulated Annealing Schritt einer zufälligen erzeugten Eichtransformation sehr nahe3 . Als
Starttemperatur Tmax wird daher ein Wert gesucht, ab dem die Mobilität beim Absenken der Temperatur wesentlich von T abhängt. Diese wesentliche Abhängigkeit setzt bei
Tmax ≈ 1.4 ein, welches im weiteren für die SU (2)-Eichfixierung zu wählen ist.
3
Für T = ∞ haben alle SU (2) Elemente das gleiche Gewicht und die Aktualisierung erzeugt tatsächlich
zufällige Eichtransformationen.
4.1 SU (2) Eichfixierung
45
Bei Absenken der Temperatur nimmt auch die Mobilität ab, so dass auch die Sprünge
im Zustandsraum immer kleiner werden. Im Folgenden wird das Simulated Annealing bei
der endlichen Temperatur Tmin = 0.4 abgebrochen, um zu verhindern, dass zu viel Rechenzeit in einem Temperaturbereich eingesetzt wird, bei dem die Gefahr des Einfrierens
der Eichtransformation besteht. Diese Wahl ist nicht zwingend und die Abhängigkeit des
Simulated Annealing von der unteren Intervallgrenze wird in diesem Abschnitt später
gesondert untersucht.
Im Folgenden wird die Untersuchung von Konfigurationen, die bei einer Eichfeldkopplung von β = 2.4 erzeugt wurden, im Vordergrund stehen. Die vorangegangene Analyse
der Mobilität führt dabei zu folgendem Simulated Annealing Intervall:
β
[Tmin , Tmax ]
2.4
[0.4, 1.4]
Verteilung der Temperaturschritte
Die Bestimmung einer optimalen Verteilung der Simulated Annealing Schritte auf diesem Intervall wird Gegenstand der nächsten Abschnitte sein. Ausgehend von der Analyse
des Einflusses der Gesamtzahl der Simulated Annealing Schritte, wird das Verhalten für
verschiedene Verteilungen dieser Schritte auf dem Temperaturintervall untersucht. Abschließend wird die Auswirkung der Endtemperatur auf das Simulated Annealing genauer
analysiert. Da eine Untersuchung dieser Parameter auf allen Gittern gleichzeitig zu aufwendig ist, werden zunächst ausschließlich Simulationen auf 164 Gittern durchgeführt.
Schrittzahl Zu Optimierung der Schrittzahl werden Fahrpläne miteinander verglichen,
die sich nur in der Zahl der Simulated Annealing Schritte voneinander unterscheiden. Die
Temperaturschritte wurden zunächst gleichmäßig über das gesamte Intervall verteilt.
Verteilung der Funktionalwerte
Vergleich der Rechenzeiten
0.45
0.5
RLX
SA, 6000 Schritte
SA, 4000 Schritte
SA, 3000 Schritte
SA, 2000 Schritte
SA, 1000 Schritte
0.35
P [F = F i ]
0.3
0.25
0.45
0.4
0.35
P [F = F max ]
0.4
0.2
0.15
0.25
0.2
0.15
0.1
0.1
0.05
0
0.3
0.05
5
10
15
i – durchnum m erierte Funktio na lwerte
0
1
2
3
4
5
Zeit in Einheiten der Ü berrela xa tio nsrechenzeit
Abbildung 4.2: Verteilung der Funktionalwerte (links) und Zusammenhang von Rechenzeit mit Wahrscheinlichkeit das Maximum zu erreichen (rechts) für Simulated Annealing Methoden mit verschiedener
Schrittzahl im Temperaturintervall [0.4, 1.4]. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über
37 Konfigurationen mit jeweils 50 Kopien. Die durchgezogene Linie im rechten Bild verbindet Punkte,
die durch Mehrfachanwendung der Überrelaxation (RLX) entstehen. Die Fehler im linken Bild liegen im
Bereich von 0.01 bis 0.06 und sind für eine bessere Übersichtlichkeit weggelassen worden.
46
Kapitel 4
Resultate
Die Verteilung der durchnummerierten Funktionalwerte und die Abhängigkeit zwischen Rechenzeit und der Wahrscheinlichkeit P [F = Fmax ] für das Ergebnis solcher Fahrpläne sind in Abbildung 4.2 dargestellt. Es wird nur die Verteilung für die ersten 15
Funktionalwerte gezeigt. Die Zeit im rechten Bild ist in Einheiten der mittleren Rechenzeit für Überrelaxation (für ω = 1.63) angegeben, um die Berechnung der Performanz
zu vereinheitlichen. Die Wahrscheinlichkeit für mehrfache Anwendung der Überrelaxation
(durchgezogene Linie) ist aus der Wahrscheinlichkeit für die einmalige Anwendung berechnet (vergleiche hierzu Abschnitt 4 über die Performanz). Die Rechenzeit für einen
Simulated Annealing Fahrplan ergibt sich als Summe aus der Zeit des Simulated Annealings und der Zeit für die abschließende Überrelaxation.
Betrachtet man die Abhängigkeit der Verteilung der Funktionalwerte von der Zahl
der Simulated Annealing Schritte, so ist zu beobachten, das die Wahrscheinlichkeit, die
fünf größten lokalen Maxima zu erreichen, mit der Zahl der Simulated Annealing Schritte
wächst. Insbesondere nimmt auch die Wahrscheinlichkeit für das Erreichen von Fmax zu.
Für die wachsende Schrittzahl wird aber mehr Rechenzeit benötigt, so dass im rechten
Bild (Abb. 4.2) Punkte für einfaches Simulated Annealing mit höherer Schrittzahl auch
bei größeren Rechenzeiten liegen.
Aus P [F = Fmax ] und der Rechenzeit wird die Performanz berechnet, um unter den
verglichenen Fahrplänen Aufschluss über den besten für das Simulated Annealing zu erhalten4 .
Schrittzahl Performanz
0
0.08 ± 0.02
1000
0.10 ± 0.02
2000
0.15 ± 0.02
3000
0.16 ± 0.02
4000
0.15 ± 0.02
6000
0.12 ± 0.02
Im Sinne der Performanz wird dieses Optimum mit 3000 Schritten für das gegebenen
Intervall erreicht.
Ein weiteres Kennzeichen der Schrittverteilung ist das Verhältnis von Temperaturschritten und Thermalisierungsschritten im Simulated Annealing.
Einfluß von Thermalisierungsschritten Das Optimum von 3000 Schritten wird nun
für weitere Fahrpläne verwendet, in denen der Einfluß von Thermalisierungsschritten untersucht wird.
Dazu wird das Verhalten einer Reihe von Fahrplänen untersucht, deren Gesamtschrittzahl bei 3000 fixiert ist, die aber unterschiedliche Verhältnisse von Temperatur- und
Thermalisierungsschritten verwenden. Ausschnitte von dreien dieser Fahrpläne werden
in Abbildung 4.3 gezeigt.
Im Intervall [0.4, 1.4] wurde die Temperatur (nT − 1)-mal abgesenkt und bei jeder
Temperatur jeweils nT h Thermalisierungsschritte ausgeführt.
4
Reine Überrel. ist in der Tabelle durch 0 Simulated Annealingschritte gekennzeichnet
4.1 SU (2) Eichfixierung
47
Fa hrplä ne zum Therm a lisierung sverha lten
1.4
30 x 100
150 x 20
3000 x 1
T(i)
1.35
1.3
1.25
1.2
0
50
100
150
200
250
300
350
400
450
500
550
i - Simula ted A nnea ling Schritt
Abbildung 4.3: Ausschnitt der Simulated Annealing Fahrpläne mit 3000 Schritten im Intervall [0.4, 1.4]
mit unterschiedlichen Verhältnissen von Temperaturschritten nT zu Thermalisierungsschritten nT h . Die
Legende gibt dieses Verhältnis in der Form nT × nT h wieder, um zu verdeutlichen, dass das Produkt
konstant ist.
Die Ergebnisse des Vergleichs verschiedener Fahrpläne sind in Abbildung 4.4 dargestellt.
Verteilung der Funktionalwerte
Rechenzeiten
0.35
0.35
RLX
3000 x 1
1000 x 3
250 x 12
150 x 20
30 x 100
P [F = F i ]
0.25
0.2
0.3
P [F = F max ]
0.3
0.15
0.25
0.2
0.15
0.1
0.1
0.05
0.05
0
5
10
15
i – durchnum m erierte Funktio na lwerte
0
1
2
3
4
R echenzeit in Einheiten der Ü berrela xa tio n
Abbildung 4.4: Wahrscheinlichkeitsverteilung über den Funktionalwerten und Zusammenhang von Rechenzeit und Wahrscheinlichkeit, das Maximum zu erreichen für Simulated Annealing Methoden mit
verschiedener Zahl von Thermalisierungsschritten (nT h ∈ {1, 3, 12, 20, 100}) bei konstant gehaltener Gesamtzahl nt × nT h von Simulated Annealing Schritten. Da alle Fahrpläne die gleiche Gesamtschrittzahl
verwenden, benötigen sie auch in etwa die gleiche Zeit für die Eichfixierung. Gemittelt wurde bei β = 2.4
auf einem 164 Gitter über 78 Konfigurationen mit jeweils 50 Kopien.
48
Kapitel 4
Resultate
Weder in der Wahrscheinlichkeitsverteilung über den Funktionalwerten auf der linken Seite, noch in der Rechenzeit auf der rechten Seite der Grafik ist ein signifikanter
Unterschied der Thermalisierungsfahrpläne zu erkennen. Dieses Ergebnis ist insofern von
Bedeutung, dass es zeigt, dass ein längerer Thermalisierungsprozess bei jeder gewählten
Temperatur nicht nötig ist und die Temperatur während des gesamten Simulated Annealings kontinuierlich abgesenkt werden kann.
Bisher ist die Aufteilung der Simulated Annealing Schritte auf das Temperaturintervall sehr gleichmäßig geschehen, so dass zum Beispiel in der oberen Hälfte des Intervalls
genauso viele Schritte gemacht werden, wie in der unteren. Es gibt jedoch auch für andere Verteilungen gute Argumente und ihre Auswirkungen sollen im Folgenden untersucht
werden.
Verteilung der Temperaturschritte Der Beweis für die Konvergenz des Simulated
Annealings verlangt, dass fast alle Schritte des Simulated Annealing Fahrplans in jeder Umgebung von T = 0 liegen müssen. Insbesondere wird also verlangt, dass um so
mehr Schritte gemacht werden, um so kleiner die Temperatur wird. Der Grund liegt
in der Geschwindigkeit der Konvergenz der Markovkette (Abschnitt A.2). Sie ist um
so langsamer, je kleiner die kleinste Übergangswahrscheinlichkeit zwischen zwei beliebigen Eichtransformationen ist. Mit abnehmender Temperatur im Simulated Annealing
geht diese Übergangswahrscheinlichkeit gegen Null und muß, um Quasithermalisiertheit
||Pn;Tn [F = Fmax ] − pmax (Tn )|| ≤ ² im n-ten Schritt bei der Temperatur Tn zu gewährleisten, durch ein längeres Verweilen bei diesen Temperaturen ausgeglichen werden (vgl. hierzu Abschnitt 3.3.6). In diesem Sinne erscheint im Temperaturfahrplan für das Simulated
Annealing eine höhere Dichte von Schritten bei tiefen Temperaturen begründet. Jedoch
ist zu berücksichtigen, dass gerade für niedrige Temperaturen auch die Schrittzahl zum
Erreichen eines Quasigleichgewichtes deutlich zunimmt. Je nach vorgegebener Gesamtschrittzahl, von der auch die veranschlagte Rechenzeit abhängt, wird es dann günstiger
sein diese Temperaturschritte auf einen Temperaturbereich zu konzentrieren, in dem mit
dieser Schrittzahl tatsächlich quasithermalisiert werden kann. Dies kann auch bedeuten,
die Schritte entgegen der ursprünglichen Intuition stärker bei hohen Temperaturen zu
gewichten.
Da eine einfache Entscheidung zwischen diesen beiden Ansätzen nicht ohne weiteres
möglich ist, werden im folgenden drei verschiedene Verteilungen der Simulated Annealing Schritte verglichen. Eine mit überwiegender Zahl von Simulated Annealing-Schritten
bei höheren Temperaturen, eine mit einer stärkeren Gewichtung bei kleinen Temperaturen und eine, die die Schritte, wie schon eingangs betrachtet, gleichmäßig über das
Intervall verteilt. Die Gesamtzahl der Simulated Annealing Schritte wird für alle Fahrpläne konstant gehalten. Gleichzeitig wird damit auch erfasst, inwieweit die abschließende
Überrelaxation die Präkonditionierung des Simulated Annealings erhält.
Hierfür ist es zunächst sinnvoll, eine Funktion zu definieren, die für gegebene Temperaturintervall und Schrittzahl einen Fahrplan erzeugt, der diesen Verteilungen genügt. Ist
nun [Tmin , Tmax ] das Temperaturintervall, in dem N Simulated Annealing Schritte verteilt
werden sollen, so ist
 £
¤ 1
−µ
−µ − µ
−µ
 (Tmin
für µ 6= 0
+ Tmax
− Tmax
) · Ni−1
−1
´ Ni−1
³
T (i) =
−1
Tmin

· Tmax
für µ = 0
Tmax
4.1 SU (2) Eichfixierung
49
eine Funktion, die für jeden Schritt i ∈ [1, .., N ] angibt, bei welcher Temperatur das
Update der Transformation erfolgen soll. Es gilt T (1) = Tmax und T (N ) = Tmin . Der
Parameter µ legt die Verteilung dazwischen liegender Schritte fest und ist so gewählt, dass
die Änderung der Temperatur proportional zu T µ+1 ist und für µ > 0 mit wachsendem i
gegen Null geht.
∂
T ∝ T µ+1 (i)
∂i
und
µ>0
T (i) −−−→ 0
i→∞
Für µ = −1 ergibt sich beispielsweise eine konstante Schrittweite. Für µ > −1 nimmt die
Schrittweite während des Abkühlens ab, für µ < −1 startet sie mit kleinen Schritten und
wird dann größer. Untersucht wurden µ = 2, µ = −1 und µ = −4 für Fahrpläne mit 3000
Schritten im Intervall [0.4, 1.4] (Abb. 4.5).
Fa hrplä ne verschiedener Verteilung en
1.6
µ=2
µ = −1
µ = −4
1.4
T(i)
1.2
1
0.8
0.6
0.4
0.2
0
500
1000
1500
2000
2500
3000
i - Simula ted A nnea ling Schritt
Abbildung 4.5: Darstellung der Simulated Annealing Fahrpläne auf dem Temperaturintervall [0.4, 1.4]
für verschiedene Werte des Verteilungsparameters µ
Da i proportional zur Rechenzeit ist, wird so auch die Verweildauer des Algorithmus
in den einzelnen Temperaturbereichen definiert.
50
Kapitel 4
Vergleich der Performanzwerte
Verteilung der Funktionalwerte
0.35
0.22
0.3
0.18
Perfo rm a nz
P [F = F i ]
0.2
RLX
µ=2
µ = −1
µ = −4
0.25
0.2
0.15
0.16
0.14
0.1
0.12
0.05
0.1
0
Resultate
2
4
6
8
10
12
14
i – durchnum m erierte Funktio na lwerte
0.08
−4
−2
0
2
Verteilung spa ra m eter µ
Abbildung 4.6: Verteilung der Funktionalwerte und Performanz für verschiedene Verteilungen der Simulated Annealing Schritte auf dem Temperaturintervall [0.4, 1.4]. Gemittelt wurde bei β = 2.4 auf einem
164 Gitter über 52 Konfigurationen mit jeweils 50 Kopien.
Abbildung 4.6 stellt für die drei Fahrpläne die Wahrscheinlichkeitsverteilungen der
Funktionalwerte und die Performanz in Abhängigkeit vom Verteilungsparameter µ dar.
Dabei ist kein signifikanter Unterschied zwischen Fahrplänen mit einer Konzentration
der Schritte am unteren Intervallende und solchen mit einer Konzentration der Schritte
am oberen Intervallende zu erkennen. Der Grund ist vermutlich in der als noch zu hoch
angesetzten unteren Grenze des Temperaturintervalls zu suchen, denn in einer später
vorgestellten Untersuchung gibt es einen signifikanten Unterschied zwischen diesen drei
Verteilungen.
Da ein signifikanter Unterschied zu diesem Zeitpunkt jedoch fehlte, war eine konstante
Schrittweite5 und damit eine gleichmäßige Verteilung der Temperaturschritte auf dem
Intervall die unkomplizierteste Wahl für weitere Untersuchungen.
Mikrokanonische Schritte
Eine optimierte Variante des Simulated Annealing geht aus der Nutzung von mikrokanonischen Schritten bei jeder Temperatur hervor. Ursprünglich aus der Überrelaxation
hervorgegangen und auch zur Verminderung der Autokorrelation bei Gleichgewichtssimulationen eingesetzt (Abschnitt 3.3.3, Seite 29), erweisen sie sich auch als hilfreich, die
Ergodizität des Simulated Annealings und damit seine Konvergenz zu beschleunigen.
Betrachtet werden Simulated Annealing Fahrpläne mit 3000 im Intervall [0.4, 1.4]
gleichverteilten Schritten. Bei jeder Temperatur wird ein Thermalisierungsschritt und eine variable Anzahl von mikrokanonischen Schritten durchgeführt. Alle Methoden wurden
auf einem 164 Gitter bei β = 2.4 getestet und unter Berücksichtigung ihrer Rechenzeit,
der Wahrscheinlichkeit, das Maximum zu finden und der Verteilung der Funktionalwerte
miteinander verglichen (Abbildung 4.7). Es fällt auf, das der Einbau von mikrokanonischen Schritten eine stärkere Gewichtung der Wahrscheinlichkeitsverteilung in der Nähe
des Maximums bewirkt (linkes Bild), wodurch auch das Maximum selbst mit größerer
Wahrscheinlichkeit angenommen wird. Auf der anderen Seite benötigen die zusätzlichen
5
Eine konstante Schrittweite entspricht µ = −1.
4.1 SU (2) Eichfixierung
51
Funktionalwertverteilung
Rechenzeiten
0.45
0.5
0.4
0.3
0.4
0.35
P [F = F max ]
0.35
P [F = F i ]
0.45
RLX
3000 + 0
3000 + 1
3000 + 3
1000 + 3
0.25
0.2
0.15
0.3
0.25
0.2
0.15
0.1
0.1
0.05
0.05
0
5
10
15
i – durchnum m erierte Funktio na lwerte
0
1
2
3
4
5
6
m ittlere R echenzeit
Abbildung 4.7: Wahrscheinlichkeitsverteilung über den durchnummerierten Funktionalwerten und der
Zusammenhang von Rechenzeit und Wahrscheinlichkeit, das Maximum zu erreichen, für Überrelaxation
(RLX) und Simulated Annealing mit modifizierter Schrittzahl nT und variabler Zahl von mikrokanonischen Schritten nm (in der Darstellung nT + nm ) im Intervall [0.4, 1.4]. Die Rechenzeit ist in Einheiten
der mittleren Dauer für reine Überrelaxation angegeben. Gemittelt wurde bei β = 2.4 auf einem 164
Gitter über 41 Konfigurationen mit jeweils 50 Kopien.
mikrokanonischen Schritte auch mehr Rechenzeit. Für eine systematischere Analyse wird
nun zunächst die Performanz von Methoden mit gleicher Simulated Annealing Schrittzahl
verglichen, um danach auf Methoden mit konstanter Zahl von mikrokanonischen Schritten
einzugehen.
Ein Vergleich der Performanz für Methoden mit gleicher Simulated Annealing Schrittzahl 3000 zeigt ein Optimum von 1 oder möglicherweise 2 mikrokanonischen Schritten
während jeder Aktualisierung (Tabelle 4.1). Es erweist sich jedoch als günstiger, Simumikrokanonische Performanz
Schritte
0
0.13 ± 0.02
1
0.14 ± 0.02
3
0.10 ± 0.01
Tabelle 4.1: Simulated Annealing Methoden mit 3000 Schritten und einer variablen Zahl von mikrokanonischen Aktualisierungen pro Simulated Annealing Schritt
lated Annealing nicht nur um mikrokanonische Schritte zu erweitern, sondern Simulated
Annealing Schritte teilweise durch mikrokanonische zu ersetzen. Zum einen ist der Rechenaufwand für mikrokanonische Schritte geringer, als für Heatbath Aktualisierungen, so
dass zwei Simulated Annealing Schritte gegen drei mikrokanonische Schritte ausgetauscht
werden können, ohne den Rechenaufwand zu erhöhen6 . Zum anderen wird, obwohl mikrokanonische Schritte das Eichfunktional invariant lassen, mit der so entstandenen Methode
6
In den Simulated Annealing Fahrplänen wurde von je drei Simulated Annealing Schritten einer erhalten und die übrigen beiden durch drei mikrokanonische ersetzt. Dadurch reduziert sich die Zahl der
Simulated Annealing Schritte in den Fahrplänen von 3000 auf 1000.
52
Kapitel 4
Resultate
das Maximum am Ende mit größerer Wahrscheinlichkeit angenommen als mit dem bisher
verwendeten Simulated Annealing. Dies zeigt sich besonders deutlich im Vergleich der
Performanz (Tabelle 4.2).
Sim. Ann. Schritte im Performanz
Intervall [0.4, 1.4]
3000
0.10 ± 0.01
1000
0.24 ± 0.03
Tabelle 4.2: Simulated Annealing Methoden mit variabler Schrittzahl aber je 3 mikrokanonischen Schritten pro Simulated Annealing Schritt
Unter Berücksichtigung von Folgerung 4.0.1 kann das Maximum des Eichfunktionals
mit einem auf diese Weise mikrokanonisch verbessertem Simulated Annealing in halber
Zeit mit der gleichen Wahrscheinlichkeit aufgefunden werden, als mit der üblichen Methode.
Das entscheidende Resultat dieses Abschnitt ist so auch die starke Beschleunigung des
Simulated Annealings durch mikrokanonische Schritte, was in alle weiteren Untersuchungen mit eingehen wird. Bisher nicht betrachtet wurde die Abhängigkeit des Simulated
Annealing Fahrplans von der Endtemperatur.
Variation der Endtemperatur Der Beweis für die Konvergenz des Simulated Annealings basierte auf dem Abkühlen der Eichtransformation im Limes T → 0. Da die
Bewegung im Zustandsraum bei kleinen Temperaturen jedoch sehr langsam wird, wurde Simulated Annealing bisher bei Tmin = 0.4 beendet. Es werden nun verschiedene
Methoden miteinander verglichen, die ein Absenken der Temperatur bis unter diese Temperatur umsetzen. In diesem Zusammenhang wird auch untersucht, wie hoch der Anteil
der Eichtransformationen nach Simulated Annealing ist, für die man bereits nach dem
Simulated Annealing ausschließen kann, dass sie das Eichfunktional maximieren werden,
so dass das abschließende Überrelaxieren eingespart werden kann.
Verglichen werden Simulated Annealing Fahrpläne, deren Schritte gleichmäßig über
das Temperaturintervall verteilt liegen. Dabei werden zwei Varianten des Absenkens der
Temperatur umgesetzt. Die ersten Variante hält die Schrittweite der Simulated Annealing
Schritte konstant, die zweite Variante die Gesamtschrittzahl.
4.1 SU (2) Eichfixierung
53
Verteilung der Funktionalwerte
Vergleich der Performanzen
0.7
Ueberrelaxation
[0.01, 1.4]
[0.20, 1.4]
[0.40, 1.4]
0.6
0.4
0.38
0.36
Perfo rm a nz
P [F = F i ]
0.5
0.4
0.3
0.34
0.32
0.3
0.28
0.2
0.26
0.1
0.24
0
0
5
10
15
0.22
−0.1
0
0.1
i – durchnum m erierte Funktio na lwerte
0.2
0.3
0.4
0.5
T min
Abbildung 4.8: Verteilung der Funktionalwerte und Performanzen für verschiedene Endtemperaturen
des Simulated Annealings bei konstant gehaltener Schrittweite der Temperaturabsenkungen. Gemittelt
wurde bei β = 2.4 auf einem 164 Gitter über 49 Konfigurationen mit jeweils 50 Kopien. Die Fehler im
linken Bild sind nicht eingetragen, um die Grafik übersichtlich zu lassen. Sie sind jedoch so groß, dass sie
hauptsächlich zum Fehler der Performanz beitragen.
Die Verteilungen der Funktionalwerte und die Performanzen von Simulated Annealing Fahrplänen mit verschiedener Endtemperatur sind in Abbildung 4.8 verglichen. Es
wurden Fahrpläne mit konstanter Schrittweite (Variante Eins) bei β = 2.4 auf einem
164 Gitter simuliert. Das Konstanthalten der Schrittweite führt dazu, dass auf größeren
Temperaturintervallen auch mehr Simulated Annealing Schritte nötig sind 7 :
Temperaturintervall Schritte
[0.01, 1.4]
1390
[0.20, 1.4]
1200
[0.40, 1.4]
1000
Vergleichbar werden die Fahrpläne hauptsächlich dadurch, dass sie auf den Teilintervallen,
die sie gemeinsam haben, identisch sind. Wie zu erwarten, wird die Wahrscheinlichkeit,
das Maximum zu erreichen, durch zusätzliche Simulated Annealing Schritte bei niedrigen Temperaturen erhöht (linkes Bild). Die für diese Schritte zusätzliche Rechenzeit geht
jedoch in die Performanz (rechtes Bild) ein, wo sich die Effekte von höherer Wahrscheinlichkeit für das Erreichen des Maximums und längerer Rechenzeit gerade gegenseitig aufheben. Im Sinne der Performanz unterscheiden sich diese Fahrpläne daher nicht signifikant
voneinander.
In einer weiteren Untersuchung wurden daher Simulated Annealing Fahrpläne verglichen, bei denen die Gesamtschrittzahl auf den betrachteten Temperaturintervallen
[0.01, 1.4], [0.2, 1.4] und [0.4, 1.4] für alle Fahrpläne 1000 war.
7
Die Schrittweite ist für Fahrpläne mit gleichmäßiger Schrittverteilung auf dem gesamten Intervall der
Quotient aus Intervalllänge und Schrittzahl.
54
Kapitel 4
Resultate
Vergleich der Performanzen
Verteilung der Funktionalwerte
0.7
0.4
Perfo rm a nz
0.5
P [F = F i ]
0.45
Ueberrelaxation
[0.01, 1.4]
[0.20, 1.4]
[0.40, 1.4]
0.6
0.4
0.3
0.35
0.3
0.2
0.25
0.1
0
0
5
10
0.2
−0.1
15
i – durchnum m erierte Funktio na lwerte
0
0.1
0.2
0.3
0.4
0.5
T min
Abbildung 4.9: Verteilung der Funktionalwerte und Performanzen für verschiedene Endtemperaturen
des Simulated Annealings bei konstant gehaltener Zahl von Simulated Annealing Schritten der unterschiedlichen Fahrpläne. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 33 Konfigurationen mit
jeweils 50 Kopien.
Die resultierenden Verteilungen der Funktionalwerte und die Performanzen sind in
Abbildung 4.9 zu sehen.
Bei konstant gehaltener Gesamtschrittzahl führt die niedrigere Endtemperatur auch in
diesem Fall zu einer größeren Wahrscheinlichkeit, nach der Überrelaxation das Maximum
zu finden (linkes Bild). Gleichzeitig benötigen alle drei Fahrpläne die gleiche mittlere
Rechenzeit, so dass Fahrpläne mit geringeren Endtemperaturen eine größere Performanz
erreichen.
Die letzte Untersuchung liefert abschließend einen guten Grund, die Endtemperatur
im Simulated Annealing Fahrplan in der Nähe von T = 0 zu wählen. Den Nullpunkt
direkt zu wählen ist nicht nötig, da dies einem Relaxationsschritt entspräche. Ein weiterer Effekt einer tiefen Endtemperatur ist, dass die einzelne Aktualisierung im Simulated
Annealing der Relaxation immer ähnlicher wird und bereits im Voraus absehbar wird, ob
die abschließende Überrelaxation zum Erfolg führen kann.
Erfolgsprognose nach Simulated Annealing Für die Eichfixierung ist man letzten
Endes nur an solchen Eichtransformationen interessiert, durch die das Eichfunktional sein
absolutes Maximum annimmt. Die nach Simulated Annealing erzeugten Eichtransformationen stellen noch keine Eichfixierung dar und müssen hierfür erst überrelaxiert werden.
Es soll im folgenden eine Methodik vorgestellt werden, die bereits vor der Überrelaxation erlaubt festzustellen, ob das Erreichen des absolute Maximums ausgeschlossen werden
kann.
Das Kriterium hierfür ist der Wert des Eichfunktionals nach dem Simulated Annealing,
der mit dem Endwert nach Überrelaxation verglichen wird. Zum Vergleich der Ergebnisse
verschiedener Konfigurationen wird der relative Funktionalwert
Frel =
F − Fmax
Fmax
(4.2)
4.1 SU (2) Eichfixierung
55
betrachtet. Fmax wird so für alle Konfigurationen auf Null abgebildet und stellt das Maximum der relativen Funktionalwerte einer Konfiguration dar.
Nach dem Simulated Annealing ist das tatsächliche Maximum des Eichfunktionals
ann
noch nicht bekannt, weshalb für die Berechnung des relativen Funktionalwertes Frel
der
ann
maximale Wert nach Simulated Annealing Fmax als Berechnungsgrundlage gewählt wird.
orx
Der relative Wert der schließlich eichfixierten Transformation wird mit Frel
bezeichnet 8
und es gilt:
ann
Frel
=
ann
F − Fmax
ann
Fmax
orx
Frel
=
F − Fmax
.
Fmax
(4.3)
Die Korrelation zwischen beiden Werten ist in Abbildung 4.10 für ein 124 und in Abbildung
4.11 für ein 244 Gitter gezeigt. Bei Versuchen mit verschiedenen Endtemperaturen wurde
ann
orx
erst bei Tmin = 0.01 ein funktioneller Zusammenhang zwischen Frel
und Frel
beobachtet.
Für die nächst größere untersuchte Temperatur Tmin = 0.05 wurde keine Korrelation mehr
gefunden.
−3
0
−4
x 10
0
x 10
−0.2
−1
−0.6
Forx
rel
Forx
rel
−0.4
−0.8
−2
−1
34.7% potentiell maximal
65.3% aussortierbar
98.2% potentiell maximal
1.8% aussortierbar
−1.2
−3
−1
−0.5
Fann
rel
0
−3
x 10
Abbildung 4.10: Korrelation zwischen relaann
tivem Funktionalwert vor (Frel
) und nach
orx
(Frel ) der Überrelaxation für einen Simulated
Annealing Fahrplan mit 1200 Schritten auf dem
Temperaturintervall [0.01, 1.4]. Gemittelt wurde auf einem 124 Gitter bei β = 2.4, über 200
Konfigurationen mit jeweils 50 Kopien.
−3
−2
Fann
rel
−1
0
−4
x 10
Abbildung 4.11: Korrelation zwischen relaann
tivem Funktionalwert vor (Frel
) und nach
orx
(Frel ) der Überrelaxation für einen Simulated
Annealing Fahrplan mit 3738 Schritten auf dem
Temperaturintervall [0.01, 1.4]. Gemittelt wurde auf einem 244 Gitter bei β = 2.4, über 4
Konfigurationen mit jeweils 50 Kopien.
Jeder Punkt in den Darstellungen entspricht einer Gribov-Kopie. Auf der Abzisse ist
der relative Funktionalwert nach Simulated Annealing und auf der Ordinate der Wert nach
Überrelaxation aufgetragen. Durch einen helleren Farbton gekennzeichnet sind Kopien, für
die im Rahmen der Messungen bereits nach dem Simulated Annealing feststellbar gewesen
wäre, dass sie das Eichfunktional nicht maximieren werden.
Auf dem 124 Gitter erreichte keine Eichtransformation, deren relativer Funktionalwert
nach Simulated Annealing kleiner als 2 · 10−4 war, nach Überrelaxation das Maximum.
8
Der Index orx beieht sich auf die englische Bezeichung Overrelaxation für die Überrelaxation
56
Kapitel 4
Resultate
Auf einem 244 Gitter liegt dieser Wert bei 3·10−5 . Nutzt man dies als Ausschlußkriterium,
so lassen sich auf dem 124 Gitter zwar nur 1.8% der Überrelaxationen einsparen, auf dem
244 Gitter sind es aber immerhin deutlich mehr als 50% der Transformationen, die dieses
Kriterium erfüllen.
Der Grund für die Abhängigkeit von der Gittergröße ist vermutlich darin zu suchen,
dass auf kleinen Gittern noch relativ wenige Gribov-Kopien gefunden werden und auch
ohne Simulated Annealing bereits ein großer Anteil von ihnen den maximalen Funktionalwert annimmt. Auf großen Gittern nimmt die Zahl der Gribov-Kopien zu. Da die
Verteilung der Funktionalwerte stark von der Zahl der Simulated Annealing Schritte, von
der Gittergröße und von der Zahl der Schritte bei kleinen Temperaturen abhängt, ist an
dieser Stelle nur die Aussage möglich, dass bereits nach dem Simulated Annealing eine
Prognose über den Erfolg der abschließenden Überrelaxation nur dann getroffen werden
ann
kann, falls Tmin ≤ 0.01 ist. Das exakte Ausschlusskriterium für Frel
muss für jeden Fahrplan separat ermittelt werden.
Verteilung und Schrittzahl Die Parameter Schrittzahl9 und Schrittverteilung10 wurden bisher nur für Simulated Annealing ohne mikrokanonische Schritte untersucht. Die
gleichzeitige Optimierung dieser Parameter ist das Ziel des folgenden Abschnitts. Ein Erklärungsansatz für die sichtbar werdenden Zusammenhänge wird am Ende des Abschnitts
präsentiert.
Fa hrplä ne verschiedener Verteilung en
1.4
1.2
T(i)
1
0.8
0.6
µ = 0.3
µ = −1
µ = −5
0.4
0.2
0
0
200
400
600
800
1000
i - Simula ted A nnea ling Schritt
Abbildung 4.12: Temperaturfahrpläne für verschiedene Verteilungen der Temperaturschritte im Temperaturintervall [0.01, 1.4]. Für Temperaturfahrpläne mit einer anderen Gesamtschrittzahl bleibt das Bild
das gleiche und es ändert sich nur die Einteilung auf der Abzisse. Die Form des Fahrplans bleibt erhalten.
Es wurden wieder Häufungen der Schritte zum Beginn des Simulated Annealings
(µ = −5), Häufungen am Ende (µ = 0.3) und Fahrpläne mit über das Intervall gleichverteilten Simulated Annealing Schritten verglichen. Eine Darstellung solcher Fahrpläne
9
10
Kapitel 4.1.1, Seite 45
Kapitel 4.1.1, Seite 48
4.1 SU (2) Eichfixierung
57
zeigt Abbildung 4.12. Alle Schrittverteilungen hatten das Simulated Annealing Intervall
[0.01, 1.4] als Grundlage und wurden mit verschiedenen Schrittzahlen (150, 300, 700 und
1000 Schritte) simuliert. Die Darstellung von Fahrplänen mit weniger als 1000 Schritten
entsprechen, bis auf Skalierung der Absizze, obiger Abbildung. Alles in allem wurden also
12 verschiedene Fahrpläne miteinander verglichen.
Vergleich der Rechenzeiten
Vergleich der Performanzen
0.4
0.5
0.35
0.4
Perfo rm a nz
P [F = F max ]
0.3
0.3
0.2
0.1
0
−0.1
1
1.5
2
0.25
0.2
1000 Schritte
700 Schritte
300 Schritte
150 Schritte
0.15
0.1
µ = −5
RLX
0.05
µ = −1
µ=2
2.5
3
Zeit in Einheiten der Ü berrela xa tio nsrechenzeit
200
400
600
800
1000
Schrittza hl
Abbildung 4.13: Vergleich der Rechenzeiten und Performanzen für verschiedene Verteilungen der Simulated Annealing Schritte auf dem Intervall [0.01, 1.4] bei variabler Schrittzahl. Fahrpläne, die die
gleiche Anzahl von Simulated Annealing Schritten verwenden, sind mit der gleichen Farbe kodiert (linke
Legende). Fahrpläne mit gleicher Schrittverteilung sind durch die Verwendung der gleichen Symbole gekennzeichnet. Da die Rechenzeit hauptsächlich von der Zahl der Simulated Annealing Schritte abhängt
gehören Punkte, die in der linken Grafik zeitlich dicht beieinander liegen, zu Fahrplänen mit der gleichen Schrittzahl und wurden in der gleiche Farbe eingetragen. Gemittelt wurde bei β = 2.4 auf einem
164 Gitter über 28 Konfigurationen mit jeweils 50 Kopien. Der Fehler der Rechenzeiten ist um zwei
Größenordnungen kleiner als die Rechenzeit selbst.
In Abbildung 4.13 sind die Ergebnisse für die verschiedenen Fahrpläne dargestellt. Im
linken Bild ist die mittlere Wahrscheinlichkeit, das Maximum zu finden, gegen die mittlere
Rechenzeit der Fahrpläne aufgetragen. Da bei der Rechenzeit für einen Aktualisierungsschritt die Temperatur kaum eine Rolle spielt, sind Fahrpläne mit gleicher Anzahl von
Simulated Annealing Schritten auch in etwa bei ähnlich langen Rechenzeiten angesiedelt
und wurden in der gleichen Farbe dargestellt. Die Schrittverteilung selbst, also der Wert
von µ, ist durch das Symbol des Fahrplans kodiert. Im rechten Bild ist die Performanz
dargestellt. Fahrpläne mit gleicher Schrittverteilung sind durch einen approximierten Kurvenverlauf miteinander verbunden, so dass für jede Verteilung die Schrittzahl visuell optimiert werden kann. Für die Approximation im rechten Bild wurde zunächst das Verhalten
P = f (tr ) der Fahrpläne mit gleicher Verteilung im linken Bild mit einer Exponentialfunktion f (T ) = a1 + a2 exp − atr3 abgeschätzt und aus diesen Funktionen das Verhalten
der Performanzen berechnet.
Eine größere Anzahl von Simulated Annealing Schritten verbessert für alle Verteilungen die Wahrscheinlichkeit, das Maximum zu erreichen, wie im linken Bild ablesbar ist.
Gleichzeitig ist damit zusätzlicher Rechenaufwand verbunden. Beide Größen ergeben das
rechte Bild der Performanz. Hier erzielte auf einem 164 Gitter ein Fahrplan mit 300 bis
400 Schritten und einer Verteilung µ = −1 die beste Performanz.
58
Kapitel 4
Resultate
Im rechten Bild der Performanz scheint es bei den Schrittzahlen drei unterschiedliche
Regimes zu geben, für die im Folgenden ein qualitativer Erklärungsansatz geliefert werden soll, da sie auch in der SU (3) Gittereichtheorie wiederzufinden sind. Die Ergebnisse
decken sich auch mit Untersuchungen, die im Rahmen der Coulomb-Eichung durchgeführt
wurden.
Im ersten Regime bei weniger als 50 Schritten sind Fahrpläne von Vorteil, die den
Hauptanteil der Schritte bei hohen Temperaturen durchführen (µ < −1). Der Grund
ist vermutlich, dass Simulated Annealing Aktualisierungen bei kleinen Temperaturen nur
geringe Wirkung zeigen (Abschnitt 3.4.2, S. 38). Die größte Wirkung wird bei großen Temperaturen erzielt, weshalb es am besten ist, auch die meisten Schritte in diesem Bereich zu
machen. Da die Gesamtschrittzahl recht niedrig ist, wird die Eichtransformation trotzdem
noch nicht thermalisiert. Das Optimum von Verteilungen mit µ = −5 liegt entsprechend
bei kleinen Schrittzahlen unterhalb von 300.
In einem zweiten Regime bei sehr großen Schrittzahlen sind Fahrpläne von Vorteil,
die die Mehrzahl der Aktualisierungen in Bereichen kleiner Temperatur machen (µ =
−0.3). Diese Tendenz ist am rechten Bildrand bereits zu erahnen, wo die zugehörige
Kurve bereits besser ist als bei einer gleichmäßige Schrittverteilung. Der Grund ist hier
vermutlich auch in der großen Mobilität bei hohen Temperaturen zu suchen. Schritte
in diesem Bereich würden die Eichtransformation sehr schnell thermalisieren, so dass
zusätzliche Schritte in diesem Temperaturbereich an der Wahrscheinlichkeitsverteilung
der Eichtransformationen im Zustandsraum kaum noch etwas ändern. Wenn viele Schritte
zur Verfügung stehen, ist ein schnelles Absenken der Temperatur daher von Vorteil. Ein
weiteres Indiz ist, dass desto mehr Simulated Annealing Schritte zur Verfügung stehen,
desto änlicher wird das Simulated Annealing dem mathematisch idealisierten Verfahren
mit unendlich vielen Schritten, dass bekanntlich voraussetzt, dass fast alle Schritte in
jeder Umgebung von Null durchgeführt werden. Insofern kann dies auch erklären, warum
Fahrpläne, die die meisten Schritte bei kleinen Temperaturen machen, ihr Optimum der
Performanz bei mehr als 1000 Schritten haben.
Über den Bereich zwischen diesen beiden Regimen lässt sich keine Erklärung für das
Verhalten der verschiedenen Verteilungen angeben. Interessanterweise liegt aber der optimale Fahrplan in diesem Bereich und nutzt eine Gleichverteilung von 300 Schritten auf
dem gesamten Intervall.
Nach Optimierung von Schrittzahl und Schrittverteilung, die sowohl Rechenzeit als
auch den Wert von pmax betrafen, soll im Folgenden eine Methodik beschrieben werden,
die nur versucht, die Rechenzeit zu reduzieren.
4.1.2
I120 -Eichfixierung
Eine Reduktion der Rechenzeit lässt sich durch Vereinfachung der aufwändigen Matrixmultiplikationen und durch eine Reduktion der im Speicher zu bewegenden Daten erzielen.
Beiden Ansprüchen wird versucht mit der Projektion der SU (2) auf die ikosaedrale Untergruppe I120 entgegenzukommen (Abschnitt 3.3.7, Seite 36). Die häufig auszurechnenden
Produkte der Form g(x)Uµ (x)g † (x + eµ ) lassen sich hier mit einer Multiplikationstabelle deutlich schneller bestimmen und, da diese Gruppe nur 120 Elemente enthält, lassen
sich sämtliche Elemente der Transformationen und Konfigurationen durch natürliche Zahl
kleiner als 127 codieren.
4.1 SU (2) Eichfixierung
59
Das setzt voraus, dass die Eichkonfiguration zunächst auf die Ikosaeder Untergruppe
I120 projiziert wird. Für diese projizierte Konfiguration wird mit der Methode des Simulated Annealings die Landau-Eichung so gut wie möglich auf der Untergruppe fixiert.
Die so gewonnene I120 Eichtransformation dient dann als präkonditionierte Eichtransformation für die abschließende Überrelaxation. Diese wird wieder auf der ursprünglichen
Eichkonfiguration durchgeführt. Der Erfolg der Präkonditionierung auf dem Ikosaeder ist
in Abbildung 4.14 dargestellt.
Funktionalwertverteilung
Rechenzeiten
0.5
0.5
P [F = F i ]
0.4
P [F = F max ]
RLX
Ikosaeder
SU(2)
0.3
0.4
0.3
0.2
0.2
0.1
0.1
0
0
5
10
15
i – durchnum m erierte Funktio na lwerte
0
0.5
1
1.5
2
2.5
3
3.5
m ittlere R echenzeit T
Abbildung 4.14: Vergleich der Rechenzeiten und Performanzen für Simulated Annealing mit mikrokanonischen Schritten auf der SU (2) und für Simulated Annealing auf dem Ikosaeder. Die abschließende
Überrelaxation wurde wieder auf der vollen SU (2) ausgeführt. Gemittelt wurde über ein Ensemble von
83 Konfigurationen mit jeweils 50 Eichkopien auf einem 164 Gitter bei β = 2.4. Als Simulated Annealing
Intervall wurde [0.4, 1.2] gewählt.
Die Wahrscheinlichkeitsverteilung über den ersten 15 gefundenen Funktionalwerten
für Überrelaxation, Simulated Annealing mit mikrokanonischen Schritten (SU (2)) und
Simulated Annealing auf dem Ikosaeder im linken Bild werden den mittleren Rechenzeiten im rechten Bild gegenübergestellt. Die Fahrpläne für das Simulated Annealing senkten die Temperatur im Intervall [0.4, 1.2] ab11 . Auf dem Ikosaeder bestand der Fahrplan
aus 3000 Schritten. Das Simulated Annealing mit mikrokanonischen Schritten senkte die
Temperatur in 1000 Schritten ab. Auf jeden Simulated Annealing Schritt folgten drei
mikrokanonische.
Eine Gegenüberstellung der wichtigsten Kenngrößen (Rechenzeit, Wahrscheinlichkeit
für das Erreichen des Maximums und Performanz) erfolgt in Tabelle 4.3. Zum Vergleich
wurden die Werte aus Abschnitt 4.1.1, Seite 46 für das Simulated Annealing ohne mikrokanonische Schritte mit angegeben, da es den gleichen Fahrplan wie Simulated Annealing
auf dem Ikosaeder nutzte.
11
Da es sich um eine ältere Untersuchung zur qualitativen Wirkung der Ikosaeder Projektion handelt,
sind noch nicht alle Verbesserungen, wie das Absenken der Temperatur bis auf 0.01 in den Fahrplänen
enthalten.
60
Kapitel 4
Methode
Ikosaeder SA
gewöhliches SA
mikrokan. SA
Resultate
tr
pmax
Performanz
2.103 ± 0.006 0.25 ± 0.02 0.14 ± 0.02
3.367 ± 0.003 0.32 ± 0.03 0.11 ± 0.01
2.318 ± 0.003 0.50 ∓ 0.03 0.29 ± 0.03
Tabelle 4.3: Vergleich von Simulated Annealing, Simulated Annealing mit mikrokanonischer Optimierung und Simulated Annealing auf dem Ikosaeder. Die mittleren Rechenzeiten sind in Einheiten der
Rechenzeit für die Überrelaxation angegeben.
Während gewöhnliches Simulated Annealing mit 3000 Schritten ohne mikrokanonische
Schritte etwas mehr als die dreifache Rechenzeit der Überrelaxation benötigt (Abbildung
4.4), reduziert sich diese auf die zweifache Rechenzeit unter Nutzung des I120 (rechtes
Bild). Allerdings wird auch das Maximum mit einer geringeren Wahrscheinlichkeit angenommen, was vermutlich darauf zurückzuführen ist, dass auf der I120 nicht die ursprüngliche Konfiguration optimiert wird, sondern eine projizierte. Von größerer Bedeutung als der
Vergleich mit gewöhnlichem Simulated Annealing ist jedoch der durchgeführte Vergleich
mit dem mikrokanonisch verbesserten Simulated Annealing. Im rechten Bild ist deutlich
zu erkennen, dass dieses Simulated Annealing nur geringfügig mehr Rechenzeit benötigt,
dafür aber das Maximum mit einer wesentlich höheren Wahrscheinlichkeit findet.
Prinzipiell ist es möglich, dass die Rechnungen auf der I120 noch nicht optimal umgesetzt wurden und der Algorithmus deutlich schneller laufen könnte. Aber auch, wenn
von einem Algorithmus ausgegangen wird, der für das reine Simulated Anneling auf der
Untergruppe keine Zeit benötigt, ist mindestens die Rechenzeit für die abschließende Überrelaxation tr = 1 notwendig. Das Maximum wird trotzdem mit der gleichen Wahrscheinlichkeit P [F = Fmax = 0.25 ± 0.02] angenommen und die Performanz des UntergruppenSimulated-Annealings kann also bestenfalls G = 0.29 ± 0.03 werden, was in diesem Beispiel genau der Performanz des Simulated Annealings mit mikrokanonischen Schritten
entspricht. Ein Algorithmus, der keine Rechenzeit beansprucht, ist jedoch nur ein hypothetischer Grenzfall.
Nicht präsentiert, weil ohne sichtbaren Erfolg, ist ein Versuch, mikrokanonische Schritte auch auf der I120 umzusetzen. Es war kein Unterschied zu einem Algorithmus ohne diese
Schritte sichtbar. Auch die Präkonditionierung mittels eines Relaxationsalgorithmus innerhalb der I120 war nicht dazu geeignet, Rechenzeit für die abschließende Überrelaxation
einzusparen und wurde deshalb nicht weiter dargestellt.
4.1.3
Simulated Annealing auf großen Gittern
Abschließend wird auf den deutlichen Vorteil von Simulated Annealing eingegangen, der
bei der Auswertung von Konfigurationen auf einem großen 244 Gitter sichtbar wurde.
4.1 SU (2) Eichfixierung
61
16 4 Überrelaxation
1
24 4 Überrelaxation
0.8
0.8
P [F ∈ bin]
P [F ∈ bin]
0.6
0.6
0.4
0.4
0.2
0.2
0
0
2
4
0
6
−Frel
0
2
4
6
−Frel
−4
x 10
16 4 Sim. Annealing
−4
x 10
24 4 Sim. Annealing
1
0.8
0.8
P [F ∈ bin]
P [F ∈ bin]
0.6
0.6
0.4
0.4
0.2
0.2
0
0
2
4
−Frel
0
6
−4
x 10
0
2
4
−Frel
6
−4
x 10
Abbildung 4.15: Verteilung der relativen Funktionalwerte Frel nach alleiniger Überrelaxation und nach
mikrokanonisch verbessertem Simulated Annealing mit anschließender Überrelaxation für ein 164 und ein
244 Gitter. Die Simulated Annealing Fahrpläne nutzten Gleichverteilungen der Temperaturschritte im
Temperaturintervall [0.4, 1.2]. Bei jeder Temperatur wurde ein Thermalisierungsschritt und 3 mikrokanonische Schritte durchgeführt. Die Gesamtzahl der Simulated Annealing Schritte betrug 1000 auf dem
164 Gitter und 2600 auf dem 244 Gitter. Gemittelt wurde bei β = 2.4 über 39 Konfigurationen mit je
150 Kopien auf dem 164 Gitter und über 7 Konfigurationen mit je 150 Kopien auf dem 244 Gitter. Da
Überrelaxation und Simulated Annealing auf den gleichen Konfigurationen simuliert wurde, bezieht sich
Fmax auf den größten von einem der beiden Algorithmen gefundenen Funktionalwerte.
Zunächst ist in Abbildung 4.15 die Verteilung der relativen Funktionalwerte (Gleichung
4.2) nach kompletter Eichfixierung einmal nach alleiniger Überrelaxation und einmal nach
vorherigem Simulated Annealing mit mikrokanonischen Schritten im Intervall [0.4, 1.2] für
die beiden Gittergrößen 164 und 244 dargestellt. Da die Messungen aus einem früheren
Stadium der Untersuchung stammen, ist die Endtemperatur noch auf 0.4 festgelegt. In
den oberen Bildern ist die Verteilung zu sehen, wie sie nach Eichfixierung mittels Überrelaxation (ω = 1.63) zu erwarten ist. Während auf einem 164 Gitter noch eine stärkere
Häufung der Werte in der Nähe des Maximums erkennbar ist, liegt das Maximum der
Verteilung auf einem 244 bei einem deutlich von Null verschiedenen Wert. In den unteren
Bildern sind die Verteilungen nach Präkonditionierung der Transformationen durch Simulated Annealing zu sehen. Hier liegt der Schwerpunkt der Verteilung klar in der Nähe
des Maximums.
62
Kapitel 4
Resultate
P [−Frel ≤ 2.5 · 10−5 ]
164
244
0.30
0.02
0.89
0.66
Methode
Überrelaxation
mikrokan. SA
Tabelle 4.4: Vergleich der Wahrscheinlichkeit P [Frel ≤ 2.5 · 10−5 ] mit und ohne Präkonditionierung
durch Simulated Annealing auf verschiedenen Gittergrößen.
Die Wahrscheinlichkeiten für Eichfixierungen mit relativen Funktionalwerten im ersten Bin sind in Tabelle 4.4 zusammengetragen. Auffällig ist, dass für Überrelaxation die
Wahrscheinlichkeit für Funktionalwerte in diesem Bin für das größere Gitter stark abnimmt. Dieser Trend war bereits auf kleineren Gittern bemerkbar, ist aber auf einem 244
Gitter mit 2% besonders deutlich.
Die Wahrscheinlichkeitsverteilug der durchnummerierten Funktionalwerte für Überrelaxation und Simulated Annealing auf den beiden Gittern ist in Abbildung 4.16 dargestellt, da man in diesem Bild deutlicher erkennen kann, mit welcher Wahrscheinlichkeit
das größte Maximum gefunden wird.
16 4 Überrelaxation
0.5
24 4 Überrelaxation
0.12
0.1
P [F = Fi ]
P [F = Fi ]
0.4
0.3
0.2
0.1
0
0.08
0.06
0.04
0.02
0
10
20
30
40
0
50
0
50
100
i
i
16 4 Sim. Annealing
24 4 Sim. Annealing
150
0.5
0.12
0.1
P [F = Fi ]
P [F = Fi ]
0.4
0.3
0.2
0.1
0
0.08
0.06
0.04
0.02
0
10
20
30
i
40
50
0
0
50
100
150
i
Abbildung 4.16: Wahrscheinlichkeitsverteilung der durchnummerierten Funktionalwerte für reines
Überrelaxieren und für Simulated Annealing auf verschiedenen Gittern. Die Parameter für Simulated
Annealing Fahrpläne und statistische Angaben können Abbildung 4.15 entnommen werden.
Hier tritt die ungenügende Eichfixierung durch Überrelaxation besonders dadurch hervor, dass der im Rahmen der Untersuchungen maximale gefundene Funktionalwert nicht
mehr angenommen wurde, Simulated Annealing ihn aber immerhin noch mit 12% Wahrscheinlichkeit gefunden hat.
4.1 SU (2) Eichfixierung
63
Auch aus Untersuchungen kleinerer Gitter deutet sich der Trend an, dass das Auffinden einer Eichtransformation mit maximalem Funktionalwert bei zunehmender Gittergröße immer unwahrscheinlicher wird und Simulated Annealing bei der Eichfixierung
an Bedeutung gewinnt, wenn auch bei großen Gittern das Maximum des Eichfunktionals
gefunden werden soll.
4.1.4
Zusammenfassung
Die Untersuchungen in der SU (2)-Gittereichtheorie haben gezeigt, dass sich Simulated
Annealing deutlich verbessern lässt, wenn neben den gewöhnlichen Heatbath Aktualisierungen auch mikrokanonische Schritte eingebaut werden. Die Bedeutung eines so verbesserten Algorithmusses beim Auffinden des Maximums des Eichfunktionals wächst mit
der Gittergröße. Eine Optimierung der Performanz mikrokanonisch erweiterter Simulated
Annealing Fahrpläne lässt sich mittels Variation der Schrittzahl und der Schrittverteilung
erreichen. Zumindest der Parameter der Schrittzahl muss für jedes Gitter einzeln angepasst werden. Die Ergebnisse dieser Untersuchung sind in die Optimierung des Simulated
Annealings für die SU (3) Eichtheorie des nächsten Abschnittes eingeflossen.
64
4.2
Kapitel 4
Resultate
SU(3) Eichfixierung
Zur Fixierung der Landau-Eichung in der SU (3)-Eichtheorie werden nun Überrelaxation, fourierbeschleunigte Eichfixierung und Simulated Annealing verglichen. Zunächst
wird für die Überrelaxation die Abhängigkeit der mittleren Rechenzeit vom Parameter
ω qualitativ beschrieben. Danach wird die Konvergenz der fourierbeschleunigten Eichfixierung in Abhängigkeit vom Parameter α untersucht. In einem weiteren Schritt wird
das Skalierungsverhalten der Zahl von Iterationsschritten bis zur Konvergenz für diese beiden Methoden verglichen. Im letzten und größten Teil dieses Abschnittes werden
Optimierungsansätze für den Simulated Annealing Algorithmus dargestellt. Anhand der
Ergebnisse wird versucht, einen optimalen Fahrplan des Simulated Annealing Algorithmus auch für so große Gitter zu erstellen, auf denen es zu aufwändig wäre, mittels einer
großen Statistik die gewünschte Optimierung durchzuführen.
4.2.1
Überrelaxation
Die Überrelaxation ist ein modifizierter Relaxationsalgorithmus. Der lokale Iterationsschritt der Relaxationen g(x) → r(x)g(x) wird im Überrelaxationsalgorithmus zu einem
Iterationssschritt der Form g(x) → rω (x)g(x) abgewandelt. Diese Modifikation führt zu
einer beschleunigten Konvergenz. Die Geschwindigkeit der Konvergenz ist dabei abhängig
von der Wahl des Parameters ω (Abschnitt 3.3.2, S. 29).
Überrelaxationsparameter
2400
2200
Itera tio nen
2000
1800
1600
1400
1200
1000
1.5
1.55
1.6
1.65
ω
1.7
1.75
1.8
Abbildung 4.17: Abhängigkeit der mittleren Zahl von Iterationsschritten bis zur Konvergenz in
Abhängigkeit vom Überrelaxationsparameter ω. Gemittelt wurde auf einem 164 Gitter bei β = 6.0 über
29 Konfigurationen
mit jeweils
5 Eichkopien. Eine Konfiguration wurde als eichfixiert angesehen, sobald
£
¤
−13
max tr ∂µ Agµ (x)∂µ Ag†
galt.
µ (x) < 10
x
In Abbildung 4.17 ist die Zahl der Iterationsschritte bis zur Konvergenz über ω aufgetragen. Deutlich zu erkennen ist eine Reduktion der für die Konvergenz nötigen Schritte
bei größer werdendem ω. Auch wenn die Abbildung den Anschein erweckt, setzt sich dieser Trend nicht uneingeschränkt fort. Hierzu ist anzumerken, dass der Aufwand für die
4.2 SU(3) Eichfixierung
65
Überrelaxation durch die Anzahl der maximal durchführbaren Schritte beschränkt wurde.
Gitterabhängig lag diese Zahl zwischen 15000 und 30000 Schritten. Ist der Algorithmus
nicht innerhalb dieser Schrittzahl konvergiert, so wurde er als nicht konvergent betrachtet.
Für den ebenfalls untersuchten Parameter ω = 1.8 wurde in diesem Sinne für einige Konfigurationen keine Konvergenz mehr erreicht. Bei Tests auf einem 244 -Gitter zeigte sich
außerdem, dass der Überrelaxationsalgorithmus auch für ω = 1.75 nicht mehr in jedem
Fall konvergierte.
4.2.2
Fourierbeschleunigte Eichfixierung
Als weitere Methode, die zur Fixierung der Landau-Eichung benutzt wird, soll nun auf
die fourierbeschleunigte Eichfixierung eingegangen werden. Sie ist eine Modifikation des
Gradientenverfahrens. Die Konvergenzgeschwindigkeit der fourierbeschleunigten Eichfixierung hängt dabei vom Parameter α ab (Abschitt 3.3.4, Seite 30). Die fourierbeschleunigte Eichfixierung gewinnt insbesondere bei Simulationen auf großen Gittern an Bedeutung, da hier der Aufwand für die Iteration des Algorithmusses mit der Gittergröße besser
skaliert, also langsamer wächst, als bei Überrelaxation [D+ 88, CM03].
Optimierung des Fourierparameters
Fourierparameter α
1400
1300
1200
Itera tio nen
1100
1000
900
800
700
600
500
0.2
0.3
0.4
α
0.5
0.6
0.7
Abbildung 4.18: Abhängigkeit der mittleren Zahl von Iterationsschritten bis zur Konvergenz vom Fourierparameter α. Gemittelt wurde auf einem 124 Gitter bei β = 6.0 über 5 Konfigurationen
mit jeweils¤ 50
£
Eichkopien. Eine Konfiguration wurde als eichfixiert angesehen, sobald galt max tr ∂µ Agµ (x)∂µ Ag†
µ (x) <
x
10−13 .
Die Zahl der Iterationsschritte bis zum Erreichen des Konvergenzkriteriums und ihre
Abhängigkeit vom Parameter α ist in Abbildung 4.18 für die fourierbeschleunigte Eichfixierung grafisch dargestellt. Es ist zu erkennen, dass mit wachsendem α die mittlere Zahl
der für die Konvergenz notwendigen Schritte abnimmt. Allerdings bestand auch hier, wie
bei der Überrelaxation das Problem, dass bei α = 0.7 auf einigen Konfigurationen das
66
Kapitel 4
Resultate
Konvergenzkriterium nicht mehr in jedem Fall erreicht werden konnte, da die Zahl der
maximal durchführbaren Iterationen durch 30000 Schritte nach oben beschränkt wurde.
Für die im weiteren untersuchte Skalierung der Zahl der Iterationsschritte mit größer
werdendem Gittervolumen wurde α ≈ 0.6 gewählt. Die mittlere Zahl von Iterationen unterscheidet sich nur unwesentlich von der für α = 0.65. Dafür liegt der Wert jedoch weiter
vom kritischen Wert α = 0.7 entfernt, bei dem die Konvergenz nicht mehr gewährleistet
werden konnte.
In Abbildung 4.19 ist zur Vervollständigung des Bildes über die fourierbeschleunigte
Eichfixierung die normierte Häufigkeitsverteilung der 50 Kopien über den größten 14
durchnummerierten Funktionalwerten dargestellt.
Verteilung der Funktionalwerte
0.35
ω = 1.63 (RLX)
α = 0.3
α = 0.4
α = 0.5
α = 0.6
α = 0.65
0.3
i
P[F=F ]
0.25
0.2
0.15
0.1
0.05
0
2
4
6
8
10
12
14
i
Abbildung 4.19: Häufigkeitsverteilung über den durchnummerierten Funktionalwerten nach fourierbeschleunigter Eichfixierung mit verschiedenen Werten des Parameters α und nach Überrelaxation mit
ω = 1.63. Gemittelt wurde auf einem 124 Gitter bei β = 6.0 über 5 Konfigurationen mit jeweils 50
Eichkopien.
Da 5 betrachtete Konfigurationen eine recht kleine Statistik sind, ist das Ergebnis
dieser Darstellung nur als Bestätigung dafür anzusehen, dass Überrelaxation und fourierbeschleunigte Eichfixierung zu ähnlichen Verteilungen der Funktionalwerte nach der
Eichfixierung führen.
Neben der Optimierung des Fourierparameters spielt auch das Verhalten der Rechenzeit für größer werdende Gitter eine entscheidende Rolle bei der Wahl der Eichfixierung.
4.2.3
Skalierung der Iterationszahl für Überrelaxation und fourierbeschleunigte Eichfixierung
Die Art und Weise, wie die Zahl der notwendigen Iterationsschritte mit der Gittergröße
V = Ld skaliert12 , soll im Folgenden für Überrelaxation und die fourierbeschleunigte
12
L ist die Gitterlänge. d ist die Zahl der Dimensionen des Gitters
4.2 SU(3) Eichfixierung
67
Eichfixierung verglichen werden. Beide Algorithmen starteten jeweils mit Eichtransformationen, die bei T = ∞ erzeugt wurden.
mittlere Zahl von Aktualisierungen
Rechenzeitskalierung
FBE, α = 0.6
RLX, ω = 1.63
FBE, α = 0.63
RLX, ω = 1.68
3
10
8
12
16
24
32
Gitterlänge
Abbildung 4.20: Mittlere Zahl von Iterationsschritten bis zur Erfüllung des Konvergenzkriteriums,
£
¤
−13
max tr ∂µ Agµ (x)∂µ Ag†
, für fourierbeschleunigte Eichfixierung (FBE) und Überrelaxation
µ (x) < 10
x
(RLX) in Abhängigkeit von der Gitterlänge eines symmetrischen Gitters bei β = 6.0 in einer doppelt
logarithmischen Darstellung.
Das Skalierungsverhalten der Zahl der Iterationsschritte bis zur Konvergenz ist für
Überrelaxation mit ω = 1.63 und für fourierbeschleunigte Eichfixierung mit α = 0.6
in Abbildung 4.20 dargestellt. Das Verhalten wurde für Gitter bis zu einer Größe von
244 durch einen Potenzgesetz der Form Iterationszahl ∝ Lc approximiert, wobei c der
Skalierungsexponent ist. Die Zahl der Schritte bis zur Konvergenz Nkonv ist für die Überrelaxation demnach proportional zu L2.19±0.01 . Für die fourierbeschleunigte Eichfixierung
ergibt sich eine Propotionalität von Nkonv (L) ∝ L1.53±0.01 .
Methode
FBE (α = 0.6)
RLX (ω = 1.63)
c
1.53 ± 0.01
2.19 ± 0.01
Tabelle 4.5: Skalierungsexponent der Iterationszahl für fourierbeschleunigte Eichfixierung (FBE) und
Überrelaxation (RLX)
Der Aufwand für einen Iterationsschritt wächst für die Überrelaxation mit dem
Gittervolumen V , so dass die Gesamtrechenzeit proportional zu V · L2.19±0.01 = V 1.54±0.01
wächst. In den Iterationsschritt der fourierbeschleunigten Eichfixierung geht ein Anteil
ein, der mit V log V wächst [D+ 88] und ein Anteil, der proportional zu V ist. Die für
große Gitter dominierende Proportionalität ist V log V , so dass die Gesamtrechenzeit
für große Gitter proportional zu log V V 1.38 zunimmt. Der logarithmische Anteil kann im
Grenzwert großer Gitter vernachlässigt werden, so dass geschlussfolgert werden kann,
dass für die fourierbeschleunigte Eichfixierung der Aufwand mit größer werdendem Gitter
68
Kapitel 4
Resultate
schwächer wächst, als für die Überrelaxation.
Ist man nur an einer Fixierung der Landaueichung interessiert, die die Gribovmehrdeutigkeit nicht berücksichtigt, so ist das Ergebnis dieses Abschnittes, dass bei
zunehmender Gittergröße die fourierbeschleunigte Eichfixierung gegenüber der Überrelaxation zu bevorzugen ist, da sie die Eichung für große Gitter schneller fixieren kann.
Die Hoffnung für zukünftige Untersuchungen ist, dass sich nach dem Simulated Annealing die Überrelaxation durch die fourierbeschleunigte Eichfixierung als abschließende
Eichfixierung ersetzen lässt. Dazu muss jedoch untersucht werden, inwieweit die beiden
Algorithmen auch nach dem Simulated Annealing zu gleichen Häufigkeitsverteilungen
führen.
Für die folgenden Untersuchungen des Simulated Annealings wurde die abschließende
Eichung mit Hilfe der Überrelaxation und ω = 1.63 durchgeführt13 .
4.2.4
Simulated Annealing
Es wird nun der Simulated Annealing Algorithmus für die SU (3)-Eichfixierung auf seine
Abhängigkeit von den Parametern Tmin , Tmax , µ und der Gesamtschrittzahl N hin untersucht. Dies geschieht in analoger Weise zum Vorgehen bei der SU (2)-Eichtheorie in
Abschnitt 4.1. Zunächst wird die Temperaturabhängigkeit der Mobilität betrachtet um
daraus die Starttemperatur Tmax für das Simulated Annealing abzuleiten. Im zweiten
Teilabschnitt werden drei qualitativ verschiedene Schrittverteilungen auf dem Simulated
Annealing Temperaturintervall betrachtet, um die Wahl des Verteilungsparameters µ zu
begründen. Abschließend wird für den so gefundenen Parameter die Gesamtschrittzahl
für verschiedene Gittergrößen optimiert und eine Voraussage für das vermutete Verhalten
auf noch größeren Gittern getroffen.
Die wichtigste Erkenntnis aus SU (2)-Simulationen, die auch in die folgenden Simulated Annealing Algorithmen eingeflossen ist, war, dass die Verwendung von mikrokanonischen Schritten zwischen den Simulated Annealing Schritten die Perfomanz des Simulated
Annealings vergrößerte. Diese Verbesserung konnte in einfachen Tests auch für die SU (3)Gittereichtheorie bestätigt werden und führte zur Verwendung von 3 mikrokanonischen
Schritten nach jedem Simulated Annealing Schritt.
Bestimmung der Starttemperatur Tmax
Die Festlegung der Starttemperatur Tmax erfolgt wie in der SU (2)-Eichtheorie durch die
Bestimmung des Übergangs, bei der die Mobilität ihr Verhalten wechselt. Oberhalb dieser Temperatur hat man es mit einer großen, nahezu temperaturunabhängigen Mobilität
zu tun, während die Mobilität unterhalb dieser Temperatur stark von der Temperatur
abhängt und mit T → 0 ebenfalls gegen null konvergiert. Abbildung 4.21 zeigt die Mobilität und den mittleren Wert des Eichfunktionals in Abhängigkeit von der Eichtemperatur.
Beide Größen hängen nur von der Eichtemperatur und der Kopplung ab. Die Gittergröße
13
Es wurde kein größerer Wert gewählt, da zu Beginn der Untersuchung die Ergebnisse des letzten
Abschnittes noch nicht zur Verfügung standen.
4.2 SU(3) Eichfixierung
69
hat nur einen geringen Einfluß auf den Verlauf der Kurven, weshalb für die Funktionen
ein 84 -Gitter nicht dargestellt ist.
Mobilitat
Funktional
0.9
0.8
0.8
0.7
®
0.9
0.7
g oldg new )
1
0.6
β = 5.80
β = 6.00
β = 6.20
0.6
hF i
0.5
1
3 tr(1 −
0.5
0.4
­
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0
0
0.1
T
0.2
0.3
0.4
0.5
0.6
T
Abbildung 4.21: Mobilität und Eichfunktional auf einem 164 -Gitter in Abhängigkeit von der Eichtemperatur für verschiedene Werte von β, gemittelt über 50 Konfigurationen mit jeweils 20 Kopien. Die Varianz
ist für alle Messpunkte kleiner als 0.02. Die Kurven für 84 -Gitter unterscheiden sich nicht wesentlich von
den dargestellten Kurvenverläufen und sind, um die Übersichtlichkeit zu wahren, nicht dargestellt.
Bei Absenken der Temperatur findet der Übergang von einem Bereich mit großer
Mobilität, die sich bei hoher Eichtemperatur zunächst kaum änderte, zu einem Bereich
mit stark fallender Mobiliät ab Tmax ≈ 0.45 statt. Dieser Übergang wird als Startpunkt
des Simulated Annealings gewählt. Die Wahl der Endtemperatur von Tmin = 0.01 wird
durch die Beobachtung auf der SU (2) motiviert, wo kleine Endtemperaturen einen Vorteil hinsichtlich der Performanz brachten. Insgesamt ergibt sich für Simulated Annealing
Algorithmen, die bei β = 6.0 erzeugte SU (3)-Konfigurationen fixieren sollen, folgendes
Temperaturintervall:
β
[Tmin , Tmax ]
6.0 [≤ 0.01, 0.45]
Eine Besonderheit, die für den analogen Fall der Eichgruppe SU (2) nicht zu beobachten war, ist der sehr starke Abfall der Mobilität bei T ≈ 0.415 über einen relativ kleinen
Temperaturbereich14 von T = 0.425 bis T = 0.405. Im gleichen Temperaturbereich ist bei
sinkender Temperatur auch im rechten Bild ein rascher Anstieg des Funktionalwertes zu
beobachten. Für den Simulated Annealing Algorithmus in der SU (3)-Eichtheorie bedeutet
dies, dass beim Abkühlen in diesem Temperaturbereich sehr schnell kleinere Mobilitäten
erreicht werden. Entsprechend sollte der Aufwand, eine Quasigleichgewichtsverteilung zu
erzeugen, beim Absenken der Temperatur über diesen Bereich relativ schlagartig wachsen.
Inwieweit dieser zusätzliche Aufwand (Rechenzeit), den Simulated Annealing bei kleinen
Temperaturen benötigt, durch die damit erzielten Resultate rechtfertigen lässt, wird auch
Gegenstand des folgenden Abschnittes sein.
14
Die Größe des Temperaturintervalls orientierte sich am Differenzenquotienten der Mobilität.
70
Kapitel 4
Resultate
Bestimmung einer optimierten Schrittverteilung
Es wurden drei Schrittverteilungen für Simulated Annealing Fahrpläne untersucht.
Fa hrplä ne verschiedener Verteilung en
0.45
0.4
0.35
T(i)
0.3
0.25
µ = 0.3
µ = −1
µ = −5
0.2
0.15
0.1
0.05
0
0
200
400
600
800
1000
i - Simula ted A nnea ling Schritt
Abbildung 4.22: Temperaturfahrpläne im Intervall [0.01, 0.45] für µ ∈ {−5, −1, 0.3}. Für Fahrpläne mit
einer anderen Gesamtschrittzahl wird nur die Abzisse entsprechend skaliert.
Wie in Abbildung 4.22 dargestellt, sind dies wieder ein Simulated Annealing Fahrplan
mit einem abgebremsten Kühlvorgang (µ = 0.3), einer mit konstantem Abkühlen (µ =
−1) und ein Fahrplan, bei dem das Abkühlen zum Ende hin beschleunigt wird (µ = −5).
Für jede Schrittverteilung wurde zunächst auf einem 164 -Gitter bei β = 6.0 die in Bezug
auf die Performanz optimale Gesamtschrittzahl ermittelt.
Die Ergebnisse sind in Abbildung 4.23 dargestellt. Im linken Bild ist für jeden Simulated Annealing Fahrplan die Wahrscheinlichkeit, mit dem zugehörigen Algorithmus
das Maximum zu finden, über der mittleren Gesamtrechenzeit aufgetragen. Im rechten
Bild ist die daraus berechnete Performanz über der Schrittzahl des Fahrplans aufgetragen. Da für jede Schrittzahl (150, 350, 800, 1500 und 2500 Schritte) alle drei Verteilungen
getestet wurden, erscheinen in beiden Bildern Dreiergruppen von Fahrplänen mit gleicher Schrittzahl und daher nahezu gleicher Rechenzeit. Da im linken Bild die Schrittzahl
nicht direkt ablesbar ist, muss sie aus der Gesamtrechenzeit geschlossen werden. Die drei
Fahrpläne mit der kleinsten Gesamtschrittzahl 150 benötigen die kleinste mittlere Gesamtrechenzeit, die mit der größten Gesamtschrittzahl 2500 benötigen entsprechend die
meiste Rechenzeit. Im linken Bild lässt sich erkennen, dass mit zunehmender Schrittzahl
auch die Wahrscheinlichkeit wächst, das Maximum zu finden. Dieses Verhalten hängt
dabei nicht von der Wahl der Verteilung der Schritte auf dem Temperaturintervall ab.
Vergleicht man nun die verwendeten Verteilungen miteinander. so wird mit Fahrplänen,
die den Verteilungsparameter µ = −5 nutzen, die größte Wahrscheinlichkeit für das Auffinden des Maximums erzielt. Dieser Zusammenhang ist wiederum unabhängig von den
untersuchten Gesamtschrittzahlen.
Im Vergleich zur Überrelaxation zeigen die verwendeten Simulated Annealing Fahrpläne auf einem 164 -Gitter keine oder kaum Vorteile. So kann zwar mit den meisten Fahrplänen eine größere Wahrscheinlichkeit erzielt werden, das Maximum zu finden, als es mit
einem reinen Überrelaxationsalgorithmus möglich wäre. Allerdings wird hierfür soviel Zeit
4.2 SU(3) Eichfixierung
71
Vergleich der Performanzen
Vergleich der Rechenzeiten
0.8
0.3
µ = −5
0.7
µ = −1
0.25
µ = 0.3
0.6
Perfo rm a nz
P [F = F max ]
RLX
0.5
0.4
0.2
0.15
0.3
0.1
0.2
0.05
0.1
1
2
3
4
5
6
Zeit in Einheiten der Ü berrela xa tio nsrechenzeit
150
350
800
1500 2500
Schrittza hl
Abbildung 4.23: Vergleich von Rechenzeit, Wahrscheinlichkeit das Maximum zu finden und Performanz
für Simulated Annealing Fahrpläne in Abhängigkeit von der Verteilung der Temperaturschritte (µ =
−5, −1, 0.3) und der Zahl der Simulated Annealing Schritte. Simuliert wurde auf einem 164 -Gitter bei
β = 6.0 über 16 Konfigurationen mit je 50 Kopien. Der Wert des Schrittverteilungsparameters µ lässt
sich anhand des Symbols erkennen. Die Gesamtschrittzahlen N = 150, 350, 800, 1500, 2500 wurden im
rechten Bild mit einer kleinen Variation dargestellt, um eine gegenseitige Überlagerung der Fehlerbalken
zu vermeiden. Im linken Bild lässt sich die Schrittzahl aus der Rechenzeit ableiten. Fahrpläne mit gleicher
Schrittzahl sind durch die gleiche Farbe gekennzeichnet um eine optische Unterscheidung der Gruppen
zu ermöglichen. Als Referenzkurve wurde die Mehrfachanwendung der Überrelaxation (RLX) und, hell
unterlegt, ihr Fehlerintervall mit eingetragen.
benötigt, dass für µ = −1 und µ = 0.3 in der gleichen Zeit durch mehrfache Anwendung
der Überrelaxation ein besseres Ergebnis erzielt werden kann (durchgezogene Vergleichskurve im linken Bild). Einzig durch die Verwendung des Fahrplans mit vielen Schritten
bei hohen Temperaturen (µ = −5) scheint der Simulated Annealing Algorithmus einen
Vorteil gegenüber der Mehrfachanwendung der Überrelaxation zu bringen.
Diese Beobachtung lässt sich deutlicher im rechten Bild erkennen, wo für die einzelnen
Fahrpläne die Performanz über der Schrittzahl aufgetragen ist. Die Überrelaxation erzielt
zum Vergleich eine Performanz von G = 0.15 ± 0.04. Mit keinem der untersuchten Fahrpläne lässt sich auf einem 164 -Gitter eine deutliche Verbesserung gegenüber diesem Wert
erzielen. Allerdings kann mit einem Fahrplan, der 800 Schritte verwendet und die meisten
davon bei hohen Temperaturen ansiedelt, zumindest eine geringfügig größere Performanz
erzielt werden.
Zusammenfassend lässt sich aus dieser Untersuchung schließen, dass zumindest auf
einem 164 -Gitter Simulated Annealing Algorithmen von Vorteil sind, die den Großteil der
Schritte bei hohen Temperaturen machen. Eine Erklärung ist vielleicht im Verhalten der
Mobilität zu finden. Wie bereits beobachtet, fällt sie beim Absenken der Temperatur bereits im oberen Bereich des Temperaturintervalls [0.01, 0.45] bei T ≈ 0.415±0.01 stark ab.
Die Interpretation der Mobilität als Maß für die Autokorrelation lässt folgende Erklärung
zu. Oberhalb von T ≈ 0.41 ist die Konvergenz zu einer quasithermalisierten Wahrscheinlichkeitsverteilung der Eichtransformation “schnell” möglich. Wird die Temperatur zu
weit unter diese Schwelle abgesenkt, verläuft die Konvergenz zu einer quasithermalisierten Verteilung auf Grund der großen Autokorrelation deutlich “langsamer”. Oder anders
72
Kapitel 4
Resultate
ausgedrückt, es kann mit zu wenigen Schritten Quasithermalisiertheit bei diesen Temperaturen nicht mehr erreicht werden. Dieses Verhalten könnte begründen, warum ein
Fahrplan für das Simulated Annealing von Vorteil ist, der die überwiegende Zahl der
Schritte im oberen Temperaturbereich15 (T > 0.4) vorsieht (Tabelle 4.6).
µ
−5
−1
0.3
|T −1 ([0.4,0.45])|
|T −1 ([0.01,0.45])|
0.445
0.114
0.017
Tabelle 4.6: Relativer Anteil der Schritte im Fahrplan T , die Aktualisierungen bei T ≥ 0.4 durchführen.
Für µ = −5 liegen 44.5 Prozent der Schritte oberhalb dieser Temperatur, während es
für eine gleichmäßige Schrittverteilung nur noch 11.4 Prozent sind. Wird die Temperatur
zu schnell heruntergesetzt, kommt dies einem Festlegen auf eine schlecht thermalisierte
Verteilung gleich, da mit der fest vorgegebenen Schrittzahl keine Quasithermalisierung
mehr erreicht werden kann. Denn diese Festlegung geschieht auf eine Verteilung, die noch
zu dicht an einer bei T = ∞ erzeugten Verteilung des Ensembles liegt.
In Folge dieser Überlegung stellt sich die Frage, inwieweit auch in SU (3)-Simulationen
ein Absenken der Endtemperatur Tmin bei konstant gehaltener Gesamtschrittzahl16 zu
einer besseren Performanz führt. In einer SU (2)-Gittereichtheorie konnte dies beobachtet
werden (Abschnitt 4.1.1, Seite 52). Nun soll dies auch für die SU (3)-Gittereichtheorie
untersucht werden.
Variation der Endtemperatur
Zur Bestimmung der Abhängigkeit von der Endtemperatur wurden auf einem 124 -Gitter,
bei β = 6.0, Fahrpläne mit konstanter Schrittweite (µ = −1) betrachtet. Dabei wurden zum einen Fahrpläne miteinander verglichen, die die Temperatur in 200 Schritten
(Abbildung 4.24) absenkten und solche, die 400 Schritte (Abildung 4.25) dafür benötigt.
15
Die Inverse Abbildung T −1 wird hier als Mengenabbildung verstanden und |T −1 (M )| als Mächtigkeit
des Urbildes. Die obige Formel ergibt insofern nur Sinn, falls der Definitionsbereich von T von endlicher
Mächtigkeit ist.
16
Die konstant gehaltene Gesamtschrittzahl sichert, wie schon bei SU (2)-Eichfixierungen, dass die
Fahrpläne gleiche Rechenzeiten benötigen und so direkt vergleichbar werden.
4.2 SU(3) Eichfixierung
Performanz vs. T
73
Performanz vs. T
min
0.6
0.65
0.55
0.6
0.55
Perfo rm a nz
Perfo rm a nz
0.5
0.45
0.4
0.35
0.5
0.45
0.4
0.35
0.3
0.25
−0.1
min
0.3
0
0.1
0.2
0.3
0.4
0.5
T min
Abbildung 4.24: Performanz in Abhängigkeit
von der Endtemperatur Tmin für verschiedene
Endtemperaturen bei konstant gehaltener Gesamtschrittzahl N = 200. Jeder Simulated Annealing Schritt wurde um 3 mikrokanonische
Schritte ergänzt. Gemittelt wurde über 50 Konfigurationen mit je 19 Kopien auf einem 124 Gitter bei β = 6.0
0.25
−0.1
0
0.1
0.2
0.3
0.4
0.5
T min
Abbildung 4.25: Performanz in Abhängigkeit
von der Endtemperatur Tmin für verschiedene
Endtemperaturen bei konstant gehaltener Gesamtschrittzahl N = 400. Jeder Simulated Annealing Schritt wurde um 3 mikrokanonische
Schritte ergänzt. Gemittelt wurde über 50 Konfigurationen mit je 19 Kopien auf einem 124 Gitter bei β = 6.0
.
Wie sich zeigt, hängt die optimale Endtemperatur Tmin für solche Fahrpläne von der
Gesamtschrittzahl ab. Bei vorgegebener Gesamtschrittzahl von 200 Simulated Annealing
Schritten scheint es zur Optimierung der Performanz am besten zu sein, Simulated Annealing bei einer recht hohen Temperatur im Bereich von T = 0.26 abzubrechen und mit der
Überrelaxation zu beginnen. Wird die größere Gesamtschrittzahl 400 vorgegeben, so wird
die größte Performanz erzielt, wenn der Simulated Annealing Algorithmus die Temperaur
bis in den Bereich von T = 0.13 absenkt.
Bei vorgegebener Gesamtschrittzahl findet man das Maximum demnach nicht dann
am besten, wenn die Eichtemperatur bis auf T = 0 herabgesetzt wird, sondern wenn
man alle Schritte bei höheren Temperaturen macht und dann zur weniger aufwendigen
Überrelaxation übergeht. Dieses Resultat deckt sich recht gut mit dem Ergebnis auf dem
164 -Gitter. wo solche Fahrpläne am besten abschnitten, die nur wenige Aktualisierungen
bei kleinen Temperaturen durchführen. Weiterhin lässt sich diese Beobachtung recht gut
erklären, wenn angenommen wird, das mit wenigen Schritten eine Quasithermalisiertheit eher bei großen Temperaturen erreicht werden kann. Iterationsschritte bei geringeren
Temperaturen ändern in diesem Falle die Wahrscheinlichkeitsverteilung im Ensemble der
Eichkopien nicht mehr stark genug und die bereits erfolgte Präkonditionierung lässt sich
durch einen Überrelaxationsalgorithmus mit geringerem Aufwand zu Ende führen.
Als Hauptresultat dieses Abschnittes kann betrachtet werden, dass ein Fahrplan mit
hinreichend großer Zahl von Simulated Annealing Schritten bei großen Temperaturen
die größere Performanz erzielt. Weitere Untersuchungen wurden daher mit Fahrplänen
durchgeführt, die den Verteilungsparameter µ = −5 nutzen.
74
Kapitel 4
Resultate
Simulated Annealing auf großen Gittern
Bei der Anwendung von Simulated Annealing auf großen Gittern lassen sich die statistischen Voruntersuchungen der vergangenen Abschnitte nicht mehr ohne weiteres
durchführen. Da der Rechenaufwand mit dem Gittervolumen wächst, wird es notwendig, aus den Untersuchungen auf kleinen Gittern Schlussfolgerungen ziehen zu können,
die die Abhängigkeit zu optimierender Parameter von der Gittergröße auch für große
Gitter vorhersagen.
Um die Zahl der veränderlichen Parameter klein zu halten, soll für einen Fahrplan
mit Schrittverteilung µ = −5 und Temperaturintervall [0.01, 0.45] nur die Gesamtschrittzahl für größer werdende Gitter optimiert werden. Aus der Abhängigkeit der optimalen
Schrittzahl von der Gittergröße wird dann versucht, einen allgemeinen Zusammenhang
abzuleiten.
Zur Bestimmung der optimalen Schrittzahl wurden auf jedem Gitter Fahrpläne mit
variabler Schrittzahl getestet. Für ein 124 -Gitter sind die Ergebnisse dieser Simulation in
Abbildung 4.26 dargestellt.
0.5
0.75
0.7
0.45
Perfo rm a nz
P [F = F max ]
0.65
0.6
0.55
0.5
0.4
0.35
1
2
3
4
0.35
0.3
100 Schritte
300 Schritte
600 Schritte
1200 Schritte
0.45
0.4
0.25
5
Zeit in Einheiten der Ü berrela xa tio nsrechenzeit
0.2
0
500
1000
1500
Schrittza hl
Abbildung 4.26: Wahrscheinlichkeit, das Maximum zu finden, über der Rechenzeit und die Performanz
von Fahrplänen mit fixem Verteilungsparameter µ = −5 und variabler Schrittzahl auf einem 124 -Gitter.
Gemittelt wurde über 53 Konfigurationen mit je 50 Kopien.
Im linken Bild ist die Wahrscheinlichkeit, das Maximum zu finden, gegen die Gesamtrechenzeit t der Fahrpläne aufgetragen. Die Punkte sind durch einen approximierten
Kurvenverlauf der Form p(t) = c1 + c2 ec3 t miteinander verbunden, wobei die ci anzupassende Parameter sind. Im rechten Bild ist die Performanz als Funktion der Schrittzahl
aufgetragen. Die einzelnen Punkte sind mit Hilfe der approximierten Kurve p(t) ebenfalls
verbunden. Bevor G(t) = ln(1−p(t))
berechnet werden konnte, ist noch die Abhängigkeit
t
der Rechenzeit von der Gesamtschrittzahl N durch eine stückweise lineare Funktion t(N )
abgeschätzt worden17 . Das Maximum dieser approximierten Performanz G(N ) entspricht
der optimalen Schrittzahl und durch Variation der ci lässt sich ihr Fehler bestimmen.
17
Stückweise linear bedeutet, dass t(N ) für N ∈ {100, 300, 600, 1200} gerade den gemessenen Rechenzeiten entspricht und die Rechenzeiten für andere Werte von N linear approximiert wurden.
4.2 SU(3) Eichfixierung
75
Die so bestimmten optimalen Gesamtschrittzahlen und die Zahl der für eine statistischen Untersuchung zur Verfügung stehenden Konfigurationen ist in Tabelle 4.7 zusammengetragen. Dabei wurde nur über Konfigurationen gemittelt, auf denen mehr als ein
Wert für das Eichfunktional vorgefunden wurde.
L
8
12
16
Nopt
+5
70−21
+29
225−78
+200
1500−800
Statistik
37
53
9
Tabelle 4.7: Optimale Schrittzahl Nopt für Simulated Annealing Fahrpläne mit Verteilungsparameter
µ = −5 und Temperaturintervall [0.01, 0.45] auf symmetrischen Gittern mit Gitterkantenlänge L
Die optimalen Gesamtschrittzahlen als Funktion der Gittergröße sind in Abbildung
4.27 aufgetragen.
4
10
3
N opt
10
2
10
1
10
8
12
16
K a ntenlä ng e
Abbildung 4.27: Optimale Schrittzahl Nopt von Fahrplänen mit Verteilungsparameter µ = −5 für
verschiedene Gittergrößen. Die approximierte Gerade ist durch Nopt (L) = e(0.37±0.03)L+1.05±0.3 parametrisiert.
Zumindest im Rahmen der drei untersuchten Gittergrößen scheint die optimale Zahl
von Simulated Annealing Schritten exponentiell mit der Gitterkantenlänge zu wachsen, Nopt (L) = e(0.37±0.03)L+1.05±0.3 . Um dieses Verhalten zu bestätigen, wäre eine recht
aufwändige Untersuchung auf einem 244 -Gitter hilfreich. Bis hinreichend viele Untersuchungen mit dieser Gittergröße durchgeführt wurden, ist es wichtig, die Statistik für
164 -Gitter zu erhöhen und die Annahme eines exponentiellen Wachstums der optimalen
Schrittzahl zu prüfen. Sollte sich der Trend bestätigen, liegt die optimale Schrittzahl auf
einem 244 -Gitter bereits im Bereich von Nopt ≈ 2 · 104 .
Im Rahmen der Untersuchung konnten bereits auf vier Konfigurationen eines 244 Gitter eine Reihe von Simulated Annealing Algorithmen getestet werden. Da zu Beginn
76
Kapitel 4
Resultate
der Untersuchung für die Volumenabhängigkeit der optimalen Schrittzahl ein Potenzgesetz
angenommen wurde18 , sind nur Fahrpläne mit vermutlich zu kleinen Schrittzahlen (N ≤
3500) betrachtet worden. Auf jeder Konfiguration wurden 50 zufällige Kopien erzeugt und
auf jede dieser Kopien 4 Simulated Annealing Fahrpläne mit variabler Schrittzahl (200,
700, 1500 und 3500) angewendet. Zusätzlich wurde jede Kopie einmal mit gewöhnlicher
Überrelaxation eichfixiert. Insgesamt wurde demnach auf jeder Konfiguration 250-mal eine
Eichfixierung durchgeführt. Dabei sind zwei Dinge aufgefallen. Zum einen wurde auf jeder
Konfiguration der größte gefundene Funktionalwert nur genau einmal angenommen und
auch die anderen gefundenen Funktionalwerte wurden selten wiedergefunden. Dadurch
bedingt sind die bisher verwendeten Analyseverfahren, die sich an der Häufigkeit des
Wiederauffindens des größten Funktionalwertes orientieren, wenig aufschlussreich und das
Nichtauffinden des Maximums hat zur Folge, dass pmax verschwindet und der Performanz
in diesem Fall keinerlei Bedeutung zukommt, da nur noch G ∝ 1t gilt. Zum anderen ist
bemerkenswert, dass auf allen vier Konfigurationen dieser maximale Funktionalwert nur
vom Simulated Annealing Algorithmus mit der größten Schrittzahl aufgefunden wurde.
Da die Häufigkeitsverteilung über den durchnummerierten Funktionalwerten wenig
aufschlussreich ist19 , wurde die Verteilung der Funktionalwerte als Histogramm ausgewertet. Zur Vergleichbarkeit der Konfigurationen wurden die relativen Funktionalwerte aus
Gleichung 4.2 verwendet, wobei Fmax den größten der Funktionalwerte bezeichnet, die auf
einer Konfiguration in irgendeiner der 250 Eichfixierungen gefundenen wurden.
18
Die Annahme gründete sich auf der Beobachtung eines Potenzgesetzes für die Schrittzahl der Überrelaxation und der fourierbeschleunigten Eichfixierung bis zur Konvergenz. Auch für die Abhängigkeit der
optimalen Schrittzal des Simulated-Annealing-Algorithmus vom Volumen erschien es sinnvoll, ein solches
Potenzgesetz anzunehmen.
19
Die meisten Häufigkeiten sind kleiner oder gleich 0.02, da die einzelnen Funktionalwerte selten öfter
als einmal gefunden wurden.
4.2 SU(3) Eichfixierung
77
SA - 200 Schritte
Überrelaxation
0.25
P [F ∈ bin]
P [F ∈ bin]
0.25
0.2
0.15
0.15
0.1
0.05
0
0.2
0.1
0.05
0
0.5
1
−Frel
0
1.5
0
1.5
−3
x 10
SA - 3500 Schritte
0.25
P [F ∈ bin]
0.25
P [F ∈ bin]
1
−Frel
SA - 1500 Schritte
0.2
0.15
0.2
0.15
0.1
0.05
0
0.5
−3
x 10
0.1
0.05
0
0.5
1
−Frel
1.5
−3
x 10
0
0
0.5
1
−Frel
1.5
−3
x 10
Abbildung 4.28: Histogramm über den relativen Funktionalwerten Frel (Gl. 4.2) für Fahrpläne mit
Verteilungsparameter µ = −5 und variabler Schrittzahl auf einem 244 -Gitter. In die Histogramme flossen
die Ergebnisse ein, die auf vier bei β = 6.0 erzeugten Konfigurationen mit jeweils 50 Kopien gesammelt
wurden. Auf jeder Kopie wurden alle Fahrpläne getestet.
In Abbildung 4.28 ist die Häufigkeitsverteilung über den relativen Funktionalwerten in
Form von Histogrammen dargestellt. Es wurden drei Fahrpläne mit den Gesamtschrittzahlen 200, 1500 und 3500 mit einem Überrelaxationsalgorithmus verglichen. Was zunächst
auffällt ist, dass für alle Eichfixierungsalgorithmen die erzielte Häufigkeitsverteilung das
Maximum nicht bei Frel = 0 aufweist. Der signifikanteste Unterschied ist im Vergleich der
Häufigkeitsverteilungen von Überrelaxation und Simulated Annealing Algorithmus mit
3500 Schritten zu beobachten. So führt Simulated Annealing zu einer stärkeren Häufung
der Funktionalwerte bei großen Funktionalwerten, als dies für Überrelaxation zu beobachten ist20 . Diese Häufung macht sich auch bemerkbar, wenn für die verschiedenen Algorithmen der Mittelwert der relativen Funktionalwerte über der Zahl der Simulated Annealing
Schritte21 aufgetragen wird (Abbildung 4.29).
20
Dies ist sehr gut daran zu sehen, dass die Verteilung für Simulated Annealing deutlich stärker in
Richtung von Frel = 0 verschoben ist und auch deutlich mehr Funktionalwerte im Bereich des Maximums
liegen.
21
Die reine Überrelaxation ist bei null Schritten eingetragen, da vorher auch kein Simulated Annealing
stattgefunden hat.
78
Kapitel 4
−4
−1.5
x 10
Resultate
mittleres relatives Funktional
−2
−2.5
−hFrel i
−3
−3.5
−4
−4.5
−5
−5.5
−6
0
500
1000 1500 2000 2500 3000 3500 4000
SA-Schritte
Abbildung 4.29: Mittleres relatives Funktional über der Schrittzahl für Simulated Annealing Fahrpläne
mit µ = −5. Null Schritte stehen für die reine Überrelaxation. Gemittelt wurde auf einem 244 -Gitter über
vier bei β = 6.0 erzeugte Konfigurationen mit jeweils 50 Kopien
Hier ist zu erkennen, dass der mittlere, relative Funktionalwert mit der Schrittzahl
deutlich zunimmt. Zusammenfassend lässt sich sagen, dass der Simulated Annealing
Algorithmus zumindest auf den vier betrachteten Konfigurationen zu einer verbesserten
Häufigkeitsverteilung der relativen Funktionalwerte führt.
Es soll im Weiteren die Rechenzeit in die Betrachtungen mit einbezogen werden. In
Tabelle 4.8 sind die Rechenzeiten von Überrelaxation und Simulated Annealing mit 3500
Schritten in Einheiten der mittleren Überrelaxationsrechenzeit angegeben.
Algorithmus
Überrelaxation
SA mit 3500 Schritten
Gesamtrechenzeit
1
2.45 ± 0.02
Tabelle 4.8: Vergleich der Gesamtrechenzeiten
Es wird sofort deutlich, dass sichin der Zeit, die Simulated Annealing und abschließende Überrelaxation benötigen, der einfache Überrelaxationsalgorithmus mindestens zweimal ausführen ließe. Im weiteren soll die Auswirkung auf die Häufigkeitsverteilung der aufgefundenen Funktionalwerte betrachtet werden, wenn Überrelaxation n-fach angewandt
wird, um dann aus den n Kopien diejenige mit dem größten Funktionalwert Fbest auszuwählen.
Auch für die n-fache Anwendung der Überrelaxation lässt sich die Häufigkeitsverteilung Pn approximieren, wenn man die Häufigkeitsverteilung P1 für die einfache Anwen-
4.2 SU(3) Eichfixierung
79
dung kennt (vgl. Anhang A.5). Als P1 für die Überrelaxation wird die Häufigkeitsverteilung der Klassen im Histogramm (Abb. 4.28) angenommen. Die approximierte Häufigkeitsverteilung Pn für n-fache Anwendung ergibt sich dann zu
Ã
! Ã
Ã
!n !
X
P1 [F ∈ Ki ]
Pn [F ∈ Ki ] = 1 −
Pn [F ∈ Kj ] · 1 − 1 − P
.
(4.4)
j≥i P1 [F ∈ Kj ]
j<i
Sie ist in Abbildung 4.30 dargestellt. Augenscheinlich ist die durch Simulated Annealing
P [Frel ∈ bin]
SA - 3500 Schritte
0.2
0.1
0
1
1.5
−3
−Frel
x 10
Überrelaxation 2-fach
0.3
P2 [Frel ∈ bin]
P1 [Frel ∈ bin]
0.2
0.2
0.1
0
0.5
0.2
0.1
0
0.5
−Frel
1
1.5
−3
x 10
0
Überrelaxation 3-fach
0.3
P3 [Frel ∈ bin]
Überrelaxation 1-fach
0.3
0
0.1
0
0.5
−Frel
1
1.5
−3
x 10
0
0
0.5
−Frel
1
1.5
−3
x 10
Abbildung 4.30: berechnete Histogramme über den relativen Funktionalwerten Frel (Gl. 4.2) für mehrfache Anwendung der Relaxation. Verglichen wird es mit Simulated Annealing, das einen Fahrplan mit
3500 Schritten und µ = −5 verwendet. Gemittelt wurde auf vier bei β = 6.0 erzeugten Konfigurationen
über 50 Kopien.
erzeugte Verteilung der Funktionalwerte optimaler, als jede der Verteilungen, die in
diesem Beispiel durch 2- oder 3-fache Anwendung der Überrelaxation erzeugt werden
kann. An dieser Stelle soll noch einmal darauf hingewiesen werden, dass sich aus der
reinen Betrachtung des größten gefundenen Maximums und der Wahrscheinlichkeit dieses
zu finden, keine so deutliche Aussage treffen ließ.
Das Hauptresultat der Untersuchung des Simulated Annealings in einer SU (3)Gittereichtheorie ist daher eine Modifikation der Eichfixierungsaufgabe. Da es immer
schwerer wird, das vermutete absolute Maximum des Eichfunktionals tatsächlich zu finden, ist es unter Umständen einfacher, nur nach lokalen Maxima mit möglichst großen
Funktionalwerten zu suchen. Diese Aufgabenstellung scheint von einem Simulated Annealing Algorithmus auch in einer SU (3)-Gittereichtheorie besser gelöst zu werden als durch
die Überrelaxation.
4.2.5
Zusammenfassung
Im letzten Abschnitt wurden drei Methoden zur Fixierung der Landau-Eichung in einer
SU (3)-Gittereichtheorie verglichen. Dies waren die Überrelaxation, die fourierbeschleunigte Eichfixierung und ein Simulated Annealing Algorithmus mit abschließender Überrelaxation. Die Hoffnung bestand darin, mit Hilfe des Simulated Annealing Algorithmus eine
80
Kapitel 4
Resultate
Möglichkeit zu haben, beim Auffinden des Maximums des Eichfunktionals eine deutlich
größere Performanz zu erzielen als mit den anderen beiden Algorithmen. Dies ließ sich
nicht zeigen. Für die untersuchten Gittergrößen scheint ein Simulated Annealing Algorithmus mit den untersuchten Fahrplänen nur einen geringfügigen oder gar keinen Vorteil
in Bezug auf die Performanz zu erzielen. Die beste Performanz erzielten dabei Simulated
Annealing Fahrpläne mit µ = −5 für die Schrittverteilung auf dem Temperaturintervall
[0.01, 0.45]. Die optimale Schrittzahl Nopt in Abhängigkeit von der Gittergröße V = L4
scheint für diese Fahrpläne einem exponentiellen Gesetz der Form
Nopt (L) = e(0.37±0.03)L+1.05±0.3
zu folgen.
In ersten Untersuchungen auf einem 244 -Gitter deutet sich jedoch an, dass die Aufgabe, ein möglichst großes lokales Maximum des Eichfunktionals zu finden22 , von einem
Simulated Annealing Algorithmus besser gelöst werden kann als von einem Überrelaxationsalgorithmus oder der fourierbeschleunigten Eichfixierung.
22
Man beachte, dass sich die Aufgabenstellung ändert. Es soll nicht mehr die Kopie mit dem größten
Funktionalwert gefunden werden, sondern nur noch eine Kopie mit möglichst großem Funktionalwert.
Kapitel 5
Zusammenfassung und Ausblick
5.1
Zusammenfassung
Mit dem Ziel, einen effektiven Algorithmus zur Fixierung der Landau-Eichung zu finden,
der zudem die Forderung nach der Maximierung des Landau-Eichfunktionals optimal
erfüllt, wurden eine Reihe von Eichfixierungsalgorithmen miteinander verglichen. Dies
waren der Überrelaxationsalgorithmus, die fourierbeschleunigte Eichfixierung und der Simulated Annealing Algorithmus mit abschließender Überrelaxation. Von wesentlicher Bedeutung war dabei die Optimierung des Simulated Annealing Fahrplans. Im Rahmen
dieser Optimierung wurden verschiedene Parameter variiert, die die Eigenschaften der
Algorithmen bestimmen. Für den Simulated Annealing Algorithmus wurde desweiteren
der Einschub von mikrokanonischen Schritten untersucht und im Rahmen einer SU (2)Gittereichtheorie der Versuch unternommen, eine Reduktion des Rechenaufwandes durch
Projektion auf eine SU (2)-Untergruppe zu erreichen.
Als Kriterium zum Vergleich der verschiedenen Algorithmen diente die anfangs
eingeführte Performanz, in die die Rechenzeit eines Algorithmus eingeht und die Wahrscheinlichkeit, die Gribov-Kopie mit maximalem Funktionalwert wiederzufinden.
Es zeigte sich, dass die Projektion und Präkonditionierung der Eichtransformation
mittels Simulated Annealing in der I120 -Untergruppe der SU (2) für eine SU (2)Eichtheorie in der Tat zu einer Reduktion des Rechenaufwandes führte und die
Rechenzeit entsprechend verkürzte. Allerdings wurde im Vergleich zu einem Simulated
Annealing Algorithmus, der mit den gleichen Parametern die gesamte SU (2) in die
Berechnungen einbezog, das Problem der Gribov-Mehrdeutigkeit schlechter gelöst, d.h.
Gribov-Kopien mit maximalem Funktionalwert seltener wiedergefunden. Im Sinne der
Performanz wurde daher keine Verbesserung erzielt.
Eine deutlich größere Performanz ließ sich für den Simulated Annealing Algorithmus
durch das Einfügen von mikrokanonischen Schritten sowohl in einer SU (2)- als auch in
einer SU (3)-Theorie erreichen. In der SU (2)-Theorie führte dies zudem dazu, dass mit
Simulated Annealing eine deutlich größere Performanz erzielt werden konnte, als mit
dem parallel untersuchten Überrelaxationsalgorithmus.
Das Ergebnis der Untersuchungen in einer SU (2)-Gittereichtheorie bei β = 2.4 ist,
dass der beste in der Arbeit gefundene Simulated Annealing Algorithmus einen Fahrplan
81
82
Kapitel 5
Zusammenfassung und Ausblick
benutzt, der die Temperatur im Intervall [Tmin , Tmax ] = [0.01, 1.4] absenkt. Dies konnte
bis zur Gittergröße 244 bestätigt werden. Mit einem solchen Fahrplan konnte insbesondere
die Performanz gegenüber der einfachen Relaxation auf den untersuchten Gittern deutlich
gesteigert werden.
Auch in der SU (3)-Gittereichtheorie wurde auf bei β = 6.0 erzeugten Konfigurationen
eine Optimierung des Simulated Annealing Algorithmus durchgeführt. Hier zeigte sich,
das der beste gefundene Fahrplan die Temperatur im Intervall [Tmin , Tmax ] = [0.01, 0.45]
mit einem nicht linearen Temperaturfahrplan absenkt. Die Mehrzahl der Schritte sollte
dabei im oberen Temperaturbereich gemacht werden. Bei der Untersuchung verschiedener
Gittergrößen deutete sich zudem an, dass die optimale Schrittzahl für den Simulated
Annealing Fahrplan exponentiell mit dem Gittervolumen wächst. Allerdings erzielte das
so optimierte Simulated Annealing keine deutlich größere Performanz als ein Überrelaxationsalgorithmus.
In Simulationen auf einem 244 -Gitter nimmt die Zahl der Gribov-Kopien deutlich zu.
Bei dieser Gittergröße zeigte sich, dass durch die Verwendung des Simulated Annealing
Gribov-Kopien mit großen Funktionalwerten deutlich häufiger angenommen werden als
bei der Verwendung der Überrelaxation. Das Maximum selbst wird bei dieser Gittergröße
jedoch seltener angenommen als auf kleinen Gittern. In einer SU (3)-Eichtheorie wurde
der maximale Funktionalwert so selten gefunden, dass die Performanz nicht mehr sinnvoll
anzugeben war. Da anzunehmen ist, dass sich dieser Effekt mit zunehmender Gittergröße
verstärkt, wurde in der SU (3)-Gittereichtheorie anhand von 4 Konfigurationen gezeigt,
dass sich Simulated Annealing und die Überrelaxation auch anhand der Verteilung
über den Funktionalwerten vergleichen lassen, die durch sie gefunden werden. Diese
Verteilung konnte für die mehrfache Anwendung der Überrelaxation berechnet werden
und es stellte sich heraus, dass in vergleichbaren Zeiten ein Simulated Annealing Algorithmus mit 3500 Schritten besser abschnitt als die mehrmals angewandte Überrelaxation.
Für die SU (3)-Gittereichtheorie wurde außerdem die fourierbeschleunigte Eichfixierung mit der Überrelaxation verglichen. Die Wahrscheinlichkeitsverteilungen, mit denen
die Funktionalwerte am Ende der Eichfixierung gefunden wurden, stimmte für beide Algorithmen nahezu überein. Daraus läßt sich zunächst schlussfolgern, dass beide die Landaueichung ähnlich gut fixieren. Dabei skaliert die Zahl der Iterationsschritte in Abhängigkeit
von der Gitterkantenlänge sowohl für die Überrelaxation als auch für die fourierbeschleunigte Eichfixierung mit einem Potenzgesetz. Die Zahl der Iterationen skaliert auf symmetrischen Gittern für die fourierbeschleunigte Eichfixierung mit einem etwas kleineren
Exponenten von c = 1.53 ± 0.01 als für die Überrelaxation mit c = 2.19 ± 0.01.
5.2
Schlussfolgerung
Ist man daran interessiert, für die Landau-Eichung in einer SU (3)-Eichtheorie möglichst
große Werte des Eichfunktionals zu finden, so ist das Ergebnis dieser Arbeit, dass von
den untersuchten Algorithmen ein Simulated Annealing Algorithmus mit nichtlinearem
Abkühlverhalten im Temperaturintervall [0.01, 0.45] zu favorisieren ist. Die Effektivität
des Simulated Annealings läßt sich dabei deutlich durch das Einfügen mikrokanonischer
Schritte steigern und es kann sogar gesagt werden, dass die Vorteile gegenüber der
5.3 Ausblick
83
Überrelaxation zu einem wesentlichen Anteil auf diesen Schritten basieren.
Unabhängig von der Untersuchung des Simulated Annealings zeigte sich im Vergleich
von fourierbeschleunigter Eichfixierung und Überrelaxation, dass auf sehr großen Gittern
die fourierbeschleunigte Eichfixierung der Relaxation als reiner Eichfixierungsalgorithmus
vorzuziehen ist. Inwieweit sie auch die Überrelaxation nach dem Simulated Annealing
ersetzen kann, muss sich in zukünftigen Untersuchungen zeigen.
5.3
Ausblick
Im Weiteren wird zu untersuchen sein, wie groß die Auswirkung der Wahl der GribovKopie auf die Messung der Propagatoren ist und ob es tatsächlich notwendig ist, die
Landau-Eichung auf die Gribov-Kopie mit maximalem Funktionalwert zu fixieren oder
ob es gegebenenfalls genügt, nur eine Kopie mit möglichst großem Funktionalwert zu
finden.
Für das Simulated Annealing in SU (3)-Eichtheorien steht zudem die Optimierung der
Zahl von mikrokanonischen Schritten aus. Es wäre möglich, dass ein anderes Verhältnis
aus der Zahl von mikrokanonischen und Simulated Annealing Schritten zu einem verbesserten Algorithmus führt. Weiterhin lassen sich mit der in dieser Arbeit gegebenen
Funktion für die Verteilung der Temperaturschritte auch andere Fahrpläne studieren und
die Untersuchung weiter systematisieren.
Im Zusammenhang mit der Untersuchung des Simulated Annealing bleibt auch
zu klären, ob die Ersetzung der abschließenden Überrelaxation durch eine fourierbeschleunigte Eichfixierung gleich gute Resultate beim Auffinden von Gribov-Kopien mit
großen Funktionalwerten liefert. Bleibt die Verteilung der gefundenen Kopien bei dieser
Ersetzung erhalten, böte sich die Verwendung eines solchen Algorithmus insbesondere
auf deutlich größeren Gittern an.
Weiterhin ist für die Überrelaxation und die fourierbeschleunigte Eichfixierung in der
SU (3)-Gittereichtheorie der exponentielle Zusammenhang zwischen Gittergröße und Rechenaufwand für große Gitter zu bestätigen, falls dies möglich ist.
Und auch wenn die Projektion auf die I120 -Untergruppe in SU (2)Gittereichfeldtheorien keine Vorteile gebracht hat, bleibt es interessant zu untersuchen,
inwieweit sich auch für die SU (3) eine solche diskrete Untergruppe finden lässt und ob
sich durch deren Verwendung vielleicht die SU (3)-Algorithmen beschleunigen lassen.
84
Kapitel 5
Zusammenfassung und Ausblick
Anhang A
Anhang
A.1
Das Ikosaeder
Das Ikosaeder, von dem die Gruppe ihren Namen herleitet, ist ein Polyeder, das nach
Definition von 20 regulären Dreiecken begrenzt wird. Daraus ergibt sich ein Gebilde mit
12 Ecken und 30 Kanten. Von der Konstruktion des Ikosaeders werden wir zur Darstellung der Drehgruppe des Ikosaeders übergehen und uns am Ende dieses Abschnittes
ansehen, wie sich diese Untergruppe der speziellen orthogonalen Transformationen SO(3)
homomorph auf die speziellen unitären Transformationen SU (2) übertragen läßt.
Eine sehr anschauliche Konstruktion des Ikosaeders geht von zwei regelmäßigen Fünfecken aus, die um den Winkel π/5 gegeneinander verdreht sind[Bai99]. Nun werden die
Eckpunkte der beiden Fünfecke so miteinander verbunden, dass die entstehenden Flächen
regelmäßige Dreiecke ergeben (Abb. A.1 links). Wir erhalten das fünfseitige Antiprisma
(Abb. A.1 mittig). Nun brauchen wir nur noch über jedem Fünfeck eine durch gleichseitige Dreiecke begrenzte Pyramide konstruieren und haben so das Ikosaeder konstruiert
(Abb. A.1 rechts).
Abbildung A.1: geometrische Konstruktion des Ikosaeders
Die Eckpunkte des Ikosaeders liegen dabei auf der Oberfläche einer einhüllenden Kugel.
A.1.1
Konstruktion der Ikosaedergruppe
Im folgenden interessieren uns jene linearen Transformationen, die einen regulären Körper
wieder mit sich selbst zur Deckung bringen. Sie wurden ausführlich Ende des 19. Jahrhunderts von Felix Klein behandelt [Kle84]. Betrachten wir zunächst die Drehungen. Da
85
86
Kapitel A
Anhang
zwei hintereinander ausgeführte Drehungen wieder eine Drehung ergeben, kann man sofort schlußfolgern, dass Drehungen, welche einen regulären Körper mit sich sich selbst zur
Deckung bringen, in ihrer Gesamtheit eine Gruppe bilden. Anders verhält es sich mit den
Spiegelungen, die es vermögen einen regulären Körper in sich selbst zu überführen. Zwei
Spiegelungen hintereinander ausgeführt bilden nicht notwendig eine Spiegelung, aber eine Drehung. Die Gesamtheit der Spiegelungen bildet also für sich genommen noch keine
Gruppe. Nimmt man jedoch die Drehungen, die Spiegelungen und die aus den Kombinationen entstehenden Operationen zusammen, so erhält man wieder eine Gruppe, die wir
ihrer Konstruktion wegen erweiterte Gruppe nennen wollen.
Das Ikosaeder besitzt keinerlei Spiegelsymmetrie und lässt sich nur durch Drehungen in sich selbst überführen. Überzeugen wir uns zunächst davon, dass es 60 derartige
Drehungen gibt. Die Drehungen lassen sich dazu in 3 Klassen einteilen (siehe Abbildung).
1. Drehungen der Periode 5: Sind Drehungen um die Ikosaederdiagonalen mit ganzen Vielfachen von 2π
als Drehwinkel. Jeder der 12 gleichberechtigten Ikosaedereck5
punkte bleibt im Ganzen bei 5 Drehungen um diese Diagonalen unverändert. Bei
6 Diagonalen und unter Vernachlässigung der Identität erhält man so 4 · 6 = 24
Drehungen
2. Drehungen der Periode 3: Die 10 Diagonalen des dem Ikosaeder einbeschriebenen Petagondodekaeders liefern analog 2 · 10 = 20 Drehungen mit ganzzahligen
als Drehwinkel.
Vielfachen von 2π
3
3. Drehungen der Periode 2: Die 15 Querlinien liefern die verbleibenden 15 Drehungen der Periode 2.
Abbildung A.2: Klassen der Ikosaederdrehungen
Unter Hinzunahme der Identität erhält man so die
24 + 20 + 15 + 1 = 60
Drehgruppe des Ikosaeders1 .
Jede Drehung wird durch eine normierte Drehachse n = (n1 , n2 , n3 ) und einen Drehwinkel
φ charakterisiert. Wenn wir nun noch den Kosinus des Winkels mit c = cos(φ) bezeichnen,
1
Die Eins kommt von der identischen Abbildung, die keine echte Drehung ist.
A.1 Das Ikosaeder
87
können wir die zugehörige Drehmatrix durch die Abbildung S : (R)3 ∩ S 2 → SO(3) sofort
angeben:
S(n, φ) =
"
n21 + c(n22 +√n23 )
n1 n2 − cn1 n2 + √1 − c2 n3
n3 n1 − cn3 n1 − 1 − c2 n2
√
n1 n2 − cn1 n2 − 1 − c2 n3
n22 + c(n23 +√n21 )
n2 n3 − cn2 n3 + 1 − c2 n1
√
#
n3 n1 − cn3 n1 + √1 − c2 n2
n2 n3 − cn2 n3 − 1 − c2 n1
n23 + c(n21 + n22 )
Nutzen wir nun unser Wissen über die Ikosaederdrehungen, so läßt sich die gesamte Gruppe durch Angabe der einzelnen Drehwinkel und Drehachsen konstruieren. Es ist jedoch
etwas umständlich, alle Drehachsen und Drehwinkel einzeln zu berechnen, um daraus die
Drehungen zu berechnen.
A.1.2
Die elegante Methode
Eine etwas elegante Methode ist es, die gesamte Gruppe aus zwei beliebigen Drehungen
der Periode 5 zu erzeugen. Um für diese beiden Drehung besonders einfache Darstellungen
der Drehachse zu bekommen, wählen wir zuvor das Koordinatensystem in geeigneter
Weise. Dazu erinnern wir uns daran, dass sämtliche Ecken des Ikosaeders auf einer
einhüllenden Kugel liegen. Das Zentrum dieser Kugel soll der Koordinatenursprung sein.
Desweiteren legen wir das Ikosaeder genau so in das Koordinatensystem, dass die Spitzen
der beiden aufgesetzten Pyramiden auf der z-Achse liegen und eine Spitze des oberen
Fünfecks über der x-Achse zu liegen kommt.
Abbildung A.3: Erzeugende der Ikosaedergruppe
Das Ikosaeders besitzt nun für die in Abbildung A.3 dargestellten Drehachsen eine
besonders “einfache” Koordinatendarstellung und wir nutzen sie als Drehachsen für die
88
Kapitel A
Erzeugenden A und C der Drehgruppe des Ikosaeders2 .


p
√
√
1
1
(1
−
(
5)
−
10
+
2
5)
0
4
4
√
√
 1 p

1
)
=
A = S([001], 2π


(
(−1
+
10
+
2
5)
5)
0
5
4
4
0
0
1



C = S([10 21 ], 2π
)
=

5

1
2
1
(15
20
q
+
√
5)
√
1
(5 + 5)
10
√
1
(5
−
5)
10
− 12
q
1
(5
10
√
und
1
(5
10
q
+ 5)
√
1
(−1 + 5)
−
4
q
√
1
(5 + 5)
10
Anhang
−
1
(5
10
√1
5
√
+
5)
√



5) 

Wir bilden nun die Matrizen T = Ai C j Ak C l für i, j, k, l = 0..4 und streichen aus der entstehenden Menge alle wiederkehrenden Matrizen aus. Das Resultat ist die 60-elementige
Menge T60 der Zahlentupel (i, j, k, l). Diese Menge ist eine mögliche Darstellung der Drehgruppe des Ikosaeders und wir wollen sie hier angeben3 :


(1,
1,
1,
1),
(1,
1,
1,
2),
(1,
1,
1,
3),
(1,
1,
1,
4),
(1,
1,
1,
5),
(1,
1,
2,
1),








(1,
1,
2,
2),
(1,
1,
2,
3),
(1,
1,
2,
4),
(1,
1,
2,
5),
(1,
1,
3,
1),
(1,
1,
3,
2),








(1,
1,
3,
3),
(1,
1,
3,
4),
(1,
1,
3,
5),
(1,
1,
4,
1),
(1,
1,
4,
2),
(1,
1,
4,
3),








(1,
1,
4,
4),
(1,
1,
4,
5),
(1,
1,
5,
1),
(1,
1,
5,
2),
(1,
1,
5,
3),
(1,
1,
5,
4),






(1, 1, 5, 5), (1, 2, 1, 1), (1, 2, 1, 2), (1, 2, 1, 3), (1, 2, 1, 4), (1, 2, 1, 5),
T60 =
(1, 2, 3, 1), (1, 2, 3, 2), (1, 2, 3, 3), (1, 2, 3, 4), (1, 2, 3, 5), (1, 2, 4, 1), 







(1,
2,
4,
2),
(1,
2,
4,
3),
(1,
2,
4,
4),
(1,
2,
4,
5),
(1,
3,
3,
1),
(1,
3,
3,
2),








(1,
3,
3,
3),
(1,
3,
3,
4),
(1,
3,
3,
5),
(1,
3,
4,
1),
(1,
3,
4,
2),
(1,
3,
4,
3),








(1,
3,
4,
4),
(1,
3,
4,
5),
(1,
4,
3,
1),
(1,
4,
3,
2),
(1,
4,
3,
3),
(1,
4,
3,
4),






(1, 4, 3, 5), (2, 3, 3, 1), (2, 3, 3, 2), (2, 3, 3, 3), (2, 3, 3, 4), (2, 3, 3, 5)
In dieser Darstellung entspricht das Tupel (1, 2, 1, 2) der Identität. Im weiteren sind wir
an der Fortsetzung der Drehgruppe des Ikosaeders auf die ikosaedrale Untergruppe I120
der SU (2) interessiert.
A.1.3
Fortsetzung auf SU (2)
Bisher haben wir nur Drehungen im dreidimensionalen euklidischen Raum betrachtet.
Von Interesse ist nun eine Fortsetzung der Ikosaedergruppe auf die SU (2).
Hierfür nutzen wir das beiden Gruppen lokal isomorph zueinander sind. Dieser Isomorphismus ist nicht global, aber es gibt einen globalen Homomorphismus SU (2) ∼
= SO(3)
der dafür sorgt, dass die SO(3) von der SU (2) zweimal überdeckt wird. Wir wollen
uns der Fortsetzung nähern, indem wir von der Theorie der kontinuierlichen Gruppen
Gebrauch machen [Jon90].
Darstellung und Parameter
Die SU (2) hat als niedrigstdimensionale treue Dartellung, die sogenannte fundamentale
Darstellung, d.h. unitäre 2 × 2 Matrizen, deren Determinante den Wert 1 hat. Die Gruppe
√
1
Da die Erzeugenden von der Periode 5 sind, wählen wir als Drehwinkel 2π
5 , sodass c = 4 ( 5 − 1) ist.
3
Da das wegstreichen der mehrfach enthaltenen Tupel recht willkürlich geschehen kann, ist dies nur
eine mögliche Tupelmenge
2
A.1 Das Ikosaeder
89
der Raumdrehungen SO(3) hat als Darstellung orthogonale 3 × 3 Matrizen, deren Determinante ebenfalls den Wert 1 hat. Als wichtiger Unterschied zur SU (2) bemerken wir,
dass in der SO(3) die Spiegelung (− id) nicht in der Gruppe enthalten ist.
Wir betrachten nun die Darstellung der beiden Gruppen als Lie-Gruppen mit
übereinstimmender Lie-Algebra.
Gruppe
SO(3)
´
,
³ 0 0 −1 ´
iX2 = 0 0 0 ,
1 0 0
³ 0 1 0´
iX3 = −1 0 0
iX1 =
Generatoren der
Lie-Algebra
³0
0 0
0 0 1
0 −1 0
0 0 0
Kommutatoren
[iXi , iXj ] = −i²ijk Xk
SU(2)
X1 = 21 σ1 = 12 ( 01 10 ),
X2 = 12 σ2 =
1
2
¡ 0 −i ¢
i 0
,
0
X3 = 12 σ3 = 12 ( 10 −1
)
[iXi , iXj ] = −i²ijk Xk
Beide Gruppen haben die gleichen Strukturkonstanten, sind also in der Umgebung
der Eins isomorph. Eine Drehung um eine Drehachse mit Richtung n mit dem Winkel φ
hat die Darstellungsmatrix
Ã
!
X
S(n, φ) = exp iφ
nk Xk
(A.1)
k
Auch für die SU (2) stimmt diese Darstellung, nur dass hier nicht mehr S(n, φ) = S(−n, φ)
gilt. Wir wollen im folgenden zwei Parameterabbildungen SSO(3) und SSU (2) je nach Wertebereich unterscheiden
SSO(3) : (R)3 ∩ S 2 → SO(3)
und
(A.2)
2
SSU (2) :
S
→ SU (2),
wobei beide Abbildungen durch die Exponentialabbildung aus Gleichung A.1 definiert
sind, aber unterschiedliche Generatoren verwenden.
Die Ikosaedergruppe I120
Mit Hilfe dieser Darstellung können wir nun recht einfach die Erzeugenden der Drehgruppe
des Ikosaeders von der SO(3) auf die SU (2) abbilden. Formal läßt sich nun ein Homo−1
morphismus HSO(3),SU (2) : SO(3) → SU (2) durch die Verknüpfung H = SSU (2) ◦ SSO(3)
definieren. So ließe sich die gesamte Drehgruppe des Ikosaeders in die SU (2) abbilden.
Durch Multiplikation erhielte man die übrigen 60 Elemente der I120 . Wir wollen an dieser
Stelle wieder einen etwas einfacheren Weg gehen, da das Inverse der Abbildung SSO(3)
nicht ohne weiteres zu berechnen ist. Dazu erinnern wir uns, dass wir bereits die Parameter der Erzeugenden der Drehgruppe des Ikosaeders angegeben haben. Wir nutzen diese
Parameter, um die Erzeugenden der I120 direkt zu bestimmen.
" iπ
#
5
0
e
und
) =
A = SSU (2) ([001], 2π
iπ
5
0 e− 5
) =
C = SSU (2) ([10 21 ], 2π
5
"
1
20
³
p
√
√ ´
5 + 5 5 − i 50 − 10 5
q
√
1
(5 − 5)
−i 10
q
#
√
1
(5 − 5)
−i 10
³
p
√ ´
√
1
5
−
i
50
−
10
5
5
+
5
20
90
Kapitel A
Anhang
Diese beiden Matrizen erzeugen nun eine Untergruppe der SU (2) mit 120 Elementen, die
Ikosaedergruppe I120 . Analog wie auf der SO(3) ergeben sich sich alle Elemente aus den
Matrizen
t = Ai C j Ak C l für i, j, k = 0, .., 4; l = 0, .., 9.
Man beachte, dass ein Index bis 9 laufen muss, um die vollständige Untergruppe zu
erzeugen. Denn im Gegensatz zur SO(3), in der die Erzeugenden von der Periode 5 sind
(also A5 = C 5 = id), sind sie in der SU (2) von der Periode 10 (mit A5 = C 5 = −id). Am
Ende entfernen wir alle doppelt vorkommenden Elemente und erhalten die I120 .
A.1.4
Diskretisierung der SU (2)
Die Ikosaedergruppe bietet hervorragende Eigenschaften. Alle ihre Elemente haben die
gleichen Charakteristika und sind bezüglich der Frobeniusnorm gleichmäßig über die
SU (2) verteilt. Anstelle der Matrixmultiplikation kann man ihre Elemente auch über eine Gruppentabelle multiplizieren, was sich besonders in der Computeralgebra als äußerst
nützlich erweisen kann.
A.2 Konvergenz einer Markov-Kette
A.2
91
Konvergenz einer Markov-Kette
Eine Markov-Kette ist ein spezieller stochastischer Prozess, also eine Sequenz von zufälligen Variablen X1 , X2 , X3 , . . . . In Anlehnung an die Markov-Ketten in dieser Arbeit wollen
wir die zufälligen Variablen Konfigurationen nennen. Falls die Wahrscheinlichkeitsverteilung der Konfiguration Xi+1 nur vom Vorgänger Xi abhängt, dann gilt
P (Xi+1 = x | X1 , ...., Xi ) = P (Xi+1 = x | Xi ),
(A.3)
wobei x ein möglicher Zustand der Konfiguration ist. Diese Eigenschaft wird auch als
Gedächtnislosigkeit der Markov-Kette bezeichnet. Die Eigenschaft nur von einer begrenzten Anzahl der letzten Vorgänger abzuhängen, wird Markov-Bedingung oder Gedächtnislosigkeit der Markov-Kette genannt. Eine Markov-Kette besitzt immer eine Anfangswahrscheinlichkeit V , die die Wahrscheinlichkeitsverteilung für das erste Glied der MarkovKette festlegt. Eine Markov-Kette kann verschiedene Eigenschaften aufweisen.
Definition: (Eigenschaften einer Markov-Kette)
Periodizität ist die Eigenschaft einer Markov-Kette periodisch zu sein.
Rekurrenz ist die Eigenschaft einer Markov-Kette, von jeder Konfiguration aus zu
dieser innerhalb von unendlich vielen Schritten mit der Wahrscheinlichkeit Eins
zurückzukehren.
Die statistischen Eigenschaften einer Markov-Kette werden vollständig durch Festlegung
einer Übergangswahrscheinlichkeit P (Xi+1 , Xi ) beschrieben. Die für die Konvergenz des
Markov-Prozesses notwendigen Eigenschaften an die Übergangswahrscheinlichkeit sind
Definition: (Eigenschaften der Übergangswahrscheinlichkeit)
X
P (Y, X) = 1
Normiertheit
Y
X
P (Y, X) > 0
Ergodizität
P (Y, X)F (X) = F (Y ) Existenz eines Fixpunktes F (Stabilität )
X
Dem in der Arbeit beschriebenen Metropolis-Algorithmus liegt eine Markov-Kette
zugrunde, die als Fixpunkt F gerade die Boltzmannverteilung p(X) ∝ exp −βE(X) hat,
wobei E eine Energiefunktion ist und β = kB1T . Wir wollen nun für einen allgemeinen
Markov-Prozess zeigen, dass er gegen seinen Fixpunkt konvergiert. Aus dieser Konvergenz
folgt im übrigen auch die Tatsache, dass er als stabil bezeichnet wird.
Die Entwicklung der Anfangswahrscheinlichketisverteilung V =: V1 zu den Verteilungen der Folgekonfigurationen Vi soll ebenfalls mit Indizes versehen werden. Für jede
Wahrscheinlichkeitsverteilung V gilt die
Definition: (Normiertheit)
X
X
V (X) = 1
(A.4)
92
Kapitel A
Anhang
Weiterhin kann für Wahrscheinlichkeitsverteilungen eine Metrik angegeben werden, mit
der der Abstand zweier Verteilungen gemessen werden kann
Definition: Sind V und W zwei Wahrscheinlichkeitsverteilungen, dann wird durch
kV − W k :=
X
X
kV (X) − W (X)k
(A.5)
ihr Abstand definiert.
Nun sind alle nötigen Definitionen gegeben und wir können das erste Lemma auf dem
Weg zum Beweis der Konvergenz der Markov-Kette formulieren.
Lemma A.2.1. (Existenz und Eindeutigkeit des Fixpunktes)
Sei {Xi } eine aperiodische, rekurrente Markov-Kette und erfülle die Überganswahrscheinlichkeit P (Y, X) die Eigenschaft der Ergodizität, dann hat P (Y, X) einen Fixpunkt F und
dieser ist eindeutig. In diesem Falle gilt für alle X, dass lim P n (Y, X) = F (Y ) und
n→∞
F (Y ) > 0
Bevor wir uns an den Beweis machen, wollen wir zumindest noch bemerken, dass sich
eine umgekehrte Richtung beweisen läßt. Es kann nämlich aus der Existenz eines Fixpunktes für eine aperiodische Markov-Kette mit ergodischer Übergangswahrscheinlichkeit
auch auf die Eigenschaft der Rekurrenz geschlossen werden. Der Beweis kann zum Beispiel
in [Bil95] nachgelesen werden. Wichtig ist, dass der Metropolis Algorithmus die geforderten Eigenschaften aufweist und wir also einen eindeutigen Fixpunkt finden können, die
Boltzmanverteilung.
Das nächste Lemma beschreibt die Eigenschaft der Übergangswahrscheinlichkeit auf
die Wahrscheinlichkeitsverteilung als kontrahierende Abbildung zu wirken.
Lemma A.2.2. Seien {Vi } die Wahrscheinlichkeitsverteilungen einer Markov-Kette, deren Übergangswahrscheinlichkeit P (X, Y ) die Eigenschaften Normiertheit, Ergodizität und
Stabilität erfüllt. Ferner sei F der einzige Fixpunkt der Markov-Kette. Dann gibt es ein
α mit 1 ≥ α > 0, sodass gilt
kVi+1 − pk ≤ (1 − α)kVi − pk
Beweis:. Zunächst machen wir folgende Ersetzung:
Pe(X, Y ) = P (X, Y ) − Pmin ,
(A.6)
wobei Pmin = minP (Y, X) die minimale Übergangswahrscheinlichkeit zwischen zwei
X,Y
Zuständen bezeichnet. Auf Grund der Ergodizität gilt Pmin > 0 und weiter
Pe(X, Y ) ≥ 0.
(A.7)
A.2 Konvergenz einer Markov-Kette
93
Nun läßt sich die Behauptung des Satzes wie folgt beweisen.
X
kVi+1 − F k
=
kVi+1 (X) − F (X)k
X
=
Stabilität
=
(A.6)
=
(A.4)
=
∆−Ungleichung
≤
A.7
=
°
°
°
X°
°X
°
P (X, Y )Vi (Y ) − F (X)°
°
°
°
X
° Y
°
°
X°
°X
°
P (X, Y ) (Vi (Y ) − F (Y ))°
°
°
°
X
°
° Y
°
X
X°
°
°X e
P (X, Y ) (Vi (Y ) − F (Y )) + Pmin
(Vi (Y ) − F (Y ))°
°
°
°
Y
X
°
° Y
°
X°
°
°X e
P (X, Y ) (Vi (Y ) − F (Y )) + Pmin · 0°
°
°
°
X
Y
°
XX°
°
°e
°P (X, Y ) (Vi (Y ) − F (Y ))°
X
X
Normiertheit
=
=
=
Y
XX
Y
Pe(X, Y ) kVi (Y ) − F (Y )k
(1 − N Pmin )
X
Y
kVi (Y ) − F (Y )k
(1 − N Pmin )kVi+1 − F k
(1 − α)kVi+1 − F k
¥
Im letzten Schritt des Beweises ist in dieser Darstellung der Markov-Kette vorausgesetzt worden, dass der Raum der möglichen Konfiguration endlich ist. In diesem Falle
ist die Mächtigkeit des Konfigurationsraumes eine natürliche Zahl N . Für kontinuierliche
Markov-Ketten sind Beweis und Voraussetzungen in eine integrale Formulierung zu bringen. Mit diesem Hilfssatz lä3t sich nun auch verhältnismäßig einfach der Satz über die
Konvergenz einer Markov-Kette formulieren und beweisen.
Satz A.2.3. Sei durch P (X, Y ) ein Markov-Prozess mit den Voraussetzungen des Hilfssatzes gegeben und F ein Fixpunkt. Weiter sei Vt = P i V die Wahrscheinlichkeitsverteilung
der Markov-Kette nach t Schritten. Dann gilt
lim kVi − F k = 0
i→∞
(A.8)
und man spricht in diesem Sinne von der Konvergenz der Markov-Kette.
Beweis:. Aus dem Hilfssatz entnimmt man
kVi+1 − F k ≤ (1 − α)kVi − F k
. Es handelt sich also um eine kontrahierende Abbildung. Beginnt man mit einer Startverteilung V , so gilt nach i Schritten
kVi − F k ≤ (1 − α)i kV − F k
In diesem Sinne konvergiert Die Markov-Kette Vi im Limes großer t gegen die Boltzmannverteilung.
¥
94
Kapitel A
Anhang
Für einen konkreten Algorithmus, der die Eigenschaften der Markov-Kette ausnutzt,
sind also die Eigenschaften des Satzes zu zeigen. Die Stabilität ist dabei im allgemeinen
schwer nachzuweisen. Allerdings genügt es in den meisten Fällen, die stärkere Bedingung
der detailed balance für eine Markov-Ketter nachzuweisen:
P (Y, X)
P (Y )
=
P (X, Y )
P (X)
detailed balance
Denn aus dem folgenden Satz geht hervor, dass eine Kette, die detailed balance erfüllt
automatisch die Eigenschaft der Stabilität besitzt.
Satz A.2.4. Erfüllt eine normierte Übergangswahrscheinlichkeit P (Y, X), die die Bedingung der detailed balance für eine Wahrscheinlichkeitsverteilung P (X), so ist P (X) ein
Fixpunkt dieser Übergangswahrscheinlichkeit.
Beweis:. Für den Beweis ist nur die Bedingung der Stabilität zu zeigen. Dazu schreiben
wir die Bedingung der detailed balance etwas um und summieren am Ende über X
P (Y, X)
P (Y )
=
detailed balance
P (X, Y )
P (X)
P (Y, X)P (X) = P (X, Y )P (Y )
X
X
P (Y, X)P (X) =
P (X, Y )P (Y )
X
X
X
X
P (Y, X)P (X) = P (Y )
X
X
P (X, Y )
⇔
(A.9)
⇒
(A.10)
⇒
(A.11)
Normiertheit
(A.12)
=⇒
X
P (Y, X)P (X) = P (Y )
(A.13)
X
Die letzte Zeile ist die Stabilitätsbedingung.
¥
A.3 Haarsches Maß
A.3
95
Haarsches Maß
Die Einführung des Haarschen Maßes beginnen wir mit einigen fundamentalen Definitionen und Sätzen
Definition: Sei G eine kompakte Liegruppe. Ein Maß µ auf G ordnet jeder Funktion
f : G → , g 7→ f (g) eine komplexe Zahl
Z
E[f ] := dµ(g)f (g)
(A.14)
G
Ein Maß heißt Haarsches Maß falls es die folgenden beiden Bedingungen erfüllt
(i) E[Lh F ] = E[f ]
(ii)
E[1] = 1
∀h ∈ G (Linksinvarianz)
(Normiertheit).
(A.15)
wobei Lh f für h ∈ G durch (Lh f )(g) = f (h−1 g) definiert ist
Definition: Eine Funktion m :
n
n
×
→
n
heißt Gruppenmultiplikation, falls gilt
g(m(x, y)) = g(x)g(y).
(A.16)
Sei nun die Gruppe G durch reellen Koordinaten x ∈ n parametrisiert (für die Gruppenelemente wird in diesem Falle g(x) geschrieben) und gelte g(0) = e, das Einselement
der Gruppe. Dann sind wir nun auf der Suche nach dem ∆(x), für das gilt
Z
E[f ] = dn x∆(x)f (g(x)) .
(A.17)
Bevor wir das Haarsche Maß der Gruppe SU (2) konstruieren können müssen wir noch
eine Identität zeigen
Satz A.3.1. Ist g : n → G eine Parametrisierung der Liegruppe G und m :
die Gruppenmultiplikation dann gilt für das oben definierte Haarsche Maß
¯
¯ ¶¯
µ
¯
¯
¯
∂m
i
¯
∆(0) = ∆(y) ¯¯det
(y, x)¯¯
¯
∂xj
n
×
n
→
n
(A.18)
x=0
Beweis:. Mit Bedingung A.15(i) ¯der Linksinvarianz
und der Koordinatentransformation
¯
¯ ∂mi (y,x) ¯ 4
n
z = m(y, x) folgt zunächst d z = ¯ ∂xj ¯ d x, was dann zu folgender Umstellung führt:
¯
¯
Z
Z
¯
¯
n
n ¯ ∂mi
d z∆(z)f (g(z))
=
d x¯
(y, x)¯¯ ∆(m(y, x))f (g(y)g(x))
∂xj
G
G
¯
¯
Z
¯
¯
A.15(i)
n ¯ ∂mi
(y, x)¯¯ ∆(m(y, x))f (g(x))
=
d x¯
∂xj
G
An dieser Stelle können wir ∆(x) mit dem Term vor f (g(x)) identifizieren und erhalten:
¯
µ
¶¯
¯
¯
∂m
i
(A.19)
∆(x) = ∆ (m(y, x)) ¯¯det
(y, x) ¯¯
∂xj
Beachten wir nun noch, dass für x = 0 aus den Bedingungen für die Gruppenmultiplikation
g (m(y, x = 0)) = g(y)g(0) = g(y) gilt, so folgt wegen der Eindeutigkeit der Darstellung
der Gruppe, dass m(y, x = 0) = m(y) gelten muss, woraus durch Einsetzen von x = 0 in
Gleichung A.19 die Behauptung folgt.
¥
96
Kapitel A
Anhang
Der letzte Satz gilt allgemein und ist nicht auf jede Liegruppe anwendbar. In unserem
Spezialfall brauchen wir nun aber nur noch eine Parametrisierung der SU (2) auszuwählen
und können mit Gleichung A.18 das Haarsche Maß in dieser Parametrisierung ausrechnen.
Wir wählen die Cayley-Klein-Parametrisierung
µ
¶
x0 + ix1 x2 + ix3
g(x) =
,
x ∈ S3
(A.20)
−x2 + ix3 x0 − ix1
In dieser Darstellung berechnet sich die Gruppenmultiplikation zu


x 0 y 0 − x1 y 1 − x2 y 2 − x3 y 3
 x 0 y 1 + y 0 x 1 + x 2 y 3 − x3 y 2 

m(x, y) = 
 x 0 y 2 + y 0 x 2 − x1 y 3 + x 3 y 1  ,
x 0 y 3 + y 0 x 3 + x 1 y 2 − x2 y 1
(A.21)
Betrachten wir zunächst alle vier Komponenten von x als unabhängige Parameter, so
erhält man mit Satz A.18
¯ ¶
µ
¯
∂mi
y∈S 3
(A.22)
(y, x)¯¯
det
= y02 + y12 + y22 + y32 = 1.
∂xj
x=0
Auf der Kugeloberfläche, über die zu integrieren ist, sind alle Punkte y mit dem gleichen
Maß ∆(0) versehen. Dies bedeutet, dass die Integration im Parameterraum der gewöhnlichen Integration auf der Kugeloberfläche entspricht, sodass sich für das normierte Haarsche Maß dU der Gruppe SU (2)
q
1
dG = 2 1 − x20 dx0 dΩ,
(A.23)
4π
als Lösung ergibt. Hier ist dΩ das Oberflächenmaß der S 2 in einer geeigneten Parametrisierung für x1 , x2 und x3 . Prinzipiell kann auf analoge Weise auch das Haarsche Maß
anderer SU (N ) Gruppen bestimmt werden. Für alle SU (N )-Liegruppen lässt sich eine Eulerwinkel-Parametrisierung berechnen. Eine umfassende Zusammenfassung ist zum
Beispiel in [Til] gegeben. Die einfachsten Parametrisierungen sind die der SU (2) und der
SU (3) mit
2 −1
NY
U=
eiXi xi ,
(A.24)
i=1
wobei Xi die Generatoren der zugrundeliegenden Gruppe sind und xi die generierenden
Eulerwinkel. Für Gruppen mit N > 3 ist diese Parametrisierung komplizierter, läßt sich
aber prinzipiell angeben.
A.4 Aktualisierungsalgorithmen
A.4
A.4.1
97
Aktualisierungsalgorithmen
Heatbath Aktualisierung in SU (N ) Yang-Mills-Theorien
Im Rahmen des Simulated Annealings ist es notwendig, Aktualisierungsschritte der Form
g(x) → r(x)g(x) = g 0 (x)
auszuführen, wobei die neuen g 0 (x) mit der Wahrscheinlichkeitsverteilung e−1/T FU [g;x] dg
erzeugt werden sollen. Wir wollen uns zunächst auf SU (2)-Aktualisierungen beschränken,
sodass dg das Haarsche Maß der SU (2) ist. Auch für den Thermalisierungsprozess der
Konfigurationen ist ein solcher Heatbath-Schritt notwendig. Hier ist das Gewicht der lokale
l
lok
Wirkung SW
(U ; x) durch die Verteilung e−βSW ok(U ;x) dU gegeben. In beiden Fällen haben
wir letztenendes ein neues SU (2)-Element u0 mit dem Gewicht der Boltzmannverteilung
1
0
dP (g 0 ) ∝ e− T tr(g K) dg
(A.25)
†
K
zu wählen. Die Invarianz des Haarschen Maßes unter einer Multiplikation mit K̃ = √det
K†
führt zu
ρ
0
dP (g 0 K̃) ∝ e 2 tr(g ) dg 0
(A.26)
√
mit ρ = T2 det K † . Mit dem Haarschen Maß der SU (2) (A.23) in der Caylay-KleinParametriesierung A.20 lässt sich nun das Wahrscheinlichkeitsmaß des neu zu generierenden Elements als
q
ρ
tr(g 0 (x))
0
2
1 − x20 dx0 dΩ
(A.27)
dP (g K̃) ∝ e
q
(A.28)
= eρx0 1 − x20 dx0 dΩ
aufschreiben. Die so erzeugte Verteilung entspricht einer Boltzmannverteilung mit dem
Maximum bei der Identität. Die Heatbath Aktualisierung g(x) → r(x)g(x) = g 0 (x) besteht
nun aus zwei Schritten
p
1. Erzeugung eines Elementes z mit der Verteilung dP (z) ∝ eρz0 1 − z02 dz0 dΩ und
2. Berechnung der Änderung r(x) = g(z)K̃.
Der zweite Schritt ist unproblematisch, daher wollen wir uns im Folgenden die Erzeugung von z genauer anschauen. Zunächst müssen wir den Parameter z0 ∈ [−1, 1] mit der
Verteilung
q
dP (z0 ) ∝
1 − z02 dz0
(A.29)
erzeugen. Dazu kann ein Algorithmus verwendet werden, wie er in [FH84] und [KP85]
eingeführt wurde, mit einer kleinen Veränderung, die in [Kne99] und [Geh02]p
beschrieben
ist. Nun müssen noch die Parameter z1 , z2 und z3 auf der Kugeloberfläche 1 − z02 · S 2
mit dem Gewicht dΩ erzeugt werden.
Dazu werden zwei auf dem Intervall [0, 1) gleichverteilte Zufallsvariablen ζ1 und ζ2 generiert und aus diesen ein Punkt s auf der Einheitssphäre S 2 wie folgt berechnet:


p 1 − 2ζ1
(A.30)
s =  p1 − ζ12 cos(2πζ2 )
2
1 − ζ1 sin(2πζ2 )
98
Kapitel A
Anhang
p
Damit ergibt sich (z1 , z2 , z3 ) als Multiplikation von s mit der Wurzel 1 − z02 . Aus dem
Parametertupel z = (z0 , z1 , z2 , z3 ) lässt sich nun in der Caylay-Klein-Parametriesierung
das gesuchte g(z) berechnen.
Für Heatbathschritte in SU (3)-Gittereichtheorien wird ein iteratives Vervahren, bei
dem die Heatbath Aktualisierung sukzessive in den Untergruppen durchgeführt wird.
A.4.2
Maximierung von Re tr(gK)
Wir wollen nun das Maximierungsproblem maxg gK, mit g ∈ SU (N ) und K ∈ Gl (N )
lösen, welches insbesondere für die lokalen Aktualisierungen in der Relaxation und Überrelaxation von Bedeutung ist. Zuerst werden wir uns eine explizite Lösung für die SU (2)
angeben, um daraus einen iterativen Algorithmus für die SU (3) zu gewinnen.
Zunächst bemerken wir, dass wir das Problem auf der SU (2) nicht für eine beliebige invertierbare Matrix zu lösen haben, sondern für Matrizen aus einem Untervektorraum mit reeller Dimension Vier. Der Grund liegt in der Bildung der K als Summe von
SU (2)-Matrizen. Den Ergebnisraum dieser Summen finden wir durch eine Erweiterung der
Cayley-Klein-Parametrisierung (A.20) der SU (2). Denn auch die Summe K von SU (2)Elementen besitzt wieder eine Cayley-Klein-Parametrisierung (k0 , k1 , k2 , k3 ), auch wenn
nicht mehr k ∈ S 3 gilt. Wir dehnen den Definitionsbereich der Parametrisierung4
P (k0 , k1 , k2 , d3 ) = k1 + i
3
X
xi σi
(A.31)
i=1
daher von der Sphäre S 3 auf den gesamten 4 aus. Der Raum P ( 4 ) wird so zu einem
Vektorraum mit reeller Dimension Vier. Mit dieser Parametrisierung gelten nun folgende
Eigenschaften
(i)
(ii)
(iii)
(iv)
tr(P (x))
tr(P (x)P (y))
tr(P (x)P (y)† )
det(P (x))
= x0
∀x ∈
= x 0 y 0 − x1 y 1 − x2 y 2 − x3 y 4
= x0 y0 + x1 y1 + x2 y2 + x3 y4 = hx, yi
= tr(P (x)P (x)† ) = kxk2
4
Die letzte Eigenschaft ist nicht sofort zu sehen, ergibt sich aber durch Ausrechenen der
Determinante und der Spur in der entsprechenden Parametrisierung. Das Maximierungsproblem hat daher im Parameterraum die Form
max3 (x0 y0 − x1 y1 − x2 y2 − x3 y4 ).
x∈S
Die Lösung lässt sich durch folgendes Lemma angeben.
Lemma A.4.1. Ist y ∈ 4 gegeben, dann hat das Maximierungsproblem maxx∈S 3 (x0 y0 −
x1 y1 − x2 y2 − x3 y4 ) die Lösung
x=
und es gilt
4
Die σi sind die Paulimatrizen
1
(y0 , −y1 , −y2 , −y3 )
kyk
1
P (x) = p
P (y)
det(P (y))
A.4 Aktualisierungsalgorithmen
99
Beweis:. Der Beweis des zweiten Teils folgt unmittelbar aus der Feststellung, dass durch
tr(P (x)P (y)† ) ein Skalarprodukt in P ( 4 ) definiert ist. Die Maximierung bedeutet in
diesem Falle nur, die Parallelität zwischen P (x) und P (y) herzustellen. Der Beweis
des ersten Teils erfolgt analog, durch die Verkettung der Abbildung (y0 , y1 , y2 , y3 ) 7→
(y0 , −y1 , −y2 , −y3 ) = y 0 mit dem Skalarprodukt im 4 dass nun maxx∈S 3 (hx, yi) zu lösen
ist. Diese Aufgabe wird offensichtlich gelöst, falls x und y 0 parallel sind.
¥
Das ursprüngliche Maximierungsproblem wird nun durch
1
K † ∈ SU (2)
g=p
†
det(K )
gelöst.
(A.32)
Das Problem verändert sich etwas, wenn K tatsächlich eine allgemeine invertierbare
Matrix ist. Auch in diesem Fall kann eine Abwandlung der Calay-Klein-Parametrisierung
über einem komplexen Vektorraum genutzt werden, da die Identiät und die Pauli-Matrizen
eine orthogonale Basis der GL (2) sind.
P (k0 , k1 , k2 , d3 ) = k1 + i
3
X
i=1
xi σi
mit k ∈ 4
(A.33)
Bisher war für das Maximierungsproblem maxg Re tr(gK) nicht relevant, ob der Realteil
gebildet wurde, da sowohl g, als auch K in P ( 4 ) lagen. Ist jedoch K ∈ P ( 4 ) mit der
Parametrisierung P (k) = K, so gelten folgende Eigenschaft.
Lemma A.4.2. (Eigenschaften)
Ist g ∈ P ( 4 ) und K ∈ P ( 4 ), so gilt:
(i) Re tr(P (g)P (K)) = g0 Re(k0 ) + g1 Re(k1 ) + g2 Re(k2 ) + g3 Re(k3 )
⇒ (ii) Re tr(P (g)P (K)) = tr {P (g)P (Re(K))}
Beweis:. Der Beweis der Eigenschaften erfolgt durch Realteil- und Spurbildung.
(A.34)
¥
Da mit nun mit A.34 wieder Re(K) ∈ 4 gilt, ist das allgemeinere Maximierungsproblem auf das spezielle zurückgeführt worden und wir können Lemma A.4.1 anwenden.
Das allgemeinere Maximierungsproblem max Re tr(gK) mit K = P (k) ∈ GL (2) wird
g∈SU (2)
daher durch
gelöst.
g=p
1
det(P (Re(k))† )
P (Re(k))† ∈ SU (2)
(A.35)
Mit dieser Lösung läßt sich nun eine iterative Methode für dass Maximierungsproblem
auf der SU (3) angeben. Sie wurde von N. Cabibbo und E. Marinari vorgeschlagen und
sieht die sukzessive Lösung des Problems in den SU (2)-Untergruppen vor [CM82]. Dazu
wird zunächst eine Startmatrix K1 = K gewählt. Danach erfolgt eine sich auf den SU (2)Untergruppen wiederholende Prozedur.
100
Kapitel A
1. Löse
Anhang
max Re tr(gi Ki ) in der Untergruppe, wobei gi in der betrachteten Unter-
g 0 ∈SU (2)
0
gruppe die Gestalt
¡ g0 0g¢ ∈ SU (2) hat und sonst die Identitát ist, also zum Beispiel mit
der Wahl gi = 0 1 ∈ SU (3). Da die Untergruppenanteile der Ki in P ( ) liegen,
ist in dieser Maximierung Gleichung A.35 als Lösungsansatz notwendig.
2. Berechnung von Ki+1 = gi Ki . Durch weiterzählen i = i + 1 wird nun zur nächsten
Untergruppe und zum nächsten Iterationsschritt übergegangen.
Diese Iteration führt man bis zur numerischen Konvergenz fort. Die Lösung ergibt sich
dann aus dem Produkt der SU (2)-Untergruppenabbildungen als g = ... · g3 · g2 · g1 .
A.4.3
Polarzerlegung von M ∈ GL(N )
Definition: Über einem Körper heißt für eine invertierbare Matrix M ∈ Gl (N ) die
Zerlegung
U ∈ U (N ) unitär und
M = UH
mit
(A.36)
H hermitesch
die Polarzerlegung von M .
Diese Zerlegung existiert, da M invertierbar ist. Die Zerlegung ergibt sich dann aus folgender Definition
H = (M † M )1/2 ,
U = M H −1 .
(A.37)
(A.38)
Eine weitere wichtige Folgerung ist die Zerlegung in eine spezielle unitäre Matrix und eine
hermitesche Matrix, die sich hieraus berechnen läßt.
Bemerkung A.4.3. Hieraus läßt sich unmittelbar eine Zerlegung, M = SR, in eine
spezielle unitäre Matrix S ∈ SU (N ) und eine diagonalisierbare5 Matrix R berechnen.
Beweis:. Zum Beweis ist in Gleichung A.36 nur noch die n-te Wurzel der Determinante
einzuschieben M = U (det U )−1/n (det U )1/n H, sodass für die gesuchte Zerlegung gilt
R = (det U )1/n (M † M )1/2
1
−N
S = (det U )
MH
mit den Bezeichnungen aus der Polarzerlegung.
5
Die Diagonalisierbarkeit folgt aus der Hermitizität von H
−1
,
(A.39)
(A.40)
¥
A.5 Änderung der Wahrscheinlichkeitsverteilung bei Mehrfachanwendung
einer Eichfixierungsmethode
101
A.5
Änderung der Wahrscheinlichkeitsverteilung bei
Mehrfachanwendung einer Eichfixierungsmethode
Nun wird dargelegt, wie sich die Häufigkeitsverteilung über den relativen Funktionalwerten für einen Algorithmus ändert, wenn er n-fach angewendet wird und aus den gefundenen relativen Funktionalwerten der größte ausgewählt wird. Dabei gehen wir davon
aus, dass wir die Wahrscheinlichkeitsverteilung über den relativen Funktionalwerten für
einfache Anwendung der Eichfixierungsmethode kennen.
Wir teilen zunächst die Menge der möglichen Funktionalwerte in disjunkte Klassen
Ki ein. Hier entspricht K1 der Klasse mit den größten relativen Funktionalwerten. Die
übrigen Klassen sind nach absteigenden Funktionalwerten geordnet. Mit Pn [F ∈ Ki ] wird
die Wahrscheinlichkeit bezeichnet, mit der der größte in n Versuchen gefundene relative
Funktionalwert, hier mit F abgekürzt, in der Klasse Ki liegt. Sie ist das Produkt von zwei
Wahrscheinlichkeiten. Zum einen ist dies die Wahrscheinlichkeit für die Bedingung, dass in
n Versuchen keine
kleinerem Index gefunden
S Kopie mit Funktionalwert in einer Klasse mit S
/ j<i Kj ] ist die bedingte
wird6 Pn [F ∈
/ j<i Kj ]. Der zweite Faktor Pn [F ∈ Ki |F ∈
Wahrscheinlichkeit dafür, dass in n Versuchen unter der eben formulierten Bedingung
einer der gefundene Funktionalwerte in der Klasse Ki liegt. Es gilt also
¯
#
"
#
"
¯
[
[
¯
(A.41)
Kj
/
Kj · Pn F ∈ Ki ¯F ∈
/
Pn [F ∈ Ki ] = Pn F ∈
¯
j<i
j<i
Dabei gilt
"
/
Pn F ∈
[
j<i
#
"
Kj = 1 − Pn F ∈
[
j<i
#
Kj = 1 −
X
j<i
Pn [F ∈ Kj ]
und
Pn
6
"
¯
¯
#
"
#
¯
¯
[
[
¯
¯
Kj
= Pn F ∈ Ki ¯F ∈
Kj
F ∈ Ki ¯ F ∈
/
¯
¯
j<i
j≥i
¯
#
"
¯
[
¯
/ Ki ¯ F ∈
Kj
= 1 − Pn F ∈
¯
j≥i
¯
#!n
à "
¯
[
¯
Kj
/ Ki ¯ F ∈
= 1 − P1 F ∈
¯
j≥i
¯
#!n
"
Ã
¯
[
¯
Kj
= 1 − 1 − P1 F ∈ Ki ¯F ∈
¯
j≥i
Ã
!n
P1 [F ∈ Ki ]
= 1− 1− P
j≥i P1 [F ∈ Kj ]
...mit anderen Worten, dass keine Kopie mit größerem Funktionalwert gefunden wird.
(A.42)
102
Kapitel A
Anhang
P
!
Es lässt sich zeigen, dass die notwendige Bedingung der Normiertheit j Pn [F ∈ Kj ] = 1
erfüllt ist. Im Idealfall ist die Wahrscheinlichkeitsverteilung der Eichfixierungmethode für
einfache Anwendung bekannt und man kann sie für P1 einsetzen. In realistischen Situationen muss man sie aus der gemessenen Häufigkeitsverteilung gewinnen und dann diese
für P1 einsetzen. Durch Pn ist nun die Häufigkeitsverteilungen für die n-fache Anwendung
bereitgestellt.
Index
Gleichgewichtsverteilung, 34
Gluonpropagator, 13, 18
Gradientenverfahren, 30
Greensfunktion, 9
Gribov-Kopie, 25
Gribov-Mehrdeutigkeit, 10, 25
Gribov-Rauschen, 27
Gribovgebiet, 26
Gribovhorizont, 26
Überrelaxation, 29
Überrelaxationsparameter, 29, 64
Akzeptanzkriterium, 33
Cayley-Klein-Parametrisierung, 96
charakteristische Funktion, 34
Confinement, 3
Coulomb-Eichung, 24
Critical Slowing Down, 29
Haarsches Maß, 17
Heatbath Aktualisierung, 97
detailed balance, 94
Eichfixierung, 10
Coulomb-Eichung, 24
Gribov-Kopie, 25
kovariante Eichung, 20
Landau-Eichung, 24
Laplace-Eichung, 21
maximal abelsche Eichung, 22
Zentrumseichung, 23
Eichorbit, 25
Eichpotential, 7
Eichtemperatur, 33
Ergodizität, 91
erzeugendes Funktional
Gitter, 17
Kontinuum, 9
Importance Sampling, 17
kombinatorisches Optimierungsproblem,
32
kovariante Ableitung, 8
kovariante Eichung, 20
Lagrangedichte, 9
Landau-Eichung, 24
Laplace-Eichung, 21
Markov-Bedingung, 91
Markov-Kette, 91
detailed balance, 94
Ergodizität, 91
Normiertheit, 91
Stabilität, 91
maximal abelsche Eichung, 22
Metropolis-Algorithmus, 32
Akzeptanzkriterium, 33
mikrokanonische Schritte, 29
Multigrid-Algorithmus, 31
Faddeev-Popov Trick, 9
Faddeev-Popov-Geistfeld, 11
Faddeev-Popov-Operator, 26
Farbladung, 7
Feldstärketensor, 8
Flavour, 7
fourierbeschleunigte Eichfixierung, 30
SU (3) Simulation, 65
Fundamental Modular Region, 26
Funktionalintegral
Integrationsmaß, 9
Performanz, 42
Plaquette, 16
Polarzerlegung, 100
Quarkpropagator, 13
Quasithermalisiertheit, 36
Ghostpropagator, 13, 19
103
104
Rekurrenz, 91
relativer Funktionalwert, 54
Relaxation, 28
Simulated Annealing, 31
SU (2) Simulation, 43
SU (3) Simulation, 68
Fahrplan, 35
Kostenfunktion, 34
Optimierungskriterien, 43
Parameter, 43
Quasiethermalisiertheit, 36
Schritte, 35
Schrittverteilung, 49
Temperatur, 33
Temperaturschritt, 35
Thermalisierungsschritt, 33
Stabilität, 91
Temperaturschritt, 35
thermisches Gleichgewicht, 32
Wahrscheinlichkeitsverteilung
Abstand, 92
Wick-Rotation, 13
Wilson-Wirkung, 16
Wirkung
effektive, 11
Yang-Mills-Lagrangedichte, 8
Zentrumseichung, 23
INDEX
Literaturverzeichnis
[Adl81]
Adler, S.L.: Overrelaxation method for the Monte Carlo evaluation of the
partition function for multiquadratic actions. In: Phys. Rev. D 23 (1981),
S. 2901
[AK89]
Aarts, E. ; Korst, J.: Simulated Annealing and Boltzmann Machines.
John Wiley & Sons, Inc., 1989
[AL73]
Abers, E. S. ; Lee, B. W.: Gauge Theories. In: Phys. Rept. 9 (1973), S.
1–141
[B+ 85]
Batrouni, G. G. u. a.: Langevin simulations of lattice field theories. In:
Phys. Rev. D32 (1985), S. 2736
[B+ 91]
Bornyakov, V. G. u. a.: The Density of monopoles in SU(2) lattice gauge
theory. In: Phys. Lett. B261 (1991), S. 116–122
[Bai99]
Baierl, R. H.: Konvexe Polyeder. Klassische und hybride numerische Generierungsmethoden. 1999
[BBMPS96] Bali, G. S. ; Bornyakov, V. ; Müller-Preussker, M. ; Schilling,
K.: Dual Superconductor Scenario of Confinement: A Systematic Study of
Gribov Copy Effects. In: Phys. Rev. D54 (1996), S. 2863–2875
[BCLM03]
Bloch, J. C. R. ; Cucchieri, A. ; Langfeld, K. ; Mendes, T.: Running
coupling constant and propagators in SU(2) Landau gauge. In: Nucl. Phys.
Proc. Suppl. 119 (2003), S. 736–738
[Ber66]
Berezin, F. A.: Method of Second Quantization. Academic Press, 1966
[BFGM72]
Bardeen, W. A. ; Fritzsch, H. ; Gell-Mann, Murray: Light-cone current
algebra, π0 decay, and e+ e− annihilation. (1972)
[BH76]
Barker, J. A. ; Henderson, D.: What ist ”liquid”? Understanding the
states of matter. In: Rev. Mod. Phys. 48 (1976), S. 587–671
[Bil95]
Billingsley, P.: Probability and Measure. John Wiley & Sons, 1995
[BIMMP04] Bakeev, T. D. ; Ilgenfritz, E.-M. ; Mitrjushkin, V. K. ; MüllerPreussker, M.: On practical problems to compute the ghost propagator
in SU(2) lattice gauge theory. In: Phys. Rev. D69 (2004), S. 074507
105
106
LITERATURVERZEICHNIS
[BW87]
Brown, F. R. ; Woch, T. J.: Overrelaxed heat bath and Metropolis algorithms for accelerating pure gauge Monte Carlo calculations. In: Phys. Rev.
Lett. 58 (1987), S. 2394
[CFIS04]
Chernodub, M. N. ; Feldmann, R. ; Ilgenfritz, E.-M. ; Schiller,
A.: Phase structure and gauge boson propagator in the radially active 3D
compact Abelian Higgs model. In: Phys. Rev. D 70 (2004), S. 074501
[CM82]
Cabibbo, N. ; Marinari, E.: A new method for updating SU(N) matrices
in computer simulations fo gauge theories. In: Phys. Lett. B119 (1982), S.
387–390
[CM98]
Cucchieri, A. ; Mendes, T.: A multigrid implementation of the Fourier
acceleration method for Landau gauge fixing. In: Phys. Rev. D57 (1998), S.
3822–3826
[CM03]
Cucchieri, A. ; Mendes, T.: Critical slowing-down in SU(2) Landaugauge-fixing algorithms at β = ∞. In: Comput. Phys. Commun. 154 (2003),
S. 1–48
[Cuc97]
Cucchieri, A.: Gribov copies in the minimal Landau gauge: The influence
on gluon and ghost propagators. In: Nucl. Phys. B508 (1997), S. 353–370
[Cuc99]
Cucchieri, A.: Infrared behavior of the gluon propagator in lattice Landau
gauge: The three-dimensional case. In: Phys. Rev. D60 (1999), S. 034508
[D+ 88]
Davies, C. T. H. u. a.: Fourier acceleration in lattice gauge theories. 1.
Landau gauge fixing. In: Phys. Rev. D 37 (1988), S. 1581
[DDFGO97] Del Debbio, L. ; Faber, M. ; Greensite, J. ; Olejnik, S.: Center
dominance and Z(2) vortices in SU(2) lattice gauge theory. In: Phys. Rev.
D55 (1997), S. 2298–2306
[DF90]
Decker, K. M. ; Forcrand, P.: Pure SU (2) lattice gauge theory on 324
lattices. In: Nucl. Phys. Proc. Suppl. 17 (1990), S. 567
[DG05]
Di Giacomo, Adriano: Confinement in QCD: Results and open problems.
(2005)
[Die03]
Dietrich, D.D.: Produktion von Partonen in Anwesenheit klassischer Felder in ultrarelativistischen Schwerionenkollisionen. (2003). – Disertationsarbeit im Fach Physik an der Goethe-Universität in Frankfurt am Main
[ELRT00]
Engelhardt, M. ; Langfeld, K. ; Reinhardt, H. ; Tennert, O.: Deconfinement in SU(2) Yang-Mills theory as a center vortex percolation transition. In: Phys. Rev. D61 (2000), S. 054504
[Fey48]
Feynman, R. P.: Space-time approach to nonrelativistic quantum mechanics. In: Rev. Mod. Phys. 20 (1948), S. 367–387
[FGML73]
Fritzsch, H. ; Gell-Mann, Murray ; Leutwyler, H.: Advantages of the
color octet gluon picture. In: Phys. Lett. B47 (1973), S. 365–368
LITERATURVERZEICHNIS
107
[FH65]
Feynman, R. P. ; Hibbs, A. R.: Quantum Mechanics and Path Integrals.
McGraw-Hill, 1965
[FH84]
Fabricius, K. ; Haan, O.: Heat bath method for the weisted Eguchi-Kawai
model. In: Phys. Lett. B143 (1984), S. 459
[For89]
Forcrand, P. de: Multigrid techniques for quarik propagator. In: Nucl.
Phys. Proc. Suppl. 9 (1989), S. 516–520
[FP67]
Faddeev, L. D. ; Popov, V. N.: Feynman diagrams for the Yang-Mills
field. In: Phys. Lett. B25 (1967), S. 29–30
[Geh02]
Gehrmann, B.: The step scaling function of QCD at negative flavor number.
(2002)
[GG84]
Geman, S. ; Geman, D.: Stochastic relaxation, Gibbs distributions, and the
bayesian restoration of images. In: IEEE Transactions on Pattern Analysis
and Machine Intelligence 6 (1984), S. 721
[Giu97]
Giusti, L.: Lattice gauge-fixing for generic covariant gauges. In: Nucl. Phys.
B498 (1997), S. 331–344
[GLR04]
Gattnar, Jochen ; Langfeld, Kurt ; Reinhardt, Hugo: Signals of confinement in Green functions of SU(2) Yang- Mills theory. In: Phys. Rev. Lett.
93 (2004), S. 061601
[GM64]
Gell-Mann, Murray: A schematic model of baryons and mesons. In: Phys.
Lett. 8 (1964), S. 214–215
[GM84]
Gutbrod, F. ; Montvay, I.: Scaling of the quark - anti-quark potential
and improved actions in SU(2) lattice gauge theoriy. In: Phys. Lett. B136
(1984), S. 411
[GPP+ 01]
Giusti, L. ; Paciello, M. L. ; Parrinello, C. ; Petrarca, S. ; Taglienti, B.: Problems on lattice gauge fixing. In: Int. J. Mod. Phys. A16
(2001), S. 3487–3534
[Gri78]
Gribov, V. N.: Quantization of non-Abelian gauge theories. In: Nucl. Phys.
B139 (1978), S. 1
[Gro05]
Gross, D. J.: The discovery of asymptotic freedom and the emergence of
QCD. In: Proc. Nat. Acad. Sci. 102 (2005), S. 9099–9108
[GS89]
Goodman, J. ; Sokal, A. D.: Multigrid Monte Carlo method: conceptual
foundations. In: Phys. Rev. D 40 (1989), S. 2035–2071
[Gut96]
Gutbrod, F.: A study of the gluon propagator in SU(2) lattice gauge
theory. (1996). – DESY-96-252
[HLS92]
Hulsebos, A. ; Laursen, M. L. ; Smit, J.: SU(N) multigrid Landau gauge
fixing. In: Phys. Lett. B291 (1992), S. 431–436
108
LITERATURVERZEICHNIS
[Jon90]
Jones, H. F.: Goups, Representations and Physics. Adam Hilger, 1990
[KGJV83]
Kirkpatrick, S. ; Gelatt Jr., C. D. ; Vecchi, M. P.: Optimization by
Simulated Annealing. In: Science 220 (1983), S. 671
[Kle84]
Klein, F.: Vorlesung über das Ikosaeder. B. G. Teubner Verlag, 1884
[Kne99]
Knechtli, F.: The static potential in the SU(2) Higgs model. (1999)
[KP85]
Kennedy, A. D. ; Pendleton, B. J.: Improved heat bath method for
Monte Carlo calculations in lattice guge theories. In: Phys. Lett. B156 (1985),
S. 393–399
[KPSZ05]
Kovalenko, A. V. ; Polikarpov, M. I. ; Syritsyn, S. N. ; Zakharov,
V. I.: Properties of P-vortex and monopole clusters in lattice SU(2) gauge
theory. In: Phys. Rev. D71 (2005), S. 054511
[KSW87]
Kronfeld, Andreas S. ; Schierholz, G. ; Wiese, U. J.: Topology and
dynamics of the confinement mechanism. In: Nucl. Phys. B293 (1987), S.
461
[Lee75]
Lee, B. W.: Lecture notes at Les Houches Summer School. (1975)
[LRG02]
Langfeld, K. ; Reinhardt, H. ; Gattnar, J.: Gluon propagators and
quark confinement. In: Nucl. Phys. B621 (2002), S. 131–156
[LRT98]
Langfeld, Kurt ; Reinhardt, Hugo ; Tennert, Oliver: Confinement and
scaling of the vortex vacuum of SU(2) lattice gauge theory. In: Phys. Lett.
B419 (1998), S. 317–321
[LSWP98]
Leinweber, Derek B. ; Skullerud, Jon I. ; Williams, Anthony G. ;
Parrinello, Claudio: Gluon propagator in the infrared region. In: Phys.
Rev. D58 (1998), S. 031501
[Man76]
Mandelstam, S.: Vortices and quark confinement in non-Abelian gauge
theories. In: Phys. Rept. 23 (1976), S. 245–249
[Man99]
Mandula, Jeffrey E.: The gluon propagator. In: Phys. Rept. 315 (1999),
S. 273–284
[MO87]
Mandula, J. E. ; Ogilvie, M.: The gluon is massive: A lattice calculation
of the gluon propagator in the Landau gauge. In: Phys. Lett. B185 (1987),
S. 127–132
[Mon00]
Montero, A.: SU(3) vortex-like configurations in the maximal center gauge. In: Nucl. Phys. Proc. Suppl. 83 (2000), S. 518–520
[MRR+ 53]
Metropolis, N. ; Rosenbluth, A. W. ; Rosenbluth, M. N. ; Teller,
A. H. ; Teller, E.: Equation of state calculations by fast computing machines. In: J. Chem. Phys. 21 (1953), S. 1087–1092
[Nam74]
Nambu, Yoichiro: Strings, monopoles, and gauge fields. In: Phys. Rev. D10
(1974), S. 4262
LITERATURVERZEICHNIS
109
[NF04]
Nakajima, H. ; Furui, S.: Infrared features of the lattice Landau gauge
QCD. In: Nucl. Phys. Proc. Suppl. 129 (2004), S. 730–732
[Pag75]
Pagels, H.: Departures from Chiral Symmetry: a Review. In: Phys. Rept.
16 (1975), S. 219
[Rot97]
Rothe, H. J.: Lattice Gauge Theories. Bd. Vol. 59. World Scientific Lecture
Notes in Physics, 1997
[SIMPS05a] Sternbeck, A. ; Ilgenfritz, E. M. ; Muller-Preussker, M. ; Schiller, A.: The influence of Gribov copies on the gluon and ghost propagator.
In: AIP Conf. Proc. 756 (2005), S. 284–286
[SIMPS05b] Sternbeck, A. ; Ilgenfritz, E.-M. ; Müller-Preussker, M. ; Schiller, A.: Towards the infrared limit in SU(3) Landau gauge lattice gluodynamics. In: Phys. Rev. D72 (2005), S. 014507
[Sin78]
Singer, I. M.: Some remarks on the Gribov ambiguity. In: Commun. Math.
Phys. 60 (1978), S. 7–12
[SO04]
Silva, P. J. ; Oliveira, O.: Gribov copies, lattice QCD and the gluon
propagator. In: Nucl. Phys. B690 (2004), S. 177–198
[SS96]
Suman, H. ; Schilling, K.: First Lattice Study of Ghost Propagators in
SU(2) and SU(3) Gauge Theories. In: Phys. Lett. B373 (1996), S. 314–318
[Sta93]
Stals, L.: Parallel Implementation of Multigrid Methods. In: Proceedings
of the Sixth Biennial Conference on Computational Techniques and Applications, Canberra (1993)
[STW02]
Stack, J. D. ; Tucker, W. W. ; Wensley, R. J.: Confinement in SU(3):
Simple and generalized maximal Abelian gauge. (2002)
[SW01]
Stack, J. D. ; Wensley, R. J.: The maximal Abelian gauge, monopoles,
and vortices in SU(3) lattice gauge theory. (2001)
[’t 71]
’t Hooft, G.: Renormalization of massless Yang-Mills fields. In: Nucl.
Phys. B33 (1971), S. 173–199
[’t 78]
’t Hooft, G.: On the phase transition towards permanent quark confinement. In: Nucl. Phys. B138 (1978), S. 1
[’t 81]
’t Hooft, G.: Topology of the gauge condition and new confinement phases
in non-Abelian gauge theories. In: Nucl. Phys. B190 (1981), S. 455
[Til]
Tilma, T. E.: SU(N) and U(N) Euler angle parametrization with applications for multiparticle entanglement modeling. . – UMI-31-10593
[Wil74]
Wilson, K. G.: Confinement of quarks. In: Phys. Rev. D10 (1974), S.
2445–2459
[Wol90]
Wolff, U.: Critical slowing down. In: Nucl. Phys. Proc. Suppl. 17 (1990),
S. 93–102
110
LITERATURVERZEICHNIS
[Zwa91]
Zwanziger, D.: Vanishing of zero momentum lattice gluon propagator and
color confinement. In: Nucl. Phys. B364 (1991), S. 127–161
[Zwa04]
Zwanziger, D.: Nonperturbative Faddeev-Popov formula and infrared limit
of QCD. In: Phys. Rev. D69 (2004), S. 016002
Danksagung
Ich danke Herrn Prof. Michael Müller-Preußker für die Bereitstellung dieses sehr
interessanten Themas als Diplomarbeit, für seine anhaltende Geduld und die zahlreichen
klärenden und den Horizont erweiternden Diskussionen, die die Entstehung dieser
Diplomarbeit begleiteten.
Michael Ilgenfritz danke ich für die Anregungen und die Unterstützung insbesonders in
hektischen und unübersichtlichen Phasen des Dimplomierens. Ich habe auch sehr den
erheiternden, informativen Gedankenaustausch mit ihm und Andre Sternbeck über die
deutsche Rechtschreibung und Grammatik genossen.
Andre Sternbeck danke ich für die Bereitstellung des Programmpaketes mit dem ich
die Gittereichfixierung durchführen konnte und in dass ich die Ikosaeder-Eichfixierung
einbinden durfte. Ich danke ihm außerdem für die erleuchtenden Diskussionen und
Hinweise und für die Bereitstellung des Bildes zum Ghost-Propagator.
Insbesonder danke ich auch Dirk Peschka für die hilfreiche Diskussion meiner Arbeit und
die zahlreichen Denkanstöße.
Ich danke dem Rechenzentrum der Humboldt-Universität und dem “Norddeutschen
Verbund für Hoch- und Höchstleistungsrechnen” für die Bereitstellung von Rechenzeit
auf den rechenstarken Rechner-Clustern.
Abschließend möchte ich meinen Freunden und meiner Familie für den sozialen und emotionalen Rückhalt und die moralische Unterstützung während der Zeit der Diplomarbeit
danken.
111
Eidesstattliche Versicherung
Hiermit erkläre ich an Eides statt, daß ich die vorliegende Diplomarbeit selbstständig
verfaßt und keine anderen als die angegebenen Hilfsmittel verwendet habe.
Peter Schemel
Berlin, den 19.12.2005
verwendete Hilfsmittel:
• Matlab: für die Auswertung der Daten und die Erstellung der Grafiken
• Latex: für die Formatierung des vorliegenden Textes
• Fortran90: für die numerischen Berechnungen
Herunterladen
Explore flashcards