Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik Vergleich verschiedener Methoden zur Fixierung der Landau-Eichung in SU (2)- und SU (3)-Gittereichtheorien Diplomarbeit eingereicht von Peter Schemel geboren am 27. Januar 1978 in Berlin Aufgabensteller: Prof. Dr. M. Müller-Preußker Zweitgutachter: Prof. Dr. Ulrich Wolff Abgabedatum: 19. Dezember 2005 Zusammenfassung In dieser Arbeit werden verschiedene Methoden zur Fixierung der Landau-Eichung miteinander verglichen. In der SU (2)-Gittereichtheorie sind dies Simulated Annealing, die Überrelaxation und die Eichfixierung auf einer endlichen Untergruppe. In der SU (3)Gittereichtheorie sind dies Simulated Annealing, Überrelaxation und die fourierbeschleunigte Eichfixierung. Das Hauptanliegen in dieser Arbeit ist es, den Simulated Anealing Algorithmus zu optimieren, um eine möglichst eindeutige Fixierung der Landau-Eichung zu erreichen. Dies ist notwendig, da die Landau-Eichbedingung nicht eindeutig ist und sogenannte Gribov-Kopien auftauchen, die einen Einfluss auf eichvariante Größen, wie den Ghost-Propagator haben. Es ist ein Wunsch, diesen Einfluss zu minimieren. Die wichtigsten Ergebnisse sind eine Optimierung des Simulated Annealing Algorithmus durch das Einfügen von mikrokanonischen Schritten in den Algorithmus. In der SU (3)-Eichtheorie zeigte sich zudem, dass die Wahl eines nichtlinearen Temperaturverlaufs des Simulated Annealing Fahrplans zu einem optimierten Algorithmus führt. Nicht zeigen lassen konnte sich hingegen eine Optimierung der numerischen Berechnungen in der SU (2)-Eichtheorie durch die Verlagerung der Berechnungen in die endliche Ikosaeder-Untergruppe. Im Rahmen eines Vergleichs von Überrelaxation und fourierbeschleunigter Eichfixierung in der SU (3)-Eichtheorie zeigte sich zudem, dass der Aufwand für fourierbeschleunigte Eichfixierung besser mit der Gittergröße symmetrischer Gitter skaliert als für die Überrelaxation. Inhaltsverzeichnis 1 Einleitung 1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 2 Motivation der Eichfixierung 2.1 Kontinuumseichtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Eichfixierung und Faddeev-Popov Trick . . . . . . . . . . . . . . . . . . . . 7 7 9 3 Diskretisierte Eichtheorien 3.1 Einführung in die Gittereichtheorie . . . . . . . . . 3.1.1 Observable . . . . . . . . . . . . . . . . . . . 3.1.2 Propagatoren . . . . . . . . . . . . . . . . . 3.2 Eichfixierung . . . . . . . . . . . . . . . . . . . . . 3.2.1 Gewöhnliche kovariante Eichung . . . . . . . 3.2.2 Laplace-Eichung . . . . . . . . . . . . . . . 3.2.3 Maximal Abelsche Eichung . . . . . . . . . . 3.2.4 Zentrumseichung . . . . . . . . . . . . . . . 3.2.5 Landau- und Coulomb-Eichung . . . . . . . 3.2.6 Gribov-Kopien . . . . . . . . . . . . . . . . 3.2.7 Gribov-Rauschen . . . . . . . . . . . . . . . 3.3 Methoden der Eichfixierung . . . . . . . . . . . . . 3.3.1 Relaxation . . . . . . . . . . . . . . . . . . . 3.3.2 Überrelaxation . . . . . . . . . . . . . . . . 3.3.3 Mikrokanonische Schritte . . . . . . . . . . . 3.3.4 Fourierbeschleunigte Eichfixierung . . . . . . 3.3.5 Multigrid Methode des Gradientenverfahrens 3.3.6 Simulated Annealing . . . . . . . . . . . . . 3.3.7 Eichfixierung auf endlichen Untergruppen . 3.4 Strategien zur Auswahl optimaler Verfahren . . . . 3.4.1 Verteilung über den Funktionalwerten . . . . 3.4.2 Mobilität . . . . . . . . . . . . . . . . . . . 4 Resultate 4.1 SU (2) Eichfixierung . . . . . . . . . . . 4.1.1 Simulated Annealing . . . . . . 4.1.2 I120 -Eichfixierung . . . . . . . . 4.1.3 Simulated Annealing auf großen 4.1.4 Zusammenfassung . . . . . . . . 4.2 SU(3) Eichfixierung . . . . . . . . . . . 1 . . . . . . . . . . . . . . . Gittern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 17 18 20 20 21 22 23 24 25 27 28 28 29 29 30 31 31 36 37 37 38 . . . . . . 41 43 43 58 60 63 64 2 INHALTSVERZEICHNIS 4.2.1 4.2.2 4.2.3 4.2.4 4.2.5 Überrelaxation . . . . . . . . . . . . . . . . . . . Fourierbeschleunigte Eichfixierung . . . . . . . . . Skalierung der Iterationszahl für Überrelaxation schleunigte Eichfixierung . . . . . . . . . . . . . . Simulated Annealing . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . und . . . . . . . . . . . . . . . . . . . . . fourierbe. . . . . . . . . . . . . . . . . . . 64 . 65 . 66 . 68 . 79 5 Zusammenfassung und Ausblick 5.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 81 82 83 A Anhang A.1 Das Ikosaeder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.1.1 Konstruktion der Ikosaedergruppe . . . . . . . . . . . . . . . . . . A.1.2 Die elegante Methode . . . . . . . . . . . . . . . . . . . . . . . . . A.1.3 Fortsetzung auf SU (2) . . . . . . . . . . . . . . . . . . . . . . . . A.1.4 Diskretisierung der SU (2) . . . . . . . . . . . . . . . . . . . . . . A.2 Konvergenz einer Markov-Kette . . . . . . . . . . . . . . . . . . . . . . . A.3 Haarsches Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.4 Aktualisierungsalgorithmen . . . . . . . . . . . . . . . . . . . . . . . . . A.4.1 Heatbath Aktualisierung in SU (N ) Yang-Mills-Theorien . . . . . A.4.2 Maximierung von Re tr(gK) . . . . . . . . . . . . . . . . . . . . . A.4.3 Polarzerlegung von M ∈ GL(N ) . . . . . . . . . . . . . . . . . . . A.5 Änderung der Wahrscheinlichkeitsverteilung bei Mehrfachanwendung einer Eichfixierungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 85 85 87 88 90 91 95 97 97 98 100 . . . . . . . . . . . . 101 Kapitel 1 Einleitung 1.1 Einleitung Eichtheorien spielen heutzutage eine wichtige Rolle für die Beschreibung der elementaren Bestandteile der Materie und ihrer Wechselwirkungen, die im Standardmodell zusammengefaßt sind. Es herrscht allgemeiner Konsens darüber, dass die starke Wechselwirkung, als Teil des Standardmodells, von der Quantenchromodynamik (QCD) [FGML73] beschrieben wird. Die stark wechselwirkenden Teilchen sind die Hadronen. Verschiedene Untersuchungen, wie die beobachteten Pion-Zerfallsraten, machten die Einführung elektrisch und farbgeladener Quarks [GM64] als elementare Bausteine der Hadronen erforderlich. Mit ihrer Einführung war auch eine erfolgreiche Klassifizierung der Hadronen möglich. Daher sollte die QCD sowohl die Quarkstruktur der Hadronen als auch ihre Wechselwirkung beschreiben. Die Struktur der Hadronen wird experimentell in Beschleunigerversuchen untersucht, bei denen Leptonen als Projektile benutzt werden. Hier hat sich gezeigt, dass für kleine Abstände, also große Impulsüberträge, die Wechselwirkungskräfte gering sind und sich die Quarks dort wie freie Teilchen verhalten. Diese Eigenschaft wird als asymptotische Freiheit der QCD [Gro05] bezeichnet. Diese Freiheit kann jedoch nur eine Eigenschaft kleiner Abstände sein, da freie Quarks nicht beobachtet werden. Das Gleiche trifft auch auf die Quanten der QCD-Wechselwirkung, die Gluonen, zu. Somit besteht eine Aufgabe darin, einen Mechanismus aufzuzeigen, der zu diesem so genannten Confinement 1 , einer besonderen Eigenschaft der QCD, führt [DG05]. Die Beschreibung von Vorgängen in Hadron-Hadron-Stößen entzieht sich bisher einer strengen Behandlung durch die QCD und man ist auf Modelle und Näherungen angewiesen. Umso wichtiger ist es, zu einer theoretischen Erklärung des Hadronspektrums und der Hadronstruktur ab initio im Rahmen der Gitter-QCD zu kommen. Mit der von Kenneth G. Wilson eingeführten Gitterformulierung der QCD [Wil74] wurde ein Rahmen geschaffen, in dem sich sowohl störungstheoretische als auch eine Vielzahl nichtstörungstheoretischer Methoden und Ansätze zur Behandlung der Theorie einführen lassen. Darunter ist auch die Methode der numerischen Simulation, in der zunächst über die Diskretisierung hinaus keine weiteren Näherungen notwendig sind. Und obwohl in der Wilsonschen Formulierung die Eichinvarianz über die Art der Raum-Zeit-Diskretisierung 1 Confinement ist das englische Wort für Beschränkung oder Gefangenschaft und soll die Eigenschaft der Quarks bezeichnen, nicht als freie Teilchen vorzukommen. 3 4 Kapitel 1 Einleitung in die Gittereichtheorie eingebunden wird, ist die Gitterstörungstheorie darauf angewiesen, wie im Kontinuum, von einer Eichfixierung auszugehen. Es wurde versuchte die Ursache des Confinement-Mechanismus zu beschreiben, indem man mittels einer geeigneten Eichung die für das Confinement relevanten Freiheitsgerade der Theorie isoliert [Nam74, Man76, ’t 78]. Als geeignete Eichungen stellten sich dabei die maximal abelsche Eichung [’t 81, KSW87] und die Zentrumseichung [DDFGO97] heraus. Im Ergebnis der entsprechenden Projektionen auf die entsprechenden Freiheitsgrade wurden die beiden Mechanismen der Monopolperkolation [KSW87, B+ 91] und Vortexperkolation [LRT98, ELRT00] identifiziert. Beide Mechanismen können das Confinement im Sinne des Flächengesetzes für Wilsonloops erklären. In jüngster Zeit ist die enge Verbindung zwischen ihnen klar herausgearbeitet worden [KPSZ05]. In diesem Zusammenhang stellte sich heraus, dass die Nichteindeutigkeit der Eichbedingung auf Grund der Existenz von Gribovkopien ein schwieriges algorithmisches Problem bei der Eichfixierung von Monte-Carlo-generierten Feldkonfigurationen mit sich bringt. Die wahrscheinlich erste systematische Untersuchung dazu im Rahmen der maximal abelschen Eichung mit Hilfe des Simulated Annealing Verfahrens stellt [BBMPS96] dar. Die vorliegende Arbeit stellt, in Hinsicht auf die Verbesserung der Eichfixierungsalgorithmen, eine Fortsetzung der Untersuchungen für den Fall der Landau-Eichung dar. Dabei sollen verschiedenen Algorithmen der Landau-Eichung miteinander verglichen werden. Ein solcher Vergleich wurde bereits in [Gut96] für SU (2)-Gittereichtheorien durchgeführt. Das Hauptaugenmerk dieser Arbeit liegt dabei auf der Methode des Simulated Annealing und ihrer Optimierung. Ein Grund, weshalb gegebene Gittereichkonfigurationen in die Landau-Eichung gebracht werden, ist die Berechnung der entsprechenden Quark-, Gluon- [MO87, LSWP98, Man99] und Ghost-Propagatoren [SS96] und die Definition des Confinement über deren Eigenschaften. Solche Propagatoren werden in der Störungstheorie benutzt und beziehen sich dort immer auf eine bestimmte Eichung. Es konnte gezeigt werden, dass die Eliminierung der für das Confinement verantwortlichen Freiheitsgrade den Charakter der Gluonund Ghost-Propagatoren tatsächlich wesentlich verändert [LRG02, GLR04]. Das Verhalten der Propagatoren wird in unterschiedlichem Maße auch von der Nichteindeutigkeit der Eichbedingung auf Grund von Gribovkopien bestimmt. In der Landau-Eichung wird dabei beobachtet, dass sich das singuläre Verhalten der Ghostpropagatoren abmildern lässt, wenn das globale Maximum des Landau-Eichfunktionals möglichst exakt bestimmt wird [SIMPS05a]. Trotzdem es Untersuchungen gibt, die besagen, dass der Einfluss der Gribovkopien im unendlichen Volumen vernachlässigt werden kann [Zwa04], besteht der Wunsch, die Landau-Eichung mit einem möglichst effizientem Algorithmus fixieren zu können, solange auf kleinen Gittern gerechnet wird. Vor diesem Hintergrund ist die vorliegende Arbeit entstanden. In dem Bestreben, einen effizienten Algorithmus zu finden, ist die Arbeit wie folgt gegliedert. In Kapitel 2 wird eine Einführung in die theoretische Beschreibung der QCD gegeben. Es werden die für diese Arbeit grundlegenden Größen definiert und eine erste Motivation der Eichfixierung gegeben. Die von Wilson eingeführte Diskretisierung der QCD wird in Kapitel 3 beschrieben. Es werden weiterhin einige Eichfixierungsbedingungen und ihre Gitterdiskretisierung angegeben. Für die Landau-Eichung werden Konzepte zur Umsetzung der Eichfixierung vorgestellt und das Problem der Gribov-Mehrdeutigkeit dargestellt.In Kapitel 4 werden die verschiedenen Eichfixierungskonzepte miteinander vergli- 1.1 Einleitung 5 chen und die Resultate der Vergleiche vorgestellt. Das Kapitel ist in zwei Teile gegliedert. Im ersten Teil werden die Ergebnisse der Landau-Eichung in einer SU (2)-Gittereichtheorie dargestellt, um im zweiten Teil zur physikalisch relevanten SU (3)-Gittereichtheorie überzugehen. Abschließend werden in Kapitel 5 die Ergebnisse zusammengefasst und mögliche Perspektiven herausgearbeitet, mit denen sich zukünftige Untersuchungen beschäftigen sollten. 6 Kapitel 1 Einleitung Kapitel 2 Motivation der Eichfixierung 2.1 Kontinuumseichtheorie Die Quantenchromodynamik (QCD) ist eine renormierbare Quantenfeldtheorie, die der starken Wechselwirkung. Ihre fundamentalen Bestandteile sind Spin- 21 -Felder, die gebrochen-rationale, elektrische Ladung tragen und geladene Spin-1-Eichfelder, die mit den Spin- 12 -Feldern und mit sich selbst wechselwirken. Die Spin- 12 -Felder sind die Quarks, die Eichfelder beschreiben die Gluonen. Die fundamentalen Quarkfelder der QCD werden durch Diracspinoren qαA beschrieben, wobei die Indizes die internen Freiheitsgrade der Theorie kennzeichnen. Jeder Index repräsentiert die fundamentale Darstellung einer Lie-Gruppe. Der Index A bezeichnet die Flavour -Quantenzahl, die zwar in der QCD keine dynamische Rolle spielt, aber der Vollständigkeit halber mit erwähnt werden soll. Der Index α bezeichnet den Freiheitsgrad der Farbladung . Es gibt deutliche Hinweise, wie die beobachtete Baryonenstatistik, darauf, dass exakt drei Farbladungen in der Natur existieren [BFGM72]. Auf Grund dieser Tatsache sind die einzigen in Frage kommenden einfachen Lie-Gruppen zur Beschreibung der Farbladung die SU (3) und die SO(3). Dabei kann die SO(3) als farbbeschreibende LieGruppe ausgeschlossen werden. So könnten in einer SO(3)-Eichtheorie Diquark-Systeme als Singlet-Zustände auftauchen, die in der Realität nicht beobachtet werden. Im Folgenden soll daher die QCD als SU (3)C -Eichtheorie vorgestellt werden. Die grundlegende Idee der QCD ist, aus einer globalen SU (3)C -Farbsymmetrie eine lokale Symmetrie zu machen. Um diese lokale SU (3)C -Farbsymmetrie umsetzen zu können, ist es nötig, ein kompensierendes Vektor-Eichpotential Aaµ (x), a = 1, 2, ..., 8 einzuführen: X λa Aµ (x) = −ig Aaµ (x) , (2.1) 2 a wobei λa ∈ su(3) die Gell-Mann-Matrizen in der Lie-Algebra sind und die Kommutatorgleichung [λa , λb ] = 2if abc λc mit den Strukturkonstanten f abc der SU (3) erfüllen. Das Oktett der Aaµ sind die oben erwähnten farbgeladenen Gluonenfelder. Sie stellen die dynamischen Variablen einer SU (3)C -Eichtheorie dar. Mittels einer kanonischen Konstruktion erhält man die durch die SU (3)C Symmetrie implizierte, lokal eichinvariante, Lagrangedichte1 1 / A − Fµν F µν L1 = iq A Dq (2.2) 4 1 Über sich wiederholende Indizes soll im Weiteren immer summiert werden. 7 8 Kapitel 2 Motivation der Eichfixierung mit der kovarianten Ableitung / := (∂µ + Aµ )γ µ = Dµ γ µ , D (2.3) wobei γµ der Vierervektor der 4 × 4 Dirac-Matrizen ist, und dem Feldstärketensor Fµν (x) := [Dµ , Dν ] = ∂µ Aν (x) − ∂ν Aµ (x) + [Aµ (x), Aν (x)] X λa a ≡ −ig Fµν (x) . 2 a (2.4) (2.5) Der Antispinor q ist die Kurzschreibweise von q † γ 0 . Der zweite Term in Gleichung 2.2 ist die Yang-Mills-Lagrangedichte LY M , die die Selbstwechselwirkung der SU (3)C -Eichfelder beschreibt. Die so definierte Lagrangedichte L1 ist invariant unter lokalen Eichtransformationen g(x) der Form Aµ (x) → g(x)(Aµ (x) + ∂µ )g † (x), q A (x) → g(x)q A (x), wobei g(x) = exp(iω(x)) ist, und ω(x) ∈ su(3)C in der Lie-Algebra su(3)C der SU (3)C liegen und die Raum-Zeit-abhängigen Parameter der lokalen Eichtransformation speR g(x) 4 zifizieren. Als Euler-Lagrange-Gleichungen lassen sich aus der Wirkung S1 = d xL1 die klassischen Feldgleichungen ableiten: ∂µ δS1 δS1 − =0 δ(∂µ Aν ) δAν und ∂µ δS1 δ(∂µ qα† ) − δS1 δqα† = 0. (2.6) Man erhält zum einen die Yang-Mills-Gleichungen ∂ µ Fµν + [Aµ , Fµν ] = Jν (2.7) mit der Fermionen-Stromdichte Jν und zum anderen die Diracgleichung / A = 0. Dq (2.8) Bisher ist die Flavour-Symmetrie noch nicht berücksichtigt worden. Für NF Flavours wird die Flavourgruppe SU (NF ) angenommen. Da die Lagrangedichte L1 masselose Quarks beschreibt, ist sie invariant unter chiralen Symmetrietransformationen der Form SU (NF )R × SU (NF )L × UB (1) × UA (1) [Pag75], mit den rechts- und linkshändigen Komponenten der Quarkfelder qR,L = 21 (1 ± γ5 )q. Dabei entspricht die UB (1)-Symmetrie der Baryonenzahl-Ladungserhaltung und die UA (1)-Symmetrie der axialen BaryonenzahlLadungserhaltung. Die komplette Symmetrie in der masselosen Theorie ist nicht notwendig und wird auch nicht beobachtet. Die chirale SU (NF ) × SU (NF )-Symmetrie ist nicht exakt in der realen Welt und kann auch in der QCD leicht gebrochen werden, indem zu L1 ein Massenterm2 ∆L addiert wird. ∆L = qαA M0AB qαB , 2 M0AB = δ AB mA 0. (2.9) Die Massenmatrix soll nur diagonal sein. In der Defninition von M AB soll auf der rechten Seite nicht über A summiert werden. 2.2 Eichfixierung und Faddeev-Popov Trick 9 Für die störungstheoretische QCD muss die so entstandende Lagrangedichte L + ∆L noch um einen eichfixierenden Term Lgauge fix und einen Faddeev-Popov-Ghost-Term Lghost erweitert werden. Eine Motivation für diese Erweiterung wird im folgenden Abschnitt gegeben. Der eichfixierende Term stellt eine korrekte Quantisierung sicher, der GhostTerm ist abhängig von der gewählten Eichfixierung und gewährleistet die Unitarität der S-Matrix. Alle Terme zusammen sind notwendig um eine in sich konsistente Quantenfeldtheorie mit nichtabelschen Eichfeldern zu erhalten [’t 71]. Die komplette Lagrangedichte lautet dann LQCD = L1 + ∆L + Lgaugef ix + Lghost . (2.10) Diese Lagrangedichte der QCD ist Ausgangspunkt für die Störungstheorie und für gekoppelte Gleichungen, wie die Dyson-Schwinger-Bewegungsgleichung für die Greensfunktionen der Theorie. Die Dyson-Schwinger-Gleichungen bilden dabei eine Methode, die über die Störungstheorie hinaus geht und mit der es gelingt, Propagatoren nichtstörungstheoretisch zu definieren. Auch wenn man in der Lage ist, die Lagrangedichte für die QCD anzugeben, bleibt das Problem zu lösen, eine physikalische S-Matrix zu berechnen, die Eigenschaften wie Endlichkeit, Analytizität, Unitarität und Lorentz-Eichinvarianz aufweist und das Spektrum der Zustände der beobachtbaren hadronischen Welt beschreibt. Im Folgenden wird nun über die Pfadintegralquantisierung eine Motivation für die beiden zusätzlich in die Lagrangedichte eingefügten Terme gegeben. 2.2 Eichfixierung und Faddeev-Popov Trick Mit Hilfe des Pfadintegralformalismus kann eine SU (N )-Eichtheorie quantisiert werden [Fey48, FH65]. Durch die Pfadintegralquantisierung eröffnet sich unter anderem die Möglichkeit, auf einfache Weise Feynman-Regeln zu gewinnen, um zu einer unitären SMatrix zu gelangen. Eine kurze Skizzierung der Quantisierung soll zunächst mit dem Fall des stabilen Vakuums beginnen. Am Anfang steht die Quantisierung des kinetischen Terms des Eichfeldes. Durch Anwendung der Schwingerschen Funktionalableitung [AL73] lässt sich nun die n-Punkt Greensfunktion als Funktionalableitung G(x1 , ..., xn ) = h0|T Â(x1 )...Â(xn )|0i ¯ ¯ δ n Z[J] n ¯ = (−i) δJ(x1 )...δJ(xn ) ¯J=0 (2.11) (2.12) des erzeugenden Funktionals mit dem Zeitordnungsoperator T darstellen. Für eine reine a F aµν lässt sich das erzeugende Yang-Mills-Theorie mit der Lagrangedichte LY M = − 41 Fµν Funktional aus Gleichung2.12 als Pfadintegral darstellen µ Z ¶ Z −1 4 Z[J] = N [dA] exp i d x [LY M (x) + J(x) · A(x)] . (2.13) N ist ein Normierungsfaktor, der sicherstellen soll, dass Z[0] = 1 gilt. J(x) ist eine externe Quelle und [dA] repräsentiert das Funktionalintegrationsmaß über alleQFeldkonfigurationen. Zum Integrationsmaß Q [dA] tragen die Feldkomponenten [dA] = µ,a [dAaµ ] an a verschiedenen Punkten [dAµ ] = x dAaµ (x) bei. Ohne die Quellen J · A = Aaµ J aµ ist das Funktional Z −1 Z[0] = N ∝ [dA] exp (iSYM ) (2.14) 10 Kapitel 2 Motivation der Eichfixierung R mit SYM = d4 xLYM eichinvariant. Die Funktionalintegration [dA] kann in eine IntegraQ a tion über die Eichgruppe, symbolisiert durch [dσ] = a [dσ ], und über alle Feldkonfigurationen in der jeweiligen Eichung, symbolisiert durch [dA[σ]] zerlegt werden: Z Z −1 Z[0] = N [dσ] [dA[σ]] exp (iSA [σ]) (2.15) Die σ a stellen eine Parametrisierung der Gruppe dar. Die Möglichkeit, die Felder zu eichen, ohne dabei die Wirkung zu ändern, stellt ein Problem dar. Ausgehend von einer gegebenen Feldkonfiguration Abµ (x), lässt sich ein Eichorbit OA im Aaµ -Raum erzeugen. Die Pfadintegration in einer bestimmten Eichung liefert immer das gleiche Ergebnis. Die unendliche Anzahl von möglichen Pfaden im Eichorbit führt so zu einer Divergenz der Integration über die kontinuierliche Gruppe der Eichung. Die Integration über eichinvariante Pfade lässt sich durch die Einführung einer Eichfixierung Gabµ Abµ = B a (2.16) vermeiden. Dabei ist Gabµ ein auf A wirkender Operator und B a eine Funktion der Raumzeit. Mit einer solchen Eichfixierung kann der Eichorbit auf die Feldkonfigurationen Abµ [σ] eingeschränkt werden, die Gabµ Abµ [σ] = B a erfüllen. Durch diese Bedingung wird die Lösung im Allgemeinen noch nicht eindeutig festgelegt, da das QCD-Vakuum für gewöhnlich eine nichttriviale Topologie hat. Diese Mehrdeutigkeit ist auch als Gribov-Ambiguity bekannt [Gri78]. Um die Eichfixierung in die Pfadintegralquantisierung mit einzubeziehen, soll nur über solche Pfade integriert werden, die die Eichbedingung 2.16 erfüllen. Dies geschieht durch das Einfügen einer Identität in Gleichung 2.14. Hierfür wird zunächst implizit ein Funktional ∆G [A] definiert, in das die Eichbedingung als Argument einer funktionalen δ-Distribution eingeht [Die03]: Z Y £ ¤ 1 = ∆G [A] [dσ a ]δ (n) Gabµ Abµ [σ] − B a (2.17) a Einsetzen in Gleichung 2.14 ergibt Z Z Y ¤ £ −1 [dσ a ]δ (n) Gabµ Abµ [σ] − B a exp (iSA ) . [dA]∆G [A] Z[0] = N (2.18) a Da bis auf die Deltadistribution alle Größen eichinvariant sind, lässt sich die durch die Eichung spezifizierte Feldkonfiguration Aaµ [σ] durch die allgemeinen Aaµ ersetzen, und man erhält Z Z YY ¢ª © a ¡ abµ b −1 [dA]∆G [A] (2.19) Z[0] = N dσ δ G Aµ (x) − B a (x) exp (iSA ) . a x RQ Q a Der unendliche Faktor a x dσ (x) kann aus obigem Ausdruck herausgezogen werden und wird in die Normierungskonstante einbezogen. Dadurch erhält man eine modifizierte Definition des erzeugenden Funktionals in der Form: Z Z Y ¡ ¢ −1 [dA] ∆G [A] Z[0] = N δ Gabµ Abµ − B a exp (iSA ) . (2.20) |R {z } a,x ∝ exp(...) | {z } ∝ exp(...) 2.2 Eichfixierung und Faddeev-Popov Trick 11 In dieser Definition ist bereits angedeutet, dass sich sowohl das Funktional ∆G als Grassmannintegral einer Eponentialfunktion, als auch die Deltadistribution durch eine Exponentialfunktion ausdrücken lassen. Die Exponenten der verschiedenen Exponentialfunktionen lassen sich dann zusammenfassen und werden eine effektive Wirkung ergeben. Der Weg dorthin soll im Folgenden beschrieben werden. Zunächst erlaubt es die Linearität der Eichbedingung, die Deltadistribution in Gleichung 2.20 durch ein Exponential zu ersetzen [Lee75], µ Z ¶ Y ¢ ¡ abµ b −i 4 a 2 (2.21) δ(...) → exp d x G Aµ − B α∈ . 2α a,x Mit Wiedereinführung des äußeren Flusses gewinnt man so ein erzeugendes Funktional der Form ¶¸ · Z µ Z ¢ 1 ¡ abµ b a 2 −1 4 G Aµ − B + J(x) · A(x) . Z[J] = N [dA]∆G [A] exp i d x LY M − 2α (2.22) Wertet man nun die Definition 2.17 aus, so lässt sich das Funktional ∆G [A] als Determinante einer Matrix MG schreiben [Lee75]. Diese ist gegeben durch MGab (x, y) = δGacµ Acµ [σ(x)] . δσ b (y) (2.23) Durch die Einführung von antikommutierenden Grassmannzahlen C̄a und Ca kann die Determinante auch als Exponential ¾ ½ Z Z £ ¤ 4 4 a ab b det MG = [dC] dC̄ exp i d xd y C̄ (x)MG (x, y)C (y) (2.24) geschrieben werden [Ber66, Lee75]. Die Determinante wird als effektive Wechselwirkung der neu eingeführten Faddeev-Popov-Geistfelder C und C̄ interpretiert und im erzeugenden Funktional 2.20 entsteht ein zusätzlicher Term Sghost zur klassischen Wirkung, Z Z 4 (2.25) Sghost = d xLghost = d4 xd4 y C̄a(x)MGab (x, y)C b (y) Nimmt man nun noch Quellen für die Antigeist- und Geistfelder hinzu, indem man zusätzliche Grassmannzahlen σ und σ̄ einführt, erhält man als Ergebnis des Tricks von Faddeev und Popov [FP67] das erzeugende Funktional einer reinen Yang-Mills-Theorie: ¶ µ Z Z x 0 b −1 (2.26) [dAµ ][dC̄][dC] exp iSef f + i d (J · A + σ̄C + C̄σ) . Z[J, σ, σ̄] = N mit der effektiven Wirkung 0 Seff SYM Sgauge fix Sghost = = = = S + Sgaugef ix + SghostR RYM a 4 F aµν d xL = − 41 d4 xFµν ¢ ¡ R R 4 YM 1 4 abµ b a 2 R d4 xLgauge fix = R− 2α4 d4 x aG Aabµ − B b d xLqhost = d xd y C̄ (x)MG (x, y)C (y) (2.27) 12 Kapitel 2 Motivation der Eichfixierung Man erkennt, dass Sgauge fix und Sgauge fix eichabhängig sind, da sie die Eichbedingung explizit enthalten. Um ein besseres Bild von diesen formalen Ausdrücken zu gewinnen, sollen nun am Beispiel der Landau-Eichung (Gabµ = δ ab ∂ µ und B a ≡ 0) angegeben werden, wie sich obige Größen berechen. Für die Matrix MGab erhält man in Landau-Eichung MGab (x, y) = ∂ µ Dµ δ (4) (x − y) = (δ ab ∂ µ ∂µ + gf abc ∂ µ Acµ )δ (4) (x − y), (2.28) woraus mit partieller Integration der Determinante die Darstellung der Ghost-Wirkung folgt. In den eichfixierenden Term braucht nun nur noch die Eichbedingung, B a ≡ 0, eingesetzt werden und man erhält die folgenden Ausdrücke R Sghost = − dR4 x(∂ µ C̄(x))Dµ C(x) 1 Sgauge fix = − 2α d4 x(∂ µ Aaµ )2 Zur Quantisierung der Fermionen wird erneut das Konzept der Grassmanvariablen benötigt. Auf diese Weise wird der antikommutierenden Natur der Feldoperatoren Rechnung getragen. Das vollständige erzeugende Funktional ist dann Z[J, η, η, σ, σ̄] = µ ¶ Z Z 4 −1 b N [dAµ ][dq][dq][dC][dC̄] exp iSef f + i d x(J · A + ηq + qη + σ̄C + C̄σ) 0 mit Seff = Seff + Sfermion und dem fermionischen Anteil der Wirkung aus Gleichung 2.2 Z (2.29) Sfermion = d4 x (q ((∂µ + Aµ )γ µ + m0 ) q) . Die Verwendung des erzeugenden Funktionals muss nun noch etwas modifiziert werden. Da die Quellen η und q Grassmann-wertig sind, ist auf zusätzliche Vorzeichen zu achten, so dass zum Beispiel für die Zweipunkt-Greensfunktion gilt: h0|T q̂α (x)q̂(y)|0i = δ 2 Z[J, η, η] (i)2 Z[0, 0, 0] δ(+η α )δ(−ηβ (y)) (2.30) Im Folgenden sollen die grundlegenden Propagatoren berechnet werden. Dazu wird das erzeugenden Funktional in einen freien Anteil Z f und einen wechselwirdenken Anteil Z W W zerlegt. Der freie Anteil enthält alle Terme zweiter Ordnung in den Feldern. Um eine Separierung zu erreichen, werden die Felder im wechselwirkenden Anteil durch Funktionalableitungen nach den Quellen ersetzt. ¶¶ µ µ δ δ δ δ δ Z[J, η, η, σ, σ̄] = exp iSW W , , , , , Z f [J, η, η, σ, σ̄] iδJ aµ iδσ̄ a iδ(−σ a ) iδη iδ(−η) (2.31) f f f Der freie Anteil Z f [J, η, η, σ, σ̄] = Zgauge [J] · Zghost [σ, σ̄] · Zfermion [η, η] faktorisiert weif ter in Anteile für das Eichfeld mit dem Beitrag der Eichfelder Zgauge , in Anteile für die f f Faddeev-Popov-Geister Zghost und in Anteile für die Fermionen Zfermion . Die erzeugenden 2.2 Eichfixierung und Faddeev-Popov Trick 13 Funktionale für die unterschiedlichen freien Felder sind nach dieser Faktorisierung wie folgt gegeben ³ R ´ R f = [dA] exp i d4 x(LfYM + Lfgauge fix + A · J) , Zgauge ³ R ´ R f f ∗ 4 Zghost = [dC][dC ] exp i d x(Lghost + C̄ · σ + σ̄ · C) , ³ R ´ R f Zfermion = [dq][dq] exp i d4 x(Lffermion + qη + ηq) mit den Lagrangedichten in Landau-Eichung Lfgauge fix + LY M = − 21 Aaµ K abµν Abn u mit K abµν (x) = = Lfghost Lffermion = −C̄ a M ab C b mit M ab (x) = = qΛq mit Λ(x) = ¯ ∂2L ¯ b ¯ ∂Aa µ ∂Aν A=C ∗ =...=0 ab δ (−g¯µν ∂ τ ∂τ + (1 ∂2L ¯ b¯ ∂ C̄ a ∂C ¯ C̄=C=...=0 ∂2L ¯ ∂q∂q ¯ q=q=A=...=0 − α−1 )∂ µ ∂ν ) , = δ ab ∂ µ ∂µ , = i∂/ + m0 . Die freien Propagatoren der Teilchen, Gluonpropagator , Ghostpropagator und Quarkpropagator lassen sich nun als Inverse der durch die Funktionalableitung definierten Operatoren definieren. K caλρ gρµ Dabµν (x − y) = δ cb gρν δ (4) (x − y) M ca Gab (x − y) = δ cb δ (4) (x − y) ΛS(x − y) = δ (4) (x − y) (2.32) (2.33) (2.34) Man erhält die freien Propagatoren in Landau-Eichung. Ihr Wert ist von der Eichung abhängig, was umgekehrt bedeutet, dass die Propagatoren nur definiert sind, wenn vorher eine Eichfixierung durchgeführt wurde. Im folgenden Kapitel soll der Übergang von der kontinuierlichen Eichtheorie zu einer Gittereichtheorie vollzogen werden und grundlegende Größen definiert werden. Da auf dem Gitter Propagatoren berechnet werden sollen, wird es auch auf dem Gitter notwendig sein, eine Eichung zu fixieren. Ein wichtiger Schritt auf dem Weg zu einer Gittereichtheorie ist die Wick-Rotation . die Konvergenz der Integrale im Pfadintegralformalismus ist auf Grund von ungedämpften Oszillationen der Exponentialfunktion nicht automatisch sichergestellt. Als Ausweg wird die Zeit in der komplexen Ebene um einen negativen Winkel gedreht. Dadurch erhält der Exponent einen dämpfenden Realteil und die Konvergenz wird erzwungen. Voraussetzung für diese Transformation ist, dass im überstrichenen Bereich der komplexen t-Ebene keine Singularitäten liegen. Nur dann ist eine analytische Fortsetzung möglich, so dass das Ergebnis nicht mehr vom Winkel der Drehung abhängt. Bevor man zu einer Gitterformulierung der Eichtheorie übergeht, wird die Zeit um den Winkel π2 gedreht, wodurch sich eine imaginäre Zeit ergibt. Es findet ein Übergang vom Minkowski-Vektor xµ = (x0 , ~x) zum Koordinatenvektor (x1 , x2 , x3 , x4 = ix0 ) statt. Durch die Forderung x4 ∈ bilden die so gewonnenen Vektoren einen euklidischen Raum. Diese Transformation zu imaginären Zeiten wird Wick-Rotation genannt und ist die Voraussetzung der im Folgenden vorgestellten Gitterdiskretisierung. 14 Kapitel 2 Motivation der Eichfixierung Kapitel 3 Diskretisierte Eichtheorien 3.1 Einführung in die Gittereichtheorie Gittereichtheorien sind geeignet für eine nichtstörungstheoretische Behandlung abelscher und nichtabelscher Theorien. Sie bieten die Möglichkeit, physikalische Größen wie Korrelationsfunktionen ohne Nutzung der Störungstheorie zu berechnen. Im folgenden Abschnitt wird zunächst beschrieben, wie die Diskretisierung selbst durchgeführt wird und wie sich Eichpotential und Eichtransformation im Gittermodell definieren lassen. Danach werden einige Beispiele diskretisierter Eichbedingung gegeben, wobei der Schwerpunkt auf der Landau-Eichung liegt. Abschließend werden Konzepte zur Fixierung der Landau-Eichung auf dem Gitter vorgestellt und wichtige Größen vorgestellt, die die statistischen Prozesse charakterisieren und anhand derer sich Aussagen über die Effizienz der Fixierungsmethode treffen lassen. Gittereichtheorien sind auf einer diskretisierten Raumzeit definiert. Die in der Arbeit verwendete Diskretisierung geht auf die von Wilson eingeführte Formulierung zurück [Wil74], in der die Links Uµ (x) zwischen den Gitterpunkten eines Raum-Zeit-Gitters die fundamentalen Freiheitsgrade der Theorie sind (Abbildung 3.1). Die herkömmliche Definition der Eichfelder ist durch Uµ (x) = Peig0 R x+eµ x Aµ (z)dz = eig0 aAµ (x+eµ /2) + O(a3 ) (3.1) gegeben, wobei P der Pfadordnungsoperator und g0 die nackte Kopplung ist. Die Definition leitet sich aus der Interpretation der Uµ (x) als Paralleltransporter auf dem Gitter ab. Der Vektor eµ wird hier und im Weiteren für den Vektor der Länge a in µ-Richtung stehen. In einigen Fällen wird auch eine Definition des Gittereichpotentials benötigt. Dieses ist gegeben durch # " Uµ (x) − Uµ† (x) + O(a2 ). (3.2) Aµ (x + eµ /2) = 2iag0 spurlos Da Beziehung 3.2 und 3.1 nur im Limes a → 0 übereinstimmen müssen, sind auch andere Definitionen für das Gittereichpotential möglich. Die auf dem Gitter definierten Uµ (x) sind Elemente der SU (N )C Eichgruppe1 in ihrer 1 Der Index C soll auf den physikalischen Hintergrund hinweisen, dass es sich um einen Farbindex handelt. Er wird im Folgenden nur noch verwendet, wenn nicht bereits aus dem Kontext hervorgeht, um welches N es sich handelt. 15 16 Kapitel 3 Diskretisierte Eichtheorien Fundamentaldarstellung. Unter den auf den Gitterpunkten definierten Eichtransformationen g(x) transformieren sie sich mit: Uµg (x) = g(x)Uµ (x)g † (x + eµ ). (3.3) Eichtransformierte von aus den Eichfeldern abgeleiteten Größen lassen sich durch Einsetzen der U g (x) anstelle der U (x) berechnen. Eichtransformierte Größen werden analog zum Eichfeld mit dem Index g der Eichtransformation gekennzeichnet. Die Anordnung der Eichkonfigurationen U und Eichtransformationen g auf einer diskretisierten Raum-Zeit ist in Abbildung 3.1 anhand eines zweidimensionalen Schnittes dargestellt. q g(x +q e2 ) q U2 (x) q U−1 (x) U (x) g(x) 1 g(x + e1 ) U−2 (x) q q q g(x − e2 ) Abbildung 3.1: Freiheitsgrade der Eichtheorie auf dem Gitter Auf den Gitterpunkten sind die Eichtransformationen definiert. Die Links, auf denen die fundamentalen Eichfelder definiert sind, werden durch Verbindungslinien gekennzeichnet. Auf Grund von Definition (3.1) gilt: U−µ (x) = Uµ† (x − eµ ). (3.4) Die einfachste eichinvariante Größe, die sich auf dem Gitter definieren lässt, ist die Plaquette Pµν (x) = Uµ (x)Uν (x + eµ )Uµ† (x + eν )Uν† (x). (3.5) Sie beschreibt das pfadgeordnete Produkt von Link-Variablen um die kleinste Schleife auf dem Gitter. Für eine Yang-Mills-Eichtheorie lässt sich daraus die Wilson-Wirkung für SU (N )-Gittereichtheorien definieren ¶ XXµ 1 SW [U ] = β 1 − Re tr Pµν (x) . (3.6) N x µ<ν Der Parameter β ist der einzige freie Parameter der Theorie. Es wird nun gezeigt, dass die Wilson-Wirkung im Kontinuumslimes in die Yang-Mills-Wirkung übergeht. a Mit der Darstellung der Eichfelder Uµ (x) = e−iagAµ (x) und der Feldstärke Fµν = ∂µ Aaν − ∂ν Aaµ + gf abc Aaµ Acν lässt sich die Plaquette in Termen von Fµν entwickeln2 1 Pµν (x) = − a2 gFµν + a4 Fµν Fµν ± ... 2 2 (3.7) In dieser Entwicklung soll auf der rechten Seite keine Summation über µ und ν durchgeführt werden. 3.1 Einführung in die Gittereichtheorie 17 Vollzieht man nun die Spurbildung in der Wilsonwirkung und beachtet, dass tr Fµν = 0, so sieht man, dass im Kontinuumslimes a → 0 für hinreichend glatte Eichfelder die klassische Yang-Mills-Wirkung gewonnen wird Z g2 b b F F , (3.8) SW −→ −β d4 x a→0 8NC µν µν wenn die Kopplungskonstante g durch β = 2N bestimmt ist. Das erzeugende Funktional g2 lässt sich nun formal wie folgt auf dem Gitter definieren Z lat. Z = [dU ]e−SW [U ] , (3.9) wobei das Integrationsmaß [dU ] durch Z YZ [dU ] = dUµ (x) (3.10) x,µ gegeben ist. Es ist das Haarsches Maß der Lie-Gruppe. Eine genauere Beschreibung des Haarschen Maßes wird in Anhang A.3 gegeben. 3.1.1 Observable Nun lässt sich auch der Erwartungswert einer Observable O durch Z −1 [dU ]O[U ]e−SW [U ] hOlattice i = Z (3.11) angeben. Der Ausdruck beinhaltet im Falle der Gittereichtheorie ein hochdimensionales Integral über eine kompakte SU (N )-Gruppe. In Simulationen wird dieses Integral in Form einer Monte-Carlo-Integration ausgeführt. Dabei werden Konfigurationen mit dem Maß P −SW −β (...) 3 e ∝e erzeugt , so dass nur noch über diese Konfigurationen gemittelt werden muss. Der Erwartungswert der Observable schreibt sich daher auch als hOlattice iM C = 1 NKonf NX Konf Oi . (3.12) i=1 Die Methode, die Integration mit einem Maß in eine einfache Sequenz von Zufallsvariablen umzuwandeln, die bereits mit diesem Maß generiert wurden, wird auch Importance Sampling genannt. Der Kontinuumslimes einer solchen Observablen kann nur als Limes kleiner werdender Gitterabstände a bei gleichzeitig wachsendem Gittervolumen V hOi = lim lim hOlattice iM C V →∞ a→0 (3.13) erhalten werden. Nun ist die Wilson-Wirkung SW bereits per Definition eichinvariant, so dass in der Gittereichtheorie im Hinblick auf die Berechnung eichinvarianter Observablen Eichfixierung und die Einführung von Eich- und Geisttermen nicht mehr notwendig erscheinen. 3 Um Konfigurationen mit einer Boltzmannverteilung erzeugen zu können, wird auf einen Metropolisoder auf einen Heatbath-Algorithmus zurückgegriffen, der beim Weiterlesen in der Beschreibung des Simulated Annealings auftauchen wird. 18 Kapitel 3 3.1.2 Diskretisierte Eichtheorien Propagatoren Im Folgenden werden die Berechnungen von Ghost- und Gluon-Propagatoren in der Gittereichtheorie skizziert. Diese Teilchen unterliegen dem Confinement und dies spiegelt sich im Propagator wider. Wie schon bei der Definition dieser beiden Propagatoren im Kontinuum angedeutet wurde, handelt es sich um eichabhängige Größen. Bestimmte Eigenschaften4 dieser Propagatoren lassen sich als Folge der nichttrivialen Vakuumstruktur ansehen. Sie kehren auch in der Gitterdiskretisierung wieder und lassen sich in Zusammenhang mit der Existenz von Monopolen bzw. Vortizes im Vakuum bringen. Im Folgenden werden die Propagatoren in der Landaueichung diskretisiert. Gluon-Propagator Der Gluonpropagator ist als Zwei-Punkt-Greensfunktion der Gluonfelder Aµ (x) definiert. Die diskretisierte Definition des Gluon-Propagators ist entsprechend durch ­ ® ab Dµν (x − y) = Aaµ (x)Abν (y) M C (3.14) gegeben. Der Index M C steht für die Monte-Carlo-Mittlung auf dem Gitter. Die Art der Eichfixierung ist in diesem Fall implizit in der Konstruktion der Eichpotentiale Aµ (x) enthalten. Der Propagator im Ortsraum ist eine schnell fallende Funktion, wodurch das genaue Verhalten bei großen Distanzen kx−yk durch statistisches Rauschen verdeckt wird. Stattdessen wurde die Messung des Propagators im Impulsraum vorgeschlagen [Zwa91, Cuc99]. Im Kontinuum wird der Übergang zum Impulsraum in euklidischer Formulierung durch die Fouriertransformation erreicht Z ab Dµν (p̂) = −i d4 xh0|P[Aaµ (x)Aaν (0)]|0i exp(ip̂x) (3.15) mit dem Pfadordnungsoperator P. Es ist günstig, diesen Propagator in einen transversalen und einen longitudinalen Anteil zu zerlegen: ·µ ¶ ¸ p̂µ p̂ν p̂µ p̂ν dl (p̂2 ) ab ab 2 δµν − 2 Dµν (p̂) = −iδ dt (p̂ ) + α 2 (3.16) p̂ p̂ p̂2 Die skalare Funktion dl (p̂2 ) reduziert sich für linear kovariante Eichungen auf eine Konstante. In der Landau-Eichung verschwindet der zweite Term wegen α = 0 sogar komplett. Auch der Gluonpropagator in der SU (N )-Gittereichtheorie kann mittels einer Fouriertransformation in analoger Weise im Impulsraum gegeben werden: ab Dµν (p̂k ) = 1 X ab D (x − y) exp(ip̂(x − y))) V x,y µν mit p̂k = 2π nk , Lk a(β) (3.17) wobei nk die Matsubara-Moden in k-Richtung sind und Lk die Zahl der Gitterpunkte in in dieser Richtung bezeichnet5 . Der Gluonpropagator in Landau-Eichung ist diagonal in den 4 Dies sind bestimmte Analytizitätseigenschaften, verstärkte Singularitäten bzw. das Verschwinden im Infrarotbereich. 5 Die Abhängigkeit des Gitterabstandes von β ist zum Beispiel in [BCLM03, GM84] untersucht. 3.1 Einführung in die Gittereichtheorie 19 Farbladungen und transversal bezüglich p̂ im Impulsraum. Die wesentliche Information steckt dann in dem durch X F (p2 ) p2 a,µ X­ ® Aaµ (p̂)Aaµ (−p̂) M C = D(p̂) = aa Dµµ (p̂) =: (3.18) (3.19) a,µ definierten Propagator mit den durch periodische Fouriertransformation definierten Gluonfeldern. Da die Gitterausdehnung in jeder Richtung durch Lk · a(β) beschränkt π ist, ist auch im Impulsraum ein Ultraviolettcutoff durch λ = α(β) gegeben. Die Fouriertransformierte des Gluonfeldes ist 1 X A(p̂) := √ A(x + eµ /2) exp(ip̂(x + eµ /2)) V p 1 X = √ A(x + eµ /2) [cos(p̂(x + eµ /2)) − i sin(p̂(x + eµ /2))] , V p woraus sich nach Einsetzen in Gleichung 3.19 der Propagator zu !2 à *à !2 + X X 1 X Aaµ (x + eµ /2) cos(p̂(x + eµ /2)) + Aaµ (x + eµ /2) sin(p̂(x + eµ /2)) D(p̂) = V a,µ x x MC (3.20) berechnet. Ghostpropagator Der Ghostpropagator G ist durch Inversion des inversen Faddeev-Popov-Operators M gegeben (vgl. Gleichung 2.33) und nimmt auf dem Gitter die Form D¡ E ¢ ab −1 ab G(x − y)δ = M (x, y) (3.21) MC an. Er ist im Impulsraum durch G(p̂)δ ab = 1 √ adj NC V X x,y −ip̂(x−y) e D¡ M ¢ −1 ab E (x, y) MC (3.22) gegeben. Auch hier ist die Eichabhängigkeit implizit in der Definition des Faddeev-PopovOperators enthalten und darf nicht vernachlässigt P werden. Der Faddeev-Popov-Operator in Landau-Eichung ist die Hessische Matrix von xmµ Re[tr(Uµ (x))], wie sich später zeigen wird. Er ist eine symmetrische positiv semidefinite Matrix und kann mittels des Verfahrens der konjugierten Gradienten invertiert werden. Für den Ghostpropagator wird durch die implizite Definition ZG (p2 ) G(p) ∝ (3.23) p2 die Strukturfunktion ZG gegeben, anhand derer im Weiteren gezeigt wird, warum die Eindeutigkeit der Eichfixierung wichtig ist. 20 Kapitel 3 3.2 Diskretisierte Eichtheorien Eichfixierung Auch wenn Eichfixierung nicht notwendig ist, um die Wohldefiniertheit des Funktionalintegrals auf dem Gitter zu gewährleisten, wird sie im Kontinuumslimes wichtig beim Verständnis des Zusammenhangs von Kontinuums- und Gittereichtheorie. Im Kontinuum ist die Betrachtung von eichabhängigen Korrelationsfunktionen und die Untersuchung von Propagatoren, wie dem Gluon-, Ghost- oder Quarkpropagator ohne Fixierung der Eichung nicht möglich. Sollen diese Größen ebenfalls auf dem Gitter untersucht werden, ist auch hier die Eichung zu fixieren, schon um die Eindeutigkeit des Kontinuumslimes zu gewährleisten. Im Folgenden werden daher einige wichtige Eichbedingungen und ihre Umsetzung in der Gittereichtheorie vorgestellt (für eine ausführlichere Zusammenstellung vgl. z.B. [GPP+ 01]). Begonnen wird mit der gewöhnlichen kovarianten Eichung, anhand derer die Hauptidee der Eichfixierung auf dem Gitter über die Maximierung eines Eichfunktionals eingeführt wird. Dass nicht alle Eichungen auf dem Gitter auf einer solchen Maximierung beruhen, wird anhand der Laplace-Eichung gezeigt. Im weiteren Verlauf werden mit der maximal abelschen Eichung und der maximalen Zentrumseichung Eichbedingungen vorgestellt, die bei der Beschreibung des QCD-Confinement von Bedeutung sind. An ihrem Beispiel wird eine Methode vorgestellt, mit Hilfe von SU (2) Algorithmen auch SU (3) Gittereichtheorien eichfixieren zu können. Der letzte und größte Teil dieses Abschnitts widmet sich der in der Arbeit betrachteten Landau-Eichung und dem Problem der Gribov-Kopien. 3.2.1 Gewöhnliche kovariante Eichung Die Faddeev-Popov Quantisierung für die kovariante Eichung wird durch Fixierung der Eichbedingung ∂µ Agµ (x) = Λ(x) (3.24) erreicht, wobei Λ(x) fest vorgegeben ist und Werte in der Lie-Algebra der Eichgruppe annimmt. Die entscheidende Idee zur Fixierung der Eichbedingung besteht darin, die partielle Differentialgleichung (3.24) als Variationsproblem δH[g] zu formulieren, das (3.24) impliziert. Dazu sucht man ein Funktional HA [g], das einen kritischen Punkt6 erreicht, falls Gleichung 3.24 erfüllt ist. Anstelle der Lösung der Differentialgleichung (3.24) wird dann die numerisch besser zu lösende Extremwertaufgabe betrachtet. Diese Idee liegt auch den meisten der im Folgenden vorgestellten Eichungen zu Grunde. Für die kovariante Eichung ist dieses Funktional Z ¤ £ (3.25) HA [g] = d4 x tr (∂µ Agµ − Λ)† (∂ν Agν − Λ) und mit g(x) = eiω(x) (3.26) gilt in der Tat 6 ¤b £ δHA [g] = 2Φab (ω) Dν ∂ν (∂µ Agµ (x) − Λ(x)) , a δω (3.27) Transformationen g werden als kritische Punkte von H bezeichnet, falls das Differential von H dort nicht surjektiv ist. 3.2 Eichfixierung wobei 21 · eγ − Φ (ω) = γ ab ¸ab γ ab = f abc ω c . HA [g] erreicht demnach einen kritischen Punkt, falls ∂µ Agµ (x) − Λ(x) = 0 (3.28) gilt. Die Umkehrung gilt jedoch im Allgemeinen nicht, so dass zusätzlich ausgeschlossen werden muss, dass HA [g] auch kritische Punkte mit der Eigenschaft ∂µ Agµ (x) − Λ(x) = konst. (3.29) aufweist. Für periodische Randbedingungen kann dies gezeigt werden (vgl. [Giu97]). Eine gebräuchliche, diskretisierte Form dieses Funktionals ist HU [g] = mit 1 X g tr J (x)J g† (x) V x (3.30) J(x) = N (x) − igP 0 Λ(x), ¢ ¡ N (x) = −8 · + ν Uν† (x − eν ) + Uν (x) , das für seine Minima die diskretisierte Eichbedingung erfüllt. Die genaue Form der diskretisierten Eichbedingung ist zum Beispiel in [Giu97] zu finden. Lösungsmethoden für die resultierenden Extremwertaufgaben werden in einem späteren Abschnitt am Beispiel der Landau-Eichung vorgestellt. 3.2.2 Laplace-Eichung Als Alternative zu den Standardeichfixierungsmethoden soll nun die Laplace-Eichung vorgestellt werden. Ziel der Laplace-Eichung ist eine Eichbedingung, die eindeutig fixierbar ist, um Probleme mit ungewollten Lösungen der Funktionalmaximierung, wie den später vorgestellten Gribov-Kopien der Landau-Eichung, zu vermeiden. Weiterhin soll die Laplace-Eichung zu einer möglichst glatten Konfiguration führen. Zunächst wird der kovariante, positiv semidefinite Laplaceoperator als X£ ¤ 2δ(x − y)δ ab − Uµab (x)δ(x + eµ − y) − Uµab† (y)δ(y + eµ − x) . (3.31) ∆[U ]ab (x, y) = µ definiert. Die Eigenfunktionen fi von ∆[U ] ergeben sich folglich aus der Eigenwertgleichung X ∆[U ]ab (x, y)fib (y) = λi fia (x) (3.32) b,y mit den Eigenwerten λi ≥ 0. Für ein nicht entartetes Spektrum sind diese Eigenfunktionen bis auf globale Phasenverschiebungen orthogonal, eindeutig und transformieren sich unter einer Eichtransformation g wie fi (x) → g(x)fi (x), wodurch sich ein Gl (N ) Matrixfeld £ ¤ M (x) := f1 · · · fN (x), fi (x) ∈ N (3.33) 22 Kapitel 3 Diskretisierte Eichtheorien definieren lässt, das sich wie eine Eichtransformation verhält7 . Das Transformationsverhalten von M hängt dabei nicht von der Wahl der Eigenfunktionen ab. Um jedoch die glattesten zu wählen, entscheidet man sich für die mit den kleinsten Eigenwerten. Im Allgemeinen liegen die M (x) ∈ Gl (N ) nicht in der Eichgruppe. Es ist jedoch mittels Polarzerlegung invertierbarer Operatoren möglich, M derart zu zerlegen, dass gilt † M (x) = g∆ (x)R(x) mit g∆ ∈ SU (N ). (3.34) Die so gewonnene Eichtransformation g∆ fixiert die Laplace-Eichung. Der mathematische Hintergrund der Polarzerlegung ist in Anhang A.4.3 dargestellt. Das Entscheidende dieser Eichfixierungsmethode ist jedoch, dass sie nicht auf der Maximierung eines Funktionals beruht und sich dadurch von den anderen vorgestellten Eichfixierungen unterscheidet. 3.2.3 Maximal Abelsche Eichung Die maximal abelsche Eichung lässt sich sehr gut für eine SU (2) Eichtheorie beschreiben [BBMPS96, STW02]. Am Beispiel der maximal abelschen Eichung soll dann auch gezeigt werden, wie für SU (3)-Eichtheorien eine Eichfixierung umgesetzt werden kann, die auf SU (2)-Untergruppeneichfixierungen basiert. Die maximal abelsche Eichung spielt eine entscheidende Rolle für das Verständnis des Bildes der Flussschläuche in der Beschreibung des Confinement Mechanismus. Ziel der maximal abelschen Eichung ist es, die Eichfreiheitsgrade derart zu fixieren, dass die Symmetrie unter der maximal abelsche Untergruppe (U N −1 (1) für SU (N )) ungebrochen bleibt. Wird in einer SU (2) Eichtheorie A3µ als abelsches Feld gewählt, so sind die Eichbedingungen ¢ ¡ (3.35) ∂µ ± iA3µ A± µ = 0 1 2 √1 mit A± µ = 2 (Aµ ± iAµ ) zu erfüllen. Auch diese Eichbedingung lässt sich als Extremwertproblem formulieren, so dass Eichtransformationen, die das Eichfunktional Z ¡ ¢ GU [g] = d4 x (A1µ )2 + (A2µ )2 (3.36) minimieren, auch die Eichbedingung 3.35 erfüllen. In einer Gittereichtheorie wird die diskretisierte Form dieses Eichfunktionals verwendet: X ¡ ¢ GU [g] = tr σ3 Uµg (x)σ3 Uµg † (x) . (3.37) x,µ Die Fixierung dieser Eichung ermöglicht die Nebenklassezerlegung der Konfiguration Uµ (x) = Cµ (x)Vµ (x), in der sich, unter Berücksichtigung von U (1) Restklassentransformationen, Vµ (x) = exp(iΦµ (x)τ3 ) wie ein neutrales Eichfeld und Cµ (x) wie ein geladenes Materiefeld verhält. Das so gewonnene abelsche Eichfeld Vµ (x) kann nun zur Untersuchung der abelsch approximierten Erwartungswerte von Wilson- und Polyakov-Loops und zur Untersuchung topologischer Größen wie magnetischen Monopolströmen genutzt werden. 7 Unter einer Eichtransformation g verhält sich M wie M (x) → g(x)M (x), da sich die Spalten in dieser Weise transformieren. 3.2 Eichfixierung 23 Besonders eingegangen werden soll in diesem Abschnitt jedoch auf die Nutzung der Eichfixierung aus SU (2)-Eichtheorien für die SU (3)-Eichtheorie. In einer SU (3)-Eichtheorie gibt es zwei abelsche Eichfelder, A3µ und A8µ . Mit der Wahl der abelschen Eichfelder werden die SU (2) Untergruppen I, V und U mit den zugehörigen Eichfeldern wie folgt festgelegt (vgl. z.B. [SW01]) I : A1µ , A2µ , A3µ , 0 V : A4µ , A5µ , A3µ , 00 U : A6µ , A7µ , A3µ , wobei die Wahl der abelschen Eichfelder zu den Definitionen ¡√ ¢ 0 A3µ = 12 ¡√3A8µ + A3µ ¢ , 00 3A8µ − A3µ A3µ = 21 führt. Aus dieser SU (3)-Zerlegung bedingungen, I : V : U : mit ergeben sich sechs nach Untergruppen sortierte Eich¢ ± ¡ 3 = 0, µ ¡ ∂µ ± iA3µ0 ¢ A± 0 = 0, µ ¡ ∂µ ± iA3µ00 ¢ A± 00 ∂µ ± iAµ Aµ = 0, 0 5 4 √1 V : A± µ = 2 (Aµ ± iAµ ), 00 6 7 √1 U : A± µ = 2 (Aµ ± iAµ ). Die einfachste Wahl eines Eichfunktionals, das alle Felder8 gleichberechtigt behandelt, ist mit Z ¡ ¢ GU [g] = d4 x (A1µ )2 + (A2µ )2 + (A4µ )2 + (A5µ )2 + A6µ )2 + (A7µ )2 dem für die SU (2)-Eichtheorie formulierten Funktional sehr ähnlich. In seiner Umsetzung auf dem Gitter werden nun die Pauli-Matrizen der SU (2) durch die Gell-Mann-Matrizen der SU (3) ersetzt und eine Minimierung des Kontinuumsfunktionals ist äquivalent zur Maximierung des auf dem Gitter definierten Funktionals: X ¡ ¢ GU [g] = tr λ3 Uµg (x)λ3 Uµg † (x) + λ8 Uµg (x)λ8 Uµg † (x) x,µ = 2 X¡ x,µ ¢ |(Uµg )11 |2 + |(Uµg )22 |2 + |(Uµg )33 |2 − 1 . Somit wurde wieder das Problem der Eichfixierung auf ein Maximierungsproblem zurückgeführt, dass sich iterativ in den Untergruppen lösen lässt. 3.2.4 Zentrumseichung Eine weitere, für die Untersuchung topologischer Größen wichtige Eichung ist die Zentrumseichung . Als Zentrum einer Gruppe wird die kleinste mit allen Elementen kommutierende Untergruppe bezeichnet. Im Falle der SU (N ) ist dies die Z(N ), die gerade die Wurzeln der Eins enthält. © ª m Z(N ) = {z ∈ SU (N ) | ∀s ∈ SU (N ) : zs = sz} = e2πi N | m = 1, ..., N , (3.38) 8 Es sind alle Felder, mit Ausnahme der abelschen Felder gemeint. 24 Kapitel 3 Diskretisierte Eichtheorien Ziel der Zentrumseichung ist nun, die SU (N )-Links der Konfigurationen so gut auf das Zentrum Z(N ) der Gruppe zu eichen, wie es die volle nichtabelsche Eichfreiheit zulässt. Die Zentrumseichung lässt sich wieder auf die Maximierung eines Eichfunktionals zurückführen. ¯2 1 X ¯¯ ZU [g] = tr Uµg (x)¯ (3.39) dNC V x,µ Dabei entspricht d der Zahl der Dimensionen. Analog zur abelschen Eichung lässt sich die Maximierung von ZU am einfachsten für eine SU (2)-Eichtheorie durchführen. Deshalb wird in SU (N )-Eichtheorien die Eichung unter Verwendung des Cabibbo-Marinari-Okawa Verfahrens schrittweise in den SU (2)-Untergruppen fixiert[Mon00]. Die Maximierung von Bedingung 3.39 ermöglicht die einfache Zerlegung der Eichkonfiguration Uµ (x) = Zµ (x)Vµ (x) in einen Anteil Zµ (x) ∈ Z(N ) und einen Nebenklassenanteil Vµ (x) ∈ SU (N ). Die aus den Zµ (x) konstruierten Plaquettewerte Zµν (x) sind nun auf die NC Wurzeln der Eins beschränkt (±1 im Falle der SU (2)). Die Hoffnung besteht nun darin, dass auf den Plaquetten des Gitters definierte eichabhängige P-Vortices (projizierte Vortices) dazu dienen können, eichunabhängige Zentrums-Vortices zu lokalisieren, was das ZentrumsVortex-Bild des Confinements unterstützen würde [DDFGO97]. 3.2.5 Landau- und Coulomb-Eichung Die in dieser Arbeit untersuchte Eichung ist die Landau-Eichung . Ihr ist deshalb auch der ausführlichste Abschnitt gewidmet. Die Coulomb-Eichung wird aufgrund ihrer mathematischen Nähe zur Landau-Eichung in diesem Abschnitt gleichzeitig beschrieben. Dabei gibt es einen grundlegenden Unterschied zwischen beiden Eichungen, denn während die Landau-Eichung als kovariante Eichung eine Bedingung für räumliche und zeitliche Freiheitsgrade des Eichpotentials darstellt, erfasst die Coulomb-Eichung ausschließlich die räumlichen Freiheitsgrade. Die differentiellen Eichbedingungen sind die folgenden Landau-Eichung ∂µ Aµ = ∂A = 0 Coulomb-Eichung ∂i Ai = div A = 0. Das korrespondierende Eichfunktional ist Z ¡ ¢ g g g g 2 FA [g] = − tr d4 x Ag† µ (x)Aµ (x) = (A , A ) = kA k (3.40) (3.41) und erreicht sein Maximum, falls die Eichbedingung 3.40 erfüllt ist. Die Summation über µ im Integral erfolgt für die Landau-Eichung über alle vier Indizes, für die Coulomb-Eichung nur über die drei räumlichen. Das Standardverfahren (siehe z.B. [Rot97]), die Coulomb- oder Landau-Eichung in einer Gittereichtheorie zu fixieren, basiert auf der numerischen Maximierung des Eichfunktionals l XX 1 Uµg(x) (x). (3.42) Re tr FU [g] = lNc V x µ=1 3.2 Eichfixierung 25 Die Normierung enthält die Zahl der Farbindizes Nc , das Gittervolumen und die Zahl der Dimensionen l, über die summiert wird9 . Für kleine Variationen g(x) = eiλω(x) gilt X ∂FU [g](λ) = − Re tr iω(x)[Uµg (x − eµ ) − Uµg (x)], ∂λ x,µ (3.43) so dass in Extremal- und Sattelpunkten mit Re tr(iUµ ) = 21 tr(iUµ − iUµ† ) und mit tr(ω) = tr(ω † ) gelten muss: " # ¯ Xi X ∂FU [g](λ) ¯¯ ω(x) = − tr (Uµ (x − eµ ) − Uµ† (x − eµ )) − (Uµ (x) − Uµ† (x)) ¯ ∂λ 2 λ=0 x µ ! = 0 ∀ω(x). (3.44) Mit der Definition 3.2 des Eichpotentials Aµ (x + eµ /2) ∝ (Uµ (x) − Uµ† (x)) ist in den den stationären Punkten auch X¡ ¢ Agµ (x + eµ /2) − Agµ (x − eµ /2) = 0 (3.45) ∆g (x) = µ erfüllt. Gleichung 3.45 entspricht der diskretisierten Form der differentiellen Eichbedingung. 3.2.6 Gribov-Kopien 1978 beschrieb Vladimir Naumovich Gribov die Nichteindeutigkeit der Eichfixierung in nichtabelschen Eichtheorien [Gri78], falls sie auf einer gewöhnlichen linearen Eichbedingung basieren. So existieren verschiedene Eichpotentiale, die die Eichbedingung erfüllen, ohne über eine globale Eichtransformation miteinander verbunden zu sein. Die Anwesenheit solcher Gribov-Kopien bedeutet aber auch, dass die Bedingungen der Landau-Eichung (3.40) nicht ausreichen, um alle redundanten Freiheitsgrade durch Eichtransformationen eliminieren zu können. In der kanonischen Quantisierung dient eine Eichfixierung zur eindeutigen Identifizierung des Feldes und der Sicherstellung, dass im Pfadintegralformalismus keine Doppelzählungen von Konfigurationen vorkommen, obwohl sie eichäquivalent sind. Um die dadurch entstehenden Mehrdeutigkeiten zu vermeiden, müssen die Eichfreiheitsgrade der Eichfixierung vollständig entfernt werden. Es werden nun einige Definitionen eingeführt, anhand derer das Gribovproblem beschrieben werden kann. Für jedes Eichpotential Aµ heißt die Klasse der mit ihm über eine Eichtransformation g verbundenen Eichpotentiale der Eichorbit OA von Aµ . © ª OA = A0µ | ∃g : g † A0µ g − ig −1 ∂µ g = Aµ . (3.46) Die Schnittmenge des Eichorbits mit der durch die Eichbedingung ∂A = 0 definierten Mannigfaltigkeit enthält die eichfixierten Potentiale. Gibt es nur einen Schnittpunkt, ist 9 l = 3 entspricht der Coulomb-Eichung, l = 4 der Landau-Eichung 26 Kapitel 3 Diskretisierte Eichtheorien die Eichung eindeutig. Ist dies nicht der Fall, so repräsentiert jeder Punkt der Schnittmenge eine Gribov-Kopie. Mittels Gleichung 3.41 lässt sich auf dem Orbit eine Norm (3.47) definieren, die es erlaubt, zwischen den verschiedenen lokalen Gribov-Kopien zu unterscheiden. FA [g] = kAg k2 (3.47) Globale Eichtransformationen ändern die Norm nicht und können in einer Äquivalenzklasse zusammengefaßt werden. Kritische Punkte des Funktionals kennzeichnen Transformationen, die die Landau-Eichbedingung erfüllen. Da, wie bereits erwähnt, nach Auffinden eines kritischen Punktes die Landau-Eichung noch nicht eindeutig fixiert ist, benötigt man eine schärferen Bedingung, um die Maxima dieses Funktionals zu finden. Sie sind durch nichtnegative Eigenwerte der Hesse-Matrix von −kAg k2 gekennzeichnet, deren Determinante auch als Faddeev-Popov-Determinante bezeichnet wird. Im Falle der LandauEichung im Kontinuum ist der Faddeev-Popov-Operator durch M = −∂ µ Dµ (3.48) gegeben. Die Menge der Eichpotentiale Ag , die den Maxima des Eichfunktionals entsprechen, wird als Gribovgebiet 10 Ω = { A | ∂A = 0, −∂D > 0 } (3.49) bezeichnet. Dabei ist Ω eine konvexe Menge, auf deren Rand ∂Ω, dem so genannten Gribovhorizont , die niedrigsten nichttrivialen Eigenwerte des Faddeev-Popov-Operators verschwinden. Um die Zahl der Lösungen, die die Eichbedingung erfüllen, weiter einzuschränken, wird das Gribovgebiet deshalb auf die Untermenge der absoluten Maxima des Eichfunktionals eingeschränkt. Diese Untermenge heißt Fundamental Modular Region Λ Λ = { A | ∀g ∈ G : FA [g] ≤ FA [ ] } . (3.50) G bezeichnet die Menge der lokalen Eichtransformationen. Diese Einschränkung führt zu einer exakten Eichfixierung, falls das Eichfunktional für jedes Eichpotential nur ein nicht entartetes absolutes Maximum besitzt. Da dies im Allgemeinen nicht so ist [Gri78, Sin78], müssen die anderen Maxima gefunden werden, um nach einem weiteren Kriterium eines auszuwählen. Das Problem der Gribov-Kopien ist auch auf dem Gitter vorhanden. Allerdings haben hier die bereits eingeführten Begriffe eine neue Bedeutung, denn die auf dem Gitter vorgefundenen Kopien sind zum Teil ein Ergebnis der Gitterdiskretisierung und es stellt sich die Frage, ob Gittergribovkopien im Kontinuumslimes in Kontinuums-Gribov-Kopien übergehen. Der Einfluss der Gitter-Gribov-Kopien auf die numerischen Ergebnisse ist jedoch vorhanden und ihre Auswirkung methodisch untersuchbar. Hierfür wird zu einer thermalisierten Startkonfiguration ein Ensemble von Eichkopien dieser Startkonfiguration mittels zufällig generierter Eichtransformationen erzeugt. Die Eichung wird nun für alle Kopien unter Berücksichtigung der Eichbedingung fixiert. Im Allgemeinen wird nicht das gesamte 10 Positivität des Faddeev-Popov-Operators M (A) bedeutet, dass alle nichttrivialen Eigenwerte λn [A] positiv sind. Es gibt triviale Null-Eigenwert für konstante Eigenvektoren ∂µ ω = 0, die Generatoren von globalen Eichtransformationen sind. 3.2 Eichfixierung 27 Ensemble auf die gleiche eichfixierte Endkonfiguration geeicht werden. Als Folge tauchen Gitter-Gribov-Kopien mit verschiedenen lokalen Maxima des Eichfunktionals 3.42 auf. Eine erste Unterscheidung der Gribov-Kopien ist anhand des Eichfunktionals FA möglich, da es eine eichvariante Größe auf dem Gitter ist. Sie ist nur invariant unter gÄ lobalen Eichtransformationen, reagiert aber sehr empfindlich auf Gribov-Kopien. 3.2.7 Gribov-Rauschen Falls ein Algorithmus eine gegebene Eichkonfiguration hinsichtlich FA exakt maximiert, aber das Ergebnis nicht eindeutig ist, so wird auch eine eichvariante Größe davon abhängen, welche Gribov-Kopie der Algorithmus findet. Dies kann zu einer teils systematischen Verzerrung der Messergebnisse führen oder sich lediglich durch ein zusätzliches Rauschen bemerkbar machen, das Gribov-Rauschen . In der SU (3)-Gittereichtherie zeigt sich, dass die so entstehende Nichteindeutigkeit für die Landau-Eichung bei der Berechnung des Ghostpropagators zu einer systematischen Abweichung führt [SIMPS05b]. Der Unterschied der Geist-Strukturfunktion ZG (q 2 ) zwischen Messungen auf der ersten zufällig erzeugten Kopie und der besten auf einer Konfiguration gefundenen Kopie ist in Abbildung 3.2 dargestellt. Im oberen Teil der Abbildung β = 5.8 164 244 324 β = 6.0 164 244 β = 6.2 164 244 ZG (q 2 ) 3.0 2.0 ratio in % 1.0 105 100 95 0.1 1.0 10.0 100.0 q 2 [GeV2 ] Abbildung 3.2: Darstellung der Strukturfunktion Zg (q 2 ) über dem Impuls für verschiedene Gitter1st größen und Kopplungsparameter β. In der unteren Abbildung ist das Verhältnis ZZbest von Messungen auf der ersten Kopie Z 1st und der besten Kopie Z best dargestellt. Die Abbildung wurde mit freundlicher Genehmigung aus [SIMPS05b] entnommen. ist die Strukturfunktion ZG (q 2 ) über dem Impuls q aufgetragen, im unteren Bereich ist das Verhältnis der Messung auf der ersten und auf der besten Kopie dargestellt. Als beste Kopie wird die Kopie mit maximalem Funktionalwert auf einer Konfiguration bezeichnet. Insbesondere für kleine Impulse weicht dieses Verhältnis von Eins ab, was bedeutet, dass die Messung des Ghostpropagators davon abhängt, wie gut das Eichfunktional maximiert wird. Bei der Berechnung des Gluonpropagators ist dieser Effekt anscheinend nicht vorhanden [SIMPS05b] oder nur in Form eines sehr schwachen Gribov-Rauschens [SO04]. Ähnliche Untersuchungen lieferten schon für die SU (2)-Gittereichtheorie eine systematische Abhängigkeit des Ghostpropagators von der Wahl der Gribov-Kopie [Cuc97, BIMMP04, 28 Kapitel 3 Diskretisierte Eichtheorien NF04]. Dies ist insofern interessant, als dass es die Suche nach entsprechenden Eichfixierungsalgorithmen dringlich macht. 3.3 Methoden der Eichfixierung Auch wenn ein globaler Algorithmus wünschenswert wäre, der das Eichfunktional (3.42) für alle Argumente g(x) gleichzeitig maximiert, ist dies auf Grund der großen Zahl von Argumenten nur schwer umsetzbar. Als Ausweg wird auf Algorithmen zurückgegriffen, die das Eichfunktional sukzessiv und lokal optimieren. Eine Reihe von Konzepten zur Maximierung des Eichfunktionals soll im Folgenden vorgestellt werden. Die dabei beschriebenen Methoden dienen auch der Fixierung der Coulomb-Eichung, die sich von der Landau-Eichung nur in der Nichtsummation über zeitliche Links unterscheidet. 3.3.1 Relaxation Ein wichtiger lokaler Algorithums, der die Zahl der gleichzeitig zu optimierenden Parameter stark reduziert, ist die Relaxation. Denn bei der Standardrelaxation wird das Eichfunktional an jedem Gitterpunkt einzeln und nacheinander optimiert und an Stelle von FU [g] wird nun das lokale Funktional FU [g; x] betrachtet. Aus der Summe über alle Links lassen sich im Eichfunktional zunächst alle Terme, die g(x) enthalten, separieren. £ © ª¤ P P † Re tr g(y)U (y)g (y + e ) + (lNc V ) · FU [g] = µ µ µ £ µ©6= x ª¤ P y,y+e Re tr g(x)Uµ (x)g † (x + eµ ) + g(x − eµ )Uµ (x − eµ )g † (x) µ (3.51) Der erste Term ist nicht mehr von g(x) abhängig, so dass das Optimierungsproblem nur noch lokal für den zweiten Term X £ © ª¤ FU [g; x] := Re tr g(x)Uµ (x)g † (x + eµ ) + g(x − eµ )Uµ (x − eµ )g † (x) µ zu lösen ist, also FU [g; x] = max. der Spur tr(a + b) = tr(a) + tr(b) und ¡ Die† Linearität ¢ die Eigenschaft Re (tr(a)) = Re tr(a ) ermöglichen die Darstellung des zweiten Terms in folgender Weise ª¤ P £ © FU [g; x] = Re tr g(x)Uµ (x)g † (x + eµ ) + g(x − eµ )Uµ (x − eµ )g † (x) µ · ½ ¶¾¸ µ P † † † . Uµ (x)g (x + eµ ) + Uµ (x − eµ )g (x − eµ ) = Re tr g(x) µ P Die Summe K(x) := µ Uµ (x)g † (x + eµ ) + Uµ† (x − eµ )g † (x − eµ ) lässt sich sofort bestimmen. Das resultierende mathematische Problem ! Re tr (g(x)K(x)) = max (3.52) wurde oft untersucht und ist in Angang A.4.2 näher beschrieben. Lokal findet nun eine Aktualisierung g(x) → r(x) · g(x) = g 0 (x) (3.53) 3.3 Methoden der Eichfixierung 29 mit r(x) ∈ SU (N ) so statt, dass g 0 (x) das Maximierungsproblem 3.52 löst. Ein vollständiger Relaxationsschritt besteht nun aus der sukzessiven Aktualisierung der Eichtransformation in jedem Punkt des Gitters. Für eine vollständige Eichfixierung ist es dann notwendig, die Relaxationschritte so oft zu wiederholen, bis die Eichbedingung (3.45) hinreichend präzise erfüllt ist. 3.3.2 Überrelaxation Mit zunehmender Gittergröße divergiert die Autokorrelationszeit und iterative Eichfixierungsmethoden konvergieren immer langsamer. Der Grund ist hauptsächlich in langreichweitigen Moden der Anfangseichung und nicht optimal konditionierten Algorithmen zu finden. Divergierende Autokorrelationenszeiten und -längen sind in Gleichgewichtsprozessen als Critical Slowing Down bekannt und es gibt Methoden dort dieser verlangsamten Thermalisierung zu begegnen [Adl81, Wol90]. Diese Methoden lassen sich analog auch für das Eichfixieren benutzen und führen dabei zu guten Resultaten. Überrelaxation ist die erste vorzustellende Methode, der verlangsamten Konvergenz in SU (N ) Gittereichtheorien zu begegnen. Sie ist eine Erweiterung des Relaxationsalgorithmus und ersetzt an Stelle der zum lokalen Maximum führenden Aktualierung r(x) (vgl. 3.53) ihre Potenz rω (x) in jedem Schritt, so dass ein Aktualisierungsschritt nun in der Form g(x) → rω (x) · g(x) = g 0 (x) (3.54) durchgeführt wird. Zur Berechnung der Potenz wird die Reihenentwicklung von rω nach N Schritten abgebrochen (Gleichung 3.55) und das Ergebnis in die Eichgruppe projiziert. ω r (x) = N X γn (ω) n=0 n! (r − )n mit γn (ω) = Γ(ω + 1) Γ(ω + 1 − n) (3.55) Die Gammmafunktion ist nur für Γ(ω+1) zu bestimmen, alle weiteren Vorfaktoren können daraus über Γ(x + 1) = xΓ(x) bestimmt werden. Für gewöhnlich wird 1 < ω < 2 und 2 ≤ N ≤ 4 gewählt. Für ω = 1 erhält man die einfache Relaxation. Der optimale Wert für den Überrelaxationsparameter ω strebt gegen 2. Allerdings beginnt die Dynamik ein kritisches Verhalten zu zeigen und es kommt immer häufiger vor, dass die Überrelaxation innerhalb einer vorgegebenen Zeit die geforderte Präzision in der Eichbedingung nicht erreicht (Abschnitt 4.2.1, Seite 64). Im Limes ω → 2 tragen die UV-Moden nicht mehr bei und das lokale Eichfunktional FU [g; x] bleibt erhalten. Der Algorithmus wird mikrokanonisch. Eine hier nicht untersuchte Variation der Überrelaxation ist die stochastische Überrelaxation [For89], bei der der Parameter ω während der Relaxation als dynamische Größe betrachtet und stochastisch gewählt wird. 3.3.3 Mikrokanonische Schritte Die Wahl ω = 2 im Überrelaxationsalgorithmus führt zu mikrokanonischen Aktualisierungsschritten, die das Eichfunktional und damit auch die später definierte Wirkung invariant lassen. In einer SU (2)-Eichtheorie lässt sich der mikrokanonische Aktualisierungsschritt explizit angeben g(x) → α · g(x) mit α = − + 4 (3.56) tr (g(x)K) g(x)K. tr(KK † ) 30 Kapitel 3 Diskretisierte Eichtheorien Um auch in SU (N ) Modellen mikrokanonische Schritte zu nutzen, wird diese Aktualisierung in allen SU (2)-Untergruppen ausgeführt [BW87]. Für normale Monte-Carlo-Prozesse kann gezeigt werden, dass das Einfügen solcher mikrokanonischen Schritte zu einer schnelleren Dekorrelation im thermischen Gleichgewicht führt [DF90]. Im Allgemeinen bedeutet dies, dass der Algorithmus schneller thermalisiert. Da langsames Thermalisieren auch ein Problem des Simulated Annealing Algorithmus ist (Kapitel 3.3.6, Seite 31), werden mikrokanonische Schritte im Rahmen der Arbeit genutzt, um auch hier die Konvergenz zu beschleunigen. 3.3.4 Fourierbeschleunigte Eichfixierung Der zweite vorzustellende Algorithmus zur Reduzierung des Critical Slowing Down ist die fourierbeschleunigte Eichfixierung [D+ 88, B+ 85]. Sie ist die Weiterentwicklung des Gradientenverfahrens zu Maximierung des Eichfunktionals 3.42 der Landau-Eichung, bei dem die Aktualisierung g(x) → g 0 (x) = f (x) · g(x) in Richtung des stärksten Anstieges erfolgt. Dazu dient eine Variante des NewtonRaphson-Verfahrens. Mit Definition des Eichpotentials (3.2) lässt sich zunächst die Divergenz von Ag auf dem Gitter definieren: 4 £ ¡ ¢¤ ¡ ¢ 1 1X tr ∆−µ Uµg (x) − Uµg† (x) (3.57) ∆−µ Uµg (x) − Uµg† (x) − ∇ · A (x) = 2 µ=1 NC g ! mit ∆−µ (Uµ (x)) = Uµ (x − eµ ) − Uµ (x). (3.58) Wie weit der Algorithmus dem Anstieg des Gradienten folgt, wird über einen Parameter α ∈ abgestimmt. Die aktualisierte Transformation ergibt sich dann für das Gradientenverfahren mit f (x) = exp [α∇ · Ag (x)]. (3.59) In dieser lokalen Formulierung hat der Algorithmus jedoch stark mit Effekten des Critical Slowing Down zu kämpfen. Zur Verbesserung der Konvergenz wird Gleichung 3.59 durch die fourierbeschleunigte Aktualisierung ersetzt. ¾¸ · ½ 2 pmax a2 g −1 (3.60) f (x) = exp F̂ α 2 2 F̂ (∇ · A (x)) (p) pa 2 2 a Die entscheidende Neuerung in der Aktualisierung ist das Einfügen des Terms pmax p2 a 2 zwischen den Fouriertransformationen. Dieser Term führt dazu, dass kurz- und langreichweitige Moden gleich schnell konvergieren. Der Grund für das Einfügen dieses Terms wird unter anderem in [D+ 88] beschrieben. Heuristisch lässt es sich als Berücksichtigung der zweiten Ableitung im Gradientenverfahren interpretieren, was zu verbesserten Aktualisierungsschritten führt. Unter Nutzung der schnellen Fouriertransformation lassen sich so theoretisch Rechenzeiten erreichen, die sich proportional zu V log V verhalten[D+ 88]. Die Fouriertransformation bringt jedoch das Problem mit sich, dass sie als globaler Algorithmus nur schwer parallelisierbar ist, was Berechnungen auf großen Gittern erschwert. Dies ist auch der Grund, die fourierbeschleunigte Eichfixierung in einer Methode anzuwenden, die komplett ohne Fouriertransformationen auskommt, das Multigrid-Verahren [CM98]. 3.3 Methoden der Eichfixierung 3.3.5 31 Multigrid Methode des Gradientenverfahrens In der Aktualiserung der fourierbeschleunigten Eichfixierung (Gleichung 3.59) lässt sich das Exponential als Reihe entwickeln, so dass man genähert ¶ µ (g) −1 α f (x) ∝ − F̂ F̂(∇A ) (x) (3.61) p2 (k) erhält. Die Idee des Multigrid-Algorithmus beginnt mit der Feststellung, dass die Fourierzerlegung in Formel 3.61 äquivalent zur Invertierung des Laplace-Operators ist. F̂−1 p−2 (k)F̂ = −∆−1 Der große Vorteil des Multigrid-Verfahrens ist die Möglichkeit der effizienten Parallelisierung des inversen Laplace-Operators [Sta93]. Wie bei der fourierbeschleunigten Eichfixierung skaliert die Rechenzeit für eine Aktualisierung des ganzen Gitters mit V und die Zahl der Schritte bis zur Konvergenz mit log V . Das Multigrid-Verfahren ist hier jedoch nur der Vollständigkeit halber erwähnt. Eine explizite Beschreibung der Umsetzung und der Konvergenz des Multigrid-Algorithums findet sich in [HLS92, For89] und insbesondere in [GS89]. 3.3.6 Simulated Annealing Bisher verwendete Verfahren haben Effekte des Critical Slowing Down zu mildern versucht. Dabei unberücksichtigt geblieben ist das Problem der Nichteindeutigkeit der Landau-Eichung auf Grund von Gribov-Kopien (Abschnitt 3.2.6, S. 25). Eine besondere Bedeutung kommt nun der Formulierung der Eichfixierung als Maximierungsaufgabe zu. Im Jahr 1982 beobachteten Kirkpatrick und andere [KGJV83] eine Ähnlichkeit zwischen dem Tempern (annealing) von Festkörpern und mathematischen Maximierungsaufgaben. In der Festkörperphysik lässt sich beobachten, dass bestimmte Materialien, die hinreichend langsam abgekühlt werden, in ihrem Grundzustand enden. Dies ist von besonderer Bedeutung für die Stabilität des Materials. Diese Idee des Abkühlens lässt sich auf die Maximierung eines beliebigen Funktionals anwenden. Dazu muss die Maximierung als Prozess verstanden werden, in dem der Grundzustand eines Systems gefunden werden soll. In unserem Kontext wird das Eichfunktional als “Energie” verstanden, bezüglich derer das System in seinen Grundzustand gebracht werden soll. In der Festkörperphysik wird Tempern als Prozess verstanden, zu niedrigen Energiezuständen des Festkörpers durch eine Sequenz von thermischen Gleichgewichtszuständen zu gelangen. Der Prozess besteht aus zwei Schritten [KGJV83, BH76] • Anheben der Temperatur bis auf einen Wert, bei dem der Festkörper schmilzt und • Ein hinreichend langsames Absenken der Temperatur, bis die Teilchen des Festkörpers sich von selbst im Grundzustand anordnen. Der Prozess des Temperns kann erfolgreich mit Simulationsmethoden aus der Festkörperphysik beschrieben werden. 1953 wurde von Metropolis und anderen [MRR+ 53] für wechselwirkende Mehrteilchensysteme ein einfacher Algorithmus zur Entwicklung des thermischen Gleichgewichts und zur Untersuchung von Zustandsgleichungen vorgestellt. Der vorgestellte Algorithmus basiert auf Monte Carlo Techniken und generiert eine Reihe 32 Kapitel 3 Diskretisierte Eichtheorien von Zuständen des Vielteilchensystems in folgender Weise. Ausgehend vom Zustand i mit der Energie Ei wird durch kleine Störungen ein Folgezustand j generiert. Die Energie des nächsten Zustandes ist Ej . Ist die Differenz Ej − Ei kleiner oder gleich Null, wird der Zustand j zum aktuellen Zustand. Ist die Energiedifferenz positiv, so wird der Zustand j mit Wahrscheinlichkeit ¶ µ Ei − Ej exp (3.62) kB T akzeptiert, wobei T die Temperatur des Wärmebades und kB die Boltzmannkonstante bezeichnet. Die Akzeptanzentscheidung wird als Metropoliskriterium bezeichnet, und der so beschriebene Algorithmus ist als Metropolis-Algorithmus bekannt. Wenn die Temperatur hinreichend langsam abgesenkt wird, kann der Festkörper bei jeder Temperatur das thermische Gleichgewicht erreichen. Im Metropolis-Algorithums wird dies durch die Generation einer großen Zahl von Übergängen erreicht. Das thermische Gleichgewicht wird durch die Boltzmannverteilung charakterisiert, die die Wahrscheinlichkeit eines Zustandes i mit der Energie Ei bei der Temperatur T mit µ ¶ Ei 1 exp − PT [X = i] = (3.63) Z(T ) kB T angibt. X ist eine stochastische Variable, die den aktuelle Zustand des Festkörpers angibt. Die Zustandssumme Z(T ) ist definiert als Z(T ) = X j µ ¶ Ej exp − . kB T (3.64) Die Boltzmannverteilung wird von entscheidender Bedeutung für die Analyse des Simulated Annealing Algorithums sein. Für kombinatorische Optimierungsprobleme11 kann mittels des Metropolis Algorithums ein Abkühlprozess nachgebildet werden. Der so entstehende Algorithmus ist der Simulated Annealing Algorithmus. Zunächst wird eine Analogie zwischen einem physikalischen Vielteilchensystem und dem kombinatorischen Optimierungsproblem angenommen, die auf zwei Äquivalenzen basiert: • Die Lösungen des kombinatorischen Optimierungsproblems entsprechen den Zuständen des physikalischen Systems und • die Kosten einer Lösung entsprechen der Energie des Zustandes. 11 Definition: (kombinatorisches Optimierungsproblem ) Sei E eine endliche Grundmenge, I ⊂ 2E eine Teilmenge der Potenzmenge von E (die Elemente in I heißen zulässige Mengen oder Lösungen) und c : E → eine Funktion. Für jede Teilmenge F ⊆ E P definiert man weiterhin c(F ) = e∈F c(e). Dann heißt das Problem max c(G) G∈I bzw. (lineares) kombinatorisches Optimierungsproblem. max c(G) G∈I (3.65) 3.3 Methoden der Eichfixierung 33 In Analogie zum physikalischen Prozess wird ein Parameter zur Kontrolle des Simulated Annealing Algroithmus eingeführt, der die Rolle der Temperatur übernimmt. Er wird im Folgenden als Simulated Annealing Temperatur oder als Eichtemperatur bezeichnet und mit T abgekürzt. Bevor die Konvergenz des Simulated Annealing Algorithmus bewiesen werden kann, müssen noch einige Größen definiert werden. Die Bezeichnungen werden sich dabei an dem eigentlichen Problem der Maximierung des Eichfunktionals orientieren. Definition: Sei (E, f ) ein kombinatorisches Optimierungsproblem, in dem E die Menge aller möglichen Zustände und gi , gj ∈ E Zustände mit den Kosten f [gi ] und f [gj ], wobei gj durch einen Erzeugeralgorithmus aus gi hervorgegangen sei. Das Akzeptanzkriterium gibt mit der Akzeptanzwahrscheinlichkeit ( ´ für f [gj ] ≤ f [gj ] ³ 1 PA [gi → gj ] = (3.66) f [gj ]−f [gi ] für f [gj ] > f [gj ] exp T an, ob eine neu erzeugte Lösung gj als neue Lösung akzeptiert wird. Die Art der Generation neuer Zustände korrespondiert zu den Störungen des Metropolis Algroithmus. Die Übergangswahrscheinlichkeit P [gi → gj ] ergibt sich nun aus dem Produkt von Tij , der Wahrscheinlichkeit dafür, dass aus dem Zustand gi der³ Zustand ´gj erzeugt wird und der Akzeptanzwahrscheinlichkeit PA [gi → gj ] = min[1, exp · ¸ f [gj ]−f [gi ] P [gi → gj ] = Tij min 1, e T f [gj ]−f [gi ] T ]. (3.67) Solange die Erzeugung neuer Zustände mit symmetrischer Transmissionswahrscheinlichkeit geschieht, also Tij = Tji gilt, ist die Bedingung der Detailed Balance erfüllt, denn h f [gj ]−f [gi ] i min 1, e T f [gj ]−f [gi ] P [gi → gj ] PT [X = gj ] h f [gi ]−f [gj ] i = e T = = . P [gj → gi ] PT [X = gi ] min e T ,1 Somit sind die Eigenschaften Ergodizität, Normiertheit und Stabilität des Fixpunktes PT (g) ∝ exp( f T(g) ) für den Metropolisalgorithmus gewährleistet, so dass die Konvergenz der Markovkette sichergestellt ist (Anhang A.2). Definition: Ein Thermalisierungsschritt ist ein zusammengesetzter Prozess, der vom gegenwärtigen Zustand gi in einen Folgezustand gj führt. Im Falle des Metropolisalgorithmus besteht er aus zwei Schritten: (i) Erzeugen eines neuen Zustands und (ii) Anwendung des Akzeptanzkriteriums. Dieser Algorithmus muss am Ende nicht notwendigerweise zu einem neuen Zustand führen. Die beiden Schritte des Aktualisierungsprozesses lassen sich zu einem einzigen zusammenfassen, falls der Folgezustand bereits thermalisiert erzeugt werden kann, also der Wahrscheinlichkeitsverteilung µ ¶ 1 f [gj ] PT [X = gj ] = exp − (3.68) Z(T ) T 34 Kapitel 3 mit X µ f [g] Z0 (T ) = exp − T g∈E Diskretisierte Eichtheorien ¶ (3.69) genügt. Im Allgemeinen ist dies nicht möglich. Im Falle der lokalen SU (N )Aktualisierungen in nur einem Punkt (3.51) besteht jedoch die Möglichkeit, die Elemente der Eichtransformation mittels eines Heatbath-Algorithmus bereits mit der Verteilung (3.68) zu erzeugen. Die Besonderheit des Simulated Annealing Algorithmus ist, dass er nicht nur Verkleinerungen der Kostenfunktion f zulässt, sondern auch Erhöhungen. Anfangs werden für große Werte von T große Verschlechterungen akzeptiert. Für abnehmendes T werden die akzeptierten Vergrößerungen im Mittel immer kleiner und für T = 0 werden letztendlich nur noch Verbesserungen der Kostenfunktion zugelassen. Im Gegensatz zu lokalen Suchalgorithmen kann der Simulated Annealing Algorithmus durch Erhöhung der Kostenfunktion lokalen Minima entkommen. Die Gleichgewichtsverteilung für Thermalisierungsprozesse wird wie folgt definiert: Definition: Ist (E, f ) ein kombinatorisches Optimierungsproblem, dann heißt eine Verteilung Gleichgewichtsverteilung , falls sie folgende Bedingung erfüllt: ¶ µ 1 f [gj ] PT [X = gj ] = qj (T ) := , exp − Z(T ) T (3.70) wobei X eine stochastische Variable ist, die den aktuellen Zustand des Simulated Annealing Algorithmus darstellt und X µ f [g] Z0 (T ) = exp − T g∈E ¶ (3.71) die Normierungskonstante ist. Falls die durch einen Thermalisierungsalgorithmus erzeugte Verteilung diese Bedingung erfüllt, wird das Ergebnis als thermalisiert bezeichnet. Mit den so definierten Größen lässt sich nun der Satz über die Konvergenz des Simulated Annealings angeben. Satz 3.3.1. Ist (E, f ) ein kombinatorisches Optimierungsproblem und ist die Gleichgewichtsverteilung durch (3.70) gegeben, dann gilt lim qi (T ) := qi∗ = T →0 1 · χEopt (gi ), 12 |Eopt | (3.72) wobei Eopt ⊂ E die Untermenge der global optimalen Lösungen ist und die Mächtigkeit dieser Untermenge |Eopt | die Zahl der global optimalen Lösungen angibt. 12 Sind A und A0 ⊂ A zwei Mengen, so ist die charakteristische Funktion χA0 : A → {0, 1} auf der Untermenge A0 ist wie folgt definiert: χA0 (a) = 1 falls a ∈ A0 und χA0 (a) = 0 sonst. 3.3 Methoden der Eichfixierung 35 Beweis:. Unter Nutzung der Tatsache, dass für alle a ≤ 0 gilt, lim ea/x = 1 falls a = 0 x→0 und lim ea/x = 0 sonst, erhält man x→0 f [gi ] e− T lim = lim P f [g] T →0 T →0 e− T g∈E f [gi ] efopt − T = lim P f [g] T →0 efopt − T g∈E = lim P T →0 g∈E 1 efopt − f [g] T f [gi ] efopt − T · χEopt (gi ) + lim P · χE\Eopt (gi ) f [g] T →0 efopt − T g∈E 1 · χEopt (gi ) + 0. = |Eopt | ¥ Das Ergebnis ist von großer Bedeutung, da es asymptotische Konvergenz des Simulated Annealing Algorithmus garantiert, solange die Gleichgewichtsverteilung für jedes T tatsächlich erreicht wird. Insbesondere die Voraussetzung eines thermischen Gleichgewichtes führt jedoch dazu, dass dieser formale Konvergenzbeweis nur realistisch ist, falls der Simulated Annealing Algorithmus bei jeder Temperatur unendlich viele Schritte tätigt. In endlicher Zeit ist dies jedoch nicht möglich und die Hauptaufgabe besteht in einer geeigneten Beschreibung von Simulated Annealing Algorithmen, die auf Grund endlicher Aktualisierungsschrittzahlen die Voraussetzung des thermischen Gleichgewichts nicht mehr erfüllen können. Dazu ist zunächst zu definieren, wie ein Simulated Annealing Algorithmus aussehen soll, der nach endlich vielen Schritten beendet wird. Auch für solche Algorithmen soll die Temperatur in wohldefinierter Weise abgesenkt werden. Im weiteren soll die Veränderung der Temperatur wie folgt beschrieben werden. Definition: Eine Abbildung T : I → + 0 , die einer Indexmenge I eine reelle Zahl zuordnet, wird Simulated Annealing Fahrplan genannt und beschreibt die Temperaturänderung während des Simulated Annealings. Die Indexmenge wird im weiteren immer von der Form I = {1, 2, ..., N } sein, so dass mit den natürlichen Zahlen die Simulated Annealing Schritte i ∈ I durchnummeriert werden können. Die Mächtigkeit der Menge ist in diesem Falle |I| = N und der Fahrplan wird als endlicher Fahrplan bezeichnet. Weiterhin sind die folgenden Definitionen hilfreich. Definition: Falls sich die Temperatur zwischen zwei aufeinanderfolgenden Schritten ändert, also T (i) 6= T (i + 1) gilt, wird dies als Temperaturschritt bezeichnet. Die Gesamtzahl der in einem Fahrplan gemachten Temperaturschritte wird mit nT abgekürzt. Die Zahl der Temperaturschritte ist nicht notwendigerweie gleich der Zahl der insgesamt getätigten Schritte nT ≤ |I|, da der Fahrplan bei einigen Temperaturen mehrere Schritte zulassen kann, was zur folgenden Definition führt. 36 Kapitel 3 Diskretisierte Eichtheorien Definition: Als Thermalisierungsschritt wird in Anlehnung an den Metropolis Algorithmus eine Aktualisierung des gegenwärtigen Zustandes bei fixierter Temperatur bezeichnet. Die Gesamtzahl der bei fixierter Temperatur durchgeführten Aktualisierungen wird mit nT h abgekürzt. Da die Voraussetzung des thermischen Gleichgewichtes bei einer gegebenen Temperatur mit endlichen Fahrplänen (|I| < ∞) nicht erreicht werden kann, wird für ihre Untersuchung eine neue Größe eingeführt Definition: Ist (E, f ) ein kombinatorisches Optimierungsproblem, und T : I → + 0 ein Simulated Annealing Fahrplan, so heißt T quasithermalisiert nach k Schritten, und die Wahrscheinlichkeitsverteilung PT (k)[X = gj ] Quasigleichgewichtsverteilung, falls sie hinreichend dicht zur Gleichgewichtsverteilung qj (T (k))liegt, also für ein zu spezifizierendes ² gilt: kPT (k) − q(T (k))k < ² (3.73) Der Abstand zweier Wahrscheinlichkeitsverteilungen ist im Anhang durch Gleichung A.5 definiert. Für Fahrpläne, die in jedem Schritt quasithermalisiert sind, kann nun gezeigt werden, dass die zugehörige Wahrscheinlichkeitsverteilung im Grenzwert unendlich vieler Schritte und T → 0 gegen die Verteilung aus Satz 3.3.1 konvergiert (nachlesbar zum Beispiel in [AK89]). Das Problem besteht aber eben in der Notwendigkeit unendlich vieler Schritte. Als Optimierung endlicher Fahrpläne wird daher im Folgenden verstanden, ein Quasigleichgewicht bei möglichst geringen Temperaturen herzustellen, da dies auch eine größere Wahrscheinlichkeit für das Auffinden des Optimums bedeutet. Für die Landau-Eichung soll das Funktional FA (Gleichung 3.42) maximiert werden. Unter Verwendung des Simulated Annealing Algorithmus wird die Kostenfunktion f = 1 − FA minimiert und an Stelle von Metropolisaktualisierungen (Gleichung 3.66) werden Heatbath-Aktualisierungen genutzt (Anhang A.4.1). Praktisch wird innerhalb des Simulated Annealing Algorithmus das Optimierungsproblem für Eichtemperaturen T > 0 nicht endgültig gelöst. Daher wird ein abschließendes Relaxieren notwendig, durch das die differentielle Eichbedingung ∂A = 0 umgesetzt wird. Es lässt sich auch, wie bereits erwähnt, als Simulated Annealing bei T = 0 verstehen. 3.3.7 Eichfixierung auf endlichen Untergruppen Unabhängig von der Verwendung neuer Algorithmen lässt sich die Rechenzeit durch die Einschränkung der Eichgruppe auf eine endliche Untergruppe reduzieren. In dieser Untergruppe ist die Zahl der möglichen Gruppenoperationen überschaubar und lässt sich in einer Gruppentabelle abrufbar im Speicher behalten. In der Regel ist der Abruf aus dem Speicher deutlich schneller, als die direkte Ausführung der Gruppenoperation. Da in endlichen Gruppen auch die Zahl der Gruppenoperationen endlich ist, liegt der Hauptvorteil in der Möglichkeit eine Multiplikationstabelle für Gruppenoperation zu nutzen. Ein weiterer Vorteil einer endlichen Untergruppe der SU (2) ist der geringere Speicherbedarf, da die Gruppenelemente keiner Darstellung als Matrizen, sondern nur einer natürlichen Zahl als Repräsentanten bedürfen. 3.4 Strategien zur Auswahl optimaler Verfahren 37 Vor der Anwendung der Gruppentabelle werden Eichkonfiguration und Eichtransformation auf die Untergruppe abgebildet. Bei der Anwendung der bisher vorgestellten Algorithmen, lassen sich so sämtliche Gruppenmultiplikationen mithilfe der Multiplikationstabelle beschleunigen. Die am Ende des Simulated Annealings oder der Relaxation erhaltene Eichtransformation mit Werten in der Untergruppe lässt sich nun als Ausgangspunkt einer abschließenden Eichfixierung der ursprünglichen Eichkonfiguration nutzen. In einer U (1) Eichtheorie wurde diese Methode erfolgreich eingesetzt und eine Beschleunigung der Rechnungen um den Faktor zehn erreicht[CFIS04]. Als Untergruppe dient hier eine Darstellung n . Die vielversprechendste diskrete Untergruppe der SU (2) ist die Ikosaedergruppe I120 (Appendix A.1.3). Da durch die Projektion auf die Ikosaedergruppe auch das ursprüngliche Eichfeld verändert wird, optimiert der Simulatd Annealing Algorithmus in der projizierten Ikosaeder-Eichtheorie das Eichfunktional auch nur in Bezug auf die projizierte Eichkonfiguration. Dies kann sich negativ auf die Präkonditionierung der Eichtransformation auswirken. Weiterhin wird der Vorteil der Multiplikation über eine Multiplikationstabelle zum Teil wieder durch die Notwendigkeit der Addition von Gruppenelementen zunichte gemacht. Da die Addition keine Gruppenoperation ist, liegt das Ergebnis im Allgemeinen nicht in der I120 und muss in geeigneter Weise wieder zurückprojiziert werden. Diese Projektion ist allerdings verhältnismäßig aufwändig. 3.4 Strategien zur Auswahl optimaler Verfahren Die Fixierung der Landau-Eichung in den folgenden Gittersimulationen besteht aus drei Schritten, • Erzeugung einer in Bezug auf β thermalisierten Eichkonfiguration, • Generierung eines Ensembles E aus zufälligen (T = ∞) Anfangseichtransformationen und • Anwendung verschiedener Eichfixierungsalgorithmen auf jede Anfangseichtransformation. Da so die verschiedenen Algorithmen auf den gleichen Anfangseichtransformationen untersucht wurden, lassen sich die Algorithmen leichter miteinander vergleichen. Dieser abschließende Vergleich erfolgt anhand der Verteilung über den durch die Algorithmen gefundenen Maxima des Eichfunktionals. Neben dieser Verteilung wird im Folgenden auch die Mobilität vorgestellt. Sie ist eine Eigenschaft der Aktualisierungen der verschiedenen Algorithmen und ist von besonderer Bedeutung für die Untersuchung des Simulated Annealing Algorithums. 3.4.1 Verteilung über den Funktionalwerten Alle untersuchten Konzepte zur Fixierung der Landau-Eichung sind Optimierungsalgorithmen zur Maximierung des Eichfunktionals FU (3.42). Auch wenn das Ziel eine Eichtransformation ist, die das globale Maximum des Eichfunktionals darstellt, ist dies im Allgemeinen nicht erreichbar. Am Ende der Eichfixierung wird das Ensemble E daher aus eichfixierenden Eichtransformationen bestehen, die zu verschiedenen lokalen Maxima des 38 Kapitel 3 Diskretisierte Eichtheorien Eichfunktionals gehören. Je besser ein Algorithmus funktioniert, desto häufiger wird er dabei das größte aufgefundene Maximum wiederfinden und die zugehörige Eichtransformation entsprechend häufig im finalen Ensemble auftauchen. Mit dieser Prämisse werden die Algorithmen daher in Hinblick auf die Häufigkeitsverteilung der durch sie aufgefundenen lokalen Funktionalwerte verglichen. Dies kann auf zwei Arten geschehen. Die erste Variante besteht darin, die auf einer Konfiguration aufgefundenen lokalen Maxima der Größe nach zu ordnen F1 > F2 > F3 > .... und für die verschiedenen Funktionalwerte die Häufigkeit des Wiederauffindens anzugeben. Die so entstehenden Häufigkeitsverteilungen lassen sich über eine gewisse Anzahl von Konfigurationen mitteln und ergeben für jeden Algorithmus eine stochastische Wahrscheinlichkeitsverteilung P [F = Fi ]. Da die verschiedenen Maxima auf Grund von Diskretisierungseffekten nicht exakt übereinstimmen, hängt diese Verteilung auch von dem Kriterium ² ∈ ab, wann zwei Funktionalwerte als gleich gelten sollen. F =F ˆ i kF − Fi k < ² Ein Beispiel einer solchen Verteilung ist in Abbildung 4.2 auf der linken Seite für verschiedene Simulated Annealing Algorithmen und den Relaxationsalgorithmus zu sehen. Die zweite Variante der Darstellung besteht darin, zunächst für eine Konfiguration das größte lokale Maximum Fmax zu finden und daraus die relativen Funktionalwerte max Frel = F −F zu bilden. Diese relativen Funktionalwerte sind nun auch für verschiedene Fmax Konfigurationen miteinander vergleichbar und lassen sich für die verschiedenen Algorithmen in Form eines Histogramms (z.B. Abb. 4.15) angeben. 3.4.2 Mobilität Eine weitere Größe, die sich nicht am Funktionalwert orientiert, sondern stärker das Aktualisierungsverhalten berücksichtigt, ist die Mobilität. Jeder Algorithmus führt Aktualisierungsschritte der Form g → g0 durch. Für ein schnelles Erreichen der Quasithermalisiertheit ist nun besonders bei Thermalisierungsalgorithmen wichtig, wie stark diese Änderungen sind. Dies führt zu folgender Mobilität. Definition: Führt ein Algorithmus in einem Schritt die Aktualisierung g → g 0 durch, so wird die Größe # " X ¡ ¢ 1 (3.74) tr − g(x)g 0† (x) M [g → g 0 ] = Re NC V x als Mobilität des Algorithmus in diesem Schritt bezeichnet. Die Mobilität ist ein Indiz für die Autokorrelation eines Algorithmus. Je weiter der Wert in der Nähe von Eins liegt, um so größer sind die Sprünge im Zusandsraum der Eichtransformation, die bei jeder Aktualisierung durchgeführt werden. Kleine Mobilitäten bedeuten entsprechend, dass sich alte und neue Eichtransformation nur wenig voneinander unterscheiden. 3.4 Strategien zur Auswahl optimaler Verfahren 39 Ist die neue Eichtransformation zufällig erzeugt, so dass von unkorrelierten Größen gesprochen werden kann und ist jeder Punkt im Zustandraum gleich wahrscheinlich, so heben sich die Terme tr(g(x)g 0† (x)) im Mittel gegenseitig auf und die Mobilität nimmt den Wert Eins an. Insofern ist eine Mobilität von Eins umgekehrt ein Indiz auf eine geringe Autokorrelation, wenn auch kein Beweis dafür. Sind alte und neue Eichtransformation hingegen sehr ähnlich, so gilt für die Spuren 1 tr(g(x)g 0† (x)) ≈ 1, so dass M ≈ 0 folgt. Auch hier ist die Mobilität nur ein Indiz für NC eine starke Autokorrelation. Denn es besteht die Möglichkeit, dass bei der Erzeugung der Eichtransformationen bestimmte Eichtransformationen bevorzugt werden, so dass auch bei dekorrelierten Algorithmen sich zwei unabhängig voneinander erzeugte Transformationen mit großer Wahrscheinlichkeit sehr ähnlich sind. Diese Vermutung ließe sich auch für den Simulated Annealing Algorithmus in SU (N ) Eichtheorien aufstellen. Hier sollen thermalisierten Eichtransformationen der Wahrscheinlichkeitsverteilung PT [X = g] = 1 − 1−FU [g] T e Z(T ) (3.75) genügen, wodurch automatisch Transformationen mit großen Funktionalwerten bevorzugt werden. Von entscheidender Bedeutung ist jedoch, dass FU invariant unter globalen Eichtransformationen ist, was bedeutet, dass auch jeder globale Phasenfaktor eiφ · mit gleichem Gewicht in die Mobilität eingehen sollte. Es soll nun der Grenzfall einer bei T ≈ 0 thermalisierten Verteilung betrachtet werden, bei dem sich die Maxima gmax des Funktionals nur um solche Phasenfaktoren unterscheiden mögen. Die Mobilität für zwei solche Transformationen nimmt den Wert M = 1 − cos φ an, wird jedoch, da Mittelung über dekorrelierte Eichtransformationen alle Werte von φ gleich wahrscheinlich sind, den Wert hM i = 1 annehmen. Da diese Betrachtung auch für jede andere Eichtransformation gilt, muss ein dekorrelierte Simulated Annealing Algorithmus eine Mobilität hM i = 1 aufweisen. Im Umkehrschluss haben Algorithmen mit geringer Mobilität eine große Autokorrelation. 40 Kapitel 3 Diskretisierte Eichtheorien Kapitel 4 Resultate Im Folgenden werden verschiedene Algorithmen und Methoden getestet, die die LandauEichung fixieren. Ziele sind eine kurze Rechenzeit und die Vermeidung von Gitter-GribovKopien durch die globale Maximierung des Eichfunktionals. Zu diesem Zweck werden die Methoden nach verschiedenen Kriterien miteinander verglichen, bei denen folgende Größen eine Rolle spielen: 1. Rechenzeit tr für einmalige Anwendung einer Methode, 2. P[F = Fmax ] = pmax , die Wahrscheinlichkeit das größte bekannte Maximum mit dieser Methode bei einmaliger Anwendung zu erreichen und 3. p(Fi ), die Wahrscheinlichkeitsverteilung für die nach absteigender Größe sortierten und so durchnummerierten Funktionalwerte1 . Sowohl Rechenzeiten, als auch Wahrscheinlichkeiten sind stochastische Größen und für eine hinreichend genaue Bestimmung ist eine Mittelung über eine große Anzahl von Konfigurationen und Kopien notwendig. Die zweite Größe ist über die Gleichung p(F1 ) = P [F = Fmax ] mit der dritten verknüpft, wird aber separat betrachtet, da nur das Erreichen des globalen Maximums einer Eichfixierung innerhalb der Fundamental Modular Region gleichbedeutend ist. Es gilt nun, mittels einer Optimierung des Eichfixierungsalgorithmus, einen Kompromiss aus kurzer Rechenzeit und trotzdem hoher Wahrscheinlichkeit für die Annahme des größten bekannten Maximums zu erzielen. Performanz verschiedener Methoden Eine große Rechenzeit erlaubt im Allgemeinen keine Rückschlüsse auf die Wahrscheinlichkeit das Maximum zu finden, beide Größen sind also unabhängig voneinander. Daher besteht die Notwendigkeit, ein einziges Kriterium zu definieren, das beide Größen vereint und einen Vergleich verschiedener Methoden anhand dieses neuen Kriteriums zulässt. Hierfür werden noch einige Vorüberlegungen benötigt. Für weitere Betrachtungen soll im Vergleich mehrerer Eichfixierungsmethoden diejenige als die beste gelten, die in fest vorgegebener Zeit das Maximum des Eichfunktionals mit der größten Wahrscheinlichkeit findet: P [Auffinden des Maximums von F ](t) = max . 1 Große Funktionalwerte entsprechen kleinen Zahlen in der Nummerierung. 41 42 Kapitel 4 Resultate Ist die vorgegebene Zeit ein Vielfaches der Rechenzeit t = ntr , so bedeutet dies, dass die Eichfixierungsmethode n-fach angewendet werden soll. Die Wahrscheinlichkeit, das Maximum in einem dieser Versuche zu finden beträgt dann t 1 − (1 − pmax )n = 1 − (1 − pmax ) T . Diese Größe soll durch Optimierung der Eichfixierungsmethode maximiert werden t 1 − (1 − pmax ) tr = max . Formell kann t jeden Wert annehmen, auch wenn nur ganze Vielfache von tr tatsächlich umsetzbar sind. Durch Anwenden der monotonen Logarithmusfunktion lässt sich dies wie folgt in die Form ln (1 − pmax ) t = max . − tr bringen. Bei der Optimierung der Eichfixierungsmethoden ändern sich nur tr und pmax . Eine einmal optimierte Methode ist zugleich für jede Zeitvorgabe t optimiert, wenn die von t unabhängige Maximierungsaufgabe − ln(1 − p) = max tr gelöst ist. Auf der linken Seite steht eine für jede Eichfixierungsmethode spezifische Kenngröße, was durch folgende Definition ausgedrückt wird. Definition: Findet ein Algorithmus zur Eichfixierung das größte auffindbare Maximum für eine Konfiguration im Mittel mit der Wahrscheinlichkeit p = P [F = Fmax ] und benötigt dafür die Rechenzeit tr , so wird seine Performanz G definiert als2 : G=− ln(1 − p) tr (4.1) Die mittlere Rechenzeit weist natürlich eine gewisse Willkür auf, da sie stark von der genutzten Hardware abhängt. Um trotzdem Simulationen miteinander vergleichen zu können, die zu verschiedenen Zeitpunkten erzeugt wurden oder verschiede Hardwarevoraussetzungen nutzten, wird parallel zu jeder Simulation als Vergleichsgröße die mittlere Rechenzeit für die Relaxation gemessen. Sie dient dann zur Normierung aller in der gleichen Simulation verwendeten Methoden, sozusagen als Zeitnormal. Eine Eichfixierungsmethode wird nun als besser verstanden, wenn sie die größere Performanz hat. Interessiert man sich nicht dafür, wie hoch die Wahrscheinlichkeit des Auffindens des Maximums in einer vorgegebenen Zeit ist, sondern stellt die umgekehrte Frage, wie lange man mindestens braucht, um das Maximum mit vorgegebener Wahrscheinlichkeit zu finden, so ergibt sich eine wichtige Folgerung. Folgerung 4.0.1. Haben zwei Eichfixierungsmethoden die Performanzen G1 und G2 , so stehen die minimalen Rechenzeiten t1 und t2 , die nötig sind, damit das Maximum Fmax von beiden Methoden mit der gleichen Wahrscheinlichkeit angenommen wird (ggf. durch Mehrfachanwendung einer Methode), in einem festen Verhältnis und es gilt: G1 t1 = G2 t2 2 (4.1) Die Variablenbezeichnung G steht für das deutsche Wort Güte und wurde gewählt, da die vermutlich offensichtliche Bezeichnung P bereits für die Wahrscheinlichkeit verwendet wird. 4.1 SU (2) Eichfixierung 43 Insbesondere führt also eine Verdopplung der Performanz dazu, dass nur noch die Hälfte der Rechenzeit notwendig ist, um das Maximum mit der gleichen Wahrscheinlichkeit zu finden. 4.1 SU (2) Eichfixierung Für eine SU (2) Eichtheorie wurden lokale Relaxations- und Überrelaxationsalgorithmen sowie Simulated Annealing mit lokalen Heatbath Aktualisierungen zur Fixierung der Landau-Eichung miteinander verglichen. Das Hauptgewicht der Untersuchung liegt in der Optimierung des Fahrplans für das Simulated Annealing, da die Resultate als Basis für die Eichfixierung in einer SU (3) Gittereichtheorie auf großen Gittern dienen sollen. Ein weiterer Abschnitt widmet sich der Eichfixierung auf der Ikosaeder-Untergruppe I120 der SU (2). Die Untersuchungen für die SU (2) Gittereichtheorie werden mit einem Abschnitt komplettiert, der die Vorteile von Eichfixierungsmethoden mit Simulated Annealing gegenüber einfachen Relaxationsverfahren aufzeigt. 4.1.1 Simulated Annealing Es kann gezeigt werden, dass Simulated Annealing das globale Maximum mit Wahrscheinlichkeit Eins findet. Allerdings muss der Fahrplan des Simulated Annealings hierfür berücksichtigen, dass für das Erreichen des Maximum in jeder Umgebung von T = 0 unendlich viele Simulated Annealing Schritte ausgeführt werden[GG84], zum Beispiel in dem sich Temperatur T und Rechenzeit t wie T (t) ∝ 1/ ln(t) verhalten[GG84]. Dies ist jedoch in der Realität nicht umsetzbar. In der Konsequenz kann demnach für jede endliche Rechenzeit das Maximum nur mit einer von 1 verschiedenen Wahrscheinlichkeit erreicht werden und es stellt sich die Frage nach dem Fahrplan, der in endlicher Rechenzeit das beste Resultat erzielt. Als Kriterium, um zu entscheiden, wie erfolgreich die einzelnen Fahrpläne sind, werden die Performanz (Gleichung 4.1) und die ihr zugrunde liegenden Größen dienen. Die Absenkung der Temperatur lässt eine gewisse Willkür zu. Um eine empirische Untersuchung zu ermöglichen, wird daher jeder Fahrplan durch folgende Parameter bestimmt sein und seine Abhängigkeit von diesen Parametern untersucht : 1. [Tmin , Tmax ], dem Temperaturintervall zwischen Endtemperatur Tmin und Starttemperatur Tmax des Simulated Annealings und 2. ein Parameter µ und die Zahl von Thermalisierungschritten nT h , beides Größen, die die Verteilung der Temperaturschritte in diesem Intervall definieren. Zunächst wird mit Hilfe der Mobilität (Gleichung 3.74) ein Kriterium für die Wahl der oberen Grenze des Temperaturintervalls Tmax gefunden. Die Untergrenze wird für weitere Simulationen zunächst willkürlich festgelegt. Für Fahrpläne, die die Eichtemperatur gleichmäßig absenken, wird zunächst die Zahl der Simulated Annealing Schritte optimiert. Danach wird der Einfluss verschieden großer Thermalisierungsschrittzahlen im Fahrplan betrachtet und abschließend für das herkömmliche Simulated Annealing das Verhalten bei beschleunigtem oder abgebremstem Abkühlen untersucht. Von besonderer Bedeutung für die Maximierung des Eichfunktionals hat sich das Einfügen von mikrokanonischen Schritten herausgestellt. Die Ergebnisse zur Simulated 44 Kapitel 4 Resultate Annealing Methode, die mikrokanonische Schritte enthält, wird daher in der zweite Hälfte dieses Abschnitts vorgestellt. Temperaturintervall Mobilitat Funktional 1 0.9 0.9 0.8 4 β = 2.40, 16 Gitter 4 β = 2.20, 8 Gitter 0.7 4 0.7 β = 2.20, 16 Gitter 0.6 0.6 hF i 0.5 0.5 1 2 tr(1 − g oldg new ) ® 0.8 β = 2.40, 84 Gitter 0.4 ­ 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 0.5 1 1.5 T 2 2.5 0 0 0.5 1 1.5 2 2.5 T Abbildung 4.1: Mobilität und Eichfunktional in Abhängigkeit von der Eichtemperatur für verschiedene Gittergrößen und verschiedene Werte von β, gemittelt über 50 Konfigurationen mit jeweils 20 Kopien. Die Varianz ist für alle Messpunkte kleiner als 0.02. Die Abhängigkeit der Mobilität und des Eichfunktionals vom Wert der Eichtemperatur ist in Abbildung 4.1 für verschiedene Gittergrößen und Kopplungen dargestellt. Die Kurvenverläufe dieser Observablen sind hauptsächlich von der Kopplung und kaum von der Gittergröße abhängig. Das Augenmerk der Betrachtung soll jedoch auf der Monotonie der Kurven liegen. Sowohl die Mobilität als auch das Eichfunktional sind streng monoton in T . Die Mobilität steigt mit der Temperatur streng monoton, das Eichfunktional fällt streng monoton. Die Besonderheit liegt in einem Übergangsbereich, bei dem der Anstieg der Mobilität von einem schwachen Anstieg bei großen Temperaturen zu einem starken Anstieg bei kleinen Temperaturen übergeht. Dieser Wechsel des Anstiegverhaltens ist auch im Wert des Eichfunktionals wiederzufinden. In der Abbildung kann man erkennen, dass er mit kleiner werdender Temperatur für ein bei β = 2.4 präpariertes Ensemble ab einer Übergangstemperatur von ca. T ≈ 1.4 und für ein bei β = 2.2 präpariertes Ensemble etwas später bei T ≈ 1.3 einsetzt. Als Maß für die Autokorrelation der Eichtransformationen (Abschnitt 3.4.2, S. 38) zeigt große Mobilität eine schnelle Dekorrelation oder auch große Sprünge der Eichtransformationen in deren Zustandsraum an. Werden diese Sprünge zu groß, kommt ein Simulated Annealing Schritt einer zufälligen erzeugten Eichtransformation sehr nahe3 . Als Starttemperatur Tmax wird daher ein Wert gesucht, ab dem die Mobilität beim Absenken der Temperatur wesentlich von T abhängt. Diese wesentliche Abhängigkeit setzt bei Tmax ≈ 1.4 ein, welches im weiteren für die SU (2)-Eichfixierung zu wählen ist. 3 Für T = ∞ haben alle SU (2) Elemente das gleiche Gewicht und die Aktualisierung erzeugt tatsächlich zufällige Eichtransformationen. 4.1 SU (2) Eichfixierung 45 Bei Absenken der Temperatur nimmt auch die Mobilität ab, so dass auch die Sprünge im Zustandsraum immer kleiner werden. Im Folgenden wird das Simulated Annealing bei der endlichen Temperatur Tmin = 0.4 abgebrochen, um zu verhindern, dass zu viel Rechenzeit in einem Temperaturbereich eingesetzt wird, bei dem die Gefahr des Einfrierens der Eichtransformation besteht. Diese Wahl ist nicht zwingend und die Abhängigkeit des Simulated Annealing von der unteren Intervallgrenze wird in diesem Abschnitt später gesondert untersucht. Im Folgenden wird die Untersuchung von Konfigurationen, die bei einer Eichfeldkopplung von β = 2.4 erzeugt wurden, im Vordergrund stehen. Die vorangegangene Analyse der Mobilität führt dabei zu folgendem Simulated Annealing Intervall: β [Tmin , Tmax ] 2.4 [0.4, 1.4] Verteilung der Temperaturschritte Die Bestimmung einer optimalen Verteilung der Simulated Annealing Schritte auf diesem Intervall wird Gegenstand der nächsten Abschnitte sein. Ausgehend von der Analyse des Einflusses der Gesamtzahl der Simulated Annealing Schritte, wird das Verhalten für verschiedene Verteilungen dieser Schritte auf dem Temperaturintervall untersucht. Abschließend wird die Auswirkung der Endtemperatur auf das Simulated Annealing genauer analysiert. Da eine Untersuchung dieser Parameter auf allen Gittern gleichzeitig zu aufwendig ist, werden zunächst ausschließlich Simulationen auf 164 Gittern durchgeführt. Schrittzahl Zu Optimierung der Schrittzahl werden Fahrpläne miteinander verglichen, die sich nur in der Zahl der Simulated Annealing Schritte voneinander unterscheiden. Die Temperaturschritte wurden zunächst gleichmäßig über das gesamte Intervall verteilt. Verteilung der Funktionalwerte Vergleich der Rechenzeiten 0.45 0.5 RLX SA, 6000 Schritte SA, 4000 Schritte SA, 3000 Schritte SA, 2000 Schritte SA, 1000 Schritte 0.35 P [F = F i ] 0.3 0.25 0.45 0.4 0.35 P [F = F max ] 0.4 0.2 0.15 0.25 0.2 0.15 0.1 0.1 0.05 0 0.3 0.05 5 10 15 i – durchnum m erierte Funktio na lwerte 0 1 2 3 4 5 Zeit in Einheiten der Ü berrela xa tio nsrechenzeit Abbildung 4.2: Verteilung der Funktionalwerte (links) und Zusammenhang von Rechenzeit mit Wahrscheinlichkeit das Maximum zu erreichen (rechts) für Simulated Annealing Methoden mit verschiedener Schrittzahl im Temperaturintervall [0.4, 1.4]. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 37 Konfigurationen mit jeweils 50 Kopien. Die durchgezogene Linie im rechten Bild verbindet Punkte, die durch Mehrfachanwendung der Überrelaxation (RLX) entstehen. Die Fehler im linken Bild liegen im Bereich von 0.01 bis 0.06 und sind für eine bessere Übersichtlichkeit weggelassen worden. 46 Kapitel 4 Resultate Die Verteilung der durchnummerierten Funktionalwerte und die Abhängigkeit zwischen Rechenzeit und der Wahrscheinlichkeit P [F = Fmax ] für das Ergebnis solcher Fahrpläne sind in Abbildung 4.2 dargestellt. Es wird nur die Verteilung für die ersten 15 Funktionalwerte gezeigt. Die Zeit im rechten Bild ist in Einheiten der mittleren Rechenzeit für Überrelaxation (für ω = 1.63) angegeben, um die Berechnung der Performanz zu vereinheitlichen. Die Wahrscheinlichkeit für mehrfache Anwendung der Überrelaxation (durchgezogene Linie) ist aus der Wahrscheinlichkeit für die einmalige Anwendung berechnet (vergleiche hierzu Abschnitt 4 über die Performanz). Die Rechenzeit für einen Simulated Annealing Fahrplan ergibt sich als Summe aus der Zeit des Simulated Annealings und der Zeit für die abschließende Überrelaxation. Betrachtet man die Abhängigkeit der Verteilung der Funktionalwerte von der Zahl der Simulated Annealing Schritte, so ist zu beobachten, das die Wahrscheinlichkeit, die fünf größten lokalen Maxima zu erreichen, mit der Zahl der Simulated Annealing Schritte wächst. Insbesondere nimmt auch die Wahrscheinlichkeit für das Erreichen von Fmax zu. Für die wachsende Schrittzahl wird aber mehr Rechenzeit benötigt, so dass im rechten Bild (Abb. 4.2) Punkte für einfaches Simulated Annealing mit höherer Schrittzahl auch bei größeren Rechenzeiten liegen. Aus P [F = Fmax ] und der Rechenzeit wird die Performanz berechnet, um unter den verglichenen Fahrplänen Aufschluss über den besten für das Simulated Annealing zu erhalten4 . Schrittzahl Performanz 0 0.08 ± 0.02 1000 0.10 ± 0.02 2000 0.15 ± 0.02 3000 0.16 ± 0.02 4000 0.15 ± 0.02 6000 0.12 ± 0.02 Im Sinne der Performanz wird dieses Optimum mit 3000 Schritten für das gegebenen Intervall erreicht. Ein weiteres Kennzeichen der Schrittverteilung ist das Verhältnis von Temperaturschritten und Thermalisierungsschritten im Simulated Annealing. Einfluß von Thermalisierungsschritten Das Optimum von 3000 Schritten wird nun für weitere Fahrpläne verwendet, in denen der Einfluß von Thermalisierungsschritten untersucht wird. Dazu wird das Verhalten einer Reihe von Fahrplänen untersucht, deren Gesamtschrittzahl bei 3000 fixiert ist, die aber unterschiedliche Verhältnisse von Temperatur- und Thermalisierungsschritten verwenden. Ausschnitte von dreien dieser Fahrpläne werden in Abbildung 4.3 gezeigt. Im Intervall [0.4, 1.4] wurde die Temperatur (nT − 1)-mal abgesenkt und bei jeder Temperatur jeweils nT h Thermalisierungsschritte ausgeführt. 4 Reine Überrel. ist in der Tabelle durch 0 Simulated Annealingschritte gekennzeichnet 4.1 SU (2) Eichfixierung 47 Fa hrplä ne zum Therm a lisierung sverha lten 1.4 30 x 100 150 x 20 3000 x 1 T(i) 1.35 1.3 1.25 1.2 0 50 100 150 200 250 300 350 400 450 500 550 i - Simula ted A nnea ling Schritt Abbildung 4.3: Ausschnitt der Simulated Annealing Fahrpläne mit 3000 Schritten im Intervall [0.4, 1.4] mit unterschiedlichen Verhältnissen von Temperaturschritten nT zu Thermalisierungsschritten nT h . Die Legende gibt dieses Verhältnis in der Form nT × nT h wieder, um zu verdeutlichen, dass das Produkt konstant ist. Die Ergebnisse des Vergleichs verschiedener Fahrpläne sind in Abbildung 4.4 dargestellt. Verteilung der Funktionalwerte Rechenzeiten 0.35 0.35 RLX 3000 x 1 1000 x 3 250 x 12 150 x 20 30 x 100 P [F = F i ] 0.25 0.2 0.3 P [F = F max ] 0.3 0.15 0.25 0.2 0.15 0.1 0.1 0.05 0.05 0 5 10 15 i – durchnum m erierte Funktio na lwerte 0 1 2 3 4 R echenzeit in Einheiten der Ü berrela xa tio n Abbildung 4.4: Wahrscheinlichkeitsverteilung über den Funktionalwerten und Zusammenhang von Rechenzeit und Wahrscheinlichkeit, das Maximum zu erreichen für Simulated Annealing Methoden mit verschiedener Zahl von Thermalisierungsschritten (nT h ∈ {1, 3, 12, 20, 100}) bei konstant gehaltener Gesamtzahl nt × nT h von Simulated Annealing Schritten. Da alle Fahrpläne die gleiche Gesamtschrittzahl verwenden, benötigen sie auch in etwa die gleiche Zeit für die Eichfixierung. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 78 Konfigurationen mit jeweils 50 Kopien. 48 Kapitel 4 Resultate Weder in der Wahrscheinlichkeitsverteilung über den Funktionalwerten auf der linken Seite, noch in der Rechenzeit auf der rechten Seite der Grafik ist ein signifikanter Unterschied der Thermalisierungsfahrpläne zu erkennen. Dieses Ergebnis ist insofern von Bedeutung, dass es zeigt, dass ein längerer Thermalisierungsprozess bei jeder gewählten Temperatur nicht nötig ist und die Temperatur während des gesamten Simulated Annealings kontinuierlich abgesenkt werden kann. Bisher ist die Aufteilung der Simulated Annealing Schritte auf das Temperaturintervall sehr gleichmäßig geschehen, so dass zum Beispiel in der oberen Hälfte des Intervalls genauso viele Schritte gemacht werden, wie in der unteren. Es gibt jedoch auch für andere Verteilungen gute Argumente und ihre Auswirkungen sollen im Folgenden untersucht werden. Verteilung der Temperaturschritte Der Beweis für die Konvergenz des Simulated Annealings verlangt, dass fast alle Schritte des Simulated Annealing Fahrplans in jeder Umgebung von T = 0 liegen müssen. Insbesondere wird also verlangt, dass um so mehr Schritte gemacht werden, um so kleiner die Temperatur wird. Der Grund liegt in der Geschwindigkeit der Konvergenz der Markovkette (Abschnitt A.2). Sie ist um so langsamer, je kleiner die kleinste Übergangswahrscheinlichkeit zwischen zwei beliebigen Eichtransformationen ist. Mit abnehmender Temperatur im Simulated Annealing geht diese Übergangswahrscheinlichkeit gegen Null und muß, um Quasithermalisiertheit ||Pn;Tn [F = Fmax ] − pmax (Tn )|| ≤ ² im n-ten Schritt bei der Temperatur Tn zu gewährleisten, durch ein längeres Verweilen bei diesen Temperaturen ausgeglichen werden (vgl. hierzu Abschnitt 3.3.6). In diesem Sinne erscheint im Temperaturfahrplan für das Simulated Annealing eine höhere Dichte von Schritten bei tiefen Temperaturen begründet. Jedoch ist zu berücksichtigen, dass gerade für niedrige Temperaturen auch die Schrittzahl zum Erreichen eines Quasigleichgewichtes deutlich zunimmt. Je nach vorgegebener Gesamtschrittzahl, von der auch die veranschlagte Rechenzeit abhängt, wird es dann günstiger sein diese Temperaturschritte auf einen Temperaturbereich zu konzentrieren, in dem mit dieser Schrittzahl tatsächlich quasithermalisiert werden kann. Dies kann auch bedeuten, die Schritte entgegen der ursprünglichen Intuition stärker bei hohen Temperaturen zu gewichten. Da eine einfache Entscheidung zwischen diesen beiden Ansätzen nicht ohne weiteres möglich ist, werden im folgenden drei verschiedene Verteilungen der Simulated Annealing Schritte verglichen. Eine mit überwiegender Zahl von Simulated Annealing-Schritten bei höheren Temperaturen, eine mit einer stärkeren Gewichtung bei kleinen Temperaturen und eine, die die Schritte, wie schon eingangs betrachtet, gleichmäßig über das Intervall verteilt. Die Gesamtzahl der Simulated Annealing Schritte wird für alle Fahrpläne konstant gehalten. Gleichzeitig wird damit auch erfasst, inwieweit die abschließende Überrelaxation die Präkonditionierung des Simulated Annealings erhält. Hierfür ist es zunächst sinnvoll, eine Funktion zu definieren, die für gegebene Temperaturintervall und Schrittzahl einen Fahrplan erzeugt, der diesen Verteilungen genügt. Ist nun [Tmin , Tmax ] das Temperaturintervall, in dem N Simulated Annealing Schritte verteilt werden sollen, so ist £ ¤ 1 −µ −µ − µ −µ (Tmin für µ 6= 0 + Tmax − Tmax ) · Ni−1 −1 ´ Ni−1 ³ T (i) = −1 Tmin · Tmax für µ = 0 Tmax 4.1 SU (2) Eichfixierung 49 eine Funktion, die für jeden Schritt i ∈ [1, .., N ] angibt, bei welcher Temperatur das Update der Transformation erfolgen soll. Es gilt T (1) = Tmax und T (N ) = Tmin . Der Parameter µ legt die Verteilung dazwischen liegender Schritte fest und ist so gewählt, dass die Änderung der Temperatur proportional zu T µ+1 ist und für µ > 0 mit wachsendem i gegen Null geht. ∂ T ∝ T µ+1 (i) ∂i und µ>0 T (i) −−−→ 0 i→∞ Für µ = −1 ergibt sich beispielsweise eine konstante Schrittweite. Für µ > −1 nimmt die Schrittweite während des Abkühlens ab, für µ < −1 startet sie mit kleinen Schritten und wird dann größer. Untersucht wurden µ = 2, µ = −1 und µ = −4 für Fahrpläne mit 3000 Schritten im Intervall [0.4, 1.4] (Abb. 4.5). Fa hrplä ne verschiedener Verteilung en 1.6 µ=2 µ = −1 µ = −4 1.4 T(i) 1.2 1 0.8 0.6 0.4 0.2 0 500 1000 1500 2000 2500 3000 i - Simula ted A nnea ling Schritt Abbildung 4.5: Darstellung der Simulated Annealing Fahrpläne auf dem Temperaturintervall [0.4, 1.4] für verschiedene Werte des Verteilungsparameters µ Da i proportional zur Rechenzeit ist, wird so auch die Verweildauer des Algorithmus in den einzelnen Temperaturbereichen definiert. 50 Kapitel 4 Vergleich der Performanzwerte Verteilung der Funktionalwerte 0.35 0.22 0.3 0.18 Perfo rm a nz P [F = F i ] 0.2 RLX µ=2 µ = −1 µ = −4 0.25 0.2 0.15 0.16 0.14 0.1 0.12 0.05 0.1 0 Resultate 2 4 6 8 10 12 14 i – durchnum m erierte Funktio na lwerte 0.08 −4 −2 0 2 Verteilung spa ra m eter µ Abbildung 4.6: Verteilung der Funktionalwerte und Performanz für verschiedene Verteilungen der Simulated Annealing Schritte auf dem Temperaturintervall [0.4, 1.4]. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 52 Konfigurationen mit jeweils 50 Kopien. Abbildung 4.6 stellt für die drei Fahrpläne die Wahrscheinlichkeitsverteilungen der Funktionalwerte und die Performanz in Abhängigkeit vom Verteilungsparameter µ dar. Dabei ist kein signifikanter Unterschied zwischen Fahrplänen mit einer Konzentration der Schritte am unteren Intervallende und solchen mit einer Konzentration der Schritte am oberen Intervallende zu erkennen. Der Grund ist vermutlich in der als noch zu hoch angesetzten unteren Grenze des Temperaturintervalls zu suchen, denn in einer später vorgestellten Untersuchung gibt es einen signifikanten Unterschied zwischen diesen drei Verteilungen. Da ein signifikanter Unterschied zu diesem Zeitpunkt jedoch fehlte, war eine konstante Schrittweite5 und damit eine gleichmäßige Verteilung der Temperaturschritte auf dem Intervall die unkomplizierteste Wahl für weitere Untersuchungen. Mikrokanonische Schritte Eine optimierte Variante des Simulated Annealing geht aus der Nutzung von mikrokanonischen Schritten bei jeder Temperatur hervor. Ursprünglich aus der Überrelaxation hervorgegangen und auch zur Verminderung der Autokorrelation bei Gleichgewichtssimulationen eingesetzt (Abschnitt 3.3.3, Seite 29), erweisen sie sich auch als hilfreich, die Ergodizität des Simulated Annealings und damit seine Konvergenz zu beschleunigen. Betrachtet werden Simulated Annealing Fahrpläne mit 3000 im Intervall [0.4, 1.4] gleichverteilten Schritten. Bei jeder Temperatur wird ein Thermalisierungsschritt und eine variable Anzahl von mikrokanonischen Schritten durchgeführt. Alle Methoden wurden auf einem 164 Gitter bei β = 2.4 getestet und unter Berücksichtigung ihrer Rechenzeit, der Wahrscheinlichkeit, das Maximum zu finden und der Verteilung der Funktionalwerte miteinander verglichen (Abbildung 4.7). Es fällt auf, das der Einbau von mikrokanonischen Schritten eine stärkere Gewichtung der Wahrscheinlichkeitsverteilung in der Nähe des Maximums bewirkt (linkes Bild), wodurch auch das Maximum selbst mit größerer Wahrscheinlichkeit angenommen wird. Auf der anderen Seite benötigen die zusätzlichen 5 Eine konstante Schrittweite entspricht µ = −1. 4.1 SU (2) Eichfixierung 51 Funktionalwertverteilung Rechenzeiten 0.45 0.5 0.4 0.3 0.4 0.35 P [F = F max ] 0.35 P [F = F i ] 0.45 RLX 3000 + 0 3000 + 1 3000 + 3 1000 + 3 0.25 0.2 0.15 0.3 0.25 0.2 0.15 0.1 0.1 0.05 0.05 0 5 10 15 i – durchnum m erierte Funktio na lwerte 0 1 2 3 4 5 6 m ittlere R echenzeit Abbildung 4.7: Wahrscheinlichkeitsverteilung über den durchnummerierten Funktionalwerten und der Zusammenhang von Rechenzeit und Wahrscheinlichkeit, das Maximum zu erreichen, für Überrelaxation (RLX) und Simulated Annealing mit modifizierter Schrittzahl nT und variabler Zahl von mikrokanonischen Schritten nm (in der Darstellung nT + nm ) im Intervall [0.4, 1.4]. Die Rechenzeit ist in Einheiten der mittleren Dauer für reine Überrelaxation angegeben. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 41 Konfigurationen mit jeweils 50 Kopien. mikrokanonischen Schritte auch mehr Rechenzeit. Für eine systematischere Analyse wird nun zunächst die Performanz von Methoden mit gleicher Simulated Annealing Schrittzahl verglichen, um danach auf Methoden mit konstanter Zahl von mikrokanonischen Schritten einzugehen. Ein Vergleich der Performanz für Methoden mit gleicher Simulated Annealing Schrittzahl 3000 zeigt ein Optimum von 1 oder möglicherweise 2 mikrokanonischen Schritten während jeder Aktualisierung (Tabelle 4.1). Es erweist sich jedoch als günstiger, Simumikrokanonische Performanz Schritte 0 0.13 ± 0.02 1 0.14 ± 0.02 3 0.10 ± 0.01 Tabelle 4.1: Simulated Annealing Methoden mit 3000 Schritten und einer variablen Zahl von mikrokanonischen Aktualisierungen pro Simulated Annealing Schritt lated Annealing nicht nur um mikrokanonische Schritte zu erweitern, sondern Simulated Annealing Schritte teilweise durch mikrokanonische zu ersetzen. Zum einen ist der Rechenaufwand für mikrokanonische Schritte geringer, als für Heatbath Aktualisierungen, so dass zwei Simulated Annealing Schritte gegen drei mikrokanonische Schritte ausgetauscht werden können, ohne den Rechenaufwand zu erhöhen6 . Zum anderen wird, obwohl mikrokanonische Schritte das Eichfunktional invariant lassen, mit der so entstandenen Methode 6 In den Simulated Annealing Fahrplänen wurde von je drei Simulated Annealing Schritten einer erhalten und die übrigen beiden durch drei mikrokanonische ersetzt. Dadurch reduziert sich die Zahl der Simulated Annealing Schritte in den Fahrplänen von 3000 auf 1000. 52 Kapitel 4 Resultate das Maximum am Ende mit größerer Wahrscheinlichkeit angenommen als mit dem bisher verwendeten Simulated Annealing. Dies zeigt sich besonders deutlich im Vergleich der Performanz (Tabelle 4.2). Sim. Ann. Schritte im Performanz Intervall [0.4, 1.4] 3000 0.10 ± 0.01 1000 0.24 ± 0.03 Tabelle 4.2: Simulated Annealing Methoden mit variabler Schrittzahl aber je 3 mikrokanonischen Schritten pro Simulated Annealing Schritt Unter Berücksichtigung von Folgerung 4.0.1 kann das Maximum des Eichfunktionals mit einem auf diese Weise mikrokanonisch verbessertem Simulated Annealing in halber Zeit mit der gleichen Wahrscheinlichkeit aufgefunden werden, als mit der üblichen Methode. Das entscheidende Resultat dieses Abschnitt ist so auch die starke Beschleunigung des Simulated Annealings durch mikrokanonische Schritte, was in alle weiteren Untersuchungen mit eingehen wird. Bisher nicht betrachtet wurde die Abhängigkeit des Simulated Annealing Fahrplans von der Endtemperatur. Variation der Endtemperatur Der Beweis für die Konvergenz des Simulated Annealings basierte auf dem Abkühlen der Eichtransformation im Limes T → 0. Da die Bewegung im Zustandsraum bei kleinen Temperaturen jedoch sehr langsam wird, wurde Simulated Annealing bisher bei Tmin = 0.4 beendet. Es werden nun verschiedene Methoden miteinander verglichen, die ein Absenken der Temperatur bis unter diese Temperatur umsetzen. In diesem Zusammenhang wird auch untersucht, wie hoch der Anteil der Eichtransformationen nach Simulated Annealing ist, für die man bereits nach dem Simulated Annealing ausschließen kann, dass sie das Eichfunktional maximieren werden, so dass das abschließende Überrelaxieren eingespart werden kann. Verglichen werden Simulated Annealing Fahrpläne, deren Schritte gleichmäßig über das Temperaturintervall verteilt liegen. Dabei werden zwei Varianten des Absenkens der Temperatur umgesetzt. Die ersten Variante hält die Schrittweite der Simulated Annealing Schritte konstant, die zweite Variante die Gesamtschrittzahl. 4.1 SU (2) Eichfixierung 53 Verteilung der Funktionalwerte Vergleich der Performanzen 0.7 Ueberrelaxation [0.01, 1.4] [0.20, 1.4] [0.40, 1.4] 0.6 0.4 0.38 0.36 Perfo rm a nz P [F = F i ] 0.5 0.4 0.3 0.34 0.32 0.3 0.28 0.2 0.26 0.1 0.24 0 0 5 10 15 0.22 −0.1 0 0.1 i – durchnum m erierte Funktio na lwerte 0.2 0.3 0.4 0.5 T min Abbildung 4.8: Verteilung der Funktionalwerte und Performanzen für verschiedene Endtemperaturen des Simulated Annealings bei konstant gehaltener Schrittweite der Temperaturabsenkungen. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 49 Konfigurationen mit jeweils 50 Kopien. Die Fehler im linken Bild sind nicht eingetragen, um die Grafik übersichtlich zu lassen. Sie sind jedoch so groß, dass sie hauptsächlich zum Fehler der Performanz beitragen. Die Verteilungen der Funktionalwerte und die Performanzen von Simulated Annealing Fahrplänen mit verschiedener Endtemperatur sind in Abbildung 4.8 verglichen. Es wurden Fahrpläne mit konstanter Schrittweite (Variante Eins) bei β = 2.4 auf einem 164 Gitter simuliert. Das Konstanthalten der Schrittweite führt dazu, dass auf größeren Temperaturintervallen auch mehr Simulated Annealing Schritte nötig sind 7 : Temperaturintervall Schritte [0.01, 1.4] 1390 [0.20, 1.4] 1200 [0.40, 1.4] 1000 Vergleichbar werden die Fahrpläne hauptsächlich dadurch, dass sie auf den Teilintervallen, die sie gemeinsam haben, identisch sind. Wie zu erwarten, wird die Wahrscheinlichkeit, das Maximum zu erreichen, durch zusätzliche Simulated Annealing Schritte bei niedrigen Temperaturen erhöht (linkes Bild). Die für diese Schritte zusätzliche Rechenzeit geht jedoch in die Performanz (rechtes Bild) ein, wo sich die Effekte von höherer Wahrscheinlichkeit für das Erreichen des Maximums und längerer Rechenzeit gerade gegenseitig aufheben. Im Sinne der Performanz unterscheiden sich diese Fahrpläne daher nicht signifikant voneinander. In einer weiteren Untersuchung wurden daher Simulated Annealing Fahrpläne verglichen, bei denen die Gesamtschrittzahl auf den betrachteten Temperaturintervallen [0.01, 1.4], [0.2, 1.4] und [0.4, 1.4] für alle Fahrpläne 1000 war. 7 Die Schrittweite ist für Fahrpläne mit gleichmäßiger Schrittverteilung auf dem gesamten Intervall der Quotient aus Intervalllänge und Schrittzahl. 54 Kapitel 4 Resultate Vergleich der Performanzen Verteilung der Funktionalwerte 0.7 0.4 Perfo rm a nz 0.5 P [F = F i ] 0.45 Ueberrelaxation [0.01, 1.4] [0.20, 1.4] [0.40, 1.4] 0.6 0.4 0.3 0.35 0.3 0.2 0.25 0.1 0 0 5 10 0.2 −0.1 15 i – durchnum m erierte Funktio na lwerte 0 0.1 0.2 0.3 0.4 0.5 T min Abbildung 4.9: Verteilung der Funktionalwerte und Performanzen für verschiedene Endtemperaturen des Simulated Annealings bei konstant gehaltener Zahl von Simulated Annealing Schritten der unterschiedlichen Fahrpläne. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 33 Konfigurationen mit jeweils 50 Kopien. Die resultierenden Verteilungen der Funktionalwerte und die Performanzen sind in Abbildung 4.9 zu sehen. Bei konstant gehaltener Gesamtschrittzahl führt die niedrigere Endtemperatur auch in diesem Fall zu einer größeren Wahrscheinlichkeit, nach der Überrelaxation das Maximum zu finden (linkes Bild). Gleichzeitig benötigen alle drei Fahrpläne die gleiche mittlere Rechenzeit, so dass Fahrpläne mit geringeren Endtemperaturen eine größere Performanz erreichen. Die letzte Untersuchung liefert abschließend einen guten Grund, die Endtemperatur im Simulated Annealing Fahrplan in der Nähe von T = 0 zu wählen. Den Nullpunkt direkt zu wählen ist nicht nötig, da dies einem Relaxationsschritt entspräche. Ein weiterer Effekt einer tiefen Endtemperatur ist, dass die einzelne Aktualisierung im Simulated Annealing der Relaxation immer ähnlicher wird und bereits im Voraus absehbar wird, ob die abschließende Überrelaxation zum Erfolg führen kann. Erfolgsprognose nach Simulated Annealing Für die Eichfixierung ist man letzten Endes nur an solchen Eichtransformationen interessiert, durch die das Eichfunktional sein absolutes Maximum annimmt. Die nach Simulated Annealing erzeugten Eichtransformationen stellen noch keine Eichfixierung dar und müssen hierfür erst überrelaxiert werden. Es soll im folgenden eine Methodik vorgestellt werden, die bereits vor der Überrelaxation erlaubt festzustellen, ob das Erreichen des absolute Maximums ausgeschlossen werden kann. Das Kriterium hierfür ist der Wert des Eichfunktionals nach dem Simulated Annealing, der mit dem Endwert nach Überrelaxation verglichen wird. Zum Vergleich der Ergebnisse verschiedener Konfigurationen wird der relative Funktionalwert Frel = F − Fmax Fmax (4.2) 4.1 SU (2) Eichfixierung 55 betrachtet. Fmax wird so für alle Konfigurationen auf Null abgebildet und stellt das Maximum der relativen Funktionalwerte einer Konfiguration dar. Nach dem Simulated Annealing ist das tatsächliche Maximum des Eichfunktionals ann noch nicht bekannt, weshalb für die Berechnung des relativen Funktionalwertes Frel der ann maximale Wert nach Simulated Annealing Fmax als Berechnungsgrundlage gewählt wird. orx Der relative Wert der schließlich eichfixierten Transformation wird mit Frel bezeichnet 8 und es gilt: ann Frel = ann F − Fmax ann Fmax orx Frel = F − Fmax . Fmax (4.3) Die Korrelation zwischen beiden Werten ist in Abbildung 4.10 für ein 124 und in Abbildung 4.11 für ein 244 Gitter gezeigt. Bei Versuchen mit verschiedenen Endtemperaturen wurde ann orx erst bei Tmin = 0.01 ein funktioneller Zusammenhang zwischen Frel und Frel beobachtet. Für die nächst größere untersuchte Temperatur Tmin = 0.05 wurde keine Korrelation mehr gefunden. −3 0 −4 x 10 0 x 10 −0.2 −1 −0.6 Forx rel Forx rel −0.4 −0.8 −2 −1 34.7% potentiell maximal 65.3% aussortierbar 98.2% potentiell maximal 1.8% aussortierbar −1.2 −3 −1 −0.5 Fann rel 0 −3 x 10 Abbildung 4.10: Korrelation zwischen relaann tivem Funktionalwert vor (Frel ) und nach orx (Frel ) der Überrelaxation für einen Simulated Annealing Fahrplan mit 1200 Schritten auf dem Temperaturintervall [0.01, 1.4]. Gemittelt wurde auf einem 124 Gitter bei β = 2.4, über 200 Konfigurationen mit jeweils 50 Kopien. −3 −2 Fann rel −1 0 −4 x 10 Abbildung 4.11: Korrelation zwischen relaann tivem Funktionalwert vor (Frel ) und nach orx (Frel ) der Überrelaxation für einen Simulated Annealing Fahrplan mit 3738 Schritten auf dem Temperaturintervall [0.01, 1.4]. Gemittelt wurde auf einem 244 Gitter bei β = 2.4, über 4 Konfigurationen mit jeweils 50 Kopien. Jeder Punkt in den Darstellungen entspricht einer Gribov-Kopie. Auf der Abzisse ist der relative Funktionalwert nach Simulated Annealing und auf der Ordinate der Wert nach Überrelaxation aufgetragen. Durch einen helleren Farbton gekennzeichnet sind Kopien, für die im Rahmen der Messungen bereits nach dem Simulated Annealing feststellbar gewesen wäre, dass sie das Eichfunktional nicht maximieren werden. Auf dem 124 Gitter erreichte keine Eichtransformation, deren relativer Funktionalwert nach Simulated Annealing kleiner als 2 · 10−4 war, nach Überrelaxation das Maximum. 8 Der Index orx beieht sich auf die englische Bezeichung Overrelaxation für die Überrelaxation 56 Kapitel 4 Resultate Auf einem 244 Gitter liegt dieser Wert bei 3·10−5 . Nutzt man dies als Ausschlußkriterium, so lassen sich auf dem 124 Gitter zwar nur 1.8% der Überrelaxationen einsparen, auf dem 244 Gitter sind es aber immerhin deutlich mehr als 50% der Transformationen, die dieses Kriterium erfüllen. Der Grund für die Abhängigkeit von der Gittergröße ist vermutlich darin zu suchen, dass auf kleinen Gittern noch relativ wenige Gribov-Kopien gefunden werden und auch ohne Simulated Annealing bereits ein großer Anteil von ihnen den maximalen Funktionalwert annimmt. Auf großen Gittern nimmt die Zahl der Gribov-Kopien zu. Da die Verteilung der Funktionalwerte stark von der Zahl der Simulated Annealing Schritte, von der Gittergröße und von der Zahl der Schritte bei kleinen Temperaturen abhängt, ist an dieser Stelle nur die Aussage möglich, dass bereits nach dem Simulated Annealing eine Prognose über den Erfolg der abschließenden Überrelaxation nur dann getroffen werden ann kann, falls Tmin ≤ 0.01 ist. Das exakte Ausschlusskriterium für Frel muss für jeden Fahrplan separat ermittelt werden. Verteilung und Schrittzahl Die Parameter Schrittzahl9 und Schrittverteilung10 wurden bisher nur für Simulated Annealing ohne mikrokanonische Schritte untersucht. Die gleichzeitige Optimierung dieser Parameter ist das Ziel des folgenden Abschnitts. Ein Erklärungsansatz für die sichtbar werdenden Zusammenhänge wird am Ende des Abschnitts präsentiert. Fa hrplä ne verschiedener Verteilung en 1.4 1.2 T(i) 1 0.8 0.6 µ = 0.3 µ = −1 µ = −5 0.4 0.2 0 0 200 400 600 800 1000 i - Simula ted A nnea ling Schritt Abbildung 4.12: Temperaturfahrpläne für verschiedene Verteilungen der Temperaturschritte im Temperaturintervall [0.01, 1.4]. Für Temperaturfahrpläne mit einer anderen Gesamtschrittzahl bleibt das Bild das gleiche und es ändert sich nur die Einteilung auf der Abzisse. Die Form des Fahrplans bleibt erhalten. Es wurden wieder Häufungen der Schritte zum Beginn des Simulated Annealings (µ = −5), Häufungen am Ende (µ = 0.3) und Fahrpläne mit über das Intervall gleichverteilten Simulated Annealing Schritten verglichen. Eine Darstellung solcher Fahrpläne 9 10 Kapitel 4.1.1, Seite 45 Kapitel 4.1.1, Seite 48 4.1 SU (2) Eichfixierung 57 zeigt Abbildung 4.12. Alle Schrittverteilungen hatten das Simulated Annealing Intervall [0.01, 1.4] als Grundlage und wurden mit verschiedenen Schrittzahlen (150, 300, 700 und 1000 Schritte) simuliert. Die Darstellung von Fahrplänen mit weniger als 1000 Schritten entsprechen, bis auf Skalierung der Absizze, obiger Abbildung. Alles in allem wurden also 12 verschiedene Fahrpläne miteinander verglichen. Vergleich der Rechenzeiten Vergleich der Performanzen 0.4 0.5 0.35 0.4 Perfo rm a nz P [F = F max ] 0.3 0.3 0.2 0.1 0 −0.1 1 1.5 2 0.25 0.2 1000 Schritte 700 Schritte 300 Schritte 150 Schritte 0.15 0.1 µ = −5 RLX 0.05 µ = −1 µ=2 2.5 3 Zeit in Einheiten der Ü berrela xa tio nsrechenzeit 200 400 600 800 1000 Schrittza hl Abbildung 4.13: Vergleich der Rechenzeiten und Performanzen für verschiedene Verteilungen der Simulated Annealing Schritte auf dem Intervall [0.01, 1.4] bei variabler Schrittzahl. Fahrpläne, die die gleiche Anzahl von Simulated Annealing Schritten verwenden, sind mit der gleichen Farbe kodiert (linke Legende). Fahrpläne mit gleicher Schrittverteilung sind durch die Verwendung der gleichen Symbole gekennzeichnet. Da die Rechenzeit hauptsächlich von der Zahl der Simulated Annealing Schritte abhängt gehören Punkte, die in der linken Grafik zeitlich dicht beieinander liegen, zu Fahrplänen mit der gleichen Schrittzahl und wurden in der gleiche Farbe eingetragen. Gemittelt wurde bei β = 2.4 auf einem 164 Gitter über 28 Konfigurationen mit jeweils 50 Kopien. Der Fehler der Rechenzeiten ist um zwei Größenordnungen kleiner als die Rechenzeit selbst. In Abbildung 4.13 sind die Ergebnisse für die verschiedenen Fahrpläne dargestellt. Im linken Bild ist die mittlere Wahrscheinlichkeit, das Maximum zu finden, gegen die mittlere Rechenzeit der Fahrpläne aufgetragen. Da bei der Rechenzeit für einen Aktualisierungsschritt die Temperatur kaum eine Rolle spielt, sind Fahrpläne mit gleicher Anzahl von Simulated Annealing Schritten auch in etwa bei ähnlich langen Rechenzeiten angesiedelt und wurden in der gleichen Farbe dargestellt. Die Schrittverteilung selbst, also der Wert von µ, ist durch das Symbol des Fahrplans kodiert. Im rechten Bild ist die Performanz dargestellt. Fahrpläne mit gleicher Schrittverteilung sind durch einen approximierten Kurvenverlauf miteinander verbunden, so dass für jede Verteilung die Schrittzahl visuell optimiert werden kann. Für die Approximation im rechten Bild wurde zunächst das Verhalten P = f (tr ) der Fahrpläne mit gleicher Verteilung im linken Bild mit einer Exponentialfunktion f (T ) = a1 + a2 exp − atr3 abgeschätzt und aus diesen Funktionen das Verhalten der Performanzen berechnet. Eine größere Anzahl von Simulated Annealing Schritten verbessert für alle Verteilungen die Wahrscheinlichkeit, das Maximum zu erreichen, wie im linken Bild ablesbar ist. Gleichzeitig ist damit zusätzlicher Rechenaufwand verbunden. Beide Größen ergeben das rechte Bild der Performanz. Hier erzielte auf einem 164 Gitter ein Fahrplan mit 300 bis 400 Schritten und einer Verteilung µ = −1 die beste Performanz. 58 Kapitel 4 Resultate Im rechten Bild der Performanz scheint es bei den Schrittzahlen drei unterschiedliche Regimes zu geben, für die im Folgenden ein qualitativer Erklärungsansatz geliefert werden soll, da sie auch in der SU (3) Gittereichtheorie wiederzufinden sind. Die Ergebnisse decken sich auch mit Untersuchungen, die im Rahmen der Coulomb-Eichung durchgeführt wurden. Im ersten Regime bei weniger als 50 Schritten sind Fahrpläne von Vorteil, die den Hauptanteil der Schritte bei hohen Temperaturen durchführen (µ < −1). Der Grund ist vermutlich, dass Simulated Annealing Aktualisierungen bei kleinen Temperaturen nur geringe Wirkung zeigen (Abschnitt 3.4.2, S. 38). Die größte Wirkung wird bei großen Temperaturen erzielt, weshalb es am besten ist, auch die meisten Schritte in diesem Bereich zu machen. Da die Gesamtschrittzahl recht niedrig ist, wird die Eichtransformation trotzdem noch nicht thermalisiert. Das Optimum von Verteilungen mit µ = −5 liegt entsprechend bei kleinen Schrittzahlen unterhalb von 300. In einem zweiten Regime bei sehr großen Schrittzahlen sind Fahrpläne von Vorteil, die die Mehrzahl der Aktualisierungen in Bereichen kleiner Temperatur machen (µ = −0.3). Diese Tendenz ist am rechten Bildrand bereits zu erahnen, wo die zugehörige Kurve bereits besser ist als bei einer gleichmäßige Schrittverteilung. Der Grund ist hier vermutlich auch in der großen Mobilität bei hohen Temperaturen zu suchen. Schritte in diesem Bereich würden die Eichtransformation sehr schnell thermalisieren, so dass zusätzliche Schritte in diesem Temperaturbereich an der Wahrscheinlichkeitsverteilung der Eichtransformationen im Zustandsraum kaum noch etwas ändern. Wenn viele Schritte zur Verfügung stehen, ist ein schnelles Absenken der Temperatur daher von Vorteil. Ein weiteres Indiz ist, dass desto mehr Simulated Annealing Schritte zur Verfügung stehen, desto änlicher wird das Simulated Annealing dem mathematisch idealisierten Verfahren mit unendlich vielen Schritten, dass bekanntlich voraussetzt, dass fast alle Schritte in jeder Umgebung von Null durchgeführt werden. Insofern kann dies auch erklären, warum Fahrpläne, die die meisten Schritte bei kleinen Temperaturen machen, ihr Optimum der Performanz bei mehr als 1000 Schritten haben. Über den Bereich zwischen diesen beiden Regimen lässt sich keine Erklärung für das Verhalten der verschiedenen Verteilungen angeben. Interessanterweise liegt aber der optimale Fahrplan in diesem Bereich und nutzt eine Gleichverteilung von 300 Schritten auf dem gesamten Intervall. Nach Optimierung von Schrittzahl und Schrittverteilung, die sowohl Rechenzeit als auch den Wert von pmax betrafen, soll im Folgenden eine Methodik beschrieben werden, die nur versucht, die Rechenzeit zu reduzieren. 4.1.2 I120 -Eichfixierung Eine Reduktion der Rechenzeit lässt sich durch Vereinfachung der aufwändigen Matrixmultiplikationen und durch eine Reduktion der im Speicher zu bewegenden Daten erzielen. Beiden Ansprüchen wird versucht mit der Projektion der SU (2) auf die ikosaedrale Untergruppe I120 entgegenzukommen (Abschnitt 3.3.7, Seite 36). Die häufig auszurechnenden Produkte der Form g(x)Uµ (x)g † (x + eµ ) lassen sich hier mit einer Multiplikationstabelle deutlich schneller bestimmen und, da diese Gruppe nur 120 Elemente enthält, lassen sich sämtliche Elemente der Transformationen und Konfigurationen durch natürliche Zahl kleiner als 127 codieren. 4.1 SU (2) Eichfixierung 59 Das setzt voraus, dass die Eichkonfiguration zunächst auf die Ikosaeder Untergruppe I120 projiziert wird. Für diese projizierte Konfiguration wird mit der Methode des Simulated Annealings die Landau-Eichung so gut wie möglich auf der Untergruppe fixiert. Die so gewonnene I120 Eichtransformation dient dann als präkonditionierte Eichtransformation für die abschließende Überrelaxation. Diese wird wieder auf der ursprünglichen Eichkonfiguration durchgeführt. Der Erfolg der Präkonditionierung auf dem Ikosaeder ist in Abbildung 4.14 dargestellt. Funktionalwertverteilung Rechenzeiten 0.5 0.5 P [F = F i ] 0.4 P [F = F max ] RLX Ikosaeder SU(2) 0.3 0.4 0.3 0.2 0.2 0.1 0.1 0 0 5 10 15 i – durchnum m erierte Funktio na lwerte 0 0.5 1 1.5 2 2.5 3 3.5 m ittlere R echenzeit T Abbildung 4.14: Vergleich der Rechenzeiten und Performanzen für Simulated Annealing mit mikrokanonischen Schritten auf der SU (2) und für Simulated Annealing auf dem Ikosaeder. Die abschließende Überrelaxation wurde wieder auf der vollen SU (2) ausgeführt. Gemittelt wurde über ein Ensemble von 83 Konfigurationen mit jeweils 50 Eichkopien auf einem 164 Gitter bei β = 2.4. Als Simulated Annealing Intervall wurde [0.4, 1.2] gewählt. Die Wahrscheinlichkeitsverteilung über den ersten 15 gefundenen Funktionalwerten für Überrelaxation, Simulated Annealing mit mikrokanonischen Schritten (SU (2)) und Simulated Annealing auf dem Ikosaeder im linken Bild werden den mittleren Rechenzeiten im rechten Bild gegenübergestellt. Die Fahrpläne für das Simulated Annealing senkten die Temperatur im Intervall [0.4, 1.2] ab11 . Auf dem Ikosaeder bestand der Fahrplan aus 3000 Schritten. Das Simulated Annealing mit mikrokanonischen Schritten senkte die Temperatur in 1000 Schritten ab. Auf jeden Simulated Annealing Schritt folgten drei mikrokanonische. Eine Gegenüberstellung der wichtigsten Kenngrößen (Rechenzeit, Wahrscheinlichkeit für das Erreichen des Maximums und Performanz) erfolgt in Tabelle 4.3. Zum Vergleich wurden die Werte aus Abschnitt 4.1.1, Seite 46 für das Simulated Annealing ohne mikrokanonische Schritte mit angegeben, da es den gleichen Fahrplan wie Simulated Annealing auf dem Ikosaeder nutzte. 11 Da es sich um eine ältere Untersuchung zur qualitativen Wirkung der Ikosaeder Projektion handelt, sind noch nicht alle Verbesserungen, wie das Absenken der Temperatur bis auf 0.01 in den Fahrplänen enthalten. 60 Kapitel 4 Methode Ikosaeder SA gewöhliches SA mikrokan. SA Resultate tr pmax Performanz 2.103 ± 0.006 0.25 ± 0.02 0.14 ± 0.02 3.367 ± 0.003 0.32 ± 0.03 0.11 ± 0.01 2.318 ± 0.003 0.50 ∓ 0.03 0.29 ± 0.03 Tabelle 4.3: Vergleich von Simulated Annealing, Simulated Annealing mit mikrokanonischer Optimierung und Simulated Annealing auf dem Ikosaeder. Die mittleren Rechenzeiten sind in Einheiten der Rechenzeit für die Überrelaxation angegeben. Während gewöhnliches Simulated Annealing mit 3000 Schritten ohne mikrokanonische Schritte etwas mehr als die dreifache Rechenzeit der Überrelaxation benötigt (Abbildung 4.4), reduziert sich diese auf die zweifache Rechenzeit unter Nutzung des I120 (rechtes Bild). Allerdings wird auch das Maximum mit einer geringeren Wahrscheinlichkeit angenommen, was vermutlich darauf zurückzuführen ist, dass auf der I120 nicht die ursprüngliche Konfiguration optimiert wird, sondern eine projizierte. Von größerer Bedeutung als der Vergleich mit gewöhnlichem Simulated Annealing ist jedoch der durchgeführte Vergleich mit dem mikrokanonisch verbesserten Simulated Annealing. Im rechten Bild ist deutlich zu erkennen, dass dieses Simulated Annealing nur geringfügig mehr Rechenzeit benötigt, dafür aber das Maximum mit einer wesentlich höheren Wahrscheinlichkeit findet. Prinzipiell ist es möglich, dass die Rechnungen auf der I120 noch nicht optimal umgesetzt wurden und der Algorithmus deutlich schneller laufen könnte. Aber auch, wenn von einem Algorithmus ausgegangen wird, der für das reine Simulated Anneling auf der Untergruppe keine Zeit benötigt, ist mindestens die Rechenzeit für die abschließende Überrelaxation tr = 1 notwendig. Das Maximum wird trotzdem mit der gleichen Wahrscheinlichkeit P [F = Fmax = 0.25 ± 0.02] angenommen und die Performanz des UntergruppenSimulated-Annealings kann also bestenfalls G = 0.29 ± 0.03 werden, was in diesem Beispiel genau der Performanz des Simulated Annealings mit mikrokanonischen Schritten entspricht. Ein Algorithmus, der keine Rechenzeit beansprucht, ist jedoch nur ein hypothetischer Grenzfall. Nicht präsentiert, weil ohne sichtbaren Erfolg, ist ein Versuch, mikrokanonische Schritte auch auf der I120 umzusetzen. Es war kein Unterschied zu einem Algorithmus ohne diese Schritte sichtbar. Auch die Präkonditionierung mittels eines Relaxationsalgorithmus innerhalb der I120 war nicht dazu geeignet, Rechenzeit für die abschließende Überrelaxation einzusparen und wurde deshalb nicht weiter dargestellt. 4.1.3 Simulated Annealing auf großen Gittern Abschließend wird auf den deutlichen Vorteil von Simulated Annealing eingegangen, der bei der Auswertung von Konfigurationen auf einem großen 244 Gitter sichtbar wurde. 4.1 SU (2) Eichfixierung 61 16 4 Überrelaxation 1 24 4 Überrelaxation 0.8 0.8 P [F ∈ bin] P [F ∈ bin] 0.6 0.6 0.4 0.4 0.2 0.2 0 0 2 4 0 6 −Frel 0 2 4 6 −Frel −4 x 10 16 4 Sim. Annealing −4 x 10 24 4 Sim. Annealing 1 0.8 0.8 P [F ∈ bin] P [F ∈ bin] 0.6 0.6 0.4 0.4 0.2 0.2 0 0 2 4 −Frel 0 6 −4 x 10 0 2 4 −Frel 6 −4 x 10 Abbildung 4.15: Verteilung der relativen Funktionalwerte Frel nach alleiniger Überrelaxation und nach mikrokanonisch verbessertem Simulated Annealing mit anschließender Überrelaxation für ein 164 und ein 244 Gitter. Die Simulated Annealing Fahrpläne nutzten Gleichverteilungen der Temperaturschritte im Temperaturintervall [0.4, 1.2]. Bei jeder Temperatur wurde ein Thermalisierungsschritt und 3 mikrokanonische Schritte durchgeführt. Die Gesamtzahl der Simulated Annealing Schritte betrug 1000 auf dem 164 Gitter und 2600 auf dem 244 Gitter. Gemittelt wurde bei β = 2.4 über 39 Konfigurationen mit je 150 Kopien auf dem 164 Gitter und über 7 Konfigurationen mit je 150 Kopien auf dem 244 Gitter. Da Überrelaxation und Simulated Annealing auf den gleichen Konfigurationen simuliert wurde, bezieht sich Fmax auf den größten von einem der beiden Algorithmen gefundenen Funktionalwerte. Zunächst ist in Abbildung 4.15 die Verteilung der relativen Funktionalwerte (Gleichung 4.2) nach kompletter Eichfixierung einmal nach alleiniger Überrelaxation und einmal nach vorherigem Simulated Annealing mit mikrokanonischen Schritten im Intervall [0.4, 1.2] für die beiden Gittergrößen 164 und 244 dargestellt. Da die Messungen aus einem früheren Stadium der Untersuchung stammen, ist die Endtemperatur noch auf 0.4 festgelegt. In den oberen Bildern ist die Verteilung zu sehen, wie sie nach Eichfixierung mittels Überrelaxation (ω = 1.63) zu erwarten ist. Während auf einem 164 Gitter noch eine stärkere Häufung der Werte in der Nähe des Maximums erkennbar ist, liegt das Maximum der Verteilung auf einem 244 bei einem deutlich von Null verschiedenen Wert. In den unteren Bildern sind die Verteilungen nach Präkonditionierung der Transformationen durch Simulated Annealing zu sehen. Hier liegt der Schwerpunkt der Verteilung klar in der Nähe des Maximums. 62 Kapitel 4 Resultate P [−Frel ≤ 2.5 · 10−5 ] 164 244 0.30 0.02 0.89 0.66 Methode Überrelaxation mikrokan. SA Tabelle 4.4: Vergleich der Wahrscheinlichkeit P [Frel ≤ 2.5 · 10−5 ] mit und ohne Präkonditionierung durch Simulated Annealing auf verschiedenen Gittergrößen. Die Wahrscheinlichkeiten für Eichfixierungen mit relativen Funktionalwerten im ersten Bin sind in Tabelle 4.4 zusammengetragen. Auffällig ist, dass für Überrelaxation die Wahrscheinlichkeit für Funktionalwerte in diesem Bin für das größere Gitter stark abnimmt. Dieser Trend war bereits auf kleineren Gittern bemerkbar, ist aber auf einem 244 Gitter mit 2% besonders deutlich. Die Wahrscheinlichkeitsverteilug der durchnummerierten Funktionalwerte für Überrelaxation und Simulated Annealing auf den beiden Gittern ist in Abbildung 4.16 dargestellt, da man in diesem Bild deutlicher erkennen kann, mit welcher Wahrscheinlichkeit das größte Maximum gefunden wird. 16 4 Überrelaxation 0.5 24 4 Überrelaxation 0.12 0.1 P [F = Fi ] P [F = Fi ] 0.4 0.3 0.2 0.1 0 0.08 0.06 0.04 0.02 0 10 20 30 40 0 50 0 50 100 i i 16 4 Sim. Annealing 24 4 Sim. Annealing 150 0.5 0.12 0.1 P [F = Fi ] P [F = Fi ] 0.4 0.3 0.2 0.1 0 0.08 0.06 0.04 0.02 0 10 20 30 i 40 50 0 0 50 100 150 i Abbildung 4.16: Wahrscheinlichkeitsverteilung der durchnummerierten Funktionalwerte für reines Überrelaxieren und für Simulated Annealing auf verschiedenen Gittern. Die Parameter für Simulated Annealing Fahrpläne und statistische Angaben können Abbildung 4.15 entnommen werden. Hier tritt die ungenügende Eichfixierung durch Überrelaxation besonders dadurch hervor, dass der im Rahmen der Untersuchungen maximale gefundene Funktionalwert nicht mehr angenommen wurde, Simulated Annealing ihn aber immerhin noch mit 12% Wahrscheinlichkeit gefunden hat. 4.1 SU (2) Eichfixierung 63 Auch aus Untersuchungen kleinerer Gitter deutet sich der Trend an, dass das Auffinden einer Eichtransformation mit maximalem Funktionalwert bei zunehmender Gittergröße immer unwahrscheinlicher wird und Simulated Annealing bei der Eichfixierung an Bedeutung gewinnt, wenn auch bei großen Gittern das Maximum des Eichfunktionals gefunden werden soll. 4.1.4 Zusammenfassung Die Untersuchungen in der SU (2)-Gittereichtheorie haben gezeigt, dass sich Simulated Annealing deutlich verbessern lässt, wenn neben den gewöhnlichen Heatbath Aktualisierungen auch mikrokanonische Schritte eingebaut werden. Die Bedeutung eines so verbesserten Algorithmusses beim Auffinden des Maximums des Eichfunktionals wächst mit der Gittergröße. Eine Optimierung der Performanz mikrokanonisch erweiterter Simulated Annealing Fahrpläne lässt sich mittels Variation der Schrittzahl und der Schrittverteilung erreichen. Zumindest der Parameter der Schrittzahl muss für jedes Gitter einzeln angepasst werden. Die Ergebnisse dieser Untersuchung sind in die Optimierung des Simulated Annealings für die SU (3) Eichtheorie des nächsten Abschnittes eingeflossen. 64 4.2 Kapitel 4 Resultate SU(3) Eichfixierung Zur Fixierung der Landau-Eichung in der SU (3)-Eichtheorie werden nun Überrelaxation, fourierbeschleunigte Eichfixierung und Simulated Annealing verglichen. Zunächst wird für die Überrelaxation die Abhängigkeit der mittleren Rechenzeit vom Parameter ω qualitativ beschrieben. Danach wird die Konvergenz der fourierbeschleunigten Eichfixierung in Abhängigkeit vom Parameter α untersucht. In einem weiteren Schritt wird das Skalierungsverhalten der Zahl von Iterationsschritten bis zur Konvergenz für diese beiden Methoden verglichen. Im letzten und größten Teil dieses Abschnittes werden Optimierungsansätze für den Simulated Annealing Algorithmus dargestellt. Anhand der Ergebnisse wird versucht, einen optimalen Fahrplan des Simulated Annealing Algorithmus auch für so große Gitter zu erstellen, auf denen es zu aufwändig wäre, mittels einer großen Statistik die gewünschte Optimierung durchzuführen. 4.2.1 Überrelaxation Die Überrelaxation ist ein modifizierter Relaxationsalgorithmus. Der lokale Iterationsschritt der Relaxationen g(x) → r(x)g(x) wird im Überrelaxationsalgorithmus zu einem Iterationssschritt der Form g(x) → rω (x)g(x) abgewandelt. Diese Modifikation führt zu einer beschleunigten Konvergenz. Die Geschwindigkeit der Konvergenz ist dabei abhängig von der Wahl des Parameters ω (Abschnitt 3.3.2, S. 29). Überrelaxationsparameter 2400 2200 Itera tio nen 2000 1800 1600 1400 1200 1000 1.5 1.55 1.6 1.65 ω 1.7 1.75 1.8 Abbildung 4.17: Abhängigkeit der mittleren Zahl von Iterationsschritten bis zur Konvergenz in Abhängigkeit vom Überrelaxationsparameter ω. Gemittelt wurde auf einem 164 Gitter bei β = 6.0 über 29 Konfigurationen mit jeweils 5 Eichkopien. Eine Konfiguration wurde als eichfixiert angesehen, sobald £ ¤ −13 max tr ∂µ Agµ (x)∂µ Ag† galt. µ (x) < 10 x In Abbildung 4.17 ist die Zahl der Iterationsschritte bis zur Konvergenz über ω aufgetragen. Deutlich zu erkennen ist eine Reduktion der für die Konvergenz nötigen Schritte bei größer werdendem ω. Auch wenn die Abbildung den Anschein erweckt, setzt sich dieser Trend nicht uneingeschränkt fort. Hierzu ist anzumerken, dass der Aufwand für die 4.2 SU(3) Eichfixierung 65 Überrelaxation durch die Anzahl der maximal durchführbaren Schritte beschränkt wurde. Gitterabhängig lag diese Zahl zwischen 15000 und 30000 Schritten. Ist der Algorithmus nicht innerhalb dieser Schrittzahl konvergiert, so wurde er als nicht konvergent betrachtet. Für den ebenfalls untersuchten Parameter ω = 1.8 wurde in diesem Sinne für einige Konfigurationen keine Konvergenz mehr erreicht. Bei Tests auf einem 244 -Gitter zeigte sich außerdem, dass der Überrelaxationsalgorithmus auch für ω = 1.75 nicht mehr in jedem Fall konvergierte. 4.2.2 Fourierbeschleunigte Eichfixierung Als weitere Methode, die zur Fixierung der Landau-Eichung benutzt wird, soll nun auf die fourierbeschleunigte Eichfixierung eingegangen werden. Sie ist eine Modifikation des Gradientenverfahrens. Die Konvergenzgeschwindigkeit der fourierbeschleunigten Eichfixierung hängt dabei vom Parameter α ab (Abschitt 3.3.4, Seite 30). Die fourierbeschleunigte Eichfixierung gewinnt insbesondere bei Simulationen auf großen Gittern an Bedeutung, da hier der Aufwand für die Iteration des Algorithmusses mit der Gittergröße besser skaliert, also langsamer wächst, als bei Überrelaxation [D+ 88, CM03]. Optimierung des Fourierparameters Fourierparameter α 1400 1300 1200 Itera tio nen 1100 1000 900 800 700 600 500 0.2 0.3 0.4 α 0.5 0.6 0.7 Abbildung 4.18: Abhängigkeit der mittleren Zahl von Iterationsschritten bis zur Konvergenz vom Fourierparameter α. Gemittelt wurde auf einem 124 Gitter bei β = 6.0 über 5 Konfigurationen mit jeweils¤ 50 £ Eichkopien. Eine Konfiguration wurde als eichfixiert angesehen, sobald galt max tr ∂µ Agµ (x)∂µ Ag† µ (x) < x 10−13 . Die Zahl der Iterationsschritte bis zum Erreichen des Konvergenzkriteriums und ihre Abhängigkeit vom Parameter α ist in Abbildung 4.18 für die fourierbeschleunigte Eichfixierung grafisch dargestellt. Es ist zu erkennen, dass mit wachsendem α die mittlere Zahl der für die Konvergenz notwendigen Schritte abnimmt. Allerdings bestand auch hier, wie bei der Überrelaxation das Problem, dass bei α = 0.7 auf einigen Konfigurationen das 66 Kapitel 4 Resultate Konvergenzkriterium nicht mehr in jedem Fall erreicht werden konnte, da die Zahl der maximal durchführbaren Iterationen durch 30000 Schritte nach oben beschränkt wurde. Für die im weiteren untersuchte Skalierung der Zahl der Iterationsschritte mit größer werdendem Gittervolumen wurde α ≈ 0.6 gewählt. Die mittlere Zahl von Iterationen unterscheidet sich nur unwesentlich von der für α = 0.65. Dafür liegt der Wert jedoch weiter vom kritischen Wert α = 0.7 entfernt, bei dem die Konvergenz nicht mehr gewährleistet werden konnte. In Abbildung 4.19 ist zur Vervollständigung des Bildes über die fourierbeschleunigte Eichfixierung die normierte Häufigkeitsverteilung der 50 Kopien über den größten 14 durchnummerierten Funktionalwerten dargestellt. Verteilung der Funktionalwerte 0.35 ω = 1.63 (RLX) α = 0.3 α = 0.4 α = 0.5 α = 0.6 α = 0.65 0.3 i P[F=F ] 0.25 0.2 0.15 0.1 0.05 0 2 4 6 8 10 12 14 i Abbildung 4.19: Häufigkeitsverteilung über den durchnummerierten Funktionalwerten nach fourierbeschleunigter Eichfixierung mit verschiedenen Werten des Parameters α und nach Überrelaxation mit ω = 1.63. Gemittelt wurde auf einem 124 Gitter bei β = 6.0 über 5 Konfigurationen mit jeweils 50 Eichkopien. Da 5 betrachtete Konfigurationen eine recht kleine Statistik sind, ist das Ergebnis dieser Darstellung nur als Bestätigung dafür anzusehen, dass Überrelaxation und fourierbeschleunigte Eichfixierung zu ähnlichen Verteilungen der Funktionalwerte nach der Eichfixierung führen. Neben der Optimierung des Fourierparameters spielt auch das Verhalten der Rechenzeit für größer werdende Gitter eine entscheidende Rolle bei der Wahl der Eichfixierung. 4.2.3 Skalierung der Iterationszahl für Überrelaxation und fourierbeschleunigte Eichfixierung Die Art und Weise, wie die Zahl der notwendigen Iterationsschritte mit der Gittergröße V = Ld skaliert12 , soll im Folgenden für Überrelaxation und die fourierbeschleunigte 12 L ist die Gitterlänge. d ist die Zahl der Dimensionen des Gitters 4.2 SU(3) Eichfixierung 67 Eichfixierung verglichen werden. Beide Algorithmen starteten jeweils mit Eichtransformationen, die bei T = ∞ erzeugt wurden. mittlere Zahl von Aktualisierungen Rechenzeitskalierung FBE, α = 0.6 RLX, ω = 1.63 FBE, α = 0.63 RLX, ω = 1.68 3 10 8 12 16 24 32 Gitterlänge Abbildung 4.20: Mittlere Zahl von Iterationsschritten bis zur Erfüllung des Konvergenzkriteriums, £ ¤ −13 max tr ∂µ Agµ (x)∂µ Ag† , für fourierbeschleunigte Eichfixierung (FBE) und Überrelaxation µ (x) < 10 x (RLX) in Abhängigkeit von der Gitterlänge eines symmetrischen Gitters bei β = 6.0 in einer doppelt logarithmischen Darstellung. Das Skalierungsverhalten der Zahl der Iterationsschritte bis zur Konvergenz ist für Überrelaxation mit ω = 1.63 und für fourierbeschleunigte Eichfixierung mit α = 0.6 in Abbildung 4.20 dargestellt. Das Verhalten wurde für Gitter bis zu einer Größe von 244 durch einen Potenzgesetz der Form Iterationszahl ∝ Lc approximiert, wobei c der Skalierungsexponent ist. Die Zahl der Schritte bis zur Konvergenz Nkonv ist für die Überrelaxation demnach proportional zu L2.19±0.01 . Für die fourierbeschleunigte Eichfixierung ergibt sich eine Propotionalität von Nkonv (L) ∝ L1.53±0.01 . Methode FBE (α = 0.6) RLX (ω = 1.63) c 1.53 ± 0.01 2.19 ± 0.01 Tabelle 4.5: Skalierungsexponent der Iterationszahl für fourierbeschleunigte Eichfixierung (FBE) und Überrelaxation (RLX) Der Aufwand für einen Iterationsschritt wächst für die Überrelaxation mit dem Gittervolumen V , so dass die Gesamtrechenzeit proportional zu V · L2.19±0.01 = V 1.54±0.01 wächst. In den Iterationsschritt der fourierbeschleunigten Eichfixierung geht ein Anteil ein, der mit V log V wächst [D+ 88] und ein Anteil, der proportional zu V ist. Die für große Gitter dominierende Proportionalität ist V log V , so dass die Gesamtrechenzeit für große Gitter proportional zu log V V 1.38 zunimmt. Der logarithmische Anteil kann im Grenzwert großer Gitter vernachlässigt werden, so dass geschlussfolgert werden kann, dass für die fourierbeschleunigte Eichfixierung der Aufwand mit größer werdendem Gitter 68 Kapitel 4 Resultate schwächer wächst, als für die Überrelaxation. Ist man nur an einer Fixierung der Landaueichung interessiert, die die Gribovmehrdeutigkeit nicht berücksichtigt, so ist das Ergebnis dieses Abschnittes, dass bei zunehmender Gittergröße die fourierbeschleunigte Eichfixierung gegenüber der Überrelaxation zu bevorzugen ist, da sie die Eichung für große Gitter schneller fixieren kann. Die Hoffnung für zukünftige Untersuchungen ist, dass sich nach dem Simulated Annealing die Überrelaxation durch die fourierbeschleunigte Eichfixierung als abschließende Eichfixierung ersetzen lässt. Dazu muss jedoch untersucht werden, inwieweit die beiden Algorithmen auch nach dem Simulated Annealing zu gleichen Häufigkeitsverteilungen führen. Für die folgenden Untersuchungen des Simulated Annealings wurde die abschließende Eichung mit Hilfe der Überrelaxation und ω = 1.63 durchgeführt13 . 4.2.4 Simulated Annealing Es wird nun der Simulated Annealing Algorithmus für die SU (3)-Eichfixierung auf seine Abhängigkeit von den Parametern Tmin , Tmax , µ und der Gesamtschrittzahl N hin untersucht. Dies geschieht in analoger Weise zum Vorgehen bei der SU (2)-Eichtheorie in Abschnitt 4.1. Zunächst wird die Temperaturabhängigkeit der Mobilität betrachtet um daraus die Starttemperatur Tmax für das Simulated Annealing abzuleiten. Im zweiten Teilabschnitt werden drei qualitativ verschiedene Schrittverteilungen auf dem Simulated Annealing Temperaturintervall betrachtet, um die Wahl des Verteilungsparameters µ zu begründen. Abschließend wird für den so gefundenen Parameter die Gesamtschrittzahl für verschiedene Gittergrößen optimiert und eine Voraussage für das vermutete Verhalten auf noch größeren Gittern getroffen. Die wichtigste Erkenntnis aus SU (2)-Simulationen, die auch in die folgenden Simulated Annealing Algorithmen eingeflossen ist, war, dass die Verwendung von mikrokanonischen Schritten zwischen den Simulated Annealing Schritten die Perfomanz des Simulated Annealings vergrößerte. Diese Verbesserung konnte in einfachen Tests auch für die SU (3)Gittereichtheorie bestätigt werden und führte zur Verwendung von 3 mikrokanonischen Schritten nach jedem Simulated Annealing Schritt. Bestimmung der Starttemperatur Tmax Die Festlegung der Starttemperatur Tmax erfolgt wie in der SU (2)-Eichtheorie durch die Bestimmung des Übergangs, bei der die Mobilität ihr Verhalten wechselt. Oberhalb dieser Temperatur hat man es mit einer großen, nahezu temperaturunabhängigen Mobilität zu tun, während die Mobilität unterhalb dieser Temperatur stark von der Temperatur abhängt und mit T → 0 ebenfalls gegen null konvergiert. Abbildung 4.21 zeigt die Mobilität und den mittleren Wert des Eichfunktionals in Abhängigkeit von der Eichtemperatur. Beide Größen hängen nur von der Eichtemperatur und der Kopplung ab. Die Gittergröße 13 Es wurde kein größerer Wert gewählt, da zu Beginn der Untersuchung die Ergebnisse des letzten Abschnittes noch nicht zur Verfügung standen. 4.2 SU(3) Eichfixierung 69 hat nur einen geringen Einfluß auf den Verlauf der Kurven, weshalb für die Funktionen ein 84 -Gitter nicht dargestellt ist. Mobilitat Funktional 0.9 0.8 0.8 0.7 ® 0.9 0.7 g oldg new ) 1 0.6 β = 5.80 β = 6.00 β = 6.20 0.6 hF i 0.5 1 3 tr(1 − 0.5 0.4 ­ 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0 0 0.1 T 0.2 0.3 0.4 0.5 0.6 T Abbildung 4.21: Mobilität und Eichfunktional auf einem 164 -Gitter in Abhängigkeit von der Eichtemperatur für verschiedene Werte von β, gemittelt über 50 Konfigurationen mit jeweils 20 Kopien. Die Varianz ist für alle Messpunkte kleiner als 0.02. Die Kurven für 84 -Gitter unterscheiden sich nicht wesentlich von den dargestellten Kurvenverläufen und sind, um die Übersichtlichkeit zu wahren, nicht dargestellt. Bei Absenken der Temperatur findet der Übergang von einem Bereich mit großer Mobilität, die sich bei hoher Eichtemperatur zunächst kaum änderte, zu einem Bereich mit stark fallender Mobiliät ab Tmax ≈ 0.45 statt. Dieser Übergang wird als Startpunkt des Simulated Annealings gewählt. Die Wahl der Endtemperatur von Tmin = 0.01 wird durch die Beobachtung auf der SU (2) motiviert, wo kleine Endtemperaturen einen Vorteil hinsichtlich der Performanz brachten. Insgesamt ergibt sich für Simulated Annealing Algorithmen, die bei β = 6.0 erzeugte SU (3)-Konfigurationen fixieren sollen, folgendes Temperaturintervall: β [Tmin , Tmax ] 6.0 [≤ 0.01, 0.45] Eine Besonderheit, die für den analogen Fall der Eichgruppe SU (2) nicht zu beobachten war, ist der sehr starke Abfall der Mobilität bei T ≈ 0.415 über einen relativ kleinen Temperaturbereich14 von T = 0.425 bis T = 0.405. Im gleichen Temperaturbereich ist bei sinkender Temperatur auch im rechten Bild ein rascher Anstieg des Funktionalwertes zu beobachten. Für den Simulated Annealing Algorithmus in der SU (3)-Eichtheorie bedeutet dies, dass beim Abkühlen in diesem Temperaturbereich sehr schnell kleinere Mobilitäten erreicht werden. Entsprechend sollte der Aufwand, eine Quasigleichgewichtsverteilung zu erzeugen, beim Absenken der Temperatur über diesen Bereich relativ schlagartig wachsen. Inwieweit dieser zusätzliche Aufwand (Rechenzeit), den Simulated Annealing bei kleinen Temperaturen benötigt, durch die damit erzielten Resultate rechtfertigen lässt, wird auch Gegenstand des folgenden Abschnittes sein. 14 Die Größe des Temperaturintervalls orientierte sich am Differenzenquotienten der Mobilität. 70 Kapitel 4 Resultate Bestimmung einer optimierten Schrittverteilung Es wurden drei Schrittverteilungen für Simulated Annealing Fahrpläne untersucht. Fa hrplä ne verschiedener Verteilung en 0.45 0.4 0.35 T(i) 0.3 0.25 µ = 0.3 µ = −1 µ = −5 0.2 0.15 0.1 0.05 0 0 200 400 600 800 1000 i - Simula ted A nnea ling Schritt Abbildung 4.22: Temperaturfahrpläne im Intervall [0.01, 0.45] für µ ∈ {−5, −1, 0.3}. Für Fahrpläne mit einer anderen Gesamtschrittzahl wird nur die Abzisse entsprechend skaliert. Wie in Abbildung 4.22 dargestellt, sind dies wieder ein Simulated Annealing Fahrplan mit einem abgebremsten Kühlvorgang (µ = 0.3), einer mit konstantem Abkühlen (µ = −1) und ein Fahrplan, bei dem das Abkühlen zum Ende hin beschleunigt wird (µ = −5). Für jede Schrittverteilung wurde zunächst auf einem 164 -Gitter bei β = 6.0 die in Bezug auf die Performanz optimale Gesamtschrittzahl ermittelt. Die Ergebnisse sind in Abbildung 4.23 dargestellt. Im linken Bild ist für jeden Simulated Annealing Fahrplan die Wahrscheinlichkeit, mit dem zugehörigen Algorithmus das Maximum zu finden, über der mittleren Gesamtrechenzeit aufgetragen. Im rechten Bild ist die daraus berechnete Performanz über der Schrittzahl des Fahrplans aufgetragen. Da für jede Schrittzahl (150, 350, 800, 1500 und 2500 Schritte) alle drei Verteilungen getestet wurden, erscheinen in beiden Bildern Dreiergruppen von Fahrplänen mit gleicher Schrittzahl und daher nahezu gleicher Rechenzeit. Da im linken Bild die Schrittzahl nicht direkt ablesbar ist, muss sie aus der Gesamtrechenzeit geschlossen werden. Die drei Fahrpläne mit der kleinsten Gesamtschrittzahl 150 benötigen die kleinste mittlere Gesamtrechenzeit, die mit der größten Gesamtschrittzahl 2500 benötigen entsprechend die meiste Rechenzeit. Im linken Bild lässt sich erkennen, dass mit zunehmender Schrittzahl auch die Wahrscheinlichkeit wächst, das Maximum zu finden. Dieses Verhalten hängt dabei nicht von der Wahl der Verteilung der Schritte auf dem Temperaturintervall ab. Vergleicht man nun die verwendeten Verteilungen miteinander. so wird mit Fahrplänen, die den Verteilungsparameter µ = −5 nutzen, die größte Wahrscheinlichkeit für das Auffinden des Maximums erzielt. Dieser Zusammenhang ist wiederum unabhängig von den untersuchten Gesamtschrittzahlen. Im Vergleich zur Überrelaxation zeigen die verwendeten Simulated Annealing Fahrpläne auf einem 164 -Gitter keine oder kaum Vorteile. So kann zwar mit den meisten Fahrplänen eine größere Wahrscheinlichkeit erzielt werden, das Maximum zu finden, als es mit einem reinen Überrelaxationsalgorithmus möglich wäre. Allerdings wird hierfür soviel Zeit 4.2 SU(3) Eichfixierung 71 Vergleich der Performanzen Vergleich der Rechenzeiten 0.8 0.3 µ = −5 0.7 µ = −1 0.25 µ = 0.3 0.6 Perfo rm a nz P [F = F max ] RLX 0.5 0.4 0.2 0.15 0.3 0.1 0.2 0.05 0.1 1 2 3 4 5 6 Zeit in Einheiten der Ü berrela xa tio nsrechenzeit 150 350 800 1500 2500 Schrittza hl Abbildung 4.23: Vergleich von Rechenzeit, Wahrscheinlichkeit das Maximum zu finden und Performanz für Simulated Annealing Fahrpläne in Abhängigkeit von der Verteilung der Temperaturschritte (µ = −5, −1, 0.3) und der Zahl der Simulated Annealing Schritte. Simuliert wurde auf einem 164 -Gitter bei β = 6.0 über 16 Konfigurationen mit je 50 Kopien. Der Wert des Schrittverteilungsparameters µ lässt sich anhand des Symbols erkennen. Die Gesamtschrittzahlen N = 150, 350, 800, 1500, 2500 wurden im rechten Bild mit einer kleinen Variation dargestellt, um eine gegenseitige Überlagerung der Fehlerbalken zu vermeiden. Im linken Bild lässt sich die Schrittzahl aus der Rechenzeit ableiten. Fahrpläne mit gleicher Schrittzahl sind durch die gleiche Farbe gekennzeichnet um eine optische Unterscheidung der Gruppen zu ermöglichen. Als Referenzkurve wurde die Mehrfachanwendung der Überrelaxation (RLX) und, hell unterlegt, ihr Fehlerintervall mit eingetragen. benötigt, dass für µ = −1 und µ = 0.3 in der gleichen Zeit durch mehrfache Anwendung der Überrelaxation ein besseres Ergebnis erzielt werden kann (durchgezogene Vergleichskurve im linken Bild). Einzig durch die Verwendung des Fahrplans mit vielen Schritten bei hohen Temperaturen (µ = −5) scheint der Simulated Annealing Algorithmus einen Vorteil gegenüber der Mehrfachanwendung der Überrelaxation zu bringen. Diese Beobachtung lässt sich deutlicher im rechten Bild erkennen, wo für die einzelnen Fahrpläne die Performanz über der Schrittzahl aufgetragen ist. Die Überrelaxation erzielt zum Vergleich eine Performanz von G = 0.15 ± 0.04. Mit keinem der untersuchten Fahrpläne lässt sich auf einem 164 -Gitter eine deutliche Verbesserung gegenüber diesem Wert erzielen. Allerdings kann mit einem Fahrplan, der 800 Schritte verwendet und die meisten davon bei hohen Temperaturen ansiedelt, zumindest eine geringfügig größere Performanz erzielt werden. Zusammenfassend lässt sich aus dieser Untersuchung schließen, dass zumindest auf einem 164 -Gitter Simulated Annealing Algorithmen von Vorteil sind, die den Großteil der Schritte bei hohen Temperaturen machen. Eine Erklärung ist vielleicht im Verhalten der Mobilität zu finden. Wie bereits beobachtet, fällt sie beim Absenken der Temperatur bereits im oberen Bereich des Temperaturintervalls [0.01, 0.45] bei T ≈ 0.415±0.01 stark ab. Die Interpretation der Mobilität als Maß für die Autokorrelation lässt folgende Erklärung zu. Oberhalb von T ≈ 0.41 ist die Konvergenz zu einer quasithermalisierten Wahrscheinlichkeitsverteilung der Eichtransformation “schnell” möglich. Wird die Temperatur zu weit unter diese Schwelle abgesenkt, verläuft die Konvergenz zu einer quasithermalisierten Verteilung auf Grund der großen Autokorrelation deutlich “langsamer”. Oder anders 72 Kapitel 4 Resultate ausgedrückt, es kann mit zu wenigen Schritten Quasithermalisiertheit bei diesen Temperaturen nicht mehr erreicht werden. Dieses Verhalten könnte begründen, warum ein Fahrplan für das Simulated Annealing von Vorteil ist, der die überwiegende Zahl der Schritte im oberen Temperaturbereich15 (T > 0.4) vorsieht (Tabelle 4.6). µ −5 −1 0.3 |T −1 ([0.4,0.45])| |T −1 ([0.01,0.45])| 0.445 0.114 0.017 Tabelle 4.6: Relativer Anteil der Schritte im Fahrplan T , die Aktualisierungen bei T ≥ 0.4 durchführen. Für µ = −5 liegen 44.5 Prozent der Schritte oberhalb dieser Temperatur, während es für eine gleichmäßige Schrittverteilung nur noch 11.4 Prozent sind. Wird die Temperatur zu schnell heruntergesetzt, kommt dies einem Festlegen auf eine schlecht thermalisierte Verteilung gleich, da mit der fest vorgegebenen Schrittzahl keine Quasithermalisierung mehr erreicht werden kann. Denn diese Festlegung geschieht auf eine Verteilung, die noch zu dicht an einer bei T = ∞ erzeugten Verteilung des Ensembles liegt. In Folge dieser Überlegung stellt sich die Frage, inwieweit auch in SU (3)-Simulationen ein Absenken der Endtemperatur Tmin bei konstant gehaltener Gesamtschrittzahl16 zu einer besseren Performanz führt. In einer SU (2)-Gittereichtheorie konnte dies beobachtet werden (Abschnitt 4.1.1, Seite 52). Nun soll dies auch für die SU (3)-Gittereichtheorie untersucht werden. Variation der Endtemperatur Zur Bestimmung der Abhängigkeit von der Endtemperatur wurden auf einem 124 -Gitter, bei β = 6.0, Fahrpläne mit konstanter Schrittweite (µ = −1) betrachtet. Dabei wurden zum einen Fahrpläne miteinander verglichen, die die Temperatur in 200 Schritten (Abbildung 4.24) absenkten und solche, die 400 Schritte (Abildung 4.25) dafür benötigt. 15 Die Inverse Abbildung T −1 wird hier als Mengenabbildung verstanden und |T −1 (M )| als Mächtigkeit des Urbildes. Die obige Formel ergibt insofern nur Sinn, falls der Definitionsbereich von T von endlicher Mächtigkeit ist. 16 Die konstant gehaltene Gesamtschrittzahl sichert, wie schon bei SU (2)-Eichfixierungen, dass die Fahrpläne gleiche Rechenzeiten benötigen und so direkt vergleichbar werden. 4.2 SU(3) Eichfixierung Performanz vs. T 73 Performanz vs. T min 0.6 0.65 0.55 0.6 0.55 Perfo rm a nz Perfo rm a nz 0.5 0.45 0.4 0.35 0.5 0.45 0.4 0.35 0.3 0.25 −0.1 min 0.3 0 0.1 0.2 0.3 0.4 0.5 T min Abbildung 4.24: Performanz in Abhängigkeit von der Endtemperatur Tmin für verschiedene Endtemperaturen bei konstant gehaltener Gesamtschrittzahl N = 200. Jeder Simulated Annealing Schritt wurde um 3 mikrokanonische Schritte ergänzt. Gemittelt wurde über 50 Konfigurationen mit je 19 Kopien auf einem 124 Gitter bei β = 6.0 0.25 −0.1 0 0.1 0.2 0.3 0.4 0.5 T min Abbildung 4.25: Performanz in Abhängigkeit von der Endtemperatur Tmin für verschiedene Endtemperaturen bei konstant gehaltener Gesamtschrittzahl N = 400. Jeder Simulated Annealing Schritt wurde um 3 mikrokanonische Schritte ergänzt. Gemittelt wurde über 50 Konfigurationen mit je 19 Kopien auf einem 124 Gitter bei β = 6.0 . Wie sich zeigt, hängt die optimale Endtemperatur Tmin für solche Fahrpläne von der Gesamtschrittzahl ab. Bei vorgegebener Gesamtschrittzahl von 200 Simulated Annealing Schritten scheint es zur Optimierung der Performanz am besten zu sein, Simulated Annealing bei einer recht hohen Temperatur im Bereich von T = 0.26 abzubrechen und mit der Überrelaxation zu beginnen. Wird die größere Gesamtschrittzahl 400 vorgegeben, so wird die größte Performanz erzielt, wenn der Simulated Annealing Algorithmus die Temperaur bis in den Bereich von T = 0.13 absenkt. Bei vorgegebener Gesamtschrittzahl findet man das Maximum demnach nicht dann am besten, wenn die Eichtemperatur bis auf T = 0 herabgesetzt wird, sondern wenn man alle Schritte bei höheren Temperaturen macht und dann zur weniger aufwendigen Überrelaxation übergeht. Dieses Resultat deckt sich recht gut mit dem Ergebnis auf dem 164 -Gitter. wo solche Fahrpläne am besten abschnitten, die nur wenige Aktualisierungen bei kleinen Temperaturen durchführen. Weiterhin lässt sich diese Beobachtung recht gut erklären, wenn angenommen wird, das mit wenigen Schritten eine Quasithermalisiertheit eher bei großen Temperaturen erreicht werden kann. Iterationsschritte bei geringeren Temperaturen ändern in diesem Falle die Wahrscheinlichkeitsverteilung im Ensemble der Eichkopien nicht mehr stark genug und die bereits erfolgte Präkonditionierung lässt sich durch einen Überrelaxationsalgorithmus mit geringerem Aufwand zu Ende führen. Als Hauptresultat dieses Abschnittes kann betrachtet werden, dass ein Fahrplan mit hinreichend großer Zahl von Simulated Annealing Schritten bei großen Temperaturen die größere Performanz erzielt. Weitere Untersuchungen wurden daher mit Fahrplänen durchgeführt, die den Verteilungsparameter µ = −5 nutzen. 74 Kapitel 4 Resultate Simulated Annealing auf großen Gittern Bei der Anwendung von Simulated Annealing auf großen Gittern lassen sich die statistischen Voruntersuchungen der vergangenen Abschnitte nicht mehr ohne weiteres durchführen. Da der Rechenaufwand mit dem Gittervolumen wächst, wird es notwendig, aus den Untersuchungen auf kleinen Gittern Schlussfolgerungen ziehen zu können, die die Abhängigkeit zu optimierender Parameter von der Gittergröße auch für große Gitter vorhersagen. Um die Zahl der veränderlichen Parameter klein zu halten, soll für einen Fahrplan mit Schrittverteilung µ = −5 und Temperaturintervall [0.01, 0.45] nur die Gesamtschrittzahl für größer werdende Gitter optimiert werden. Aus der Abhängigkeit der optimalen Schrittzahl von der Gittergröße wird dann versucht, einen allgemeinen Zusammenhang abzuleiten. Zur Bestimmung der optimalen Schrittzahl wurden auf jedem Gitter Fahrpläne mit variabler Schrittzahl getestet. Für ein 124 -Gitter sind die Ergebnisse dieser Simulation in Abbildung 4.26 dargestellt. 0.5 0.75 0.7 0.45 Perfo rm a nz P [F = F max ] 0.65 0.6 0.55 0.5 0.4 0.35 1 2 3 4 0.35 0.3 100 Schritte 300 Schritte 600 Schritte 1200 Schritte 0.45 0.4 0.25 5 Zeit in Einheiten der Ü berrela xa tio nsrechenzeit 0.2 0 500 1000 1500 Schrittza hl Abbildung 4.26: Wahrscheinlichkeit, das Maximum zu finden, über der Rechenzeit und die Performanz von Fahrplänen mit fixem Verteilungsparameter µ = −5 und variabler Schrittzahl auf einem 124 -Gitter. Gemittelt wurde über 53 Konfigurationen mit je 50 Kopien. Im linken Bild ist die Wahrscheinlichkeit, das Maximum zu finden, gegen die Gesamtrechenzeit t der Fahrpläne aufgetragen. Die Punkte sind durch einen approximierten Kurvenverlauf der Form p(t) = c1 + c2 ec3 t miteinander verbunden, wobei die ci anzupassende Parameter sind. Im rechten Bild ist die Performanz als Funktion der Schrittzahl aufgetragen. Die einzelnen Punkte sind mit Hilfe der approximierten Kurve p(t) ebenfalls verbunden. Bevor G(t) = ln(1−p(t)) berechnet werden konnte, ist noch die Abhängigkeit t der Rechenzeit von der Gesamtschrittzahl N durch eine stückweise lineare Funktion t(N ) abgeschätzt worden17 . Das Maximum dieser approximierten Performanz G(N ) entspricht der optimalen Schrittzahl und durch Variation der ci lässt sich ihr Fehler bestimmen. 17 Stückweise linear bedeutet, dass t(N ) für N ∈ {100, 300, 600, 1200} gerade den gemessenen Rechenzeiten entspricht und die Rechenzeiten für andere Werte von N linear approximiert wurden. 4.2 SU(3) Eichfixierung 75 Die so bestimmten optimalen Gesamtschrittzahlen und die Zahl der für eine statistischen Untersuchung zur Verfügung stehenden Konfigurationen ist in Tabelle 4.7 zusammengetragen. Dabei wurde nur über Konfigurationen gemittelt, auf denen mehr als ein Wert für das Eichfunktional vorgefunden wurde. L 8 12 16 Nopt +5 70−21 +29 225−78 +200 1500−800 Statistik 37 53 9 Tabelle 4.7: Optimale Schrittzahl Nopt für Simulated Annealing Fahrpläne mit Verteilungsparameter µ = −5 und Temperaturintervall [0.01, 0.45] auf symmetrischen Gittern mit Gitterkantenlänge L Die optimalen Gesamtschrittzahlen als Funktion der Gittergröße sind in Abbildung 4.27 aufgetragen. 4 10 3 N opt 10 2 10 1 10 8 12 16 K a ntenlä ng e Abbildung 4.27: Optimale Schrittzahl Nopt von Fahrplänen mit Verteilungsparameter µ = −5 für verschiedene Gittergrößen. Die approximierte Gerade ist durch Nopt (L) = e(0.37±0.03)L+1.05±0.3 parametrisiert. Zumindest im Rahmen der drei untersuchten Gittergrößen scheint die optimale Zahl von Simulated Annealing Schritten exponentiell mit der Gitterkantenlänge zu wachsen, Nopt (L) = e(0.37±0.03)L+1.05±0.3 . Um dieses Verhalten zu bestätigen, wäre eine recht aufwändige Untersuchung auf einem 244 -Gitter hilfreich. Bis hinreichend viele Untersuchungen mit dieser Gittergröße durchgeführt wurden, ist es wichtig, die Statistik für 164 -Gitter zu erhöhen und die Annahme eines exponentiellen Wachstums der optimalen Schrittzahl zu prüfen. Sollte sich der Trend bestätigen, liegt die optimale Schrittzahl auf einem 244 -Gitter bereits im Bereich von Nopt ≈ 2 · 104 . Im Rahmen der Untersuchung konnten bereits auf vier Konfigurationen eines 244 Gitter eine Reihe von Simulated Annealing Algorithmen getestet werden. Da zu Beginn 76 Kapitel 4 Resultate der Untersuchung für die Volumenabhängigkeit der optimalen Schrittzahl ein Potenzgesetz angenommen wurde18 , sind nur Fahrpläne mit vermutlich zu kleinen Schrittzahlen (N ≤ 3500) betrachtet worden. Auf jeder Konfiguration wurden 50 zufällige Kopien erzeugt und auf jede dieser Kopien 4 Simulated Annealing Fahrpläne mit variabler Schrittzahl (200, 700, 1500 und 3500) angewendet. Zusätzlich wurde jede Kopie einmal mit gewöhnlicher Überrelaxation eichfixiert. Insgesamt wurde demnach auf jeder Konfiguration 250-mal eine Eichfixierung durchgeführt. Dabei sind zwei Dinge aufgefallen. Zum einen wurde auf jeder Konfiguration der größte gefundene Funktionalwert nur genau einmal angenommen und auch die anderen gefundenen Funktionalwerte wurden selten wiedergefunden. Dadurch bedingt sind die bisher verwendeten Analyseverfahren, die sich an der Häufigkeit des Wiederauffindens des größten Funktionalwertes orientieren, wenig aufschlussreich und das Nichtauffinden des Maximums hat zur Folge, dass pmax verschwindet und der Performanz in diesem Fall keinerlei Bedeutung zukommt, da nur noch G ∝ 1t gilt. Zum anderen ist bemerkenswert, dass auf allen vier Konfigurationen dieser maximale Funktionalwert nur vom Simulated Annealing Algorithmus mit der größten Schrittzahl aufgefunden wurde. Da die Häufigkeitsverteilung über den durchnummerierten Funktionalwerten wenig aufschlussreich ist19 , wurde die Verteilung der Funktionalwerte als Histogramm ausgewertet. Zur Vergleichbarkeit der Konfigurationen wurden die relativen Funktionalwerte aus Gleichung 4.2 verwendet, wobei Fmax den größten der Funktionalwerte bezeichnet, die auf einer Konfiguration in irgendeiner der 250 Eichfixierungen gefundenen wurden. 18 Die Annahme gründete sich auf der Beobachtung eines Potenzgesetzes für die Schrittzahl der Überrelaxation und der fourierbeschleunigten Eichfixierung bis zur Konvergenz. Auch für die Abhängigkeit der optimalen Schrittzal des Simulated-Annealing-Algorithmus vom Volumen erschien es sinnvoll, ein solches Potenzgesetz anzunehmen. 19 Die meisten Häufigkeiten sind kleiner oder gleich 0.02, da die einzelnen Funktionalwerte selten öfter als einmal gefunden wurden. 4.2 SU(3) Eichfixierung 77 SA - 200 Schritte Überrelaxation 0.25 P [F ∈ bin] P [F ∈ bin] 0.25 0.2 0.15 0.15 0.1 0.05 0 0.2 0.1 0.05 0 0.5 1 −Frel 0 1.5 0 1.5 −3 x 10 SA - 3500 Schritte 0.25 P [F ∈ bin] 0.25 P [F ∈ bin] 1 −Frel SA - 1500 Schritte 0.2 0.15 0.2 0.15 0.1 0.05 0 0.5 −3 x 10 0.1 0.05 0 0.5 1 −Frel 1.5 −3 x 10 0 0 0.5 1 −Frel 1.5 −3 x 10 Abbildung 4.28: Histogramm über den relativen Funktionalwerten Frel (Gl. 4.2) für Fahrpläne mit Verteilungsparameter µ = −5 und variabler Schrittzahl auf einem 244 -Gitter. In die Histogramme flossen die Ergebnisse ein, die auf vier bei β = 6.0 erzeugten Konfigurationen mit jeweils 50 Kopien gesammelt wurden. Auf jeder Kopie wurden alle Fahrpläne getestet. In Abbildung 4.28 ist die Häufigkeitsverteilung über den relativen Funktionalwerten in Form von Histogrammen dargestellt. Es wurden drei Fahrpläne mit den Gesamtschrittzahlen 200, 1500 und 3500 mit einem Überrelaxationsalgorithmus verglichen. Was zunächst auffällt ist, dass für alle Eichfixierungsalgorithmen die erzielte Häufigkeitsverteilung das Maximum nicht bei Frel = 0 aufweist. Der signifikanteste Unterschied ist im Vergleich der Häufigkeitsverteilungen von Überrelaxation und Simulated Annealing Algorithmus mit 3500 Schritten zu beobachten. So führt Simulated Annealing zu einer stärkeren Häufung der Funktionalwerte bei großen Funktionalwerten, als dies für Überrelaxation zu beobachten ist20 . Diese Häufung macht sich auch bemerkbar, wenn für die verschiedenen Algorithmen der Mittelwert der relativen Funktionalwerte über der Zahl der Simulated Annealing Schritte21 aufgetragen wird (Abbildung 4.29). 20 Dies ist sehr gut daran zu sehen, dass die Verteilung für Simulated Annealing deutlich stärker in Richtung von Frel = 0 verschoben ist und auch deutlich mehr Funktionalwerte im Bereich des Maximums liegen. 21 Die reine Überrelaxation ist bei null Schritten eingetragen, da vorher auch kein Simulated Annealing stattgefunden hat. 78 Kapitel 4 −4 −1.5 x 10 Resultate mittleres relatives Funktional −2 −2.5 −hFrel i −3 −3.5 −4 −4.5 −5 −5.5 −6 0 500 1000 1500 2000 2500 3000 3500 4000 SA-Schritte Abbildung 4.29: Mittleres relatives Funktional über der Schrittzahl für Simulated Annealing Fahrpläne mit µ = −5. Null Schritte stehen für die reine Überrelaxation. Gemittelt wurde auf einem 244 -Gitter über vier bei β = 6.0 erzeugte Konfigurationen mit jeweils 50 Kopien Hier ist zu erkennen, dass der mittlere, relative Funktionalwert mit der Schrittzahl deutlich zunimmt. Zusammenfassend lässt sich sagen, dass der Simulated Annealing Algorithmus zumindest auf den vier betrachteten Konfigurationen zu einer verbesserten Häufigkeitsverteilung der relativen Funktionalwerte führt. Es soll im Weiteren die Rechenzeit in die Betrachtungen mit einbezogen werden. In Tabelle 4.8 sind die Rechenzeiten von Überrelaxation und Simulated Annealing mit 3500 Schritten in Einheiten der mittleren Überrelaxationsrechenzeit angegeben. Algorithmus Überrelaxation SA mit 3500 Schritten Gesamtrechenzeit 1 2.45 ± 0.02 Tabelle 4.8: Vergleich der Gesamtrechenzeiten Es wird sofort deutlich, dass sichin der Zeit, die Simulated Annealing und abschließende Überrelaxation benötigen, der einfache Überrelaxationsalgorithmus mindestens zweimal ausführen ließe. Im weiteren soll die Auswirkung auf die Häufigkeitsverteilung der aufgefundenen Funktionalwerte betrachtet werden, wenn Überrelaxation n-fach angewandt wird, um dann aus den n Kopien diejenige mit dem größten Funktionalwert Fbest auszuwählen. Auch für die n-fache Anwendung der Überrelaxation lässt sich die Häufigkeitsverteilung Pn approximieren, wenn man die Häufigkeitsverteilung P1 für die einfache Anwen- 4.2 SU(3) Eichfixierung 79 dung kennt (vgl. Anhang A.5). Als P1 für die Überrelaxation wird die Häufigkeitsverteilung der Klassen im Histogramm (Abb. 4.28) angenommen. Die approximierte Häufigkeitsverteilung Pn für n-fache Anwendung ergibt sich dann zu à ! à à !n ! X P1 [F ∈ Ki ] Pn [F ∈ Ki ] = 1 − Pn [F ∈ Kj ] · 1 − 1 − P . (4.4) j≥i P1 [F ∈ Kj ] j<i Sie ist in Abbildung 4.30 dargestellt. Augenscheinlich ist die durch Simulated Annealing P [Frel ∈ bin] SA - 3500 Schritte 0.2 0.1 0 1 1.5 −3 −Frel x 10 Überrelaxation 2-fach 0.3 P2 [Frel ∈ bin] P1 [Frel ∈ bin] 0.2 0.2 0.1 0 0.5 0.2 0.1 0 0.5 −Frel 1 1.5 −3 x 10 0 Überrelaxation 3-fach 0.3 P3 [Frel ∈ bin] Überrelaxation 1-fach 0.3 0 0.1 0 0.5 −Frel 1 1.5 −3 x 10 0 0 0.5 −Frel 1 1.5 −3 x 10 Abbildung 4.30: berechnete Histogramme über den relativen Funktionalwerten Frel (Gl. 4.2) für mehrfache Anwendung der Relaxation. Verglichen wird es mit Simulated Annealing, das einen Fahrplan mit 3500 Schritten und µ = −5 verwendet. Gemittelt wurde auf vier bei β = 6.0 erzeugten Konfigurationen über 50 Kopien. erzeugte Verteilung der Funktionalwerte optimaler, als jede der Verteilungen, die in diesem Beispiel durch 2- oder 3-fache Anwendung der Überrelaxation erzeugt werden kann. An dieser Stelle soll noch einmal darauf hingewiesen werden, dass sich aus der reinen Betrachtung des größten gefundenen Maximums und der Wahrscheinlichkeit dieses zu finden, keine so deutliche Aussage treffen ließ. Das Hauptresultat der Untersuchung des Simulated Annealings in einer SU (3)Gittereichtheorie ist daher eine Modifikation der Eichfixierungsaufgabe. Da es immer schwerer wird, das vermutete absolute Maximum des Eichfunktionals tatsächlich zu finden, ist es unter Umständen einfacher, nur nach lokalen Maxima mit möglichst großen Funktionalwerten zu suchen. Diese Aufgabenstellung scheint von einem Simulated Annealing Algorithmus auch in einer SU (3)-Gittereichtheorie besser gelöst zu werden als durch die Überrelaxation. 4.2.5 Zusammenfassung Im letzten Abschnitt wurden drei Methoden zur Fixierung der Landau-Eichung in einer SU (3)-Gittereichtheorie verglichen. Dies waren die Überrelaxation, die fourierbeschleunigte Eichfixierung und ein Simulated Annealing Algorithmus mit abschließender Überrelaxation. Die Hoffnung bestand darin, mit Hilfe des Simulated Annealing Algorithmus eine 80 Kapitel 4 Resultate Möglichkeit zu haben, beim Auffinden des Maximums des Eichfunktionals eine deutlich größere Performanz zu erzielen als mit den anderen beiden Algorithmen. Dies ließ sich nicht zeigen. Für die untersuchten Gittergrößen scheint ein Simulated Annealing Algorithmus mit den untersuchten Fahrplänen nur einen geringfügigen oder gar keinen Vorteil in Bezug auf die Performanz zu erzielen. Die beste Performanz erzielten dabei Simulated Annealing Fahrpläne mit µ = −5 für die Schrittverteilung auf dem Temperaturintervall [0.01, 0.45]. Die optimale Schrittzahl Nopt in Abhängigkeit von der Gittergröße V = L4 scheint für diese Fahrpläne einem exponentiellen Gesetz der Form Nopt (L) = e(0.37±0.03)L+1.05±0.3 zu folgen. In ersten Untersuchungen auf einem 244 -Gitter deutet sich jedoch an, dass die Aufgabe, ein möglichst großes lokales Maximum des Eichfunktionals zu finden22 , von einem Simulated Annealing Algorithmus besser gelöst werden kann als von einem Überrelaxationsalgorithmus oder der fourierbeschleunigten Eichfixierung. 22 Man beachte, dass sich die Aufgabenstellung ändert. Es soll nicht mehr die Kopie mit dem größten Funktionalwert gefunden werden, sondern nur noch eine Kopie mit möglichst großem Funktionalwert. Kapitel 5 Zusammenfassung und Ausblick 5.1 Zusammenfassung Mit dem Ziel, einen effektiven Algorithmus zur Fixierung der Landau-Eichung zu finden, der zudem die Forderung nach der Maximierung des Landau-Eichfunktionals optimal erfüllt, wurden eine Reihe von Eichfixierungsalgorithmen miteinander verglichen. Dies waren der Überrelaxationsalgorithmus, die fourierbeschleunigte Eichfixierung und der Simulated Annealing Algorithmus mit abschließender Überrelaxation. Von wesentlicher Bedeutung war dabei die Optimierung des Simulated Annealing Fahrplans. Im Rahmen dieser Optimierung wurden verschiedene Parameter variiert, die die Eigenschaften der Algorithmen bestimmen. Für den Simulated Annealing Algorithmus wurde desweiteren der Einschub von mikrokanonischen Schritten untersucht und im Rahmen einer SU (2)Gittereichtheorie der Versuch unternommen, eine Reduktion des Rechenaufwandes durch Projektion auf eine SU (2)-Untergruppe zu erreichen. Als Kriterium zum Vergleich der verschiedenen Algorithmen diente die anfangs eingeführte Performanz, in die die Rechenzeit eines Algorithmus eingeht und die Wahrscheinlichkeit, die Gribov-Kopie mit maximalem Funktionalwert wiederzufinden. Es zeigte sich, dass die Projektion und Präkonditionierung der Eichtransformation mittels Simulated Annealing in der I120 -Untergruppe der SU (2) für eine SU (2)Eichtheorie in der Tat zu einer Reduktion des Rechenaufwandes führte und die Rechenzeit entsprechend verkürzte. Allerdings wurde im Vergleich zu einem Simulated Annealing Algorithmus, der mit den gleichen Parametern die gesamte SU (2) in die Berechnungen einbezog, das Problem der Gribov-Mehrdeutigkeit schlechter gelöst, d.h. Gribov-Kopien mit maximalem Funktionalwert seltener wiedergefunden. Im Sinne der Performanz wurde daher keine Verbesserung erzielt. Eine deutlich größere Performanz ließ sich für den Simulated Annealing Algorithmus durch das Einfügen von mikrokanonischen Schritten sowohl in einer SU (2)- als auch in einer SU (3)-Theorie erreichen. In der SU (2)-Theorie führte dies zudem dazu, dass mit Simulated Annealing eine deutlich größere Performanz erzielt werden konnte, als mit dem parallel untersuchten Überrelaxationsalgorithmus. Das Ergebnis der Untersuchungen in einer SU (2)-Gittereichtheorie bei β = 2.4 ist, dass der beste in der Arbeit gefundene Simulated Annealing Algorithmus einen Fahrplan 81 82 Kapitel 5 Zusammenfassung und Ausblick benutzt, der die Temperatur im Intervall [Tmin , Tmax ] = [0.01, 1.4] absenkt. Dies konnte bis zur Gittergröße 244 bestätigt werden. Mit einem solchen Fahrplan konnte insbesondere die Performanz gegenüber der einfachen Relaxation auf den untersuchten Gittern deutlich gesteigert werden. Auch in der SU (3)-Gittereichtheorie wurde auf bei β = 6.0 erzeugten Konfigurationen eine Optimierung des Simulated Annealing Algorithmus durchgeführt. Hier zeigte sich, das der beste gefundene Fahrplan die Temperatur im Intervall [Tmin , Tmax ] = [0.01, 0.45] mit einem nicht linearen Temperaturfahrplan absenkt. Die Mehrzahl der Schritte sollte dabei im oberen Temperaturbereich gemacht werden. Bei der Untersuchung verschiedener Gittergrößen deutete sich zudem an, dass die optimale Schrittzahl für den Simulated Annealing Fahrplan exponentiell mit dem Gittervolumen wächst. Allerdings erzielte das so optimierte Simulated Annealing keine deutlich größere Performanz als ein Überrelaxationsalgorithmus. In Simulationen auf einem 244 -Gitter nimmt die Zahl der Gribov-Kopien deutlich zu. Bei dieser Gittergröße zeigte sich, dass durch die Verwendung des Simulated Annealing Gribov-Kopien mit großen Funktionalwerten deutlich häufiger angenommen werden als bei der Verwendung der Überrelaxation. Das Maximum selbst wird bei dieser Gittergröße jedoch seltener angenommen als auf kleinen Gittern. In einer SU (3)-Eichtheorie wurde der maximale Funktionalwert so selten gefunden, dass die Performanz nicht mehr sinnvoll anzugeben war. Da anzunehmen ist, dass sich dieser Effekt mit zunehmender Gittergröße verstärkt, wurde in der SU (3)-Gittereichtheorie anhand von 4 Konfigurationen gezeigt, dass sich Simulated Annealing und die Überrelaxation auch anhand der Verteilung über den Funktionalwerten vergleichen lassen, die durch sie gefunden werden. Diese Verteilung konnte für die mehrfache Anwendung der Überrelaxation berechnet werden und es stellte sich heraus, dass in vergleichbaren Zeiten ein Simulated Annealing Algorithmus mit 3500 Schritten besser abschnitt als die mehrmals angewandte Überrelaxation. Für die SU (3)-Gittereichtheorie wurde außerdem die fourierbeschleunigte Eichfixierung mit der Überrelaxation verglichen. Die Wahrscheinlichkeitsverteilungen, mit denen die Funktionalwerte am Ende der Eichfixierung gefunden wurden, stimmte für beide Algorithmen nahezu überein. Daraus läßt sich zunächst schlussfolgern, dass beide die Landaueichung ähnlich gut fixieren. Dabei skaliert die Zahl der Iterationsschritte in Abhängigkeit von der Gitterkantenlänge sowohl für die Überrelaxation als auch für die fourierbeschleunigte Eichfixierung mit einem Potenzgesetz. Die Zahl der Iterationen skaliert auf symmetrischen Gittern für die fourierbeschleunigte Eichfixierung mit einem etwas kleineren Exponenten von c = 1.53 ± 0.01 als für die Überrelaxation mit c = 2.19 ± 0.01. 5.2 Schlussfolgerung Ist man daran interessiert, für die Landau-Eichung in einer SU (3)-Eichtheorie möglichst große Werte des Eichfunktionals zu finden, so ist das Ergebnis dieser Arbeit, dass von den untersuchten Algorithmen ein Simulated Annealing Algorithmus mit nichtlinearem Abkühlverhalten im Temperaturintervall [0.01, 0.45] zu favorisieren ist. Die Effektivität des Simulated Annealings läßt sich dabei deutlich durch das Einfügen mikrokanonischer Schritte steigern und es kann sogar gesagt werden, dass die Vorteile gegenüber der 5.3 Ausblick 83 Überrelaxation zu einem wesentlichen Anteil auf diesen Schritten basieren. Unabhängig von der Untersuchung des Simulated Annealings zeigte sich im Vergleich von fourierbeschleunigter Eichfixierung und Überrelaxation, dass auf sehr großen Gittern die fourierbeschleunigte Eichfixierung der Relaxation als reiner Eichfixierungsalgorithmus vorzuziehen ist. Inwieweit sie auch die Überrelaxation nach dem Simulated Annealing ersetzen kann, muss sich in zukünftigen Untersuchungen zeigen. 5.3 Ausblick Im Weiteren wird zu untersuchen sein, wie groß die Auswirkung der Wahl der GribovKopie auf die Messung der Propagatoren ist und ob es tatsächlich notwendig ist, die Landau-Eichung auf die Gribov-Kopie mit maximalem Funktionalwert zu fixieren oder ob es gegebenenfalls genügt, nur eine Kopie mit möglichst großem Funktionalwert zu finden. Für das Simulated Annealing in SU (3)-Eichtheorien steht zudem die Optimierung der Zahl von mikrokanonischen Schritten aus. Es wäre möglich, dass ein anderes Verhältnis aus der Zahl von mikrokanonischen und Simulated Annealing Schritten zu einem verbesserten Algorithmus führt. Weiterhin lassen sich mit der in dieser Arbeit gegebenen Funktion für die Verteilung der Temperaturschritte auch andere Fahrpläne studieren und die Untersuchung weiter systematisieren. Im Zusammenhang mit der Untersuchung des Simulated Annealing bleibt auch zu klären, ob die Ersetzung der abschließenden Überrelaxation durch eine fourierbeschleunigte Eichfixierung gleich gute Resultate beim Auffinden von Gribov-Kopien mit großen Funktionalwerten liefert. Bleibt die Verteilung der gefundenen Kopien bei dieser Ersetzung erhalten, böte sich die Verwendung eines solchen Algorithmus insbesondere auf deutlich größeren Gittern an. Weiterhin ist für die Überrelaxation und die fourierbeschleunigte Eichfixierung in der SU (3)-Gittereichtheorie der exponentielle Zusammenhang zwischen Gittergröße und Rechenaufwand für große Gitter zu bestätigen, falls dies möglich ist. Und auch wenn die Projektion auf die I120 -Untergruppe in SU (2)Gittereichfeldtheorien keine Vorteile gebracht hat, bleibt es interessant zu untersuchen, inwieweit sich auch für die SU (3) eine solche diskrete Untergruppe finden lässt und ob sich durch deren Verwendung vielleicht die SU (3)-Algorithmen beschleunigen lassen. 84 Kapitel 5 Zusammenfassung und Ausblick Anhang A Anhang A.1 Das Ikosaeder Das Ikosaeder, von dem die Gruppe ihren Namen herleitet, ist ein Polyeder, das nach Definition von 20 regulären Dreiecken begrenzt wird. Daraus ergibt sich ein Gebilde mit 12 Ecken und 30 Kanten. Von der Konstruktion des Ikosaeders werden wir zur Darstellung der Drehgruppe des Ikosaeders übergehen und uns am Ende dieses Abschnittes ansehen, wie sich diese Untergruppe der speziellen orthogonalen Transformationen SO(3) homomorph auf die speziellen unitären Transformationen SU (2) übertragen läßt. Eine sehr anschauliche Konstruktion des Ikosaeders geht von zwei regelmäßigen Fünfecken aus, die um den Winkel π/5 gegeneinander verdreht sind[Bai99]. Nun werden die Eckpunkte der beiden Fünfecke so miteinander verbunden, dass die entstehenden Flächen regelmäßige Dreiecke ergeben (Abb. A.1 links). Wir erhalten das fünfseitige Antiprisma (Abb. A.1 mittig). Nun brauchen wir nur noch über jedem Fünfeck eine durch gleichseitige Dreiecke begrenzte Pyramide konstruieren und haben so das Ikosaeder konstruiert (Abb. A.1 rechts). Abbildung A.1: geometrische Konstruktion des Ikosaeders Die Eckpunkte des Ikosaeders liegen dabei auf der Oberfläche einer einhüllenden Kugel. A.1.1 Konstruktion der Ikosaedergruppe Im folgenden interessieren uns jene linearen Transformationen, die einen regulären Körper wieder mit sich selbst zur Deckung bringen. Sie wurden ausführlich Ende des 19. Jahrhunderts von Felix Klein behandelt [Kle84]. Betrachten wir zunächst die Drehungen. Da 85 86 Kapitel A Anhang zwei hintereinander ausgeführte Drehungen wieder eine Drehung ergeben, kann man sofort schlußfolgern, dass Drehungen, welche einen regulären Körper mit sich sich selbst zur Deckung bringen, in ihrer Gesamtheit eine Gruppe bilden. Anders verhält es sich mit den Spiegelungen, die es vermögen einen regulären Körper in sich selbst zu überführen. Zwei Spiegelungen hintereinander ausgeführt bilden nicht notwendig eine Spiegelung, aber eine Drehung. Die Gesamtheit der Spiegelungen bildet also für sich genommen noch keine Gruppe. Nimmt man jedoch die Drehungen, die Spiegelungen und die aus den Kombinationen entstehenden Operationen zusammen, so erhält man wieder eine Gruppe, die wir ihrer Konstruktion wegen erweiterte Gruppe nennen wollen. Das Ikosaeder besitzt keinerlei Spiegelsymmetrie und lässt sich nur durch Drehungen in sich selbst überführen. Überzeugen wir uns zunächst davon, dass es 60 derartige Drehungen gibt. Die Drehungen lassen sich dazu in 3 Klassen einteilen (siehe Abbildung). 1. Drehungen der Periode 5: Sind Drehungen um die Ikosaederdiagonalen mit ganzen Vielfachen von 2π als Drehwinkel. Jeder der 12 gleichberechtigten Ikosaedereck5 punkte bleibt im Ganzen bei 5 Drehungen um diese Diagonalen unverändert. Bei 6 Diagonalen und unter Vernachlässigung der Identität erhält man so 4 · 6 = 24 Drehungen 2. Drehungen der Periode 3: Die 10 Diagonalen des dem Ikosaeder einbeschriebenen Petagondodekaeders liefern analog 2 · 10 = 20 Drehungen mit ganzzahligen als Drehwinkel. Vielfachen von 2π 3 3. Drehungen der Periode 2: Die 15 Querlinien liefern die verbleibenden 15 Drehungen der Periode 2. Abbildung A.2: Klassen der Ikosaederdrehungen Unter Hinzunahme der Identität erhält man so die 24 + 20 + 15 + 1 = 60 Drehgruppe des Ikosaeders1 . Jede Drehung wird durch eine normierte Drehachse n = (n1 , n2 , n3 ) und einen Drehwinkel φ charakterisiert. Wenn wir nun noch den Kosinus des Winkels mit c = cos(φ) bezeichnen, 1 Die Eins kommt von der identischen Abbildung, die keine echte Drehung ist. A.1 Das Ikosaeder 87 können wir die zugehörige Drehmatrix durch die Abbildung S : (R)3 ∩ S 2 → SO(3) sofort angeben: S(n, φ) = " n21 + c(n22 +√n23 ) n1 n2 − cn1 n2 + √1 − c2 n3 n3 n1 − cn3 n1 − 1 − c2 n2 √ n1 n2 − cn1 n2 − 1 − c2 n3 n22 + c(n23 +√n21 ) n2 n3 − cn2 n3 + 1 − c2 n1 √ # n3 n1 − cn3 n1 + √1 − c2 n2 n2 n3 − cn2 n3 − 1 − c2 n1 n23 + c(n21 + n22 ) Nutzen wir nun unser Wissen über die Ikosaederdrehungen, so läßt sich die gesamte Gruppe durch Angabe der einzelnen Drehwinkel und Drehachsen konstruieren. Es ist jedoch etwas umständlich, alle Drehachsen und Drehwinkel einzeln zu berechnen, um daraus die Drehungen zu berechnen. A.1.2 Die elegante Methode Eine etwas elegante Methode ist es, die gesamte Gruppe aus zwei beliebigen Drehungen der Periode 5 zu erzeugen. Um für diese beiden Drehung besonders einfache Darstellungen der Drehachse zu bekommen, wählen wir zuvor das Koordinatensystem in geeigneter Weise. Dazu erinnern wir uns daran, dass sämtliche Ecken des Ikosaeders auf einer einhüllenden Kugel liegen. Das Zentrum dieser Kugel soll der Koordinatenursprung sein. Desweiteren legen wir das Ikosaeder genau so in das Koordinatensystem, dass die Spitzen der beiden aufgesetzten Pyramiden auf der z-Achse liegen und eine Spitze des oberen Fünfecks über der x-Achse zu liegen kommt. Abbildung A.3: Erzeugende der Ikosaedergruppe Das Ikosaeders besitzt nun für die in Abbildung A.3 dargestellten Drehachsen eine besonders “einfache” Koordinatendarstellung und wir nutzen sie als Drehachsen für die 88 Kapitel A Erzeugenden A und C der Drehgruppe des Ikosaeders2 . p √ √ 1 1 (1 − ( 5) − 10 + 2 5) 0 4 4 √ √ 1 p 1 ) = A = S([001], 2π ( (−1 + 10 + 2 5) 5) 0 5 4 4 0 0 1 C = S([10 21 ], 2π ) = 5 1 2 1 (15 20 q + √ 5) √ 1 (5 + 5) 10 √ 1 (5 − 5) 10 − 12 q 1 (5 10 √ und 1 (5 10 q + 5) √ 1 (−1 + 5) − 4 q √ 1 (5 + 5) 10 Anhang − 1 (5 10 √1 5 √ + 5) √ 5) Wir bilden nun die Matrizen T = Ai C j Ak C l für i, j, k, l = 0..4 und streichen aus der entstehenden Menge alle wiederkehrenden Matrizen aus. Das Resultat ist die 60-elementige Menge T60 der Zahlentupel (i, j, k, l). Diese Menge ist eine mögliche Darstellung der Drehgruppe des Ikosaeders und wir wollen sie hier angeben3 : (1, 1, 1, 1), (1, 1, 1, 2), (1, 1, 1, 3), (1, 1, 1, 4), (1, 1, 1, 5), (1, 1, 2, 1), (1, 1, 2, 2), (1, 1, 2, 3), (1, 1, 2, 4), (1, 1, 2, 5), (1, 1, 3, 1), (1, 1, 3, 2), (1, 1, 3, 3), (1, 1, 3, 4), (1, 1, 3, 5), (1, 1, 4, 1), (1, 1, 4, 2), (1, 1, 4, 3), (1, 1, 4, 4), (1, 1, 4, 5), (1, 1, 5, 1), (1, 1, 5, 2), (1, 1, 5, 3), (1, 1, 5, 4), (1, 1, 5, 5), (1, 2, 1, 1), (1, 2, 1, 2), (1, 2, 1, 3), (1, 2, 1, 4), (1, 2, 1, 5), T60 = (1, 2, 3, 1), (1, 2, 3, 2), (1, 2, 3, 3), (1, 2, 3, 4), (1, 2, 3, 5), (1, 2, 4, 1), (1, 2, 4, 2), (1, 2, 4, 3), (1, 2, 4, 4), (1, 2, 4, 5), (1, 3, 3, 1), (1, 3, 3, 2), (1, 3, 3, 3), (1, 3, 3, 4), (1, 3, 3, 5), (1, 3, 4, 1), (1, 3, 4, 2), (1, 3, 4, 3), (1, 3, 4, 4), (1, 3, 4, 5), (1, 4, 3, 1), (1, 4, 3, 2), (1, 4, 3, 3), (1, 4, 3, 4), (1, 4, 3, 5), (2, 3, 3, 1), (2, 3, 3, 2), (2, 3, 3, 3), (2, 3, 3, 4), (2, 3, 3, 5) In dieser Darstellung entspricht das Tupel (1, 2, 1, 2) der Identität. Im weiteren sind wir an der Fortsetzung der Drehgruppe des Ikosaeders auf die ikosaedrale Untergruppe I120 der SU (2) interessiert. A.1.3 Fortsetzung auf SU (2) Bisher haben wir nur Drehungen im dreidimensionalen euklidischen Raum betrachtet. Von Interesse ist nun eine Fortsetzung der Ikosaedergruppe auf die SU (2). Hierfür nutzen wir das beiden Gruppen lokal isomorph zueinander sind. Dieser Isomorphismus ist nicht global, aber es gibt einen globalen Homomorphismus SU (2) ∼ = SO(3) der dafür sorgt, dass die SO(3) von der SU (2) zweimal überdeckt wird. Wir wollen uns der Fortsetzung nähern, indem wir von der Theorie der kontinuierlichen Gruppen Gebrauch machen [Jon90]. Darstellung und Parameter Die SU (2) hat als niedrigstdimensionale treue Dartellung, die sogenannte fundamentale Darstellung, d.h. unitäre 2 × 2 Matrizen, deren Determinante den Wert 1 hat. Die Gruppe √ 1 Da die Erzeugenden von der Periode 5 sind, wählen wir als Drehwinkel 2π 5 , sodass c = 4 ( 5 − 1) ist. 3 Da das wegstreichen der mehrfach enthaltenen Tupel recht willkürlich geschehen kann, ist dies nur eine mögliche Tupelmenge 2 A.1 Das Ikosaeder 89 der Raumdrehungen SO(3) hat als Darstellung orthogonale 3 × 3 Matrizen, deren Determinante ebenfalls den Wert 1 hat. Als wichtiger Unterschied zur SU (2) bemerken wir, dass in der SO(3) die Spiegelung (− id) nicht in der Gruppe enthalten ist. Wir betrachten nun die Darstellung der beiden Gruppen als Lie-Gruppen mit übereinstimmender Lie-Algebra. Gruppe SO(3) ´ , ³ 0 0 −1 ´ iX2 = 0 0 0 , 1 0 0 ³ 0 1 0´ iX3 = −1 0 0 iX1 = Generatoren der Lie-Algebra ³0 0 0 0 0 1 0 −1 0 0 0 0 Kommutatoren [iXi , iXj ] = −i²ijk Xk SU(2) X1 = 21 σ1 = 12 ( 01 10 ), X2 = 12 σ2 = 1 2 ¡ 0 −i ¢ i 0 , 0 X3 = 12 σ3 = 12 ( 10 −1 ) [iXi , iXj ] = −i²ijk Xk Beide Gruppen haben die gleichen Strukturkonstanten, sind also in der Umgebung der Eins isomorph. Eine Drehung um eine Drehachse mit Richtung n mit dem Winkel φ hat die Darstellungsmatrix à ! X S(n, φ) = exp iφ nk Xk (A.1) k Auch für die SU (2) stimmt diese Darstellung, nur dass hier nicht mehr S(n, φ) = S(−n, φ) gilt. Wir wollen im folgenden zwei Parameterabbildungen SSO(3) und SSU (2) je nach Wertebereich unterscheiden SSO(3) : (R)3 ∩ S 2 → SO(3) und (A.2) 2 SSU (2) : S → SU (2), wobei beide Abbildungen durch die Exponentialabbildung aus Gleichung A.1 definiert sind, aber unterschiedliche Generatoren verwenden. Die Ikosaedergruppe I120 Mit Hilfe dieser Darstellung können wir nun recht einfach die Erzeugenden der Drehgruppe des Ikosaeders von der SO(3) auf die SU (2) abbilden. Formal läßt sich nun ein Homo−1 morphismus HSO(3),SU (2) : SO(3) → SU (2) durch die Verknüpfung H = SSU (2) ◦ SSO(3) definieren. So ließe sich die gesamte Drehgruppe des Ikosaeders in die SU (2) abbilden. Durch Multiplikation erhielte man die übrigen 60 Elemente der I120 . Wir wollen an dieser Stelle wieder einen etwas einfacheren Weg gehen, da das Inverse der Abbildung SSO(3) nicht ohne weiteres zu berechnen ist. Dazu erinnern wir uns, dass wir bereits die Parameter der Erzeugenden der Drehgruppe des Ikosaeders angegeben haben. Wir nutzen diese Parameter, um die Erzeugenden der I120 direkt zu bestimmen. " iπ # 5 0 e und ) = A = SSU (2) ([001], 2π iπ 5 0 e− 5 ) = C = SSU (2) ([10 21 ], 2π 5 " 1 20 ³ p √ √ ´ 5 + 5 5 − i 50 − 10 5 q √ 1 (5 − 5) −i 10 q # √ 1 (5 − 5) −i 10 ³ p √ ´ √ 1 5 − i 50 − 10 5 5 + 5 20 90 Kapitel A Anhang Diese beiden Matrizen erzeugen nun eine Untergruppe der SU (2) mit 120 Elementen, die Ikosaedergruppe I120 . Analog wie auf der SO(3) ergeben sich sich alle Elemente aus den Matrizen t = Ai C j Ak C l für i, j, k = 0, .., 4; l = 0, .., 9. Man beachte, dass ein Index bis 9 laufen muss, um die vollständige Untergruppe zu erzeugen. Denn im Gegensatz zur SO(3), in der die Erzeugenden von der Periode 5 sind (also A5 = C 5 = id), sind sie in der SU (2) von der Periode 10 (mit A5 = C 5 = −id). Am Ende entfernen wir alle doppelt vorkommenden Elemente und erhalten die I120 . A.1.4 Diskretisierung der SU (2) Die Ikosaedergruppe bietet hervorragende Eigenschaften. Alle ihre Elemente haben die gleichen Charakteristika und sind bezüglich der Frobeniusnorm gleichmäßig über die SU (2) verteilt. Anstelle der Matrixmultiplikation kann man ihre Elemente auch über eine Gruppentabelle multiplizieren, was sich besonders in der Computeralgebra als äußerst nützlich erweisen kann. A.2 Konvergenz einer Markov-Kette A.2 91 Konvergenz einer Markov-Kette Eine Markov-Kette ist ein spezieller stochastischer Prozess, also eine Sequenz von zufälligen Variablen X1 , X2 , X3 , . . . . In Anlehnung an die Markov-Ketten in dieser Arbeit wollen wir die zufälligen Variablen Konfigurationen nennen. Falls die Wahrscheinlichkeitsverteilung der Konfiguration Xi+1 nur vom Vorgänger Xi abhängt, dann gilt P (Xi+1 = x | X1 , ...., Xi ) = P (Xi+1 = x | Xi ), (A.3) wobei x ein möglicher Zustand der Konfiguration ist. Diese Eigenschaft wird auch als Gedächtnislosigkeit der Markov-Kette bezeichnet. Die Eigenschaft nur von einer begrenzten Anzahl der letzten Vorgänger abzuhängen, wird Markov-Bedingung oder Gedächtnislosigkeit der Markov-Kette genannt. Eine Markov-Kette besitzt immer eine Anfangswahrscheinlichkeit V , die die Wahrscheinlichkeitsverteilung für das erste Glied der MarkovKette festlegt. Eine Markov-Kette kann verschiedene Eigenschaften aufweisen. Definition: (Eigenschaften einer Markov-Kette) Periodizität ist die Eigenschaft einer Markov-Kette periodisch zu sein. Rekurrenz ist die Eigenschaft einer Markov-Kette, von jeder Konfiguration aus zu dieser innerhalb von unendlich vielen Schritten mit der Wahrscheinlichkeit Eins zurückzukehren. Die statistischen Eigenschaften einer Markov-Kette werden vollständig durch Festlegung einer Übergangswahrscheinlichkeit P (Xi+1 , Xi ) beschrieben. Die für die Konvergenz des Markov-Prozesses notwendigen Eigenschaften an die Übergangswahrscheinlichkeit sind Definition: (Eigenschaften der Übergangswahrscheinlichkeit) X P (Y, X) = 1 Normiertheit Y X P (Y, X) > 0 Ergodizität P (Y, X)F (X) = F (Y ) Existenz eines Fixpunktes F (Stabilität ) X Dem in der Arbeit beschriebenen Metropolis-Algorithmus liegt eine Markov-Kette zugrunde, die als Fixpunkt F gerade die Boltzmannverteilung p(X) ∝ exp −βE(X) hat, wobei E eine Energiefunktion ist und β = kB1T . Wir wollen nun für einen allgemeinen Markov-Prozess zeigen, dass er gegen seinen Fixpunkt konvergiert. Aus dieser Konvergenz folgt im übrigen auch die Tatsache, dass er als stabil bezeichnet wird. Die Entwicklung der Anfangswahrscheinlichketisverteilung V =: V1 zu den Verteilungen der Folgekonfigurationen Vi soll ebenfalls mit Indizes versehen werden. Für jede Wahrscheinlichkeitsverteilung V gilt die Definition: (Normiertheit) X X V (X) = 1 (A.4) 92 Kapitel A Anhang Weiterhin kann für Wahrscheinlichkeitsverteilungen eine Metrik angegeben werden, mit der der Abstand zweier Verteilungen gemessen werden kann Definition: Sind V und W zwei Wahrscheinlichkeitsverteilungen, dann wird durch kV − W k := X X kV (X) − W (X)k (A.5) ihr Abstand definiert. Nun sind alle nötigen Definitionen gegeben und wir können das erste Lemma auf dem Weg zum Beweis der Konvergenz der Markov-Kette formulieren. Lemma A.2.1. (Existenz und Eindeutigkeit des Fixpunktes) Sei {Xi } eine aperiodische, rekurrente Markov-Kette und erfülle die Überganswahrscheinlichkeit P (Y, X) die Eigenschaft der Ergodizität, dann hat P (Y, X) einen Fixpunkt F und dieser ist eindeutig. In diesem Falle gilt für alle X, dass lim P n (Y, X) = F (Y ) und n→∞ F (Y ) > 0 Bevor wir uns an den Beweis machen, wollen wir zumindest noch bemerken, dass sich eine umgekehrte Richtung beweisen läßt. Es kann nämlich aus der Existenz eines Fixpunktes für eine aperiodische Markov-Kette mit ergodischer Übergangswahrscheinlichkeit auch auf die Eigenschaft der Rekurrenz geschlossen werden. Der Beweis kann zum Beispiel in [Bil95] nachgelesen werden. Wichtig ist, dass der Metropolis Algorithmus die geforderten Eigenschaften aufweist und wir also einen eindeutigen Fixpunkt finden können, die Boltzmanverteilung. Das nächste Lemma beschreibt die Eigenschaft der Übergangswahrscheinlichkeit auf die Wahrscheinlichkeitsverteilung als kontrahierende Abbildung zu wirken. Lemma A.2.2. Seien {Vi } die Wahrscheinlichkeitsverteilungen einer Markov-Kette, deren Übergangswahrscheinlichkeit P (X, Y ) die Eigenschaften Normiertheit, Ergodizität und Stabilität erfüllt. Ferner sei F der einzige Fixpunkt der Markov-Kette. Dann gibt es ein α mit 1 ≥ α > 0, sodass gilt kVi+1 − pk ≤ (1 − α)kVi − pk Beweis:. Zunächst machen wir folgende Ersetzung: Pe(X, Y ) = P (X, Y ) − Pmin , (A.6) wobei Pmin = minP (Y, X) die minimale Übergangswahrscheinlichkeit zwischen zwei X,Y Zuständen bezeichnet. Auf Grund der Ergodizität gilt Pmin > 0 und weiter Pe(X, Y ) ≥ 0. (A.7) A.2 Konvergenz einer Markov-Kette 93 Nun läßt sich die Behauptung des Satzes wie folgt beweisen. X kVi+1 − F k = kVi+1 (X) − F (X)k X = Stabilität = (A.6) = (A.4) = ∆−Ungleichung ≤ A.7 = ° ° ° X° °X ° P (X, Y )Vi (Y ) − F (X)° ° ° ° X ° Y ° ° X° °X ° P (X, Y ) (Vi (Y ) − F (Y ))° ° ° ° X ° ° Y ° X X° ° °X e P (X, Y ) (Vi (Y ) − F (Y )) + Pmin (Vi (Y ) − F (Y ))° ° ° ° Y X ° ° Y ° X° ° °X e P (X, Y ) (Vi (Y ) − F (Y )) + Pmin · 0° ° ° ° X Y ° XX° ° °e °P (X, Y ) (Vi (Y ) − F (Y ))° X X Normiertheit = = = Y XX Y Pe(X, Y ) kVi (Y ) − F (Y )k (1 − N Pmin ) X Y kVi (Y ) − F (Y )k (1 − N Pmin )kVi+1 − F k (1 − α)kVi+1 − F k ¥ Im letzten Schritt des Beweises ist in dieser Darstellung der Markov-Kette vorausgesetzt worden, dass der Raum der möglichen Konfiguration endlich ist. In diesem Falle ist die Mächtigkeit des Konfigurationsraumes eine natürliche Zahl N . Für kontinuierliche Markov-Ketten sind Beweis und Voraussetzungen in eine integrale Formulierung zu bringen. Mit diesem Hilfssatz lä3t sich nun auch verhältnismäßig einfach der Satz über die Konvergenz einer Markov-Kette formulieren und beweisen. Satz A.2.3. Sei durch P (X, Y ) ein Markov-Prozess mit den Voraussetzungen des Hilfssatzes gegeben und F ein Fixpunkt. Weiter sei Vt = P i V die Wahrscheinlichkeitsverteilung der Markov-Kette nach t Schritten. Dann gilt lim kVi − F k = 0 i→∞ (A.8) und man spricht in diesem Sinne von der Konvergenz der Markov-Kette. Beweis:. Aus dem Hilfssatz entnimmt man kVi+1 − F k ≤ (1 − α)kVi − F k . Es handelt sich also um eine kontrahierende Abbildung. Beginnt man mit einer Startverteilung V , so gilt nach i Schritten kVi − F k ≤ (1 − α)i kV − F k In diesem Sinne konvergiert Die Markov-Kette Vi im Limes großer t gegen die Boltzmannverteilung. ¥ 94 Kapitel A Anhang Für einen konkreten Algorithmus, der die Eigenschaften der Markov-Kette ausnutzt, sind also die Eigenschaften des Satzes zu zeigen. Die Stabilität ist dabei im allgemeinen schwer nachzuweisen. Allerdings genügt es in den meisten Fällen, die stärkere Bedingung der detailed balance für eine Markov-Ketter nachzuweisen: P (Y, X) P (Y ) = P (X, Y ) P (X) detailed balance Denn aus dem folgenden Satz geht hervor, dass eine Kette, die detailed balance erfüllt automatisch die Eigenschaft der Stabilität besitzt. Satz A.2.4. Erfüllt eine normierte Übergangswahrscheinlichkeit P (Y, X), die die Bedingung der detailed balance für eine Wahrscheinlichkeitsverteilung P (X), so ist P (X) ein Fixpunkt dieser Übergangswahrscheinlichkeit. Beweis:. Für den Beweis ist nur die Bedingung der Stabilität zu zeigen. Dazu schreiben wir die Bedingung der detailed balance etwas um und summieren am Ende über X P (Y, X) P (Y ) = detailed balance P (X, Y ) P (X) P (Y, X)P (X) = P (X, Y )P (Y ) X X P (Y, X)P (X) = P (X, Y )P (Y ) X X X X P (Y, X)P (X) = P (Y ) X X P (X, Y ) ⇔ (A.9) ⇒ (A.10) ⇒ (A.11) Normiertheit (A.12) =⇒ X P (Y, X)P (X) = P (Y ) (A.13) X Die letzte Zeile ist die Stabilitätsbedingung. ¥ A.3 Haarsches Maß A.3 95 Haarsches Maß Die Einführung des Haarschen Maßes beginnen wir mit einigen fundamentalen Definitionen und Sätzen Definition: Sei G eine kompakte Liegruppe. Ein Maß µ auf G ordnet jeder Funktion f : G → , g 7→ f (g) eine komplexe Zahl Z E[f ] := dµ(g)f (g) (A.14) G Ein Maß heißt Haarsches Maß falls es die folgenden beiden Bedingungen erfüllt (i) E[Lh F ] = E[f ] (ii) E[1] = 1 ∀h ∈ G (Linksinvarianz) (Normiertheit). (A.15) wobei Lh f für h ∈ G durch (Lh f )(g) = f (h−1 g) definiert ist Definition: Eine Funktion m : n n × → n heißt Gruppenmultiplikation, falls gilt g(m(x, y)) = g(x)g(y). (A.16) Sei nun die Gruppe G durch reellen Koordinaten x ∈ n parametrisiert (für die Gruppenelemente wird in diesem Falle g(x) geschrieben) und gelte g(0) = e, das Einselement der Gruppe. Dann sind wir nun auf der Suche nach dem ∆(x), für das gilt Z E[f ] = dn x∆(x)f (g(x)) . (A.17) Bevor wir das Haarsche Maß der Gruppe SU (2) konstruieren können müssen wir noch eine Identität zeigen Satz A.3.1. Ist g : n → G eine Parametrisierung der Liegruppe G und m : die Gruppenmultiplikation dann gilt für das oben definierte Haarsche Maß ¯ ¯ ¶¯ µ ¯ ¯ ¯ ∂m i ¯ ∆(0) = ∆(y) ¯¯det (y, x)¯¯ ¯ ∂xj n × n → n (A.18) x=0 Beweis:. Mit Bedingung A.15(i) ¯der Linksinvarianz und der Koordinatentransformation ¯ ¯ ∂mi (y,x) ¯ 4 n z = m(y, x) folgt zunächst d z = ¯ ∂xj ¯ d x, was dann zu folgender Umstellung führt: ¯ ¯ Z Z ¯ ¯ n n ¯ ∂mi d z∆(z)f (g(z)) = d x¯ (y, x)¯¯ ∆(m(y, x))f (g(y)g(x)) ∂xj G G ¯ ¯ Z ¯ ¯ A.15(i) n ¯ ∂mi (y, x)¯¯ ∆(m(y, x))f (g(x)) = d x¯ ∂xj G An dieser Stelle können wir ∆(x) mit dem Term vor f (g(x)) identifizieren und erhalten: ¯ µ ¶¯ ¯ ¯ ∂m i (A.19) ∆(x) = ∆ (m(y, x)) ¯¯det (y, x) ¯¯ ∂xj Beachten wir nun noch, dass für x = 0 aus den Bedingungen für die Gruppenmultiplikation g (m(y, x = 0)) = g(y)g(0) = g(y) gilt, so folgt wegen der Eindeutigkeit der Darstellung der Gruppe, dass m(y, x = 0) = m(y) gelten muss, woraus durch Einsetzen von x = 0 in Gleichung A.19 die Behauptung folgt. ¥ 96 Kapitel A Anhang Der letzte Satz gilt allgemein und ist nicht auf jede Liegruppe anwendbar. In unserem Spezialfall brauchen wir nun aber nur noch eine Parametrisierung der SU (2) auszuwählen und können mit Gleichung A.18 das Haarsche Maß in dieser Parametrisierung ausrechnen. Wir wählen die Cayley-Klein-Parametrisierung µ ¶ x0 + ix1 x2 + ix3 g(x) = , x ∈ S3 (A.20) −x2 + ix3 x0 − ix1 In dieser Darstellung berechnet sich die Gruppenmultiplikation zu x 0 y 0 − x1 y 1 − x2 y 2 − x3 y 3 x 0 y 1 + y 0 x 1 + x 2 y 3 − x3 y 2 m(x, y) = x 0 y 2 + y 0 x 2 − x1 y 3 + x 3 y 1 , x 0 y 3 + y 0 x 3 + x 1 y 2 − x2 y 1 (A.21) Betrachten wir zunächst alle vier Komponenten von x als unabhängige Parameter, so erhält man mit Satz A.18 ¯ ¶ µ ¯ ∂mi y∈S 3 (A.22) (y, x)¯¯ det = y02 + y12 + y22 + y32 = 1. ∂xj x=0 Auf der Kugeloberfläche, über die zu integrieren ist, sind alle Punkte y mit dem gleichen Maß ∆(0) versehen. Dies bedeutet, dass die Integration im Parameterraum der gewöhnlichen Integration auf der Kugeloberfläche entspricht, sodass sich für das normierte Haarsche Maß dU der Gruppe SU (2) q 1 dG = 2 1 − x20 dx0 dΩ, (A.23) 4π als Lösung ergibt. Hier ist dΩ das Oberflächenmaß der S 2 in einer geeigneten Parametrisierung für x1 , x2 und x3 . Prinzipiell kann auf analoge Weise auch das Haarsche Maß anderer SU (N ) Gruppen bestimmt werden. Für alle SU (N )-Liegruppen lässt sich eine Eulerwinkel-Parametrisierung berechnen. Eine umfassende Zusammenfassung ist zum Beispiel in [Til] gegeben. Die einfachsten Parametrisierungen sind die der SU (2) und der SU (3) mit 2 −1 NY U= eiXi xi , (A.24) i=1 wobei Xi die Generatoren der zugrundeliegenden Gruppe sind und xi die generierenden Eulerwinkel. Für Gruppen mit N > 3 ist diese Parametrisierung komplizierter, läßt sich aber prinzipiell angeben. A.4 Aktualisierungsalgorithmen A.4 A.4.1 97 Aktualisierungsalgorithmen Heatbath Aktualisierung in SU (N ) Yang-Mills-Theorien Im Rahmen des Simulated Annealings ist es notwendig, Aktualisierungsschritte der Form g(x) → r(x)g(x) = g 0 (x) auszuführen, wobei die neuen g 0 (x) mit der Wahrscheinlichkeitsverteilung e−1/T FU [g;x] dg erzeugt werden sollen. Wir wollen uns zunächst auf SU (2)-Aktualisierungen beschränken, sodass dg das Haarsche Maß der SU (2) ist. Auch für den Thermalisierungsprozess der Konfigurationen ist ein solcher Heatbath-Schritt notwendig. Hier ist das Gewicht der lokale l lok Wirkung SW (U ; x) durch die Verteilung e−βSW ok(U ;x) dU gegeben. In beiden Fällen haben wir letztenendes ein neues SU (2)-Element u0 mit dem Gewicht der Boltzmannverteilung 1 0 dP (g 0 ) ∝ e− T tr(g K) dg (A.25) † K zu wählen. Die Invarianz des Haarschen Maßes unter einer Multiplikation mit K̃ = √det K† führt zu ρ 0 dP (g 0 K̃) ∝ e 2 tr(g ) dg 0 (A.26) √ mit ρ = T2 det K † . Mit dem Haarschen Maß der SU (2) (A.23) in der Caylay-KleinParametriesierung A.20 lässt sich nun das Wahrscheinlichkeitsmaß des neu zu generierenden Elements als q ρ tr(g 0 (x)) 0 2 1 − x20 dx0 dΩ (A.27) dP (g K̃) ∝ e q (A.28) = eρx0 1 − x20 dx0 dΩ aufschreiben. Die so erzeugte Verteilung entspricht einer Boltzmannverteilung mit dem Maximum bei der Identität. Die Heatbath Aktualisierung g(x) → r(x)g(x) = g 0 (x) besteht nun aus zwei Schritten p 1. Erzeugung eines Elementes z mit der Verteilung dP (z) ∝ eρz0 1 − z02 dz0 dΩ und 2. Berechnung der Änderung r(x) = g(z)K̃. Der zweite Schritt ist unproblematisch, daher wollen wir uns im Folgenden die Erzeugung von z genauer anschauen. Zunächst müssen wir den Parameter z0 ∈ [−1, 1] mit der Verteilung q dP (z0 ) ∝ 1 − z02 dz0 (A.29) erzeugen. Dazu kann ein Algorithmus verwendet werden, wie er in [FH84] und [KP85] eingeführt wurde, mit einer kleinen Veränderung, die in [Kne99] und [Geh02]p beschrieben ist. Nun müssen noch die Parameter z1 , z2 und z3 auf der Kugeloberfläche 1 − z02 · S 2 mit dem Gewicht dΩ erzeugt werden. Dazu werden zwei auf dem Intervall [0, 1) gleichverteilte Zufallsvariablen ζ1 und ζ2 generiert und aus diesen ein Punkt s auf der Einheitssphäre S 2 wie folgt berechnet: p 1 − 2ζ1 (A.30) s = p1 − ζ12 cos(2πζ2 ) 2 1 − ζ1 sin(2πζ2 ) 98 Kapitel A Anhang p Damit ergibt sich (z1 , z2 , z3 ) als Multiplikation von s mit der Wurzel 1 − z02 . Aus dem Parametertupel z = (z0 , z1 , z2 , z3 ) lässt sich nun in der Caylay-Klein-Parametriesierung das gesuchte g(z) berechnen. Für Heatbathschritte in SU (3)-Gittereichtheorien wird ein iteratives Vervahren, bei dem die Heatbath Aktualisierung sukzessive in den Untergruppen durchgeführt wird. A.4.2 Maximierung von Re tr(gK) Wir wollen nun das Maximierungsproblem maxg gK, mit g ∈ SU (N ) und K ∈ Gl (N ) lösen, welches insbesondere für die lokalen Aktualisierungen in der Relaxation und Überrelaxation von Bedeutung ist. Zuerst werden wir uns eine explizite Lösung für die SU (2) angeben, um daraus einen iterativen Algorithmus für die SU (3) zu gewinnen. Zunächst bemerken wir, dass wir das Problem auf der SU (2) nicht für eine beliebige invertierbare Matrix zu lösen haben, sondern für Matrizen aus einem Untervektorraum mit reeller Dimension Vier. Der Grund liegt in der Bildung der K als Summe von SU (2)-Matrizen. Den Ergebnisraum dieser Summen finden wir durch eine Erweiterung der Cayley-Klein-Parametrisierung (A.20) der SU (2). Denn auch die Summe K von SU (2)Elementen besitzt wieder eine Cayley-Klein-Parametrisierung (k0 , k1 , k2 , k3 ), auch wenn nicht mehr k ∈ S 3 gilt. Wir dehnen den Definitionsbereich der Parametrisierung4 P (k0 , k1 , k2 , d3 ) = k1 + i 3 X xi σi (A.31) i=1 daher von der Sphäre S 3 auf den gesamten 4 aus. Der Raum P ( 4 ) wird so zu einem Vektorraum mit reeller Dimension Vier. Mit dieser Parametrisierung gelten nun folgende Eigenschaften (i) (ii) (iii) (iv) tr(P (x)) tr(P (x)P (y)) tr(P (x)P (y)† ) det(P (x)) = x0 ∀x ∈ = x 0 y 0 − x1 y 1 − x2 y 2 − x3 y 4 = x0 y0 + x1 y1 + x2 y2 + x3 y4 = hx, yi = tr(P (x)P (x)† ) = kxk2 4 Die letzte Eigenschaft ist nicht sofort zu sehen, ergibt sich aber durch Ausrechenen der Determinante und der Spur in der entsprechenden Parametrisierung. Das Maximierungsproblem hat daher im Parameterraum die Form max3 (x0 y0 − x1 y1 − x2 y2 − x3 y4 ). x∈S Die Lösung lässt sich durch folgendes Lemma angeben. Lemma A.4.1. Ist y ∈ 4 gegeben, dann hat das Maximierungsproblem maxx∈S 3 (x0 y0 − x1 y1 − x2 y2 − x3 y4 ) die Lösung x= und es gilt 4 Die σi sind die Paulimatrizen 1 (y0 , −y1 , −y2 , −y3 ) kyk 1 P (x) = p P (y) det(P (y)) A.4 Aktualisierungsalgorithmen 99 Beweis:. Der Beweis des zweiten Teils folgt unmittelbar aus der Feststellung, dass durch tr(P (x)P (y)† ) ein Skalarprodukt in P ( 4 ) definiert ist. Die Maximierung bedeutet in diesem Falle nur, die Parallelität zwischen P (x) und P (y) herzustellen. Der Beweis des ersten Teils erfolgt analog, durch die Verkettung der Abbildung (y0 , y1 , y2 , y3 ) 7→ (y0 , −y1 , −y2 , −y3 ) = y 0 mit dem Skalarprodukt im 4 dass nun maxx∈S 3 (hx, yi) zu lösen ist. Diese Aufgabe wird offensichtlich gelöst, falls x und y 0 parallel sind. ¥ Das ursprüngliche Maximierungsproblem wird nun durch 1 K † ∈ SU (2) g=p † det(K ) gelöst. (A.32) Das Problem verändert sich etwas, wenn K tatsächlich eine allgemeine invertierbare Matrix ist. Auch in diesem Fall kann eine Abwandlung der Calay-Klein-Parametrisierung über einem komplexen Vektorraum genutzt werden, da die Identiät und die Pauli-Matrizen eine orthogonale Basis der GL (2) sind. P (k0 , k1 , k2 , d3 ) = k1 + i 3 X i=1 xi σi mit k ∈ 4 (A.33) Bisher war für das Maximierungsproblem maxg Re tr(gK) nicht relevant, ob der Realteil gebildet wurde, da sowohl g, als auch K in P ( 4 ) lagen. Ist jedoch K ∈ P ( 4 ) mit der Parametrisierung P (k) = K, so gelten folgende Eigenschaft. Lemma A.4.2. (Eigenschaften) Ist g ∈ P ( 4 ) und K ∈ P ( 4 ), so gilt: (i) Re tr(P (g)P (K)) = g0 Re(k0 ) + g1 Re(k1 ) + g2 Re(k2 ) + g3 Re(k3 ) ⇒ (ii) Re tr(P (g)P (K)) = tr {P (g)P (Re(K))} Beweis:. Der Beweis der Eigenschaften erfolgt durch Realteil- und Spurbildung. (A.34) ¥ Da mit nun mit A.34 wieder Re(K) ∈ 4 gilt, ist das allgemeinere Maximierungsproblem auf das spezielle zurückgeführt worden und wir können Lemma A.4.1 anwenden. Das allgemeinere Maximierungsproblem max Re tr(gK) mit K = P (k) ∈ GL (2) wird g∈SU (2) daher durch gelöst. g=p 1 det(P (Re(k))† ) P (Re(k))† ∈ SU (2) (A.35) Mit dieser Lösung läßt sich nun eine iterative Methode für dass Maximierungsproblem auf der SU (3) angeben. Sie wurde von N. Cabibbo und E. Marinari vorgeschlagen und sieht die sukzessive Lösung des Problems in den SU (2)-Untergruppen vor [CM82]. Dazu wird zunächst eine Startmatrix K1 = K gewählt. Danach erfolgt eine sich auf den SU (2)Untergruppen wiederholende Prozedur. 100 Kapitel A 1. Löse Anhang max Re tr(gi Ki ) in der Untergruppe, wobei gi in der betrachteten Unter- g 0 ∈SU (2) 0 gruppe die Gestalt ¡ g0 0g¢ ∈ SU (2) hat und sonst die Identitát ist, also zum Beispiel mit der Wahl gi = 0 1 ∈ SU (3). Da die Untergruppenanteile der Ki in P ( ) liegen, ist in dieser Maximierung Gleichung A.35 als Lösungsansatz notwendig. 2. Berechnung von Ki+1 = gi Ki . Durch weiterzählen i = i + 1 wird nun zur nächsten Untergruppe und zum nächsten Iterationsschritt übergegangen. Diese Iteration führt man bis zur numerischen Konvergenz fort. Die Lösung ergibt sich dann aus dem Produkt der SU (2)-Untergruppenabbildungen als g = ... · g3 · g2 · g1 . A.4.3 Polarzerlegung von M ∈ GL(N ) Definition: Über einem Körper heißt für eine invertierbare Matrix M ∈ Gl (N ) die Zerlegung U ∈ U (N ) unitär und M = UH mit (A.36) H hermitesch die Polarzerlegung von M . Diese Zerlegung existiert, da M invertierbar ist. Die Zerlegung ergibt sich dann aus folgender Definition H = (M † M )1/2 , U = M H −1 . (A.37) (A.38) Eine weitere wichtige Folgerung ist die Zerlegung in eine spezielle unitäre Matrix und eine hermitesche Matrix, die sich hieraus berechnen läßt. Bemerkung A.4.3. Hieraus läßt sich unmittelbar eine Zerlegung, M = SR, in eine spezielle unitäre Matrix S ∈ SU (N ) und eine diagonalisierbare5 Matrix R berechnen. Beweis:. Zum Beweis ist in Gleichung A.36 nur noch die n-te Wurzel der Determinante einzuschieben M = U (det U )−1/n (det U )1/n H, sodass für die gesuchte Zerlegung gilt R = (det U )1/n (M † M )1/2 1 −N S = (det U ) MH mit den Bezeichnungen aus der Polarzerlegung. 5 Die Diagonalisierbarkeit folgt aus der Hermitizität von H −1 , (A.39) (A.40) ¥ A.5 Änderung der Wahrscheinlichkeitsverteilung bei Mehrfachanwendung einer Eichfixierungsmethode 101 A.5 Änderung der Wahrscheinlichkeitsverteilung bei Mehrfachanwendung einer Eichfixierungsmethode Nun wird dargelegt, wie sich die Häufigkeitsverteilung über den relativen Funktionalwerten für einen Algorithmus ändert, wenn er n-fach angewendet wird und aus den gefundenen relativen Funktionalwerten der größte ausgewählt wird. Dabei gehen wir davon aus, dass wir die Wahrscheinlichkeitsverteilung über den relativen Funktionalwerten für einfache Anwendung der Eichfixierungsmethode kennen. Wir teilen zunächst die Menge der möglichen Funktionalwerte in disjunkte Klassen Ki ein. Hier entspricht K1 der Klasse mit den größten relativen Funktionalwerten. Die übrigen Klassen sind nach absteigenden Funktionalwerten geordnet. Mit Pn [F ∈ Ki ] wird die Wahrscheinlichkeit bezeichnet, mit der der größte in n Versuchen gefundene relative Funktionalwert, hier mit F abgekürzt, in der Klasse Ki liegt. Sie ist das Produkt von zwei Wahrscheinlichkeiten. Zum einen ist dies die Wahrscheinlichkeit für die Bedingung, dass in n Versuchen keine kleinerem Index gefunden S Kopie mit Funktionalwert in einer Klasse mit S / j<i Kj ] ist die bedingte wird6 Pn [F ∈ / j<i Kj ]. Der zweite Faktor Pn [F ∈ Ki |F ∈ Wahrscheinlichkeit dafür, dass in n Versuchen unter der eben formulierten Bedingung einer der gefundene Funktionalwerte in der Klasse Ki liegt. Es gilt also ¯ # " # " ¯ [ [ ¯ (A.41) Kj / Kj · Pn F ∈ Ki ¯F ∈ / Pn [F ∈ Ki ] = Pn F ∈ ¯ j<i j<i Dabei gilt " / Pn F ∈ [ j<i # " Kj = 1 − Pn F ∈ [ j<i # Kj = 1 − X j<i Pn [F ∈ Kj ] und Pn 6 " ¯ ¯ # " # ¯ ¯ [ [ ¯ ¯ Kj = Pn F ∈ Ki ¯F ∈ Kj F ∈ Ki ¯ F ∈ / ¯ ¯ j<i j≥i ¯ # " ¯ [ ¯ / Ki ¯ F ∈ Kj = 1 − Pn F ∈ ¯ j≥i ¯ #!n à " ¯ [ ¯ Kj / Ki ¯ F ∈ = 1 − P1 F ∈ ¯ j≥i ¯ #!n " à ¯ [ ¯ Kj = 1 − 1 − P1 F ∈ Ki ¯F ∈ ¯ j≥i à !n P1 [F ∈ Ki ] = 1− 1− P j≥i P1 [F ∈ Kj ] ...mit anderen Worten, dass keine Kopie mit größerem Funktionalwert gefunden wird. (A.42) 102 Kapitel A Anhang P ! Es lässt sich zeigen, dass die notwendige Bedingung der Normiertheit j Pn [F ∈ Kj ] = 1 erfüllt ist. Im Idealfall ist die Wahrscheinlichkeitsverteilung der Eichfixierungmethode für einfache Anwendung bekannt und man kann sie für P1 einsetzen. In realistischen Situationen muss man sie aus der gemessenen Häufigkeitsverteilung gewinnen und dann diese für P1 einsetzen. Durch Pn ist nun die Häufigkeitsverteilungen für die n-fache Anwendung bereitgestellt. Index Gleichgewichtsverteilung, 34 Gluonpropagator, 13, 18 Gradientenverfahren, 30 Greensfunktion, 9 Gribov-Kopie, 25 Gribov-Mehrdeutigkeit, 10, 25 Gribov-Rauschen, 27 Gribovgebiet, 26 Gribovhorizont, 26 Überrelaxation, 29 Überrelaxationsparameter, 29, 64 Akzeptanzkriterium, 33 Cayley-Klein-Parametrisierung, 96 charakteristische Funktion, 34 Confinement, 3 Coulomb-Eichung, 24 Critical Slowing Down, 29 Haarsches Maß, 17 Heatbath Aktualisierung, 97 detailed balance, 94 Eichfixierung, 10 Coulomb-Eichung, 24 Gribov-Kopie, 25 kovariante Eichung, 20 Landau-Eichung, 24 Laplace-Eichung, 21 maximal abelsche Eichung, 22 Zentrumseichung, 23 Eichorbit, 25 Eichpotential, 7 Eichtemperatur, 33 Ergodizität, 91 erzeugendes Funktional Gitter, 17 Kontinuum, 9 Importance Sampling, 17 kombinatorisches Optimierungsproblem, 32 kovariante Ableitung, 8 kovariante Eichung, 20 Lagrangedichte, 9 Landau-Eichung, 24 Laplace-Eichung, 21 Markov-Bedingung, 91 Markov-Kette, 91 detailed balance, 94 Ergodizität, 91 Normiertheit, 91 Stabilität, 91 maximal abelsche Eichung, 22 Metropolis-Algorithmus, 32 Akzeptanzkriterium, 33 mikrokanonische Schritte, 29 Multigrid-Algorithmus, 31 Faddeev-Popov Trick, 9 Faddeev-Popov-Geistfeld, 11 Faddeev-Popov-Operator, 26 Farbladung, 7 Feldstärketensor, 8 Flavour, 7 fourierbeschleunigte Eichfixierung, 30 SU (3) Simulation, 65 Fundamental Modular Region, 26 Funktionalintegral Integrationsmaß, 9 Performanz, 42 Plaquette, 16 Polarzerlegung, 100 Quarkpropagator, 13 Quasithermalisiertheit, 36 Ghostpropagator, 13, 19 103 104 Rekurrenz, 91 relativer Funktionalwert, 54 Relaxation, 28 Simulated Annealing, 31 SU (2) Simulation, 43 SU (3) Simulation, 68 Fahrplan, 35 Kostenfunktion, 34 Optimierungskriterien, 43 Parameter, 43 Quasiethermalisiertheit, 36 Schritte, 35 Schrittverteilung, 49 Temperatur, 33 Temperaturschritt, 35 Thermalisierungsschritt, 33 Stabilität, 91 Temperaturschritt, 35 thermisches Gleichgewicht, 32 Wahrscheinlichkeitsverteilung Abstand, 92 Wick-Rotation, 13 Wilson-Wirkung, 16 Wirkung effektive, 11 Yang-Mills-Lagrangedichte, 8 Zentrumseichung, 23 INDEX Literaturverzeichnis [Adl81] Adler, S.L.: Overrelaxation method for the Monte Carlo evaluation of the partition function for multiquadratic actions. In: Phys. Rev. D 23 (1981), S. 2901 [AK89] Aarts, E. ; Korst, J.: Simulated Annealing and Boltzmann Machines. John Wiley & Sons, Inc., 1989 [AL73] Abers, E. S. ; Lee, B. W.: Gauge Theories. In: Phys. Rept. 9 (1973), S. 1–141 [B+ 85] Batrouni, G. G. u. a.: Langevin simulations of lattice field theories. In: Phys. Rev. D32 (1985), S. 2736 [B+ 91] Bornyakov, V. G. u. a.: The Density of monopoles in SU(2) lattice gauge theory. In: Phys. Lett. B261 (1991), S. 116–122 [Bai99] Baierl, R. H.: Konvexe Polyeder. Klassische und hybride numerische Generierungsmethoden. 1999 [BBMPS96] Bali, G. S. ; Bornyakov, V. ; Müller-Preussker, M. ; Schilling, K.: Dual Superconductor Scenario of Confinement: A Systematic Study of Gribov Copy Effects. In: Phys. Rev. D54 (1996), S. 2863–2875 [BCLM03] Bloch, J. C. R. ; Cucchieri, A. ; Langfeld, K. ; Mendes, T.: Running coupling constant and propagators in SU(2) Landau gauge. In: Nucl. Phys. Proc. Suppl. 119 (2003), S. 736–738 [Ber66] Berezin, F. A.: Method of Second Quantization. Academic Press, 1966 [BFGM72] Bardeen, W. A. ; Fritzsch, H. ; Gell-Mann, Murray: Light-cone current algebra, π0 decay, and e+ e− annihilation. (1972) [BH76] Barker, J. A. ; Henderson, D.: What ist ”liquid”? Understanding the states of matter. In: Rev. Mod. Phys. 48 (1976), S. 587–671 [Bil95] Billingsley, P.: Probability and Measure. John Wiley & Sons, 1995 [BIMMP04] Bakeev, T. D. ; Ilgenfritz, E.-M. ; Mitrjushkin, V. K. ; MüllerPreussker, M.: On practical problems to compute the ghost propagator in SU(2) lattice gauge theory. In: Phys. Rev. D69 (2004), S. 074507 105 106 LITERATURVERZEICHNIS [BW87] Brown, F. R. ; Woch, T. J.: Overrelaxed heat bath and Metropolis algorithms for accelerating pure gauge Monte Carlo calculations. In: Phys. Rev. Lett. 58 (1987), S. 2394 [CFIS04] Chernodub, M. N. ; Feldmann, R. ; Ilgenfritz, E.-M. ; Schiller, A.: Phase structure and gauge boson propagator in the radially active 3D compact Abelian Higgs model. In: Phys. Rev. D 70 (2004), S. 074501 [CM82] Cabibbo, N. ; Marinari, E.: A new method for updating SU(N) matrices in computer simulations fo gauge theories. In: Phys. Lett. B119 (1982), S. 387–390 [CM98] Cucchieri, A. ; Mendes, T.: A multigrid implementation of the Fourier acceleration method for Landau gauge fixing. In: Phys. Rev. D57 (1998), S. 3822–3826 [CM03] Cucchieri, A. ; Mendes, T.: Critical slowing-down in SU(2) Landaugauge-fixing algorithms at β = ∞. In: Comput. Phys. Commun. 154 (2003), S. 1–48 [Cuc97] Cucchieri, A.: Gribov copies in the minimal Landau gauge: The influence on gluon and ghost propagators. In: Nucl. Phys. B508 (1997), S. 353–370 [Cuc99] Cucchieri, A.: Infrared behavior of the gluon propagator in lattice Landau gauge: The three-dimensional case. In: Phys. Rev. D60 (1999), S. 034508 [D+ 88] Davies, C. T. H. u. a.: Fourier acceleration in lattice gauge theories. 1. Landau gauge fixing. In: Phys. Rev. D 37 (1988), S. 1581 [DDFGO97] Del Debbio, L. ; Faber, M. ; Greensite, J. ; Olejnik, S.: Center dominance and Z(2) vortices in SU(2) lattice gauge theory. In: Phys. Rev. D55 (1997), S. 2298–2306 [DF90] Decker, K. M. ; Forcrand, P.: Pure SU (2) lattice gauge theory on 324 lattices. In: Nucl. Phys. Proc. Suppl. 17 (1990), S. 567 [DG05] Di Giacomo, Adriano: Confinement in QCD: Results and open problems. (2005) [Die03] Dietrich, D.D.: Produktion von Partonen in Anwesenheit klassischer Felder in ultrarelativistischen Schwerionenkollisionen. (2003). – Disertationsarbeit im Fach Physik an der Goethe-Universität in Frankfurt am Main [ELRT00] Engelhardt, M. ; Langfeld, K. ; Reinhardt, H. ; Tennert, O.: Deconfinement in SU(2) Yang-Mills theory as a center vortex percolation transition. In: Phys. Rev. D61 (2000), S. 054504 [Fey48] Feynman, R. P.: Space-time approach to nonrelativistic quantum mechanics. In: Rev. Mod. Phys. 20 (1948), S. 367–387 [FGML73] Fritzsch, H. ; Gell-Mann, Murray ; Leutwyler, H.: Advantages of the color octet gluon picture. In: Phys. Lett. B47 (1973), S. 365–368 LITERATURVERZEICHNIS 107 [FH65] Feynman, R. P. ; Hibbs, A. R.: Quantum Mechanics and Path Integrals. McGraw-Hill, 1965 [FH84] Fabricius, K. ; Haan, O.: Heat bath method for the weisted Eguchi-Kawai model. In: Phys. Lett. B143 (1984), S. 459 [For89] Forcrand, P. de: Multigrid techniques for quarik propagator. In: Nucl. Phys. Proc. Suppl. 9 (1989), S. 516–520 [FP67] Faddeev, L. D. ; Popov, V. N.: Feynman diagrams for the Yang-Mills field. In: Phys. Lett. B25 (1967), S. 29–30 [Geh02] Gehrmann, B.: The step scaling function of QCD at negative flavor number. (2002) [GG84] Geman, S. ; Geman, D.: Stochastic relaxation, Gibbs distributions, and the bayesian restoration of images. In: IEEE Transactions on Pattern Analysis and Machine Intelligence 6 (1984), S. 721 [Giu97] Giusti, L.: Lattice gauge-fixing for generic covariant gauges. In: Nucl. Phys. B498 (1997), S. 331–344 [GLR04] Gattnar, Jochen ; Langfeld, Kurt ; Reinhardt, Hugo: Signals of confinement in Green functions of SU(2) Yang- Mills theory. In: Phys. Rev. Lett. 93 (2004), S. 061601 [GM64] Gell-Mann, Murray: A schematic model of baryons and mesons. In: Phys. Lett. 8 (1964), S. 214–215 [GM84] Gutbrod, F. ; Montvay, I.: Scaling of the quark - anti-quark potential and improved actions in SU(2) lattice gauge theoriy. In: Phys. Lett. B136 (1984), S. 411 [GPP+ 01] Giusti, L. ; Paciello, M. L. ; Parrinello, C. ; Petrarca, S. ; Taglienti, B.: Problems on lattice gauge fixing. In: Int. J. Mod. Phys. A16 (2001), S. 3487–3534 [Gri78] Gribov, V. N.: Quantization of non-Abelian gauge theories. In: Nucl. Phys. B139 (1978), S. 1 [Gro05] Gross, D. J.: The discovery of asymptotic freedom and the emergence of QCD. In: Proc. Nat. Acad. Sci. 102 (2005), S. 9099–9108 [GS89] Goodman, J. ; Sokal, A. D.: Multigrid Monte Carlo method: conceptual foundations. In: Phys. Rev. D 40 (1989), S. 2035–2071 [Gut96] Gutbrod, F.: A study of the gluon propagator in SU(2) lattice gauge theory. (1996). – DESY-96-252 [HLS92] Hulsebos, A. ; Laursen, M. L. ; Smit, J.: SU(N) multigrid Landau gauge fixing. In: Phys. Lett. B291 (1992), S. 431–436 108 LITERATURVERZEICHNIS [Jon90] Jones, H. F.: Goups, Representations and Physics. Adam Hilger, 1990 [KGJV83] Kirkpatrick, S. ; Gelatt Jr., C. D. ; Vecchi, M. P.: Optimization by Simulated Annealing. In: Science 220 (1983), S. 671 [Kle84] Klein, F.: Vorlesung über das Ikosaeder. B. G. Teubner Verlag, 1884 [Kne99] Knechtli, F.: The static potential in the SU(2) Higgs model. (1999) [KP85] Kennedy, A. D. ; Pendleton, B. J.: Improved heat bath method for Monte Carlo calculations in lattice guge theories. In: Phys. Lett. B156 (1985), S. 393–399 [KPSZ05] Kovalenko, A. V. ; Polikarpov, M. I. ; Syritsyn, S. N. ; Zakharov, V. I.: Properties of P-vortex and monopole clusters in lattice SU(2) gauge theory. In: Phys. Rev. D71 (2005), S. 054511 [KSW87] Kronfeld, Andreas S. ; Schierholz, G. ; Wiese, U. J.: Topology and dynamics of the confinement mechanism. In: Nucl. Phys. B293 (1987), S. 461 [Lee75] Lee, B. W.: Lecture notes at Les Houches Summer School. (1975) [LRG02] Langfeld, K. ; Reinhardt, H. ; Gattnar, J.: Gluon propagators and quark confinement. In: Nucl. Phys. B621 (2002), S. 131–156 [LRT98] Langfeld, Kurt ; Reinhardt, Hugo ; Tennert, Oliver: Confinement and scaling of the vortex vacuum of SU(2) lattice gauge theory. In: Phys. Lett. B419 (1998), S. 317–321 [LSWP98] Leinweber, Derek B. ; Skullerud, Jon I. ; Williams, Anthony G. ; Parrinello, Claudio: Gluon propagator in the infrared region. In: Phys. Rev. D58 (1998), S. 031501 [Man76] Mandelstam, S.: Vortices and quark confinement in non-Abelian gauge theories. In: Phys. Rept. 23 (1976), S. 245–249 [Man99] Mandula, Jeffrey E.: The gluon propagator. In: Phys. Rept. 315 (1999), S. 273–284 [MO87] Mandula, J. E. ; Ogilvie, M.: The gluon is massive: A lattice calculation of the gluon propagator in the Landau gauge. In: Phys. Lett. B185 (1987), S. 127–132 [Mon00] Montero, A.: SU(3) vortex-like configurations in the maximal center gauge. In: Nucl. Phys. Proc. Suppl. 83 (2000), S. 518–520 [MRR+ 53] Metropolis, N. ; Rosenbluth, A. W. ; Rosenbluth, M. N. ; Teller, A. H. ; Teller, E.: Equation of state calculations by fast computing machines. In: J. Chem. Phys. 21 (1953), S. 1087–1092 [Nam74] Nambu, Yoichiro: Strings, monopoles, and gauge fields. In: Phys. Rev. D10 (1974), S. 4262 LITERATURVERZEICHNIS 109 [NF04] Nakajima, H. ; Furui, S.: Infrared features of the lattice Landau gauge QCD. In: Nucl. Phys. Proc. Suppl. 129 (2004), S. 730–732 [Pag75] Pagels, H.: Departures from Chiral Symmetry: a Review. In: Phys. Rept. 16 (1975), S. 219 [Rot97] Rothe, H. J.: Lattice Gauge Theories. Bd. Vol. 59. World Scientific Lecture Notes in Physics, 1997 [SIMPS05a] Sternbeck, A. ; Ilgenfritz, E. M. ; Muller-Preussker, M. ; Schiller, A.: The influence of Gribov copies on the gluon and ghost propagator. In: AIP Conf. Proc. 756 (2005), S. 284–286 [SIMPS05b] Sternbeck, A. ; Ilgenfritz, E.-M. ; Müller-Preussker, M. ; Schiller, A.: Towards the infrared limit in SU(3) Landau gauge lattice gluodynamics. In: Phys. Rev. D72 (2005), S. 014507 [Sin78] Singer, I. M.: Some remarks on the Gribov ambiguity. In: Commun. Math. Phys. 60 (1978), S. 7–12 [SO04] Silva, P. J. ; Oliveira, O.: Gribov copies, lattice QCD and the gluon propagator. In: Nucl. Phys. B690 (2004), S. 177–198 [SS96] Suman, H. ; Schilling, K.: First Lattice Study of Ghost Propagators in SU(2) and SU(3) Gauge Theories. In: Phys. Lett. B373 (1996), S. 314–318 [Sta93] Stals, L.: Parallel Implementation of Multigrid Methods. In: Proceedings of the Sixth Biennial Conference on Computational Techniques and Applications, Canberra (1993) [STW02] Stack, J. D. ; Tucker, W. W. ; Wensley, R. J.: Confinement in SU(3): Simple and generalized maximal Abelian gauge. (2002) [SW01] Stack, J. D. ; Wensley, R. J.: The maximal Abelian gauge, monopoles, and vortices in SU(3) lattice gauge theory. (2001) [’t 71] ’t Hooft, G.: Renormalization of massless Yang-Mills fields. In: Nucl. Phys. B33 (1971), S. 173–199 [’t 78] ’t Hooft, G.: On the phase transition towards permanent quark confinement. In: Nucl. Phys. B138 (1978), S. 1 [’t 81] ’t Hooft, G.: Topology of the gauge condition and new confinement phases in non-Abelian gauge theories. In: Nucl. Phys. B190 (1981), S. 455 [Til] Tilma, T. E.: SU(N) and U(N) Euler angle parametrization with applications for multiparticle entanglement modeling. . – UMI-31-10593 [Wil74] Wilson, K. G.: Confinement of quarks. In: Phys. Rev. D10 (1974), S. 2445–2459 [Wol90] Wolff, U.: Critical slowing down. In: Nucl. Phys. Proc. Suppl. 17 (1990), S. 93–102 110 LITERATURVERZEICHNIS [Zwa91] Zwanziger, D.: Vanishing of zero momentum lattice gluon propagator and color confinement. In: Nucl. Phys. B364 (1991), S. 127–161 [Zwa04] Zwanziger, D.: Nonperturbative Faddeev-Popov formula and infrared limit of QCD. In: Phys. Rev. D69 (2004), S. 016002 Danksagung Ich danke Herrn Prof. Michael Müller-Preußker für die Bereitstellung dieses sehr interessanten Themas als Diplomarbeit, für seine anhaltende Geduld und die zahlreichen klärenden und den Horizont erweiternden Diskussionen, die die Entstehung dieser Diplomarbeit begleiteten. Michael Ilgenfritz danke ich für die Anregungen und die Unterstützung insbesonders in hektischen und unübersichtlichen Phasen des Dimplomierens. Ich habe auch sehr den erheiternden, informativen Gedankenaustausch mit ihm und Andre Sternbeck über die deutsche Rechtschreibung und Grammatik genossen. Andre Sternbeck danke ich für die Bereitstellung des Programmpaketes mit dem ich die Gittereichfixierung durchführen konnte und in dass ich die Ikosaeder-Eichfixierung einbinden durfte. Ich danke ihm außerdem für die erleuchtenden Diskussionen und Hinweise und für die Bereitstellung des Bildes zum Ghost-Propagator. Insbesonder danke ich auch Dirk Peschka für die hilfreiche Diskussion meiner Arbeit und die zahlreichen Denkanstöße. Ich danke dem Rechenzentrum der Humboldt-Universität und dem “Norddeutschen Verbund für Hoch- und Höchstleistungsrechnen” für die Bereitstellung von Rechenzeit auf den rechenstarken Rechner-Clustern. Abschließend möchte ich meinen Freunden und meiner Familie für den sozialen und emotionalen Rückhalt und die moralische Unterstützung während der Zeit der Diplomarbeit danken. 111 Eidesstattliche Versicherung Hiermit erkläre ich an Eides statt, daß ich die vorliegende Diplomarbeit selbstständig verfaßt und keine anderen als die angegebenen Hilfsmittel verwendet habe. Peter Schemel Berlin, den 19.12.2005 verwendete Hilfsmittel: • Matlab: für die Auswertung der Daten und die Erstellung der Grafiken • Latex: für die Formatierung des vorliegenden Textes • Fortran90: für die numerischen Berechnungen