2010 - 49. Herbstschule für Hochenergiephysik 2017

Werbung
42. Herbstschule
für
Hochenergiephysik
Maria Laach
7.–17. September 2010
Zusammenfassungen
der Kurzberichte
der Teilnehmerinnen und Teilnehmer
Die Herbstschule für Hochenergiephysik
wird vom
Bundesministerium für Bildung und Forschung (BMBF)
finanziell unterstützt.
Programm
Vorlesungen
Physik am LHC und erste Resultate
Claudia Wulz
HEPHY Wien
QCD at Hadron Colliders
Gavin Salam
LPTHE Paris
Elektroschwache Aspekte des Standardmodells
Stefan Dittmaier
Uni Freiburg
Physics beyond the Standard Model
Christophe Grojean
CERN
Dunkle Materie und Neutrinos
Béla Majorovits
MPI München
Neue Methoden der Teilchenbeschleunigung
Ralph Aßmann
CERN
Particle Cosmology
Viatcheslav Mukhanov
LMU und MPI München
Abendvorträge
Welt von gestern, Lebensmöglichkeit heute
Pater Athanasius Wolff
Maria Laach
Geologie der Vulkaneifel
Brigitte Bethke
Bad Dürkheim
Wie weit reicht die physikalische Erkenntnis?
Paul Hoyningen-Huene
Uni Hanover
Übungen
Feynman Diagramme für Anfänger
Thorsten Ohl
Uni Würzburg
Renormierung und effektive Feldtheorie
Peter Uwer
HU Berlin
Supersymmetrie
Oliver Brein
Uni Freiburg
Koordinatoren der Gruppenberichte
4
Gruppe
Experiment
Theorie
A
Petra Haefner
MPI München.
Bernd Jantzen
RWTH Aachen
B
Peter Wagner
U Pennsylvania
Sven Faller
Uni Siegen
C
Kevin Kröninger
Uni Göttingen
Alexander Knochel
Uni Freiburg
Zeitplan
Dienstag
Mittwoch
Donnerstag
Freitag
Samstag
7.9.
8.9.
9.9.
10.9.
11.9.
08:30–09:25
Wulz
Mukhanov
Dittmaier
Dittmaier
09:40–10:35
Mukhanov
Mukhanov
Wulz
Wulz
10:50–11:45
Dittmaier
Wulz
Dittmaier
Übungen
11:55
14:30–15:25
Mittagessen
Übungen
Übungen
Übungen
Übungen
15:45–16:45
Übungen
Gruppen
Übungen
Gruppen
17:00–18:00
Übungen
Gruppen
Gruppen
Gruppen
Anreise
18:25
19:30
Abendessen
Begrüßung
20:00
Wolff
Bethke
Montag
Dienstag
Mittwoch
Donnerstag
Freitag
13.9.
14.9.
15.9.
16.9.
17.9.
08:30–09:25
Majorovits
Salam
Salam
Aßman
Salam
09:40–10:35
Grojean
Majorovits
Aßmann
Salam
Aßmann
10:50–11:45
Kirchenbesuch
Grojean
Grojean
Grojean
Diskussion
Abreise
11:55
Mittagessen
14:30–16:00
Majorovits
Übungen
Übungen
Übungen
16:30–18:00
Gruppen
Gruppen
Gruppen
Gruppen
18:25
20:00
Abendessen
HoyningenHuene
Abschlussabend
5
Teilnehmerinnen und Teilnehmer
Detektor- und Beschleunigertechnologie
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Institut
Aachen
D-1 (A)
III. Physikalisches Institut B, RWTH Aachen
Dennis Terhorst
T2K – Konzept und aktueller Stand
11
Freiburg
D-2 (B)
Universität Freiburg
Uwe Renz
Mikrostrukturierte Gasdetektoren mit pixellierter Auslese
11
Freiburg
D-3 (C)
Physikalisches Institut, Universität Freiburg
Kim Temming
MPGD-Studien mittels präziser Laser-Photoelektronen
13
Garching
D-4 (A)
Stefanie Adomeit
LMU München
Konstruktion eines Szintillator-Trigger-Hodoskops für Testmessungen bei hohem radioaktivem Untergrund
Göttingen
D-5 (B)
II. Physikalisches Institut, Universität Göttingen
Nina Krieger
Insertable B-Layer Upgrade des ATLAS Pixel Detektors
14
Göttingen
D-6 (C)
II. Physikalisches Institut, Universität Göttingen
Benjamin Schwenker
Simulation eines DEPFET Pixel Detektors in Testrahlmessungen
15
Hamburg
D-7 (A)
Universität Hamburg / DESY
Nils Feege
Niederenergetische Pion-Schauer in einem hochauflösenden Hadron-Kalorimeter
16
Hamburg
D-8 (B)
Isa Heinze
DESY
Weiterentwicklung von Rekonstruktionsalgorithmen für Zeitprojektionskammern
16
Kirchhoff Institut für Physik, Universität Heidelberg
Heidelberg Wei Shen
D-9 (C)
Auslese-ASIC für Silizium Photomultipliers in Positronen-Emissions-Tomographie
Zeuthen
D-10 (A)
6
Conrad Friedrich
DESY
Das sLHC-Upgrade des ATLAS-Silizium-Streifendetektors
Seite
13
17
18
Experimentelle Analyse
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Aachen
E-1 (A)
III. Physikalisches Institut A, RWTH Aachen
Andreas Güth
Messung der inklusiven W ! und Z ! Wirkungsquerschnitte in ppp
Kollisionen bei s D 7 TeV mit dem CMS-Detektor
Aachen
E-2 (B)
III. Physikalisches Institut A, RWTH Aachen
Mark Olschewski
Modellunabhängige Suche in CMS
Aachen
E-3 (C)
I. Physikalisches Institut B, RWTH Aachen
Hendrik Weber
Suche nach neutralen MSSM Higgs Bosonen h=A=H im b-assoziierten Zerfall in
zwei Myonen am CMS-Experiment
Berlin
E-4 (A)
Thomas Lück
HU Berlin
Inklusive Bestimmung von Vub bei BABAR
Bonn
E-5 (B)
Physikalisches Institut, Universität Bonn
Sebastian Fleischmann
Stau im LHC: Entdeckungspotential für R-Paritätsverletzende supersymmetrische
Modelle
Physikalisches Institut, Universität Bonn
Agnieszka Leyko
W+jets als Hauptuntergrundprozess für die Messung des Produktionswirkungsquerschnitts von Top-Antitop-Paaren im semileptonischen Zerfallskanal unter Anwendung von b-Tagging mit dem ATLAS-Detektor am LHC
Bonn
E-6 (C)
Institut
Seite
20
21
21
22
23
25
Bonn
E-7 (A)
Sebastian Mergelmeyer
Universität Bonn
D -Photoproduktion mit assoziierten Jets und Vertices bei ZEUS
Bonn
E-8 (B)
Physikalisches Institut, Universität Bonn
Thomas Schwindt
Technische Studien zur Messung des Z ! Wirkungsquerschnitts mit dem
ATLAS-Experiment
Dortmund
E-9 (C)
Sebastian Schleich
TU Dortmund
Studien zum Zerfall Bs ! bei LHCb
Dresden
E-10 (A)
Freiburg
E-11 (B)
Institut für Kern- und Teilchenphysik, TU Dresden
Patrick Czodrowski
Bestimmung der Fehlidentifikationsrate von -Leptonen durch Elektronen mit ATLAS am LHC
Physikalisches Institut, Universität Freiburg
Katharina Schmidt
Exklusive Produktion von 0 Mesonen am COMPASS Experiment
Gießen
E-12 (C)
II. Physikalisches Institut der JLU Gießen
Irina Brodski
Messung generalisierter Partonverteilungen bei HERMES und P ANDA
29
Hamburg
E-13 (A)
Institut für Experimentalphysik, Universität Hamburg
Hanno Perrey
Jet-Wirkungsquerschnitte in neutralen Reaktionen bei HERA
29
Hamburg
E-14 (B)
DESY / Universität Hamburg
Hannes Schettler
Datenvalidierung aus der SUSY-Perspektive bei CMS
30
Institut für Experimentalphysik, Uni Hamburg
Martin Wildt
Studium von 2-Photon-Endzuständen im GMSB-Modell bei ATLAS
Physikalisches Institut, Universität Heidelberg
Heidelberg Christian Linn
E-16 (A)
Erste Schritte zur Messung der schwachen Mischungsphase im Zerfall Bs ! J = ˚
bei LHCb
Hamburg
E-15 (C)
25
26
27
27
28
31
31
7
Physikalisches Institut, Universität Heidelberg
Heidelberg Manuel Schiller
p
E-17 (B)
Messung des KS -Wirkungsquerschnitts in pp-Kollisionen bei s D900 GeV mit
dem LHCb-Experiment
Karlsruhe
E-19 (A)
Institut für Experimentelle Kernphysik, KIT
Dominik Horn
Messung des Verzweigungsverhältnisses des Meson-Zerfalls Bs0 ! DsC Ds bei
CDF-II
Institut für Experimentelle Kernphysik, KIT
Felix Wick
Charm-Baryon-Spektroskopie bei CDF
33
Mainz
E-20 (B)
Andreas Hafner
Universität Mainz
Hadronische Wirkungsquerschnittsmessungen via ISR bei BABAR
34
Mainz
E-21 (C)
Institut für Physik, Johannes-Gutenberg-Universität Mainz
Christian Schröder
Studien zum Nachweis eines schweren Eichboson im Zerfallskanal W 0 ! e am
34
ATLAS-Experiment
München
E-22 (A)
Max-Planck-Institut für Physik
Andreas Moll
B-Physik am Belle-Experiment: Untersuchung von CP-Verletzung
München
E-23 (B)
Max-Planck-Institut für Physik
Sebastian Stern
Suche nach dem MSSM Higgsbosonzerfall h=A=H ! C p
Detektor bei s D 10 und 7 TeV.
Rostock
E-24 (C)
Institut für Physik, Universität Rostock
Oliver Grünberg
Analyse des Zerfalls B ! ˙cCC p bei BABAR
36
Siegen
E-25 (A)
Fachbereich 7 - Physik, Universität Siegen
Marcus Rammes
Untersuchung radiativer Top-Quark-Prozesse pp ! t tN am ATLAS-Detektor
37
Wuppertal
E-26 (B)
Universität Wuppertal
Sebastian Weber
Positionskorrektur des CALICE-Kalorimeters (Detector Alignment)
39
Karlsruhe
E-18 (C)
8
32
mit dem ATLAS-
32
35
36
Theorie
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Institut
Seite
Amsterdam Reinier De Adelhart TooropNikhef
T-1 (A)
Familiensymmetrien und GUTs
40
Berlin
T-2 (B)
Mohammad Assadsolimani Institut für Physik, HU Berlin
Numerische NLO-Rechnungen in QCD
41
Bielefeld
T-3 (C)
Marcel Müller
Universität Bielefeld
Thermodynamischer Limes und Kontinuumlimes von Meson-Screeningmassen
42
Dortmund
T-4 (A)
Theoretische Physik III, TU Dortmund
Danny van Dyk
Die Vorzüge des Zerfalls BN ! KN l C l bei großen Dileptonmassen
43
Dresden
T-5 (B)
Freiburg
T-6 (C)
Institut für Kern- und Teilchenphysik, TU Dresden
Alexander Voigt
Die Berechnung von Schwellenkorrekturen im Exzeptionellen Supersymmetrischen
Standardmodell (E6 SSM)
Universität Freiburg
Sebastian Schmidt
Implementation von Parton Showern für WHIZARD
Hamburg
T-7 (A)
Sarah Andreas
Hidden Sektor Teilchen
Hamburg
T-8 (B)
Patrick Rieth
Theorie, DESY
On-Shell-Renormierung von Mischungsmatrizen
46
Karlsruhe
T-9 (C)
Institut für Theoretische Physik, KIT
Eva Popenda
Der flavorverletzende Zerfall tQ1 ! c C Q 01 auf Einschleifenniveau
47
Karlsruhe
T-10 (A)
Institut für Theoretische Teilchenphysik, KIT
Nikolai Zerf
Higgs-Bosonproduktion durch Gluonfusion in NNLO im MSSM
48
Mainz
T-11 (B)
Institut für Physik, Universität Mainz
Sebastian Becker
Automatisierung von Einschleifenrechnungen
49
München
T-12 (C)
München
T-13 (B)
Max-Planck-Institut für Physik
Peter Graf
Axionen im frühen Universum
Physik Department T31, TU München
Andreas Joseph
Flavorsymmetrien des Leptonsektors
52
München
T-14 (A)
Alexander Pritzel
LMU München
Über die Enstehung der Arten durch große Eichgruppen
53
43
44
Deutsches Elektronen Synchrotron, DESY
Institut für Theoretische Teilchenphysik, KIT
Regensburg Markus Bobrowski
T-15 (B)
Mischung neutraler D-Mesonen im Standardmodell
45
51
54
Wien
T-17 (B)
Theoretische Physik 1, Universität Siegen
Patrick Gelhausen
Colorflow-Methode bei QCD-Prozessen
Fakultät für Physik, Universität Wien
Patrick Otto Ludl
Endliche Familiensymmetriegruppen im Leptonsektor
56
Wuppertal
T-18 (A)
Universität Wuppertal
Hendrik Mantler
Higgs-Produktion durch Gluonfusion im MSSM
58
Siegen
T-16 (A)
55
9
Würzburg
T-19 (B)
Zeuthen
T-20 (A)
10
Institut für Theoretische Physik und Astrophysik,
Universität Würzburg
Bestimmung der R-paritätsverletzenden Parameter im MSSM mit bilinear gebrochener R-Parität
Dirk Hesse
NIC, DESY
Automatisierte Gitterstörungstheorie im Schrödinger Funktional
Frank Thomas
59
60
D. Detektor- und Beschleunigertechnologie
D-1 (A) T2K – Konzept und aktueller Stand
D ENNIS T ERHORST
III. Physikalisches Institut B, RWTH Aachen
Das in Japan aufgebaute long baseline Neutrinooszillations-Experiment T2K hat Anfang diesen Jahres
begonnen Daten aufzuzeichnen. Es wird mit einem hochintensiven Strahl Myon-Neutrinos die Oszillation zu Elektron-Neutrinos vermessen. Dabei sollen sowohl das Erscheinen der Elektron-Neutrinos, wie
auch das Verschwinden der Myon-Neutrinos betrachtet werden und daraus wichtige Parameter der leptonischen Mischungsmatrix des Standardmodells bestimmt werden. Insbesondere soll der kaum bekannte
Mischungswinkel 13 bestimmt, bzw. stark eingeschränkt, werden.
Der Vortrag gibt einen kurzen Überblick der zugrunde liegenden Mechanismen, gefolgt von einer Darstellung des experimentellen Aufbaus. Abschließend wird der aktuelle Stand und erste Analysen gezeigt.
D-2 (B) Mikrostrukturierte Gasdetektoren mit pixellierter Auslese
U WE R ENZ
Universität Freiburg
In den vergangenen Jahren erfuhr die Forschung an auf Gas basierenden Detektoren für den Nachweis
geladener Teilchen neuen Anschub. Durch die Entwicklung sogenannter Mikrostrukturierter Gasdetektoren (MPGD) war es möglich, neue Anwendungsgebiete für diese Art von Spurkammern aufzustoßen.
Die MPGDs bestehen im Gegensatz zu ihren Vorfahren, den Vieldraht-Proportional-Kammern (MWPCs),
nicht aus Reihen von Drähten, sondern machen sich moderne industrielle Entwicklungen aus den Bereichen Elektronik und Mikroelektronik zur Bearbeitung von Platinen und Halbleitern zunutze. Während im
Falle der Drahtkammer die Auslesegranularität und damit das Auflösungsvermögen der Detektoren durch
die mechanische Stabilität der Drähte und damit im wesentlichen deren Durchmesser beschränkt war,
besteht diese Limitation bei Verwendung von MPGDs nicht mehr. Diese bestehen ihrerseits aus feinen
Strukturen im Bereich weniger Mikrometer, welche mit Hilfe photolithographischer Prozesstechniken
und moderner Materialien aus der Mikroelektronik modelliert werden. Einer der wichtigsten Vertreter
seiner Gattung ist der sogenannte Gas-Elektron-Multiplier (GEM).
Abbildung D.1 a) illustriert die Funktionsweise einer GEM. Diese besteht aus einer 50 m dicken hochiR
solierenden Kapton-Folie,
welche beiderseits jeweils mit einer 5 m starken Kupferschicht bedeckt ist.
In diese drei Materiallagen werden doppel-konische Löcher geätzt. Durch Anlegen einer Spannung von
einigen hundert Volt ( 300 500 V) treten in den Löcher sehr hohe Feldstärken ( 60 120 kV=cm)
auf, in welchen die Ladungsvervielfachung durch heftige Kollisionen der primären Ladung mit den Atomen bzw. Molekülen des Nachweisgases stattfindet. Mehrere GEMs können kaskadiert werden um die
Gasverstärkung weiter zu erhöhen und gleichzeitig die Wahrscheinlichkeit eines zerstörerischen Funkenüberschlags gering zu halten.
Wie in Abb. D.1 b) dargestellt, findet der Teilchennachweis in einem Driftvolumen statt, welches sich
12
42. Herbstschule für Hochenergiephysik Maria Laach 2010
vor der eigentlichen Stufe der Gasverstärkung befindet. Ein elektrisches Feld lässt die primär erzeugte
Ladung von typischerweise einigen dutzende Elektronen in Richtung der GEM driften. Dort findet die
Ladungsvervielfachung zur Auslese des Signals statt, welche bis vor wenigen Jahre ausschließlich durch
konventionelle Elektronik bewerkstelligt wurde. Diese beruhte auf segmentierten, metallischen Flächen
zur Sammlung der Ladung in Verbindung mit ladungsempfindlichen Verstärkern und weiterer signalverabeitender Elektronik. Nun stellt allerdings diese Auslesekonzept den limitierenden Faktor für die Auslesegranularität bei der Konstruktion von MPGD basierenden Spurkammern da. Auf Grund technologischer
Einschränkungen können die verwendeten segmentierten Metallflächen zur Ladungssammlung nicht kleiner als mehrere hundert Mikrometer gefertigt werden - etwa ein Faktor fünf größer als die Strukturen von
GEMs.
Seit wenigen Jahren verfolgen nun zwei deutsche Forschungsgruppen recht erfolgreich den Versuch einer
sogenannten pixellierten Auslese der GEM. Dies bedeutet, dass die eben beschriebenen segmentierten
Metallflächen durch einen hochintegrierten, pixellierten Baustein, vergleichbar dem CCD-Chip einer Digitalkamera, ersetzt wird. Dabei bedient man sich bereits existierender, sogenannter hybrider, Halbleiterdetektoren, welche schon seit längerem in zahlreichen Experimenten der Hochenergiephysik Verwendung
finden und benutzt den dort verbauten ladungsempfindlichen pixellierten Auslesechip. Die hier vorgestellte Arbeit befasst sich dabei vor allem mit den Chips der MediPix-Familie, dem MediPix2- und TimePixChip. Diese bestehen aus 256 256 Pixeln mit einer Größe von jeweils 55 55 m2 . Abbildung D.1 c)
zeigt den TimePix-Chip mit einer aktiven Fläche von 1; 4 1; 4 cm2 . Damit ist nun die Granularität der
Auslese in der gleichen Größenordnung wie die Strukturen der MPGDs selbst und schränkt daher nicht
länger das Auflösungsvermögen des Detektors ein.
Während der MediPix-Chip lediglich die Anzahl von Ereignissen zählen kann, ist der TimePix-Chip außerdem in der Lage die Driftzeit zu messen. Mit Hilfe dieser kann, bei bekannter Driftgeschwindigkeit
der primär erzeugten Ladung im Gas, die Position der Teilchenspur senkrecht zur Ausleseebene vermessen werden. Ohne die Information über die Driftzeit wäre lediglich eine zweidimensionale Projektion der
Spur auf die Ausleseebene rekonstruierbar. Zusätzlich kann der TimePix-Chip alternativ auch die Dauer
eines Signales auf einem Pixel oberhalb einer einstellbaren Schwelle messen. Diese sogenannte “TimeOver-Threshold” (TOT), in welcher sich das Eingangssignal über der Schwelle befindet, ist proportional
zur dort deponierten Ladung. Mit Hilfe der TOT lassen sich daher Rückschlüsse auf den Energieverlust
eines Teilchens im Detektor ziehen.
Dieser Vortrag zeigt Resultate eines Versuchsaufbaus, s.a. Abb. D.1 b), bestehend aus drei kaskadierten
GEMs zur Gasverstärkung in Kombination mit einem TimePix-Chip zur Signalauslese. Verschieden Studien zur Energie-, Orts- und Zeitauflösung zeigen die Potenz eines solchen Systems.
Abbildung D.1.: a) Simulation der Äquipotential- und der Feldlinien einer GEM. Eingezeichnet: Spur
eines ionisierenden Teilchens und Vervielfachung der Primärladung. b) Schematische Darstellung des
Versuchsaufbaus bestehend aus: 6 mm hohen Driftvolumen, 3-fach GEM Stapel und
MediPix2/TimePix-Chip. c) TimePix-Chip mit 256 256 Pixeln von jeweils 55 55 m2 Größe.
Rahmen l.u.: vergrößerte Darstellung der Pixelmatrix.
D. Detektor- und Beschleunigertechnologie
13
D-3 (C) MPGD-Studien mittels präziser Laser-Photoelektronen
K IM T EMMING
Physikalisches Institut, Universität Freiburg
Micro Pattern Gas Detektoren (MPGD) sind ein aktuelles Thema auf dem Gebiet der Detektorentwicklung
für zukünftige Experimente wie den SLHC (ATLAS und CMS) sowie den ILC. Die Forschungsgruppe
RD51 des CERN beschäftigt sich mit der Untersuchung, Weiterentwicklung und Produktion von MPGD
wie zum Beispiel MicroMeGas, Resistive Thick GEM (RETGEM) und deren Auslese. Besondere Aufmerksamkeit gilt dabei den nach wie vor unvermeidlichen Durchschlı̈¿ 12 gen und elektrischen Entladungen
im gasgefüllten Nachweisvolumen. Die Vermeidung von Beschädigungen vornehmlich der Elektronik und
Ausleseeinheit der Detektoren ist ein wichtiges Teilziel der Forschungen. Dies kann einerseits durch Begrenzung des maximalen Auslesestroms durch einen Resistive Layer geschehen, der auf die Auslesepads
aufgebracht wird. Andererseits könnte die maximale durchschlagsfreie Ladungsdichte im Gasvolumen
erhöht werden, indem eine geschickte Wahl der Anoden- und Kathodengeometrie und deren Anordnung
im Detektor getroffen wird.
Zur präzisen Untersuchung von verschiedenen Arten und Aspekten der MPGD konstruieren und bauen wir
daher eigens eine Messkammer auf. Mit deren Hilfe wird es möglich sein, zeitgenau nachvollziehbar an
definierten Orten im homogenen Driftfeld der MPGD Elektronen zu erzeugen, die dann vermessen werden
können. Ein UV-Laserstrahl wird dazu aufgespalten und löst in verschiedenen Höhen über dem Detektor
Photoelektronen aus Aluminiumstreifen aus. Über die regelbare Intensität des Lasers ist es möglich, auch
einzelne Elektronen zu erzeugen, deren Entstehungszeit und -ort, sowie Driftzeit im homogenen Feld
des Gasvolumens sehr genau bekannt sind. Zur Referenzmessung ist der alternative Nachweis mittels
konventioneller Drahtauslese vorgesehen.
Für verschiedene MPGD (MicroMeGas, GEM) werden Studien zur Reduktion der Durchschlagsneigung
durch Veränderung der Detektorgeometrie angestrebt. Zusätzlich sollen auch Messungen zur Nachweiseffizienz durchgeführt werden.
Vorgestellt werden die technische Planung und die Konstruktion der Messkammer. Erste Messungen werden voraussichtlich Ende Herbst 2010 durchgeführt werden.
D-4 (A) Konstruktion eines Szintillator-Trigger-Hodoskops für Testmessungen bei hohem radioaktivem Untergrund
S TEFANIE A DOMEIT
LMU München
Zur Impulsbestimmung von Myonen werden im ATLAS-Detektor am LHC unter anderem sogenannte
Monitored Drift Tube (MDT) Kammern eingesetzt. Dabei handelt es sich um eine Anordnung aus Driftrohren zusammen mit einem optischen System zur Überwachung von Verformungen sowie Temperatursensoren.
Die Driftrohre der MDT-Kammern sind teilweise hohen Untergrundraten ausgesetzt. Der Hauptanteil des
Strahlungsuntergrundes setzt sich dabei aus niederenergetischen Photonen sowie Neutronen zusammen.
Auf der Basis von simulierten Untergrundprozessen für eine Designluminosität von 1034 cm12 s wird gefordert, dass die Driftrohre auch bei der maximal erwarteten Untergrundrate von 300 kHz pro Rohr weiterhin
funktionieren. Mit der geplanten Weiterentwicklung von LHC zu SLHC und der damit verbundenen Verzehnfachung der Luminosität muss mit einer entsprechenden Steigerung der maximalen Untergrundrate
auf 3000 kHz pro Driftrohr gerechnet werden.
Um das Verhalten der MDT-Kammern bei SLHC-Untergrundbedingungen zu prüfen, wurde an der Gam-
14
42. Herbstschule für Hochenergiephysik Maria Laach 2010
ma Irradiation Facility (GIF) am CERN ein Programm zur Untersuchung alternativer Driftgase und Driftgeometrien durchgeführt. Ziel ist es, die Ortsauflösung kosmischer Myonen in den Driftrohren bei unterschiedlichen Untergrundraten zu studieren. Der Teilchenuntergrund von 662 keV -Partikeln wird dabei
von einer 566 GBq starken 137 Cs-Quelle erzeugt.
Zur Durchführung der oben genannten Messung wird eine Triggereinheit benötigt, welche auch bei hohen
Untergrundraten den Durchgang von Myonen eindeutig nachweisen muss, ohne dabei auf -Treffer sensitiv zu sein. Hierzu wird ein vierlagiges, segmentiertes Trigger-Hodoskokp aus 24 Einzel-Szintillatoren
eingesetzt. Die zu untersuchenden Driftrohre sind dabei zwischen der obere und unteren Doppellage des
Hodoskops eingeschoben.
Ein zuverlässiger Trigger auf kosmische Myonen konnte dabei einerseits durch die zeitliche Koinzidenz
aller vier Hodoskoplagen innerhalb der geringen Zeitspanne von 30 ns erreicht werden. Desweiteren erlauben optimierte Diskriminatorschwellen das Aussortieren von Untergrundereignissen auf Grund der
geringeren Pulshöhe von -Treffern.
Es wird weiterhin gezeigt, wie die Unterteilung zweier der Hodoskoplagen in sieben schmale Szintillatoren mit Ausrichtung parallel zu den Driftrohren eine vorläufigen Festlegung der Myonenspur ermöglicht.
Hierdurch können bei der Datenanalyse Untergrundtreffer in Driftrohren außerhalb des Myonen-Spurbereich aussortiert werden. Eine weitere Korrektur der Driftdaten ist durch die aufgenommenen TDCSpektren der Hodoskop-Szintillatoren möglich, mit deren Hilfe auf den Zeitpunkt des Myonentreffers in
den Driftrohren zurückgerechnet werden kann.
D-5 (B) Insertable B-Layer Upgrade des ATLAS Pixel Detektors
N INA K RIEGER
II. Physikalisches Institut, Universität Göttingen
Der innerste Teil des ATLAS Detektors besteht aus dem sogenannten Pixel Detektor, dessen innerste Lage gerade einmal 5 cm vom Wechselwirkungspunkt der Proton-Proton Kollision entfernt ist. Durch diese
Nähe erfährt das sensitive Material, welches aus Silizium besteht, eine hohe Strahlendosis. Untersuchungen zeigen, dass mit dem jetzigen Pixeldetektor die benötigte Ortsauflösung nach etwa 7 Jahren LHC
Laufzeit nicht mehr gegeben ist. Aufgrund dieser Schädigung und einer nur kurzen Installationszeit des
neuen Detektors während einer LHC Laufzeit Unterbrechung wurde das Insertable B-Layer (IBL) Projekt
ins Leben gerufen.
Hierbei soll eine neue innerste B-Lage des Pixel Detektors zusammen mit einem neuen Strahlrohr in den
bisherigen Detektor hineingeschoben werden. Da der Abstand dieser Lage 3,7 cm zum Kollisionspunkt
beträgt, ist die Strahlendosis noch größer und die Verarbeitung von strahlenharten Komponenten besonders wichtig. Das sensitive Material sowie ein strahlenharter Auslesechip, der das gemessene analoge
Signal in ein digitales umwandelt, sind die wesentlichen Bestandteile, die an das neue System angepasst
werden müssen. Hinzu kommt der Bedarf eines neuen Auslesesystems, welches an den neuen Chip sowie
an die höhere Datenrate angeglichen ist.
Da ein wesentlicher Aspekt die Kompatibilität mit dem bereits bestehenden ATLAS Pixel Auslesesystem
ist, wird das mehrfach bewährte VME Auslesesystem beibehalten. Hier muss u.A. die datenverarbeitende
Auslesekarte, der Read-Out-Driver (ROD), angepasst werden. Seine Aufgabe ist zum Einen das Formatieren und die Fehlererkennung der Daten. So werden die Informationen aller Module eines Ereignisses
zu einem einzigen Datenpaket verarbeitet und die Daten auf Fehler untersucht. Zum Anderen besteht die
Aufgabe des RODs aus dem Histogrammieren und Analysieren der Daten, die z.B. bei einer Scanreihe
oder einer Kalibration entstehen. Die dafür benutzte Software ist im ersten Fall durch Field Programmable
Gate Arrays (FPGAs) implementiert. Im Letzteren durch Digitale Signal Prozessoren (DSPs), die ähnlich
wie eine CPU komplizierte Vorgänge in mehreren Prozessen gleichzeitig verarbeiten können. Neben dem
D. Detektor- und Beschleunigertechnologie
15
Histogrammieren und Analysieren wird ein weiterer DSP zur Steuerung der gesamten Karte verwendet
(Master DSP).
Innerhalb des IBL-Projektes werden diese bestehenden Komponenten durch neuere und daher weniger
Bestandteile ersetzt. Zudem werden die aktuellen Datenraten von 40Mb/s und 80Mb/s (abhängig von der
Detektorlage) auf 160Mb/s erweitert. Um hier die Fehlerdetektierung während des Datentransfers zu verbessern wird zusätzlich die 8b/10b Kodierung eingeführt. In diesem breiten Feld des IBL Projektes wird
meine Tätigkeit die Umprogrammierung des Master DSPs sein, der an das neue Datenprotokoll und den
Speicherzugriff des Auslesechips angepasst werden muss.
D-6 (C) Simulation eines DEPFET Pixel Detektors in Testrahlmessungen
B ENJAMIN S CHWENKER
II. Physikalisches Institut, Universität Göttingen
Für das geplante Belle II Experiment am KEK in Japan sind DEPFET Pixel Sensoren zur Vertexrekonstruktion vorgesehen. Zur Optimierung der Geometrie des Pixel Detektors ist eine zuverlässige Simulation
der DEPFET Sensoren erforderlich. Von besonderem Interesse ist hierbei eine Abschätzung der erreichbaren Ortsauflösung einer einzelnen DEPFET Matrix. Die Simulation eines DEPFET Sensors wurde anhand
von Teststrahlmessungen mit Prototyp Modulen experimentell validiert.
Der Belle Detektor befindet sich am Elektron-Positron Speichering KEKB am Hochenergie Forschungszentrum KEK. Der Speicherring wird bei einer Schwerpunktsenergie entsprechend der Y .4S / Resonanz,
die zu 96% in B Mesonen zerfällt, betrieben. Ziel des Belle Detektors ist die Untersuchung der CP Verletzung im System der B-Mesonen. Belle II ist ein geplanter Upgrade für den Belle Detektor ausgelegt
für den Betrieb bei einer instantanen Luminosität von 8 1035 cm 2 s 1 . Zentrale Anforderungen an
einen Pixel Detektor für Belle II sind die Installation auf der Strahlröhre nahe am Kollisionspunkt, ein
sehr niedriges Materialbudget zur Minimierung von Vielfachstreuung und eine hohe Ortsauflösung.
Im DEPFET-Sensor (DEPleted Field Effect Transistor) ist die erster Verstärkerstufe in jedem einzelnen
Pixel integriert. Das Substrat eines FETs wird seitwärts-depletiert. Dadurch und durch die Wahl von geeigneten Implantationsparametern wird ein Potenzialminimum für Elektronen unter dem Kanal des Transistors erzeugt. Dieses Potenzialminimum wird als internes Gate bezeichnet. Elektronen, die beim Durchgang eines ionisierenden Teilchens erzeugt werden, werden im internen Gate gesammelt und steuern die
Leitfähigkeit des Transistorkanals. Nach der Auslese des Transistorstroms werden die Elektronen über
einen Reset-Mechanismus aus dem internen Gate entfernt. DEPFET Sensoren können auf eine Dicke bis
zu 50 m gedünnt werden und erlauben einen Betrieb ohne Auslesechips oder aktive Kühlung auf der
aktiven Sensorfläche.
Die Zielsetzung der hier vorgestellten Arbeit war die Weiterentwicklung und Validation der Simulation
einer DEPFET Pixel Matrix. Zur Verfügung standen hierzu Daten aus Testrahlmessungen ausgeführt am
CERN SPS in den Jahren 2008/2009. Für die Messungen wurde ein DEPFET Teleskop mit Submikrometer Auflösung und ein DEPFET Testsensor mit 24x24 m2 Pixelgröße und einer Dicke von 450 m
eingesetzt. Verschiedene Variablen wie z.B. Clustersignal, Clustergröße und Ortsauflösung wurden zwischen Simulation und Experiment verglichen. Weiterhin konnte auf detaillierte Simulationen der elektrostatischen Potenziale im DEPFET Pixel unter Berücksichtigung aller Implantationen zurückgegriffen
werden.
16
42. Herbstschule für Hochenergiephysik Maria Laach 2010
D-7 (A) Niederenergetische Pion-Schauer in einem hochauflösenden
Hadron-Kalorimeter
N ILS F EEGE
Universität Hamburg / DESY
Die CALICE Kollaboration erforscht mehrere mögliche Kalorimetertechnologien für einen Detektor an
einem zukünftigen e C e Linearbeschleuniger. All diese Kalorimeter zeichnen sich durch eine hohe longitudinale und transversale Segmentierung aus, die zur Schauerseparation bei der Anwendung von Particle
Flow Rekonstruktionsalgorithmen benötigt wird. Im Rahmen dieser Forschung wurde ein Prototyp für ein
hadronisches Stahl-Plastikszintillator-Samplingkalorimeter (AHCAL) mit 38 sensitiven Lagen konstruiert. Jede Lage ist aus 216 nebeneinander angeordneten Szintillatorziegeln zusammengesetzt. Die Messung des Szintillationslichts aus den einzelnen Ziegeln erfolgt durch neuartige Photodetektoren auf Siliziumbasis, die im Geiger-Modus betrieben werden (so genannte SiPMs). Das Ansprechveralten der SiPMs
ist nicht linear, und ihre Kalibration hängt von der Betriebsspannung und der Temperatur ab. Diese Effekte
müssen bei der Detektorkalibration entsprechend berücksichtigt werden.
Dank seiner hohen räumlichen Auflösung ist das AHCAL über seine Rolle in der Detektorentwicklung
hinaus ein geeignetes Instrument zur Überprüfung und zum Vergleich verschiedener Monte Carlo Modelle
für Hadronen. Der Energiebereich unterhalb von 10 GeV ist dabei besonders interessant, da sich hier
die Geltungsbereiche verschiedener Modelle überschneiden. Außerdem nimmt die elektromagnetische
Komponente in hadronischen Schauern mit kleiner werdender Energie ab, so dass hadronische Effekte
stärker hervortreten.
In den Jahren 2008 und 2009 wurde das AHCAL gemeinsam mit einem Tail Catcher und Muon Tracker
für mehrere Wochen im Teststrahl der Meson Test Beam Facility am Fermilab betrieben. Während dieser
Messzeiten wurden unter anderem Pion-Daten zwischen 1 GeV und 20 GeV gesammelt.
Dieser Vortrag befasst sich mit einigen Aspekten der Kalibration des AHCAL Detektorprototypen und gibt
einen Einblick in die Analyse der am Fermilab gesammelten Daten niederenergetischer Pionen. Außerdem
werden erste Vergleiche dieser Daten mit verschiedenen Monte Carlo Modellen präsentiert.
D-8 (B) Weiterentwicklung von Rekonstruktionsalgorithmen für Zeitprojektionskammern
I SA H EINZE
DESY
Der International Linear Collider (ILC) ist ein in Planung befindlicher Linearbeschleuniger in dem Elektronen und Positronen zur Kollision gebracht werden sollen. Derzeit werden verschieden Detektorkonzepte entwickelt. Einer davon ist der International Large Detector (ILD). Für den ILD ist als zentrales
Spursystem eine Zeitprojektionskammer (time projection chamber, TPC) vorgesehen. Eine TPC besteht
im wesentlichen aus einem Gasvolumen zwischen einer Anode und einer Kathode. Durchquert ein geladenes Teilchen das Gasvolumen, wird das Gas entlang der Trajektorie ionisiert. Die so entstandenen
Elektronen driften durch das angelegte elektrische Feld zur Anode wo sie dann ausgelesen werden.
Zur Rekonstruktion von TPC Daten wird eine Software namens MarlinTPC entwickelt, die auf Marlin
(Modular Analysis & Reconstruction for the Linear Collider) basiert. Der modulare Aufbau erlaubt eine
parallele Entwicklung von verschiedenen Rekonstruktionsalgorithmen. Eine mögliche Rekonstruktionskette soll im Folgenden beschrieben werden.
Die Rekonstruktion erfolgt in mehreren Schritten. Mit den einzelnen Pads in der Auslesestruktur werden
zunächst Ladungsspektren aufgenommen (Ladung über Zeit). In diesen Spektren wird nach so genannten
D. Detektor- und Beschleunigertechnologie
17
Pulsen gesucht, das sind zusammenhängende Zeitbins, in denen die gemessene Ladung höher ist als ein
vorher gewählter Schwellenwert. Diese Pulse werden im nächsten Schritt zu Hits (Punkte im Raum) zusammengefasst.
Als nächstes wird nach solchen Hits gesucht, die auf einer Spur liegen. Hierfür gibt es unterschiedliche
herangehensweisen. Eine Methode ist die Houghtransformation, die sowohl für Geraden als auch für gekrümmte Spuren funktioniert.
Da die Hits im Allgemeinen nicht genau auf einer Spur liegen, sondern darum streuen, liefert die Houghtransformation nur nährungsweise die richtigen Spurparameter, die als Anfangsparameter für einen Fit
verwendet werden können.
D-9 (C) Auslese-ASIC für Silizium Photomultipliers in PositronenEmissions-Tomographie
W EI S HEN
Kirchhoff Institut für Physik, Universität Heidelberg
Silizium Photomultipliers (SiPMs) sind neuartige Photon Detektoren, die aus vielen parallel geschalteten
in Geigermodus betriebenen Avalanche-Photodioden (Pixel) bestehen. Aufgrund ihrer hohen Verstärkungsfaktors, niedrige Betriebsspannung, geringe Größe gelten diese Sensoren als versprechende angesehen
Kandidaten von Photon-Detektoren in Positronen-Emissions- Tomographie (PET) mit Time of Flight
(ToF)-Fähigkeit. Übrigens, der Geiger-Modus Avalanche Mechanismus dieser neuen Sensor verspricht
auch sehr schnelle Reaktionszeit. Daher haben wir einen Prototyp ASIC (STIC, AMS 0:35m CMOS
Technologie) entwickelt, um das Limit der Zeitauflösung zu untersuchen. Abb. D.2 ist der Mikroskopie
Foto von STIC, der schone auf den PCB platine geklebt hat. Der Chip besteht insgesamt aus 4 Kanäle.
Jeder Kanal kann das Signal durch zwei verschiedene Methoden triggern, d.h. konstant Fraktion (CF)
oder Leading Edge (LE). Die CF Diskriminierung ist durch spezielle aktuellen Modus Signal Processing
Units durchgeführt. Die Time walk ist ca. 80ps für Eingangssignalbereiches 10:1, und die entsprechende
jitter ist etwa 20ps. Mittelweile, die Leading Edge Triggerung ist durch einen Strom Komparator mit einer niedriger Schwelle ausgeführt. Die entsprechende Jitter ist circa 60 ps. Darüber hinaus, aufgrund der
Breakdownspannung Variationen SiPMs eine spezielle DAC ist verwendet, um die Bias-Spannung von
SiPMs an das Eingangssignal Linie zu tunen. Alle Diskriminierung Schwelle DACs sowie die Bias DAC
ist von SPI-interface gesteuert. Die gesamte Power ist geringer als 10 mW für jeden einzelnen Kanal.
Abbildung D.2.: Das Mikroscopie Foto
Abbildung D.3.: Das Diagram
Abb.D.3 zeigt das Diagramm des STIC-Kanals. Das Detektorsignal völlig fließt in das Stromkonverter
wegen seiner niedrigen Eingangsimpedanz. Ein Stromspiegel Array innerhalb dem Stromkonverter kopiert der Eingangsstrom für die weitere Verarbeitung. Das Konstante Fraktion Modul ist wie der untere
Teil des Diagramms dargestellt. Ein Stromspiegel verringert dieser Strom als eine abgeschwächte Kopie
und eine zweite wird in einem Differenzierer zugeführt. Die beiden Ausgänge vermischt sich miteinander
18
42. Herbstschule für Hochenergiephysik Maria Laach 2010
zu einem bipolaren Signal für Nulldurchgang Timing. Einer schneller Stromkomparator fürht zugleich
die Diskriminierung der bipolaren Stromsignal aus. Eine weiterere Replik der Differenzierer Ausgang
ermöglicht einer Pre-Diskriminierung Logik für Compton-Streuung Photonen. Als eine Option zur Messung der Signalsladung, ein anderes Kondensator (hervorgehoben im Diagramm) parallel zur Eingangsstufe ist angeschaltet für Ladungsintegration (CF zugleich ausgeschaltet). Eine zusätzliche Pin ist geplant
die Spannung dort zu überwachen. Für das LE-Modul, einen dritten Weg des Konverterausgang ist mit
eine schnelle Stromkomparator verbunden, die entweder Leading Edge Discriminierung oder Time over
Thershold (ToT) Impuls für Energie Messung herstellen kann. Also, zusammenfassend, kann der Chip
in CF-Modus betrieben mit ToT als Ereignisse Auswahl oder in LE-Modus mit Ladungsintegration für
Energie-cut.
Messungen mit LED-Beleuchtung (Hamamatsu MPPC- 33-2x2-50) wurde durchgeführt, um die TimeWalk und Jitter des Chips zu charakterisieren. Das Ergebnis zeigt ein Time-Walk von ca. 360 ps für das
Eingangspitzenstrom von 320A bis 3.2mA und die entsprechenden Jitter ist ca. 60 ps. Für SiPMs die mit
anorganischen Szintillatoren verbunden werden, das Signal ist langsamer, damit die Jitter- und Time-Walk
sollte größer sein.
Messungen von Energiespektrum für LFS Kristall (3 cm3 cm15 cm) und MPPC mit Ladungsintegration -Methode zeigt eine volle FWHM von 11%. Die Zufallskoinzidenzen Zeitauflösungen Methoden, die
mit dem Kristall und SiPM gemessen wurden, die in Abb D.5 zeigt wird.
Abbildung D.4.: Das Energie Spectrum
Abbildung D.5.: Die Zeitauflösung
Neben Anwendung der Positronen-Emissions-Tomographie, der Chip eignet sich auch für andere Anwendungen mit Time-of-Flight Anforderung. Zum Beispiel, SiPM zusammen mit Organische Szintillatoren
für MIP-Erkennung. Schnelle Abklingzeit der Organische Szintillator verspricht immer ein kleinen Timewalk und Jitter der Diskriminierung.
D-10 (A) Das sLHC-Upgrade des ATLAS-Silizium-Streifendetektors
C ONRAD F RIEDRICH
DESY
Ende März 2010 konnten am 27 km langen LHC-Beschleuniger bei Genf erstmals Protonen bei Schwerpunktsenergien von 7 TeV zur Kollision gebracht werden. Damit ist zwar bisher nur die Hälfte der zukünftig geplanten maximalen Kollisionsenergie von 14 TeV in den Wechselwirkungspunkten des Beschleunigers erreicht, dessen ungeachtet jedoch ein neuer Weltrekord aufgestellt worden. Physikalische Analysen,
welche auf die Entdeckung neuer Teilchen oder über das Standardmodell hinausgehender Physik abzielen, benötigen neben hohen Schwerpunktsenergien jedoch ebenso wesentlich größere Gesamtmengen an
auswertbaren physikalischen Daten. Für die Messung dieser innerhalb absehbarer Zeit ist daher bis zum
Jahr 2014 eine schrittweise Erhöhung der Kollisionsraten bis auf eine angestrebte Designluminosität von
1034 cm 2 s 1 geplant.
D. Detektor- und Beschleunigertechnologie
19
Nach einer mehrjährigen Phase der Datennahme wird in den Jahren 2020/21 jedoch wieder eine längerfristige Abschaltung des Beschleunigerkomplexes für den Ausbau zum sogenannten super-LHC (sLHC)
notwendig. Die sLHC-Upgrades sollen in nicht allzu ferner Zukunft mindestens eine Verfünffachung der
derzeitigen Designluminosität (ca. 5 1034 cm 2 s 1 ) ermöglichen. Insbesondere werden hierfür der Austausch und Ausbau diverser Komponenten des Beschleunigersystems notwendig. Darüberhinaus müssen
große Teile der Detektoren in den Kollisionspunkten erneuert bzw. durch modernere und leitungsfähigere
Technik ersetzt werden.
Im Falle des ATLAS-Detektors sind folglich weitreichende Erneuerungen und Upgrades einer Vielzahl
von Komponenten notwendig, um den gestiegenen Anforderungen an Strahlenhärte der Detektorelemente
und Geschwindigkeit der zugehörigen Ausleseelektronik gerecht zu werden.
Gerade im inneren, zu großen Teilen aus Halbleiterdetektoren bestehenden Spurdetektor (Tracker), welcher insbesondere die Messung der Flugbahnen, Transversalimpulse und damit die Rekonstruktion der
Vertizes der in den Kollisionen produzierten Sekundärteilchen ermöglicht, gehen die höheren Kollisionsraten mit einer um mehrere Größenordnungen gesteigerten Spurdichte und Strahlenbelastung einher.
Allein aufgrund der in den Betriebsjahren vor dem sLHC-Upgrade akkumulierten Strahlenschäden in den
heutigen Siliziumsensoren und zugehörigen Ausleseelektronik ist ein Austausch des gesamten inneren
Detektors unvermeidbar. Besonders bei der in Zukunft gesteigerten Strahlenbelastung kann dieser eine
weitere mehrjährige Funktion nicht mehr sicher gewährleisten.
Um den neuen Anforderungen der höheren Spurdichten und Teilchenraten Rechnung zu tragen, muss von
einem zukünftigen, komplett aus Si-Halbleiterdetektoren bestehenden Spurdetektor zudem eine wesentlich höhere Granularität gefordert werden. Neben einer Verkleinerung der Strukturen (Pixel bzw. Streifen)
der Siliziumsensoren selbst, werden insbesondere eine höhere Geschwindigkeit der Ausleseelektronik und
neue Konzepte zur Spannungsversorgung erforderlich.
Im Vortrag werden, neben einer Zusammenfassung der neuen technologischen Anforderungen, die geplanten Lösungsansätze und mit den Upgrades einhergehenden geplanten technischen Veränderungen
exemplarisch anhand des ATLAS Silizium-Streifendetektors erläutert und eigene Untersuchungen zur
Charakterisierung von Si-Streifen-Sensoren sowie vorbereitende Arbeiten für den am DESY bis 2020
geplanten Bau einer kompletten Endkappe des ATLAS-Si-Streifendetektors vorgestellt.
E. Experimentelle Analysen
E-1 (A) Messung der inklusiven W ! und Z ! Wirkungsquerp
schnitte in pp-Kollisionen bei s D 7 TeV mit dem CMS-Detektor
A NDREAS G ÜTH
III. Physikalisches Institut A, RWTH Aachen
p
Seit dem 30. März 2010 werden am LHC pp-Kollisionen bei einer Schwerpunktsenergie von s D 7
TeV aufgezeichnet. Ein wichtiger erster Schritt nach der Inbetriebnahme des Beschleunigers ist die Wiederentdeckung bekannter physikalischer Phänomene in diesem Energiebereich.
Die Prozesse pp ! Z C X ! C C X sowie pp ! W C X ! C X können aufgrund ihrer
großen Wirkungsquerschnitte von W BR.W ! / 10 nb bzw. Z BR.Z ! / 1 nb bereits
zu Beginn der Datennahme am LHC untersucht werden. Die Eigenschaften der W- und Z-Bosonen sind
in Präzisionsmessungen sehr genau bestimmt und ihre Produktion an Hadronbeschleunigern - in Übereinstimmung mit theoretischen Vorhersagen - vermessen worden. Für die am LHC erreichten Energien liegen
theoretische Vorhersagen der inklusiven Produktionswirkungsquerschnitte in next-to-next-to leading order
(NNLO QCD) mit Unsicherheiten kleiner als 4% vor. Damit dienen die betrachteten Prozesse einerseits
als Standardkerzen“ für die Myonrekonstruktion im Detektor, die Myon-Identifikationskriterien und die
”
Detektorsimulation, andererseits als Test für perturbative QCD und als Methode zur Luminositätsbestimmung.
Die myonischen Zerfälle von W- und Z-Bosonen erzeugen hochenergetische, gut isolierte Myonen, welche im CMS-Detektor im Myonsytem getriggert und unter Hinzunahme der Spurinformation aus dem
Siliziumtracker rekonstruiert werden. Das Myonsystem besteht im zentralen Bereich aus Driftkammern
(jj < 1:1) und in der Vorwärtsregion (1:1 < jj < 2:5) mit höherer Teilchenrate und stärkerem Magnetfeld aus Kathodenstreifendetektoren, jeweils mit einer Ortsauflösung von 100 m. Widerstandsplattendetektoren ergänzen das Triggersystem. Der innerhalb des 3.8 Tesla Solenoidmagneten installierte Tracker
liefert für die hier betrachteten Myonen mit Transversalimpuls pT 50 GeV eine Impulsauflösung von
1%.
Aufgrund der klaren Signaturen können die Signale mit wenigen Schnitten vom Untergrund getrennt
werden. Während in Z-Zerfällen beide Myonen direkt rekonstruiert werden können, muss im W-Kanal
auf die fehlende transversale Energie zurückgegriffen werden. Die entsprechenden charakteristischen
Verteilungen der selektierten Ereignisse sind die Z-Resonanz in der invarianten Masse M und der
Jacobian-Peak in der transversalen Masse MT der W-Ereignisse. Das sehr reine Z-Sample um die Resonanz (erwarteter Untergrund < 1%) bietet die Möglichkeit, für die Bestimmung der Wirkungsquerschnitte
benötigte Trigger-, Rekonstruktions- und Isolationseffizienzen direkt aus den Daten zu bestimmen, um die
Abhängigkeit von der Detektorsimulation zu verringern (z.B. Tag-and-Probe Methode). Auch die Untergründe sollen aus Daten extrahiert werden, was insbesondere für den W-Kanal mit einem erwarteten Untergrund von 10% wichtig ist. Dazu bieten sich die Inversion der Schnitte auf MT und Myonisolation
oder Anpassungen an die gemessenen MT - und Isolationsverteilung an (Template-Fits).
E. Experimentelle Analysen
21
E-2 (B) Modellunabhängige Suche in CMS
M ARK O LSCHEWSKI
III. Physikalisches Institut A, RWTH Aachen
Seit 2009 nimmt das CMS-Experiment am CERN erste Daten von Proton-Proton-Kollisionen des LHCBeschleunigers. Auf der Suche nach noch unbekannten physikalischen Phänomenen gibt es zwei Arten
von Analysen: Modellabhängige Analysen suchen nach Übereinstimmungen mit neuen Theorien. Modellunabhängige Analysen suchen nach Abweichungen vom Standardmodell.
Der Vorteil einer modellunabhängigen Suche ist, dass damit auch Phänomene entdeckt werden können,
zu denen es noch keine passende Theorie gibt.
MUSiC (=Model Unspecific Search in CMS) vergleicht CMS-Daten mit Monte-Carlo-Simulationen des
Standardmodells. Dafür werden die Ereignisse nach den in ihnen enthaltenen Teilchenarten in Klassen
eingeteilt. Für jede Klasse wird die Summe der Transversalimpulse, die invariante Masse und die fehlende
transversale Energie betrachtet. In jeder dieser Verteilungen wird dann die Region mit der signifikantesten
Abweichung zwischen Simulation und gemessenen Daten gesucht. Die statistische Signifikanz wird unter
Beachtung einer Reihe systematischer Unsicherheiten bestimmt.
Eine Möglichkeit, um die Abhängigkeit von Simulationen weiter zu reduzieren, ist es, analytische Funktionen an die Verteilungen anzupassen. Dies ist besonders geeignet, um Resonanzen zu identifizieren.
Der Vortrag führt in die modellunabhängige Suche ein, erklärt die verwendeten statistischen Methoden
und zeigt einige Beispiele mit Simulationen und Daten.
E-3 (C) Suche nach neutralen MSSM Higgs Bosonen h=A=H im bassoziierten Zerfall in zwei Myonen am CMS-Experiment
H ENDRIK W EBER
I. Physikalisches Institut B, RWTH Aachen
Eine der meist diskutierten Erweiterungen des Standard Modells stellt die Supersymmetrie dar, bei der
zu jedem Teilchen im Standardmodell ein Superpartner eingeführt wird. Die einfachste Erweiterung in
diesem Rahmen bietet dabei das MSSM (Minimal Supersymmetric Standard Modell). Im Rahmen dieser
Erweiterung werden zwei Doublets von Higgs-Bosonen benötigt die jeweils an up- bzw. down-artige
Fermionen koppeln. Nach der elektroschwachen Symmetriebrechung mischen diese Doublets zu fünf
Higgs-Bosonen. Es werden zwei geladenen Zustände H C , H und drei neutrale Zustände h0 , H 0 und
A0 für den Higgssektor im MSSM vorhergesagt.
In meiner Arbeit beschäftige ich mich mit der Suche nach den neutralen Higgs Bosonen des MSSM am
CMS Experiment des LHC Beschleunigers. Ich konzentriere mich dabei auf den in Abbildung E.1 dargestellten Zerfall der Higgs Bosonen in zwei Myonen. Der dominante Produktionsprozess der neutralen
Higgs Bosonen bei LHC ist die Fusion zweier Gluonen über die Produktion von zwei b Quark Paaren von denen wiederum zwei b Quarks zum Higgs annihilieren. Diese assoziierte Produktion beinhaltet
gleichzeitig eine Möglichkeit zur Identifikation der Signal Ereignisse mit Hilfe von b-tagging. Das Verzweigungsverhältnis für den Zerfall in Myonen ist zwar um 2 Größenordnungen kleiner als beim Zerfall
in ein -Paar, allerdings bieten Myonen eine deutlich sauberere Signatur im Detektor und ermöglichen
eine präzise Rekonstruktion der Higgsmasse.
Die wichtigsten Untergrund Prozesse für diese Analyse sind die Produktion von Top Quark Paaren bei
denen beide Top Quarks in ihrem Zerfall ein Myon erzeugen, und der Drell Yan Prozess bei dem das
Z 0 = ebenfalls in zwei Myonen zerfallen kann. Der Drell Yan Prozess beinhaltet dabei einen Anteil von
22
42. Herbstschule für Hochenergiephysik Maria Laach 2010
irreduziblen Untergrundereignissen, da auch hier die b-assoziierte Produktion des Z Bosons möglich ist.
Diese Ereignisse haben die selbe Topologie wie die Signalereignisse.
Der untersuchte Massenbereich für die Higgs Bosonen ergibt sich aus dem mhmax Szenario bei dem die
freien Parameter so gewählt werden, dass die Masse des leichten skalaren Higgs h0 maximal wird. Daraus ergibt sich ein Bereich bei etwa 130 GeV in dem die Masse aller drei gesuchten Higgs Bosonen fast
identisch sind. Oberhalb dieses Bereichs sind dann immer noch die Massen des pseudoskalaren A0 und
des schweren skalaren H 0 degeneriert. Das leichte skalare Higgs h0 spielt in diesem Bereich keine Rolle
mehr, da der Produktionswirkungsquerschnitt für hohe Massen des h0 stark abnimmt und vernachlässigt
werden kann.
Im Folgenden wird nun durch eine Schnittbasierte Analyse eine möglichst gute Separation von Signal
und Untergrund erzielt. Das resultierende Spektrum der invarianten Masse der Monte-Carlo Simulation
wird zur Auswertung mit einer Hypothese, dass sowohl Untergrund als auch Signal vorhanden sind, gefittet. Anschließend wird das selbe Spektrum mit der Hypothese gefittet, dass kein Signal vorhanden ist
und nur Untergrund Ereignisse in das Spektrum eingeflossen sind. Aus dem Verhältnis der Likelihoods
der beiden Fits kann dann die Signifikanz berechnet werden.
Im Rahmen des Vortrags wird die Möglichkeit der Entdeckung, bzw. des Ausschlusses der Higgs Bosonen
am CMS Experiment besprochen. Dabei wird auch die benötigte Statistik für eine mögliche Entdeckung
des Higgs Bosons in Abhängigkeit der Higgsmasse mA und tan ˇ angegeben. Des weiteren werden Alternativen zur Identifikation der Jets aus b Quarks erörtert.
b
g
µ
b
H0/A0/h 0
g
b
µ
b
Abbildung E.1.: Feynman Diagramm des gesuchten Prozesses bb' ! .' D H 0 =A0 = h0 /.
E-4 (A) Inklusive Bestimmung von Vub bei BABAR
T HOMAS L ÜCK
HU Berlin
Die Elemente der Cabibbo-Kobayashi-Maskawa-Matrix (CKM-Matrix) sind fundamentale Parameter der
Physik wie wir sie heute kennen. Um unser Verständnis der CKM-Matrix zu vergrößern wurde das BABAR - Experiment erdacht und gebaut, um
Präzisionsmessungen von CKM-Matrixelementen durchzuführen. BABAR steht für “B And B-Bar” und
ist das Experiment an einer der sogenannten B-Fabriken, dem asymmetrischen Elektron-Positron-Collider
PEP II der sich am SLAC National Acelerator Center befindet.
Diese B-Fabriken sind so konzipiert, dass sie B-Mesonen in grosser Zahl produzieren. Im Fall von BA-
E. Experimentelle Analysen
23
BAR wird dies dadurch erreicht, indem ein Elektronenstrahl mit einer Energie von 9:1 GeV und ein
Positronenstrahl mit einer Energie von 3 GeV im Zentrum des Experiments zur Kollision gebracht werden. Die so erreichte Schwerpunktsenergie von 10:58 GeV entspricht der Ruhemasse des Y .4S /-Mesons,
einem gebundenen Zustand aus b und anti-b Quark, was die Produktion dieser Mesonen begünstigt. Die
Y.4S/-Mesonen zerfallen fast ausschließlich in B und BN - Mesonen, deren Zerfälle mit BABAR studiert
werden können. BABAR sammelte in den Jahren zwischen 1999 und 2008 Daten mit einer integrierten
Luminosität von 429 fb 1 , was ca. 470 Mio produzierten B BN - Paaren entspricht.
BABAR ist ein Mehrzweck - Detektor, bestehend aus einem “Silicon Vertex Tracker” (SVT) welcher
präzise Informationen über die Postion von geladenen Teilchenspuren liefert. Im Anschluss an das SVT
folgt die Drift-Kammer (DCH) welche zur Messung des Impulses von geladenen Teilchen dient und
zur Teilchenidentifikation, durch Messung des mittleren Energieverlustes @E=@x, benutzt wird. BABAR
verfügt desweiteren über einen Detektor für intern emittiertes Cerenkov Licht (DIRC), welcher ebenfalls
zur Teilchenidentifikation genutzt wird. Das Elektromagnetische Kalorimeter (EMC) besteht aus 6580
CsI(TI) - Kristallen, und liefert Informationen über Teilchenenergien. All die zuvor genannten Subdetektoren befinden sich in einem 1:5 T starken Magnetfeld, welches durch eine supraleitende Spule bereitgestellt wird. In das Eisenjoch der Spule sind Lagen von Detektormaterial eingelassen, die zur Idenfikation
von Muonen und neutralen Hadronen dienen.
Thema meiner Arbeit ist die Bestimmung des CKM-Matrixelementes Vub aus dem inklusiven Leptonenergie-Spektrum von B ! Xu l Zerfällen. Im Gegensatz zu exklusiven Analysen, in denen man sich
nur einen bestimmten Zerfallskanal ansieht, betrachtet man in einer inklusiven Analyse alle Zerfälle in
denen das b-Quark im B-Meson semileptonisch in ein u-Quark zerfällt. Aus dem Energiespektrum des bei
dieser Reaktion freiwerdenden Leptons kann man das partielle Verzweigungsverhältnis für B ! Xu l
Zerfälle bestimmen, woraus dann Vub berechnet werden kann. Das Problem der inklusiven Bestimmung
von Vub ist der Untergrund von b ! cl Zerfällen, die etwa 50 mal wahrscheinlicher als b ! ul
Zerfälle sind. Um diesen Untergrund zu unterdrücken führt man die Messung am Endpunkt des Spektrums
durch, da durch die Massendifferenz von u- und c-Quark der kinematische Endpunkt der Leptonenergie
aus b ! cl Zerfällen bei 2:31 GeV liegt, während er bei b ! ul Zerfällen bei 2:64 GeV (gemessen
im Schwerpunktssystem) liegt. Dabei liegt die Schwierigkeit darin den Schnitt auf die Leptonenergie so
auszubalancieren, dass der b ! cl Untergrund möglichst gut unterdrückt wird, was einen hohen Schnitt
im Leptonenergiespektrum entspricht, und einer möglichst guten Beschreibung des Zerfalls durch die
Theorie, was einen möglichst niedrigen Schnitt im Spektrum erfordert.
E-5 (B) Stau im LHC: Entdeckungspotential für R-Paritätsverletzende
supersymmetrische Modelle
S EBASTIAN F LEISCHMANN
Physikalisches Institut, Universität Bonn
Supersymmetrie (SUSY) als Symmetrie zwischen Bosonen und Fermionen gilt als vielversprechende Erweiterung des Standardmodells. Mit ihrer Hilfe können verschiedene theoretische Unzulänglichkeiten
des Standardmodells, wie zum Beispiel das Hierarchieproblem der Higgsmasse, behoben werden. Mit der
Einführung von Supersymmetrie verdoppelt sich der Teilcheninhalt der Theorie mindestens, da für jedes
Fermion ein Boson eingeführt wird und umgekehrt. Darüberhinaus ergeben sich eine ganze Reihe neuer Kopplungen, welche neuartige Zerfälle hervorrufen können. Diese Kopplungen müssen im Einklang
mit den bisherigen experimentellen Beobachtungen sein und schränken damit die supersymmetrische Erweiterung ein. So wird üblicherweise die Erhaltung der sogenannten R-Parität Rp D . 1/2S C3BCL
verlangt, welche anschaulich zwischen Standardmodell-Teilchen und ihren Superpartnern unterscheidet.
24
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Damit werden effektiv auch Baryon- (B) und Leptonzahl (L) verletzende Kopplungen unterdrückt, welche anderenfalls zum schnellen Protonzerfall führen würden.
R-Paritätserhaltung hat aber noch weitere wichtige phänomenologische Konsequenzen. So könnten supersymmetrische Teilchen nur paarweise erzeugt werden und das leichteste supersymmetrische Teilchen
(lightest supersymmetric particle, LSP) muss stabil sein, da es kein weiteres SUSY-Teilchen gibt, in das es
zerfallen könnte. Aus kosmologischen Gründen müsste dieses LSP neutral sein, da es in grosser Zahl kurz
nach dem Urknall produziert worden sein müsste. Es stellt damit einen Kandidaten für die Suche nach
Dunkler Materie dar. In Collider-Experimenten erwartet man somit signifikante Beiträge von fehlender
transversaler Energie E
= T durch jeweils zwei LSPs pro Ereignis, die den Detektor ungemessen verlassen.
Allerdings existieren auch weitere diskrete Symmetrien, ausser R-Parität, welche einen schnellen Zerfall
des Protons unterbinden können und somit experimentell zulässige Modelle vorhersagen. Dabei dürfen
nur Baryon- oder Leptonzahl verletzende Kopplung auftreten. In R-Paritätsverletzenden ( R
= p ) Modellen
ergibt sich im Gegensatz zu Rp -Modellen eine andere Signatur in Collider-Experimenten, da das LSP
zerfallen und damit auch geladen sein kann. Je nach Lebensdauer des LSP ergeben sich dabei sehr verschiedene phänomenologische Vorhersagen von hochionisierenden Teilchen im Falle eines semi-stabilen,
geladenen LSP über späte Zerfälle von abgebremsten semi-stabilen LSPs bis hinzu klassischen“ Signa”
turen für kurzlebige LSPs. Sowohl für das ATLAS als auch das CMS Experiment am LHC existieren
eine grosse Anzahl von Untersuchungen des Entdeckungspotentials von Rp -SUSY (e.g. [1]), während
R
= p -Modelle mit kurzlebigem LSP noch kaum auf dem Menü“ der LHC-Experimente stehen.
”
Im Rahmen des sogenannten mSUGRA-Modells, welche die über 100 Parameter des minimalen supersymmetrischen Standardmodells (MSSM) mit Rp -Erhaltung auf fünf Parameter vereinfacht, ergibt sich
in weiten Teilen des interessanten Parameterbereichs als LSP das Stau ()-Slepton,
Q
der supersymmetrische Partner des Tau-Leptons[2]. In Rp -Modellen ist dieses wegen seiner Ladung ausgeschlossen, stellt
in R
= p -Modellen jedoch einen interessanten Kandidaten dar. Wir untersuchen zwei Szenarien mit -LSP,
Q
die unterschiedliche Leptonzahl-verletzende R
= p -Kopplungen aufweisen [3, 4]. Diese beiden Szenarien
können als Extremfälle der Phänomenologie von R
= p mSUGRA-Modellen mit Stau-LSP aufgefasst werden.
Im ersten Fall einer 121 (L1 L2 EN 1 ) Kopplung zerfällt das Stau in einem Vierkörperzerfall in Leptonen (Q1˙ ! ˙ ` `0 ˙ ). Dadurch wäre ein solches Szenario bereits mit einer integrierten Luminosität
p
von wenigen 100pb 1 bei einer Schwerpunktenergie von s D 7TeV mit dem ATLAS-Detektor zu
entdecken. Der Vortrag stellt eine Strategie zur Ereignisselektion vor, welche ein nahezu untergrundfreies Signal-Sample ergibt. Mithilfe eines Scans im mSUGRA-Parameterraum kann gezeigt werden, dass
diese Selektion hinreichend allgemein ist. Es wird dabei auch kurz auf die besonderen Probleme der
Tau-Lepton-Identifikation in diesen Ereignissen eingegangen. Obwohl die Entdeckung derartiger Szenarien am LHC gut möglich ist, zeigt sich, dass die Messung der Stau-Masse schwierig ist. Auch wenn
Standardmodell-Untergrund nur eine untergeordnete Rolle spielt, erschwert kombinatorischer Untergrund
die Massenbestimmung erheblich. Darüberhinaus kann durch die auftretenden Neutrinos nur ein wenig
ausgeprägter Endpunkt in der Verteilung der gemessenen invarianten Masse bestimmt werden.
Im zweiten Fall einer 0311 (L3 Q1 DN 1 ) Kopplung zerfällt das Stau direkt in einem Zweikörperzerfall
in zwei leichte Quarks. Damit weist die Signatur keine Leptonen aus dem Stau-Zerfall auf und kann
dadurch weniger rein als im ersten Fall selektiert werden. In diesem Fall ist eine Unterscheidung zu reinen
QCD-Ereignissen jedoch über den Zerfall eines Neutralinos in das Stau-LSP (Q 01 ! Q ) und die dabei
auftretenden Tau-Leptonen möglich.
[1] The ATLAS Collaboration, G. Aad et al., “Expected Performance of the ATLAS Experiment Detector, Trigger and Physics,” arXiv:0901.0512 [hep-ex].
[2] B. C. Allanach, A. Dedes and H. K. Dreiner, “The R parity violating minimal supergravity model,”
Phys. Rev. D69 (2004) 115002, [Erratum-ibid. D72 (2005) 079902], [arXiv:hep-ph/0309196].
[3] B. C. Allanach, M. A. Bernhardt, H. K. Dreiner, C. H. Kom and P. Richardson, “Mass Spectrum in
R-Parity Violating mSUGRA and Benchmark Points,” Phys. Rev. D75 (2007) 035002, [arXiv:hepph/0609263].
E. Experimentelle Analysen
25
[4] H. K. Dreiner, S. Fleischmann, S. Grab and P. Wienemann, in preparation
E-6 (C) W+jets als Hauptuntergrundprozess für die Messung des Produktionswirkungsquerschnitts von Top-Antitop-Paaren im semileptonischen
Zerfallskanal unter Anwendung von b-Tagging mit dem ATLAS-Detektor
am LHC
AGNIESZKA L EYKO
Physikalisches Institut, Universität Bonn
Das Top Quark ist das schwerste bis jetzt bekannte Quark, seine Existenz wurde erst vor 15 Jahren am Tevatron experimentell bestätigt. Top-Antitop-Paare werden hauptsächlich durch Gluon-Gluon-Fusion oder
Quark-Antiquark-Annihilation erzeugt. Wegen der sehr kurzen Lebensdauer des Top-Quarks findet keine
Hadronisierung statt, sondern das Top-Quark zerfällt direkt in ein W-Boson und ein Bottom-Quark. Im
so genannten semileptonischen Kanal zerfällt das eine W-Boson leptonisch und das andere hadronisch,
d.h. in zwei Jets. Die Signatur ist ein hochenergetisches Lepton, fehlende Transversalenergie durch das
Lepton-Neutrino, zwei b-Jets aus den Bottom-Quarks und zwei leichte Jets. Gegenüber dem vollhadronischen Endzustand ist eine einfache Triggerselektion und Abgrenzung zum QCD Untergrund möglich.
Gegenüber dem dileptonischen Endzustand ist das Verzweigungsverhältnis für diesen Kanal mit 4/9 gross.
Zudem ist der Endzustand kinematisch überbestimmt. Der Nachteil des kleineren Signal zu Untergrund
Verhältnisses kann durch Anwendung von b-Tagging Algorithmen verbessert werden. Generell ist es von
grosser Bedeutung, die Untergrundprozesse gut zu verstehen und bestimmen zu können.
Diese Bestimmung des Wirkungsquerschnitts und der Untergrundanteile basiert zum Teil auf MonteCarlo-Simulationen. Der Hauptuntergrundprozess für den semileptonischen Kanal ist die W-Boson Produktion mit zusätzlichen Jets, kurz W+jets. Leider ist die Simulation von W-Boson-Zerfällen mit mehreren Jets mit einer grossen Unsicherheit behaftet. Um daher den W+jets-Untergrund zuverlässig zu bestimmen, sollte der Prozess aus Daten abgeschätzt werden. Hier profitiert man von der Tatsache, dass die
Wirkungsquerschnitt von W-Bosonen mit N zusätzlichen Jets proportional ist zum Wirkungsquerschnitt
der Z-Bosonen mit N Jets. Letztere kann mit guter Reinheit aus Daten bestimmt werden. In dieser Studie
wird insbesondere überprüft, wie b-Tagging Algorithmen die Bestimmung des Untergrunds aus Daten
beeinflussen.
E-7 (A) D -Photoproduktion mit assoziierten Jets und Vertices bei ZEUS
S EBASTIAN M ERGELMEYER
Universität Bonn
Die Erzeugung von D -Mesonen im Regime der Photoproduktion mit mindestens zwei hochenergetischen
Jets wurde mit Hilfe des ZEUS-Detektors am ep-Collider HERA untersucht. Für die Rekonstruktion der
D -Mesonen wurden der goldene Zerfallskanal
Œc ! DC ! D0 C ! K C C
und seine ladungskonjugierte Variante benutzt. Die verwendeten Daten wurden in den Jahren 2003-2007
p
bei einer ep-Schwerpunktsenergie von s D 318 GeV aufgenommen und entsprachen einer integrierten
Luminosität von L D 370 pb 1 .
26
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Ein Schwerpunkt der Untersuchung war die Validation der Masse charm-angereicherter Jet-Vertices. Solche Jet-Vertices werden in neuen ZEUS-Analysen für die Identifikation von Charm- und Beauty-Jets
benutzt, ohne sich dabei auf einen spezifischen Zerfallskanal zu beschränken. Mittels der D -Selektion
konnten nun Charm-Jets angereichert und überprüft werden Es zeigte sich, dass die Charm-Vertex-Masse
insgesamt gut simuliert ist. Auch Untersuchungen in Abhängigkeit von der Kinematik zeigten keine deutlich abweichenden Tendenzen.
Für den totalen Wirkungsquerschnitt der D -Produktion im selektierten kinematischen Bereich,
Q2 < 1 GeV2 ;
0; 2 < y < 0; 8;
3 GeV < pT .D / < 15 GeV;
2; 5 < .jet 1(2)/ < 2; 5;
1; 5 < .D / < 1; 5;
ET .jet 1(2)/ > 6.7/ GeV
R.D ; D -jet/ < 0; 6
wurden tot D 1; 39 ˙ 0; 03 nb gemessen. Die korrespondierende LO-Theorievorhersage ergibt LO D
1; 38 nb und beinhaltet einen nicht vernachlässigbaren Anteil an D -Mesonen aus Gluonaufspaltung,
g ! cNc ! D X. Bei der Messung der differentiellen Wirkungsquerschnitte des D -Mesons und seines
assoziierten Jets wurden abgesehen vom Bereich niedriger pT keine signifikanten Abweichungen von der
Theorievorhersage gefunden. Die beobachteten Unterschiede in sind verträglich mit bisherigen Analysen. In Photoproduktion werden jedoch für einen Vergleich mit der Theorie NLO-Vorhersagen benötigt.
Eine Erweiterung der Analyse auf diese Vorhersagen steht in Aussicht.
E-8 (B) Technische Studien zur Messung des Z ! Wirkungsquerschnitts
mit dem ATLAS-Experiment
T HOMAS S CHWINDT
Physikalisches Institut, Universität Bonn
Die Suche nach dem Higgs-Bosons des Standardmodells ist eine der wichtigsten Aufgaben der Experimente am LHC. Obwohl die Masse dieses postulierten Teilchens nicht vorhergesagt werden kann, lassen
elektroschwache Präzisionsmessungen vermuten, dass diese unterhalb von 160 GeV, der doppelten Masse
des W-Bosons, liegt. In diesem Bereich zerfällt das Higgs-Boson zwar vorzugsweise in schwere Quarks
N in Hadron-Kollisionen liefert jedoch der Zerfall H ! den besten Nachweis. Dabei treten
(H ! b b),
besonders häufig Endzustände auf, in denen eines der -Leptonen hadronisch zerfällt.
Eine Entdeckung des Higgs-Bosons erfordert eine Messung des Untergrundes mit ähnlicher Signatur, der
im betrachteten Massenbereich von Z ! -Ereignissen dominiert wird. Dabei ist insbesondere die Bestimmung des Spektrums der invarianten Masse m von Bedeutung, da diese sich durch fehlende Energiedepositionen der Neutrinos sowie durch Auflösungseffekte im Experiment gegenüber der Z-Resonanz
deutlich verbreitert zeigt. Diese experimentelle Breite erschwert die Entdeckung eines möglichen HiggsSignals und soll daher durch kinematische Rekonstruktion des -Zerfalls verbessert werden.
Eine weitere Herausforderung bei der Messung des Z ! Wirkungsquerschnitts mit Hilfe hadronisch
zerfallender -Leptonen liegt in der Unterscheidung zwischen - und QCD-Jets. Da beide Objekttypen
Spuren im inneren Detektor und Energiedepositionen in den Kalorimetern hinterlassen, muss ihre Identifikation anhand von verschiedenen Observablen durchgeführt werden, die beispielsweise die longitudinale
und transversale Form der Energiedepositionen sowie Eigenschaften der Spuren beschreiben. Die dabei
auftretenden Effizienzen und Fehlidentifikationsraten sind wichtige experimentelle Größen, die im laufenden Experiment bestimmt und optimiert werden müssen.
E. Experimentelle Analysen
27
E-9 (C) Studien zum Zerfall Bs ! bei LHCb
S EBASTIAN S CHLEICH
TU Dortmund
Eines der Ziele des LHCb-Experiments am LHC sind Präzisionstests der CP-Verletzung im Standardmodell (SM) und die Suche nach über das SM hinausgehender CP-Verletzung. Dies geschieht insbesondere
durch die Analyse der Zerfälle von B-Mesonen. Da davon auszugehen ist, dass sich neue Physik vornehmlich in Beiträgen höherer Ordnung manifestiert, bieten sich insbesondere solche Zerfälle an, die bereits
im Standardmodell durch Schleifenprozesse vermittelt werden. Ein solcher Zerfallskanal ist Bs ! ,
N
in dem die Box dominierte B-B-Mischung
mit dem Schleifen dominierten Zerfallsprozess interferiert.
Hier verschwindet die CP-verletzende Phase im Standardmodell, so dass neue Physik in einem Nulltest
gefunden werden könnte.
Die Analyse wird dadurch verkompliziert, dass Bs ! ein Pseudoskalar nach Vektor-Vektor-Zerfall
ist, dessen Endzustand als Überlagerung dreier verschiedener Drehimpulseigenzustände vorliegt. Da diese
sich durch einen Faktor -1 in der CP-verletzenden Phase unterscheiden, müssen sie durch eine Winkelanalyse statistisch voneinander getrennt werden.
Die zu erwartenden Signifikanzen der Analyse werden auf Toy-Monte-Carlo unter Rückgriff auf bestehende Messungen des Bs ! -Verzweigungsverhältnis dargestellt.
Der LHCb-Detektor ist durch seine Bauweise speziell an die Erfordernisse präziser B-Physik angepasst.
Sein Aufbau als Vorwärtsspektrometer trägt dem Erzeugungsmechanismus von B-Mesonen in pp-Kollisionen Rechnung, sein in direkter Strahlnähe positionierter Silizium-Spurdetektor erlaubt eine gute Vertexund damit Eigenzeitauflösung und sein RICH-System ist für die K--Separation von essentieller Bedeutung.
Der Detektor befindet sich gegenwärtig in der Phase erster Datennahme, wobei sowohl seine Funktion als
auch die korrekte Beschreibung im Monte-Carlo zu verifizieren sind. Im momentanen Stadium kommt für
die Analyse der K--Teilchenidentifikation ein auf ! K C K -Zerfällen basierender Tag-and-ProbeMechanismus zum Einsatz. Dieser ermöglicht es, die Teilchen-Identifikations-Effizienz auf den Daten zu
messen. Darüber hinaus lässt sich der differenzielle Wirkungsquerschnitt inklusiver -Produktion bestimmen.
E-10 (A) Bestimmung der Fehlidentifikationsrate von -Leptonen durch
Elektronen mit ATLAS am LHC
PATRICK C ZODROWSKI
Institut für Kern- und Teilchenphysik, TU Dresden
In der minimalen supersymmetrischen Erweiterung des Standardmodells (MSSM) wird die Existenz von
fünf Higgs-Bosonen vorhergesagt. Die Kopplung der drei neutralen (h, H und A), sowie der zwei geladenen (H˙ ) an Fermionen der dritten Generation ist eine Funktion von tan ˇ, dem Verhältnis der Vakuumerwartungswerte der beiden Higgs-Dupletts. Ein hoher tan ˇ Wert erhöht die Zerfallswahrscheinlichkeit der
Higgs-Bosonen in Fermionen der dritten Generation. Die Produktion supersymmetrischer Higgs-Bosonen
in Assoziation mit b-Quarks sowie deren anschließender Zerfall in Endzustände mit -Leptonen ist somit
einer der wichtigsten Entdeckungskanäle am LHC. Ein gutes Verständnis der Rekonstruktionseffizienz für
hadronisch zerfallende -Leptonen stellt damit eine der Grundvoraussetzungen für die Entdeckung von
Higgs-Bosonen im MSSM dar.
Elektronen ähneln in ihrer Signatur denen von hadronisch zerfallenden -Leptonen, insbesondere in
Zerfällen mit einer Spur eines geladenen Hadrons, welche in 75 % aller Fälle von neutralen Pionen be-
28
42. Herbstschule für Hochenergiephysik Maria Laach 2010
gleitet werden und damit eine signifikante Energiedeposition im elektromagnetischen Kalorimeter haben.
Die direkte Messung der Fehlidentifikationsrate von Elektronen in Endzuständen mit -Leptonen ist somit
wichtig für die Bestimmung des Untergrundes zur MSSM-Higgs-Boson-Produktion. Algorithmen zur Unterdrückung des Elektron-Untergrunds, sogenannte Elektron-Vetos, sind Teil des -Rekonstruktionspaketes
der ATLAS-Software. Sie sollen diese Fehlidentifikation durch Schnitte auf Variablen, mit deren Hilfe Leptonen und Elektronen sehr effektiv unterschieden werden können, vermindern. Ein Beispiel ist das
Verhältnis der Anzahl der Hoch- zu Niederschwellensignale im Transition Radiation Tracker. Die nach
den Elektron-Vetos verbleibende Fehlidentifikationsrate soll mit der vorgestellten Methode aus Daten ermittelt werden.
Zunächst wird durch Auswahl eines sehr gut rekonstruierten Elektrons oder Positrons und eines zweiten
Elektronkandidaten, der unterschiedliche Selektionskriterien erfüllen kann, ein Z-Boson bzw. J/ -Meson
im Elektron-Positron-Zerfallskanal selektiert. Das ausgewählte Paar muss eine invariante Masse aufweisen, welche innerhalb eines vordefinierten Massenfensters der Masse der ursprüglichen Resonanz entspricht. Damit ist eine hohe Reinheit für das selektierte Elektron-Positron-Paar gewährleistet.
Dem zweiten Elektron oder Positron wird ein -Kandidat zugeordnet, an dem nun die Elektron-VetoKriterien überprüft werden. Die Entscheidung der Veto-Algorithmen, von denen es verschiedene Abstufungen gibt, wird ermittelt und daraus eine Veto-Effizienz abgeleitet.
Diese Effizienz steht in einem direkten Zusammenhang mit der Fehlidentifikationsrate. Auf Grund des
Aufbaus des ATLAS Detektors wird diese als Funktion der sogenannten Pseudorapidität () dargestellt,
welche eine Funktion des Polarwinkels ist. Des weiteren werden verschiedene Bereiche transversaler
Energie (ET ) untersucht, da auch der -Identifikationsalgorithmus zwischen verschiedenen ET -Bereichen
unterscheidet.
Die so erhaltenen Informationen über die Fehlidentifikationsraten von -Leptonen nach Anwendung der
bereitgestellten Veto-Algorithmen ist essenziell um fundierte Aussagen über Untergrundbeiträge zu Signalprozessen mit hadronisch zerfallenden -Leptonen bei ATLAS zu treffen.
Im Vortrag wird die beschriebene Methode zur Abschätzung der Fehlidentifikationsrate und Ergebnisse der ersten ATLAS Daten bzw. Erwartungen für die Messung mit einer integrierten Luminosität von
10 pb 1 vorgestellt.
E-11 (B) Exklusive Produktion von 0 Mesonen am COMPASS Experiment
K ATHARINA S CHMIDT
Physikalisches Institut, Universität Freiburg
Ende der 1980er Jahre erregte die Spinstruktur des Nukleon große Aufmerksamkeit. Damals hatte das
EMC-Experiment herausgefunden, dass der Spin des Nukleons nicht alleine durch die Beiträge der Valenzquarks erklärt werden kann. Es folgte ein detailliertes Studium der Spinbeiträge der einzelnen Valenzquarks, der Seequarks und der Gluonen. Doch die Ergebnisse der vergangenen Jahre machten immer
deutlicher, dass ein wichtiger Schlüssel zur vollständigen Beschreibung des Nukleons im Verständnis des
Bahndrehimpulsbeitrages der Konstituenten liegt.
In dieser Zeit erregte auch das Konzept der Generalisierten Partonverteilungen (GPD) großes Interesse.
Während die altbekannten Partonverteilungen die Impuls- und Spinverteilungen von Quarks und Gluonen im Hadron beschreiben, enthalten GPDs neben dem longitudinalen Impuls ergänzende Informationen über den transversalen Aufenthaltsort der Konstituenten. Diese zusätzliche Information ermöglicht
auch eine Formulierung des Bahndrehimpulses mit Hilfe der GPDs. Der Wirkungsquerschnitt eines tiefinelastischen Streuprozesses kann im Bjorken Limit in einen sogenannten ’harten’ und ’weichen’ Anteil
zerlegt werden. Während die Wechselwirkung der Quarks und Gluonen im Rahmen der perturbativen
QCD berechnet werden können, wird die Struktur des Nukleons durch Partonverteilungen beschrieben.
E. Experimentelle Analysen
29
Fordert man zusätzlich einen Impulsübertrag auf das Proton, so wird der nicht-pertubative Anteil des
Streuprozesses durch GPDs beschrieben. Diese Forderung kann experimentell in der exklusiven Produktion von Photonen oder Vektormesons umgesetzt werden. Die Winkelverteilung der Vektormesonen ist
sensitiv auf die GPDs H und E, die wiederum in die Summenregel von X. Ji zur Beschreibung des Bahndrehimpulses einfließen.
Das Compass (COmmon Muon Proton Apparatus for Structureand Spectroscopy) Experiment am SPS
Beschleuniger am CERN bietet mit einem 160 GeV/c longitudinal polarisierten Myonenstrahl und einem
wahlweise transversal oder longitudinal polarisierten Target die Möglichkeit zur umfangreichen Erforschung der Spinstruktur des Nukleons. Im Jahre 2004 wurden an dem Fixed-Target-Experiment erstmals
Daten mit einem transversal polarisierten 6 LiD Target genommen, das die Untersuchung von polarisierten
Neutronen ermöglicht. 2007 folgte schließlich die Datennahme mit einem transversal polarisierten NH3
Target und somit die Erforschung polariserter Protonen, die aktuell in diesem Jahr fortgesetzt wird.
Dieser Vortrag beinhaltet eine Einfürung in die Analyse der exklusiv produzierten 0 Mesonen aus der
Streuung eines longitudinal polarisierten Myonenstrahls an einem transversal polarisierten NH3 Target,
sin. S /
und gibt Einblicke in die Extraktion der transversalen Target-Single-Spin-Asymmetrie AU T
.
E-12 (C) Messung generalisierter Partonverteilungen bei HERMES und
P ANDA
I RINA B RODSKI
II. Physikalisches Institut der JLU Gießen
Generalisierte Partonverteilungen (GPDs) beschreiben die innere Quark- und Gluonstruktur der Hadronen. Sie vervollständigen die Information aus Partonverteilungen und Formfaktoren zu einem mehrdimensionalen Bild im Phasenraum der Partonen. Nach den theoretischen Betrachtungen von Xiangdong Ji
besteht eine direkte Verbindung zwischen den GPDs und dem eichinvarianten gesamten Drehimpuls der
Quarks und Gluonen. Die GPDs stellen deshalb eine erste Möglichkeit dar, den Bahndrehimpulsanteil der
Quarks am Spin des Nukleons experimentell zu bestimmen.
Am HERMES-Experiment in Hamburg am DESY wurde tief-virtuelle Compton-Streuung (DVCS) gemessen. Dabei koppelt ein vom Elektron emittiertes virtuelles Photon an das Proton welches anschließend
ein reelles Photon emittiert. Das Proton bleibt bei diesem harten Streuprozess intakt . C p ! C p/.
Der Prozess wird durch ein QCD-Handbag Diagramm beschrieben, bei dem die Compton-Streuung an
einem quasifreien Quark passiert. Der niederenergetische Teil des Prozesses wird durch GPDs parameterisiert. Die HERMES Messungen liefern erste Ergebnisse zu DVCS und den zugeordneten GPDs.
Die Untersuchung eines verwandten Prozesses, nämlich des dazugehörigen cross channels pp ! , ist
bei dem in wenigen Jahren in Darmstadt anlaufenden Experiment P ANDA am neuen Beschleunigerzentrum FAIR möglich.Auch hier kann das QCD-Handbag Diagramm durch entsprechende GPDs beschrieben werden.
E-13 (A) Jet-Wirkungsquerschnitte in neutralen Reaktionen bei HERA
H ANNO P ERREY
Institut für Experimentalphysik, Universität Hamburg
Lepton-Hadron-Streuexperimente gehören zu den zentralen Werkzeugen der experimentellen Teilchenphysik. Sie liefern uns wichtige Informationen über den inneren Aufbau der Materie, indem sie ein vom
30
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Lepton abgestrahltes virtuelles Photon als Sonde in das Hadron eindringen lassen und so dessen innere
Struktur erforschen.
Der bis Mitte 2007 am DESY in Hamburg betriebene Speicherring HERA nimmt dabei eine besondere Stellung ein, da er Elektronen und Protonen beschleunigte und somit eine nach wie vor unerreichte
ep-Schwerpunktsenergie von bis zu 318 GeV erlangte. Der von HERA abgedeckte Phasenraum reicht
somit von kleinsten Werten der Skalenvariablen xBj 10 5 bis zu größten Impulsüberträgen Q2 105 .GeV=c/2 .
Von besonderem Interesse für die Untersuchung der Starken Wechselwirkung ist das Studium des gesamten hadronischen Endzustandes und speziell von Jets. So können durch Messung von Jet-Observablen
Vorhersagen der pertubertiven QCD-Theorie und des Faktorisierungsansatzes überprüft und die Partondichteverteilungsfunktion (PDF) des Protons und die starke Koplungskonstante, ˛s , bestimmt werden.
Vorgestellt wird dazu eine Messung von Jet-Wirkungsquerschnitten in tiefunelastischer Elektron-ProtonStreuung mit einer Virtualität des einlaufenden Photons im Bereich von 10 < Q2 < 100 .GeV=c/2 .
Die verwendeten Daten wurden 1998–2007 mit dem ZEUS-Detektor bei HERA aufgenommen und entsprechen einer Luminosität von 0.37 fb 1 . Für die Messung wurden Jets mit Hilfe des inklusiven kT Algorithmus im Breit-System rekonstruiert. Die Wirkungsquerschnitte wurden differentiell in den kinematischen Größen Q2 , xBj und den Jet-Observablen ET und gemessen und mit QCD-Rechnungen in
nächst-führender Ordnung verglichen. Insbesondere mit den in Zukunft zu erwartenden QCD-Rechnungen
höherer Ordnung sollen diese Daten benutzt werden, um die Parton-Dichteverteilungen des Protons und
˛s genauer zu bestimmen. Präsentiert wird der aktuelle Stand der Analyse.
E-14 (B) Datenvalidierung aus der SUSY-Perspektive bei CMS
H ANNES S CHETTLER
DESY / Universität Hamburg
Seit März dieses Jahres wird der Large Hadron Collider am CERN mit einer Schwerpunktsenergie von
7 TeV betrieben. Als eines der beiden großen Vielzweckexperimente zeichnet der CMS-Detektor (Compact Muon Solenoid) Daten über die Produkte der Proton-Proton-Kollisionen auf. Damit hat sich die
Möglichkeit eröffnet, in bislang unerreichten Energiebereichen nach Neuer Physik zu suchen. Ein vieldiskutiertes Modell von Neuer Physik ist die Supersymmetrie (SUSY). Sie ergänzt das etablierte Standardmodell der Elementarteilchenphysik um die Symmetrie zwischen Fermionen und Bosonen.
Nach gängigen Submodellen dieser Theorie zeichnet sich ein typisches supersymmetrisches Ereignis in
einem Beschleunigerexperiment aus durch massive, kurzlebig Teilchen, die paarweise produziert werden.
Diese zerfallen – häufig über einige Zwischenzustände – in das leichteste SUSY-Teilchen (LSP), das in Rparitätserhaltenden Modellen als stabil angenommen wird und den Detektor unnachgewiesen verlässt. Als
Signatur erwarten man also eine hohe Gesamtenergie im Ereignis, viele Endprodukte wie Leptonen oder
Jets und eine unausgeglichene Impuls- und Energiebalance durch die LSPs. Das SUSY-Signal sollte vor
allem in den Ausläufern einiger Verteilungen gegenüber dem Untergrund von Standardmodell-Ereignissen
sichtbar sein.
Garade die Extrembereiche dieser Verteilungen sind aber anfällig für Messungenauigkeiten und Störungen. So kann beispielsweise die in vielen SUSY-Analysen wichtige fehlende Transversal-Energie eines
Ereignisses von Rauschen in den Kalorimetern, von heißen oder kalten Zellen verursacht werden. Auch
können viele Jets und/oder Leptonen zu zusätzlichen Messungenauigkeiten führen, da die Wahrscheinlichkeit steigt, dass die rekonstuierten Objekte dicht beieinander liegen oder überlappen.
Das Data Quality Monitoring ist die zentrale Datenvalidierung bei CMS. Für jeden Run werden die einzelnen Detektorkomponenten bewertet und mit einem Flag als gut oder schlecht markiert. Anschließend
durchlaufen die Daten die sogenannte Prompt Validation der verschiedenen Physikgebiete. In diesem
E. Experimentelle Analysen
31
Vortrag werden einige Aspekte und Ergebnisse der SUSY Prompt Validation vorgestellt. Im Zentrum
dieser Datenvalidierung stehen die SUSY-typischen Variablen und, wie oben motiviert, die Ausläufer
einiger Verteilungen. Dabei werden zwei Ansätze verfolgt: Zum einen werden die Daten mit MonteCarlo-Simulationen verglichen. Zum anderen wird beobachtet, wie sich relevante Größen von Run zu
Run verändern.
Darüber hinaus werden auch die vom Data Quality Monitoring gesetzen Flags aus der SUSY-Perspektive
untersucht. Runs, die in einzelnen Flags als schlecht bewertet wurden, werden in den typischen SUSYVariablen mit den guten Runs verglichen. Dabei stellt sich die Frage, welchen dieser Flags für SUSYAnalysen besondere Relevanz zukommt. Und letzlich auch, wie sich Detektorprobleme auf die SUSYVariablen niederschlagen.
E-15 (C) Studium von 2-Photon-Endzuständen im GMSB-Modell bei ATLAS
M ARTIN W ILDT
Institut für Experimentalphysik, Uni Hamburg
Die Brechung von Supersymmetrie (SUSY) kann durch verschiedene Mechanismen vermittelt werden,
wobei z.B. Eichwechselwirkungen eine Rolle spielen können. Diese Modelle nennt man “Gauge Mediated
Supersymmetry Breaking“ (GMSB) Modelle. In diesen Modellen werden die Ereignistopologien, die an
Collider-Experimenten erwartet werden, durch das zweitleichteste SUSY-Teilchen (NLSP) bestimmt, welches entweder das leichteste Neutralino oder ein Slepton sein kann. Das Neutralino zerfällt hauptsächlich
in ein Photon und ein Gravitino.
In den Proton-Proton Kollisionen am Large Hadron Collider erwartet man in Szenarien mit einem Neutralino NLSP Ereignisse mit zwei hochenergetischen Photonen und fehlender tranversaler Energie durch
die nicht messbaren Gravitinos. In diesem Vortrag werden Studien zum Entdeckungspotential des ATLAS
Detektors für die GMSB Signaturen mit zwei Photonen vorgestellt. Insbesondere wird auf die Optimierung der Analyse für erste Daten eingegangen.
E-16 (A) Erste Schritte zur Messung der schwachen Mischungsphase im
Zerfall Bs ! J = ˚ bei LHCb
C HRISTIAN L INN
Physikalisches Institut, Universität Heidelberg
Ende 2009 begann am LHCb Detektor die Datennahme bei Proton-Proton Kollisionen mit einer Schwerpunktsenergie von bis zu 7 TeV. Bis zum Jahr 2012 wird eine integrierte Luminosität von ca 1 fb 1
erwartet. Damit ist es bereits möglich erste Ergebnisse in einigen Kernbereichen des Physikprogramms
von LHCb zu erreichen. Besonders aussichtsreich ist die Messung der CP-verletzenden Phase ˚s im Zerfall Bs ! J = ˚. Das Standardmodell sagt hier eine nur wenig von Null abweichende Phase voraus.
Messungen von CDF und DØ sind damit im Rahmen der Fehler kompatibel, weisen jedoch noch grosse
statistische Unsicherheiten auf. Mit den nun erwarteteten 1 fb 1 ist LHCb in der Lage die Unsicherheiten
signifikant zu verringern und eventuell Abweichungen vom Standardmodell zu messen.
Bereits mit den bisher gewonnenen Daten wurden erste Schritte in Richtung der Messung von ˚s unternommen. So erlaubt zum Beispiel eine grosse Menge von rekonstruierten J = ! Zerfällen erste Aussagen über Massen - und Eigenzeitauflösung des Detektors, welche entscheidend für eine exakte
32
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Messung der B-Mischung ist. Desweiteren wurden erste B ! J =K Zerfälle rekonstruiert, die wichtige
Kontrollmessungen für die Messung der Phase ˚s erlauben. Aufgrund einer ähnlichen Zerfallstopologie
wie Bs ! J = ˚ eignet sich zum Beispiel der Zerfall Bd ! J =K gut um die in der Simulation
bestimmte Detektorakzeptanz zu validieren.
Der Vortrag wird nun erste Resultate aus der Untersuchung der J = Resonanz vorstellen, sowie erste
rekonstruierte B ! J =K Zerfälle und ihre Bedeutung für die Phasenmesssung im Kanal Bs ! J = ˚
diskutieren.
E-17 (B) Messung des KS -Wirkungsquerschnitts in pp-Kollisionen bei
p
s D900 GeV mit dem LHCb-Experiment
M ANUEL S CHILLER
Physikalisches Institut, Universität Heidelberg
Ende 2009 wurden am LHC die ersten pp-Kollisionen bei einer Schwerpunktsenergie von 900 GeV
beobachtet. In diesem Vortrag wird die erste LHCb-Analyse, eine Messung des doppelt differentiellen
dpp!KS
KS -Wirkungsquerschnitts dp
im Kanal KS ! C , vorgestellt. Die Analyse verwendet 13
T dy
Datensätze, die vom 11. bis 13. Dezember 2009 aufgezeichnet wurden.
Durch seine besondere Geometrie deckt LHCb einen bisher noch nicht untersuchten Pseudorapiditätsbereich ab (2 < < 5). Aus diesem Grund erlaubt diese Messung, QCD-Modelle zur Beschreibung von
Hadronisierung und Fragmentation in Generatoren zu optimieren. Eine gute Beschreibung ist wichtig für
viele der zukünftigen Messungen bei LHCb (und anderen Experimenten in diesen Pseudorapiditätsbereich).
Grundlegende Bausteine der Analyse sind die Extraktion der Signalausbeute, die Messung der Rekonstruktions- und Trigger-Effizienzen und die Messung der Luminosität, wobei auf letzteren Punkt nur
kurz eingegangen wird. Signalausbeute und Luminosität werden direkt aus den Daten bestimmt. Die
Rekonstruktions- und Triggereffizienzen werden auf simulierten Ereignissen ermittelt. Die Ausrichtung
der einzelnen Subdetektoren mit kosmischen Myonen ist aufgrund der Vorwärts-Geometrie des Experimentes nur für einige Teildetektoren und mit sehr eingeschränkter Statistik möglich. Darum hat die
Ausrichtung noch nicht ihre endgültige Präzision erreicht. Dies verursacht ein Absinken der Detektionseffizienz gegenüber einer optimalen Detektorausrichtung, das so nicht in der Simulation berücksichtigt
ist.
Die Auswirkungen der reduzierten Rekonstruktionseffizienz wurden im Detail untersucht; die zugehörigen Studien werden zusammen mit der Evaluation weiterer systematischer Effekte im Vortrag vorgestellt.
Abschließend wird der gemessene doppelt differentielle Wirkungsquerschnitt mit den Vorhersagen verschiedener Generator-Einstellungen verglichen.
E-18 (C) Messung des Verzweigungsverhältnisses des Meson-Zerfalls Bs0 !
DsC Ds bei CDF-II
D OMINIK H ORN
Institut für Experimentelle Kernphysik, KIT
Mit einer vom CDF-II-Detektor am p p-Ringbeschleuniger
N
Tevatron bei einer Schwerpunktsenergie von
1:96 TeV genommenen Datenmenge, die einer integrierten Luminosität von etwa 5 fb 1 entspricht, führen
E. Experimentelle Analysen
33
wir eine Messung des Verzweigungsverhältnisses des exklusiven Prozesses Bs0 ! DsC Ds durch.
./C
./
Erste Evidenz für Zerfälle des neutralen Bs0 -Mesons in die Doppel-Charm-Endzustände Ds Ds
wurde vor etwa zehn Jahren von der ALEPH-Kollaboration erbracht und in jüngerer Vergangenheit vom
ebenfalls am Tevatron verorteten DØ-Experiment bei einer statistischen Signifikanz von 3:2 Standardabweichungen bestätigt. In beiden Analysen wurde das Verzweigungsverhältnis des semi-inklusiven Pro./C ./
zesses Bs0 ! Ds Ds
gemessen, es wurde jedoch nicht der Versuch unternommen, zwischen den
./
angeregten Endzuständen DsC Ds
und dem exklusiven Zerfall Bs0 ! DsC Ds zu unterscheiden.
Letzterer wurde erstmals mit einer statistischen Signifikanz von 7:5 vom CDF-II-Experiment beobachtet. Mit einer Datenmenge von 355 pb 1 konnten unter Verwendung der hadronischen Zerfallskanäle
DsC ! C ; Ds ! .K 0 K ; C /, mit ! K C K und K 0 ! K C , etwa 24
Bs0 ! DsC Ds -Signalereignisse rekonstruiert werden. Das Verzweigungsverhältnis dieses Zerfalls wurde
mit BŒBs0 ! DsC Ds  D 0:0107 ˙ 0:0036C0:0010
0:0033 bestimmt.
Mit einer nun deutlich größeren Datenmenge wird diese Messung auf Grundlage einer exklusiven Rekonstruktion der bereits in der früheren CDF-Messung verwendeten hadronischen Zerfallskanäle wiederholt.
Für die Optimierung des Signal- zu Untergrundverhältnisses werden nun jedoch anstelle rechtwinkliger Schnitte künstliche neuronale Netze eingesetzt. Im Gegensatz zu den zuvor aufgeführten Messungen sehen wir uns nun in der Lage, auf Grundlage einer partiellen Rekonstruktion angeregter DsC Mesonen zusätzlich die Verzweigungsverhältnisse der Zerfälle Bs0 ! DsC Ds und Bs0 ! DsC Ds
getrennt zu bestimmen. Erstmalig wird zudem, auf Grundlage einer kürzlich veröffentlichten Analyse
der CLEO-Kollaboration, die Dalitz-Struktur des Zerfalls DsC ! K C K C vollständig berücksichtigt; bei der Rekonstruktion der in dieser Analyse verwendeten Zerfälle DsC ! .K C K / C bzw.
Ds ! K 0 .K C /K C kann innerhalb der gewählten Massenfenstern des K C K C -Phasenraums
jede andere signifikante Zwischenresonanz leicht als bzw. K 0 rekonstruiert werden und somit die
Signalausbeuten verfälschen. Durch Berücksichtigung der vollen Dalitz-Struktur stellen wir sicher, dass
Rekonstruktionseffizienzen dennoch korrekt berechnet werden. Von dieser Behandlung erhoffen wir uns
zudem eine Reduzierung der durch die Endzustands-Verzweigungsverhältnisse gegebenen systematischen
Unsicherheiten.
Unter gewissen theoretischen Annahmen saturieren die hier untersuchten Doppel-Charm-Endzustände
./C ./
Ds Ds
vorwiegend CP-gerade Eigenzustände; dann kann gezeigt werden, dass eine Messung der
Verzweigungsverhältnisse dieser Zerfälle unmittelbar sensitiv auf die relative Zerfallsbreitendifferenz
sCP = s im schnell oszillierenden Bs0 BNs0 -Mesonsystem ist. Die vorgestellte Analyse ist daher als
wichtiger kontemplativer Beitrag zu weiteren Forschungsarbeiten im Bs0 -Mesonsektor, wie beispielsweise die Analyse des Zerfalls Bs ! J = , die die Messung der über die Relation D sCP cos s
verknüpften Zerfallsbreitendifferenz und CP-verletzenden Phase s zum Ziel hat, zu verstehen.
E-19 (A) Charm-Baryon-Spektroskopie bei CDF
F ELIX W ICK
Institut für Experimentelle Kernphysik, KIT
Der Teilchendetektor CDF-II am Tevatron Proton-Antiproton-Beschleuniger ermöglicht dank einer sehr
guten Massenauflösung und einer großen Menge verfügbarer Daten die genaue Vermessung von spektroskopischen Eigenschaften wie Masse und Zerfallsbreite einer Vielzahl von Zuständen.
C
Dies wird ausgenutzt um die ersten orbitalen Anregungen des C
c -Baryons, die Resonanzen c .2595/
C
und c .2625/C , in dem Zerfallskanal C
sowie dessen Spinanregungen ˙c .2455/0;CC und
c 0;CC
C
C
C
˙c .2520/
in ihren Zerfällen nach c und C
c zu untersuchen. Dabei wird das c -Baryon
aus seinen Zerfallsprodukten p K C rekonstruiert.
34
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Das System der Charm-Baryonen eignet sich dank seines reichen Massenspektrums und der relativ schmalen Zerfallsbreiten der beobachteten Resonanzen ideal zum Testen der Heavy Quark Symmetry. Das Ziel
der vorgestellten Analyse ist daher die Verbesserung früherer Messungen der Massendifferenzen zur C
c Masse sowie der Zerfallsbreiten der oben genannten Zustände.
Zur Signalselektion werden künstliche neuronale Netzwerke des Programmpakets NeuroBayes eingesetzt.
Mittels der s Plot-Methode zur Seitenbandsubtraktion werden dabei ausschließlich reale Daten zum Training der Netzwerke verwendet. Dies hat den Vorteil, dass keine simulierten Ereignisse für den Trainingsprozess vonnöten sind, deren Struktur gegebenenfalls von der Realität abweichen kann.
C
C
Insbesondere die Studie der orbital angeregten C
c -Baryonen, c .2595/ und c .2625/ , kann, verglichen mit bisherigen Messungen, mit deutlich höherer Statistik durchgeführt werden. Dies ermöglicht die
Untersuchung der von der gewöhnlichen Breit-Wigner-Form abweichenden Signalstruktur der c .2595/C Resonanz, welche durch kinematische Schwelleneffekte des dominierenden, resonanten Zerfalls nach
˙c .2455/ hervorgerufen wird. Die Berücksichtigung dieses Umstandes resultiert in einem signifikant
niedrigeren Messwert der c .2595/C -Masse. Desweiteren kann die starke Pion-Kopplungskonstante h2
des Zerfalls c .2595/C ! ˙c .2455/ direkt bestimmt werden, was von theoretischem Interesse zur
Vorhersage spektroskopischer Eigenschaften von Charm- und Bottom-Baryonen ist.
E-20 (B) Hadronische Wirkungsquerschnittsmessungen via ISR bei BABAR
A NDREAS H AFNER
Universität Mainz
Die Messung des hadronischen Wirkunsquerschnittes in der e C e Annhihilation ist von entscheidender
Bedeutung für eine verbesserte Standardmodellvorhersage des anomalischen magnetischen Momentes
had aus den
des Myons a . Mit Hilfe einer Dispersionsrelation ist es möglich, den hadronischen Anteil a
gemessenen exklusiven Wirkungsquerschnitten der hadronischen Reaktionen zu bestimmen. Der Reaktionskanal e C e ! C hat mit ca. 75% des Gesamtbeitrages zum Dispersionsintegral den größten
Einfluss auf die Berechnung von a . Der BaBar-Detektor hat von 1999-2008 eine integrierte Luminosität von ca. 500 fb 1 am e C e -Beschleuniger PEP-II aufgenommen. Die Schwerpunktsenergie beträgt
10:58 GeV. In Initial State Radiation (ISR) Ereignissen wird von einem einkommendem Lepton ein Photon abgestrahlt und dadurch die effektive Schwerpunktsenergie abgesenkt. Mit Hilfe dieser ISR-Methode
können bei BaBar hadronische Wirkunsquerschnitte im Energiebereich von der Schwelle bis 5 GeV vermessen werden. Die Messung des C -Kanals wurde mit sehr hoher Präzision durchgeführt. Dadurch
ist der Fehler auf den hadronischen Anteil der Myon-Anomalie momentan dominiert durch die Kanäle
C C sowie C o o . Diese laufenden Messungen werden vorgestellt.
E-21 (C) Studien zum Nachweis eines schweren Eichboson im Zerfallskanal
W 0 ! e am ATLAS-Experiment
C HRISTIAN S CHR ÖDER
Institut für Physik, Johannes-Gutenberg-Universität Mainz
Trotz seines Erfolgs gibt es einige Hinweise darauf, daß das Standardmodell der Teilchenphysik nicht
vollständig ist. Einige Erweiterungen um das Standardmodell der Teilchenphysik sagen bisher nicht entdeckte Teilchen voraus, welche an den Experimenten des Large Hadron Collider (LHC) am CERN, u.
a. dem ATLAS-Experiment, nachgewiesen werden sollen. Eines dieser vorhergesagten Teilchen ist das
E. Experimentelle Analysen
35
schwere Eichboson W 0 , dessen Existenznachweis bis zu einer Masse von 3 TeV möglich sein soll, wobei
angenommen wird, daß dieses Teilchen die gleichen Wechselwirkungen wie das W -Eichboson aufweist.
Bisherige Experimente, insbesondere das CMS- and DØ-Experiment am Tevatron, konnten ein W 0 -Boson
bis zu einer Masse von 1 TeV ausschließen, weshalb insbesondere die ersten 1 fb 1 an Daten des ATLASExperiments, welche den sensitiven Massenbereich bis auf 3 TeV erweitern, interessant sind.
In dem Vortrag soll hauptsächlich auf die Detektion des leptonischen Zerfallskanal des W 0 -Bosons in ein
Elektron und ein Neutrino, d. h. W 0 ! e eingegangen werden. Da hierbei das Neutrino nicht mit dem
Detektormaterial wechselwirkt, kann es nur indirekt über die fehlende Energie im Detektor nachgewiesen
werden. Außerdem werden die Teilchen in Proton-Proton-Kollisionen erzeugt, weshalb der Impulsbruchteil der zum Prozeß beitragenden Quarks nicht genau bekannt ist. Daher kann nur der transversale Impuls
des Neutrinos aus der fehlenden Transversalenergie rekonstruiert werden und somit die invariante transversale Masse des W 0 -Boson berechnet werden. Der hadronische Rückstoß verschmiert das Spektrum
aufgrund der großen Masse des W 0 -Bosons dabei nur minimal, und die gröste Ungenauigkeit der Messung
resultiert hierbei aus dem Verständniß des Untergrundes und der Bestimmung des fehlenden Transversalimpulses, welcher besonders empfindlich auf Rauschen und elektronisches Fehlverhalten ist, weshalb ein
genaues Verständniß des Detektors und seiner Komponenten unverzichtbar ist. In dem Vortrag sollen daher geeignete Methoden zur Rauschunterdrückung und zur möglichst präziesen Messung des fehlenden
Transversalimpulses im ATLAS-Experiment vorgestellt werden. Daneben sollen auch Studien zum Untergrund und dessen Unterdrückung präsentiert werden, und anhand erster vorläufiger Ergebnisse mit den bis
dahin analysierten Daten des ATLAS-Experimentes im Vergleich mit Simulationen soll das Verständnis
des Detektorverhaltens demonstriert werden. Abschließend soll ein Ausblick auf Analysemöglichkeiten
mit zukünftigen Daten gegeben werden.
E-22 (A) B-Physik am Belle-Experiment: Untersuchung von CP-Verletzung
A NDREAS M OLL
Max-Planck-Institut für Physik
CP-Verletzung ist von entscheidender Bedeutung für die Entwicklung des Universums, da sie unbedingt
erforderlich ist, um die beobachtete Materie-Antimaterie-Asymmetrie im Universum zu erklären. Darüber
hinaus erlauben Experimente zur Untersuchung der CP-Verletzung präzise Tests der fundamentalen Wechselwirkungen in der Teilchenphysik. Im Standardmodell wird die CP-Verletzung durch das sogenannte
CKM-Modell, benannt nach ihren Erfindern Nicola Cabibbo, Makoto Kobayashi und Toshihide Maskawa
erklärt. Die Theorie sagt voraus, dass die CP-Verletzung aus Massenmischungen schwerer Quarks, mathematisch durch die CKM-Matrix beschrieben, resultiert. Hierbei wird die CP-Verletzung durch eine Phase
der CKM-Matrix beschrieben, die die Quarkeigenzustände mit entsprechenden Masseneigenzuständen
verbindet. Dabei ist die CP-Verletzung bei Zerfällen, an denen schwere Quarks beteiligt sind, am ausgeprägtesten. Daher eignen sich B-Mesonen, die aus einem leichten Quark und dem schwere Bottom-Quark
bestehen, besonders gut diese Theorie zu testen.
Dies übernahmen die beiden Experimente BaBar am SLAC und Belle am KEKB und bestätigten eindrucksvoll die Theorie von Cabibbo, Kobayashi und Maskawa. Dafür erhielten Kobayashi und Maskawa
im Jahr 2008 den Nobelpreis für Physik. Gibt es keine ”neue Physik“, so ist die CKM-Matrix unitär
und lässt sich in einer komplexen Ebene grafisch in Form eines geschlossenen Dreieckes darstellen. Ist
allerdings das Standard Modell nicht vollständig, so schliessen sich die drei Seiten des Dreiecks nicht.
Daher ist das Ziel, unabhängig voneinander, sowohl die 3 Winkel als auch die Länge der 3 Seiten in den
verschiedenen, beim B-Zerfall gemessenen, Physikkanälen zu bestimmen.
Das Belle-Experiment ist ein Teilchendetektor an der KEKB Flavor Factory in Japan. Hier werden in
Elektron-Positron-Kollisionen an der .4s/ Resonanz, bei einer Schwerpunktsenergie von 10.58 GeV,
36
42. Herbstschule für Hochenergiephysik Maria Laach 2010
N
quantenmechanisch verschränkte B-Mesonen-Paare erzeugt. Da diese Resonanz direkt oberhalb der B BProduktionsschwelle liegt, werden die Mesonen im Schwerpunktssystem der Kollision praktisch in Ruhe
erzeugt. Durch eine asymmetrische Kollisionsenergie, die zu einem Boost des Schwerpunktssystem der BMesonen im Laborsystem führt, ist eine präzise Messung der Zeitstruktur der Zerfälle der Mesonen über
eine genaue Rekonstruktion des Zerfallsortes möglich. Die Zerfälle der quantemechanisch verschränkt erzeugten B-Meson Paare, lassen eine präzise Überprüfung der Unitarität der CKM-Matrix zu. Der Vortrag
beschreibt das Belle Experiment in Japan und erläutert anhand des Zerfalls B ! C und des Winkels
2 im CKM-Dreieck, wie Parameter des CKM-Dreiecks gemessen werden und wie CP-Verletzung im
B-Mesonen System nachgewiesen wird.
E-23 (B) Suche nach dem MSSM Higgsbosonzerfall h=A=H ! C mit
p
dem ATLAS-Detektor bei s D 10 und 7 TeV.
S EBASTIAN S TERN
Max-Planck-Institut für Physik
In der minimalen supersymmetrischen Erweiterung des Standardmodells (MSSM) werden fünf Higgsbosonen (h, H , A, H ˙ ) vorhergesagt, deren Massen durch zwei unabhängige Parameter bestimmt sind: das
Verhältnis tan ˇ der Vakuumerwartungswerte und die Masse mA des pseudoskalaren Higgsbosons. Im Vergleich zum Higgsboson im Standardmodell ist der Zerfall der neutralen h=H=A-Bosonen in zwei Myonen
für hohe Werte von tan ˇ deutlich verstärkt. Dieser Zerfallskanal bietet eine experimentell klare Signatur
und ergänzt die Suche im wahrscheinlicheren C Zerfallskanal. Im Vortrag wird die Suche nach dem
h=A=H ! C Zerfall mit dem ATLAS-Detektor unter Berücksichtigung der wichtigsten Untergrundprozesse vorgestellt. Dabei wurde eine detailierte Detektorsimulation für Proton-Proton-Kollisionen bei
p
einer Schwerpunktsenergie von s D 10 TeV verwendet.
Zu den wichtigsten C Untergrundbeiträgen zählen die Z-Boson- und die Top-Paarproduktion. Im
Vortrag wird eine Methode zur Messung dieser Untergrundbeiträge anhand von Endzuständen mit e C e Paaren vorgestellt. Diese können aufgrund der verschwindenen Zerfallsrate h=H=A ! e C e als signalfreie Kontrolldatensätze verwendet werden. Unterschiede zwischen den C - und e C e -Endzuständen,
verursacht durch Detektoreigenschaften und Photonabstrahlung, wurden ausführlich untersucht. Die Methode wurde bei der Bestimmung von erwarteten Ausschlussgrenzen für den Zerfall h=H=A ! C angewendet. Dabei wurden auch die systematischen Unsicherheiten berücksichtigt.
Abschließend werden die erwarteten Ausschlussgrenzen bei der derzeitigen LHC-Schwerpunktsenergie
p
gezeigt. Dazu wurden die Ergebnisse der Analyse auf die Wirkungsquerschnitte bei s D 7 TeV skaliert
und die Ausschlussgrenzen neu berechnet. Es wird gezeigt, dass die Abhängigkeit der Selektionseffizienzen von der Schwerpunktsenergie hierfür vernachlässigt werden kann.
E-24 (C) Analyse des Zerfalls B ! ˙cCC p bei BABAR
O LIVER G R ÜNBERG
Institut für Physik, Universität Rostock
In der Analyse wird das Verzweigungsverhältnis B.B ! ˙cCC p / gemessen. Der zugrundeliegende Datensatz umfasst ca. 470 Millionen BB-Paare, die im Prozess .4S / ! BB am asymmetrischen
e C e -Speicherring PEP-II erzeugt und vom BABAR-Detektor gemessen wurden. Die Rekonstruktion
C
C
C vorgenommen. Für den Zerfall wird ein signifiwird im Kanal ˙cCC ! C
c , c ! pK E. Experimentelle Analysen
37
Events / 5 MeV
kantes Signal in der Größenordnung B.B ! ˙cCC p / 10 4 gemessen. Zusätzlich wird in
dem Vier-Körper-Zerfall nach resonanten Zwischenzuständen gesucht, sowie nach einer Anreicherung
bei niedrigen Baryon-Antibaryon-Massen, einem Phänomen, das bereits bei vielen anderen Zerfällen mit
Baryon-Antibaron-Paaren gesehen wurde. Im Zuge dieser Analyse finden sich Hinweise auf die resoCC N . Eine Anreicherung bei niedrigen Baryonnanten Zerfälle B ! C
c p und B ! ˙c
Antibaryon Massen wird nicht beobachtet.
220
200
Data
180
Background fit
Global Fit
160
140
120
100
80
60
40
20
0
-0.1
-0.05
0
0.05
0.1
∆E [GeV]
Abbildung E.2.: Signalpeak in der E-Verteilung für rekonstruierte B-Kandidaten mit Vorauswahlkriterien zur Untergrundreduktion. E ist im e C e -Schwerpunktsystem definiert als
E D EB m.e C e /=2.
E-25 (A) Untersuchung radiativer Top-Quark-Prozesse pp ! t tN am
ATLAS-Detektor
M ARCUS R AMMES
Fachbereich 7 - Physik, Universität Siegen
Das Top-Quark wurde aufgrund seiner hohen Ruhmasse von 172; 5 GeV=c2 erst 1995 am Tevatron
(Fermilab) entdeckt [1]. Erst das Tevatron war mit einer Schwerpunktenergie von 1; 96 TeV in der Lage,
genügend viel Energie zur Erzeugung von Top-Quarks aufzubringen.
Während am Tevatron nur eine geringe Anzahl von Top-Quarks nachgewiesen werden konnten, wird der
Teilchenbeschleuniger LHC am Forschungszentrum CERN bei Genf eine deutlich höhere Anzahl an TopQuarks hervorbringen können. Bei einer geplanten Designluminosität von 1034 cm 2 s 1 [2] kann man
p
bis zu etwa 250 Mio. Top-Quark-Paare (bei einer Schwerpunktsenergie von s D 14 TeV) erwarten. Aus
diesem Grund werden viele wichtige Eigenschaften des Top-Quarks mit hoher Genauigkeit vermessen
werden können.
38
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Die Top-Gruppe der Universität Siegen beschäftigt sich dabei insbesondere mit der Kopplung von Photonen an das Top-Quark. Dies ermöglicht die direkte Bestimmung von Parametern, wie sie die Quantenelektrodynamik (QED) für das Top-Quark voraussagt. Wir verwenden dazu Ereignisse, in denen ein
N
Top-Quark-Paar (pp ! t tN ! bW C bW
) erzeugt wurde und ein W -Boson leptonisch (W ! `) und
das andere hadronisch (W ! q q)
N zerfällt, da dieser Zerfallskanal eine genügend hohes Verzweigungsverhältnis auf der einen Seite, andererseits aber ein zufriedenstellendes S=B-Verhältnis aufweist.
Zur
Simulation
von
Ereignissen
verwendet
unsere
Forschungsgruppe
den
MonteCarlo-Generator WHIZARD (W. K ILIAN ,T. O HL , J. R EUTER). Es handelt sich dabei um einen
Leading Order (LO)-Generator auf Tree-Level mit automatischer Matrixgeneration [3].
Für die Forschungsgruppe Siegen liegt dabei besonderes Augenmerk auf
Bestimmung der elektrischen Ladung des Top-Quarks
Das Top-Quark ist das sechste Quark im Standardmodell und bildet zusammen mit dem b-Quark
die dritte Quark-Familie (Isospindublett). Daher wird seine elektrische Ladung zu q t D C2e=3
angenommen.
Im Standardmodell zerfällt das Top-Quark fast ausschließlich über den elektroschwachen Zerfall
t ! W C b. Es gibt jedoch ein theoretisches Modell, welches eine exotische Top-Quark-Ladung
von qtQ D 4e=3 vorhersagt. In diesem Modell wäre das Top-Quark nicht der elektroschwache
Isospinpartner des b-Quarks, sondern würde als unbekanntes Quark tQ D Q4 zusammen mit einem weiteren exotischen Quark Q1 ein rechtshändiges Dublett .Q1 ; Q4 /R bilden, welches mit
dem rechtshändigen SM-b-Quark bR mischen könnte [4]. Dieses exotische “Top-Quark” würde
dann über tQ ! W b zerfallen, das “wahre” Top-Quark könnte dabei eine weit größere Masse
(m t & 230 GeV) haben, so dass am Tevatron auch Mischungen beider Zerfälle (t ! W C b und
tQ ! W b) gemessen worden wäre [5].
Bisher konnte die elektrische Ladung des Top-Quarks nur indirekt über die Messung der Ladung
des b-Quarks und der Zerfallsprodukte des dazughörigen W -Bosons bestimmt werden. Dieses Verfahren eignet sich aufgrund seiner hohen Effizienz gut für geringe Ereigniszahlen, ist allerdings mit
einer hohen Unsicherheit behaftet.
Wir von der Top-Gruppe der Universität Siegen wollen die Ladung des Top-Quarks direkt über die
Kopplungsstärke des Photons an das Top-Quark bestimmen. Der Wirkungsquerschnitt des Prozesses pp ! t tN liegt dabei allerdings um etwa einen Faktor 100 niedriger als für die reine TopQuark-Paarerzeugung pp ! t tN.
Auf lange Sicht wird eine solche Messung am ATLAS-Detektor jedoch möglich sein, da innerhalb
der Lebensdauer des LHC eine integrierte Luminosität von 3000 fb 1 erwartet wird.
Bestimmung der elektrischen und magnetischen t -Vertex-Formfaktoren Das Standardmodell
sagt die Kopplung von Photonen an Fermionen in der folgenden Form voraus:
a t .s/ d t
tt
i D e V .s/ C A t t .s/5 C e .q C q/
N
i
5
2m t
e
Dabei entspricht V t t der Kopplung an der vektoriellen und A t t der Kopplung an den axial-vektoriellen
Photon-Strom. Nach dem Standardmodell ist A t t D 0; V t t D 2=3 entspricht der elektrischen Ladung.
a t .s/ beschreibt den anomalen magnetischen Formfaktor (D 0 im SM) und d t .s/ den elektrischen
Dipol-Formfaktor (ebenfalls D 0 im SM) [6].
Da die Top-Quark-Masse so groß ist, könnte es eine spezielle Rolle bei der elektroschwachen Sym
metriebrechung (EWSB) spielen. Dann wäre eine Messung von Werten von A t t , a t .s/ und d t .s/
ungleich von Null ein deutliches Anzeichen von physikalischen Phänomenen jenseits des Standardmodells, die ihren Ursprung in der EWSB haben.
E. Experimentelle Analysen
39
Das Modell der anomalen Top-Quark-Ladung von qtQ D 4e=3 wurde bereits in WHIZARD eingebaut,
die erweiterten t -Vertizes werden zur Zeit implementiert.
Ich werde in dieser Präsentation einen Überblick über den Stand der Analyse der Siegener Top-QuarkGruppe geben und die wichtigsten Analysemethoden und Ergebnisse präsentieren.
[1] The Tevatron Electroweak Working Group, “Combination of CDF an DØ Results on the Mass of the
Top Quark,” arXiv:0808.1089v1 [hep-ex].
[2] M. Benedikt et al., “LHC Design Report, Volume III,” CERN-2004-003-V-3.
[3] W. Kilian, J. Reuters and T. Ohl, “WHIZARD 1.93,” LC-TOOL-2001-039 (revised).
[4] D. Chang and W. F. Chang, “Alternative Interpretation of the Tevatron Top Events,”
Phys. Rev. D59:091503, 1999.
[5] The DØ Collaboration, V. M. Abazov et al., “Experimental discrimination between charge 2e=3 top
quark and charge 4e=3 exotic quark production scenarios,” Phys. Lett. 98:041801, 2007.
[6] U. Baur et al., “Probing electroweak top quark couplings at hadron colliders,” Phys. Rev. D71:
054013 (2005).
E-26 (B) Positionskorrektur des CALICE-Kalorimeters (Detector Alignment)
S EBASTIAN W EBER
Universität Wuppertal
Im Rahmen der CALICE1 -Kollaboration wurde ein Kalorimeter-Prototyp entwickelt, der die von zukünftigen Beschleunigerexperimenten gestellten Anforderungen erfüllt. Ein wesentlicher Punkt ist eine hohe
räumliche Auflösung, die im hadronischen Kalorimeter durch Szintillatorzellen von nur 3 3 cm Größe
und eine Auslese mittels halbleiterbasierter Photomultiplier realistiert wird. Durch Bestrahlung des Prototypen mit bekannten Teilchen an existierenden Beschleunigern an CERN und Fermilab können die
theoretischen Erwartungen an das Kalorimeter experimentell verifiziert werden. Insbesondere die hohe
Auflösung des Kalorimeters ansich erfordert hierzu die Kenntnis der exakten Position des Detektors bezogen auf das Koordinatensystem des Teilchenstrahls.
Neben einer kurzen Übersicht über den Prototypen bietet dieser Vortrag einen Einblick in die Ermittlung
dieser exakten Position mit Hilfe von Myonen und erste Studien zum Auflösungsvermögen des Detektors.
1 CALorimeter
for an International Collider Experiment
T. Theorie
T-1 (A) Familiensymmetrien und GUTs
R EINIER D E A DELHART T OOROP
Nikhef
Familiensymmetrien und große vereinheitlichte Theorien (GUTs) können helfen, die anscheinenden Muster des Massensektors zu erklären. Wenn man ebenfalls ein Modell mit beiden Symmetrien herzustellen
versucht, gibt es neue Komplikationen.
Muster im Massensektor
Im Massensektor des Standardmodells gibt es viele Muster. Zum Beispiel ist für die Uptype-Quarks das
Top-quark (in der dritten Generation) ungefähr 100-mal schwerer als das Charm-Quark (in der zweiten
Generation), das selbst wieder ungefähr 100-mal schwerer ist als das Up-Quark, das in der ersten Generation sitzt. Für Downtype-Quarks und geladene Leptonen gibt es vergleichbare Relationen, aber mit
einem kleineren Faktor. Auch in der Mischung der Masse- und Flavour-Eigenzustände gibt es anschei-
Abbildung T.1.: Fermionmassen im Standardmodell
nende Muster, besonders im Neutrinosektor. Einer der Massen-Eigenzustände ist eine gleiche Mischung
von zwei Flavour-Eigenzuständen, weil der zweite Massen-Eigenzustand eine Überlagerung allen drei
Flavour-Eigenzustände ist.
Abbildung T.2.: Links: die Flavourinhalt der drei Neutrinomassen-Eigenzustände. Rechts: Eine
Familiensymmetrie kann tribimaximal Mixing vorhersagen
Familiensymmetrien
Das Standardmodell (mit Neutrinomassen) enthält 22 freie Parameter im Massensektor. Es ist naturlich
möglich, dass die anscheinenden Muster nur ein Zufall sind. Wenn man allerdings eine neue, horizontale
Symmetrie postuliert, so kann man die Munster durch Symmetrieprinzipen erklären. Abbildung 2 zeigt
hierfür ein Beispiel.
41
T. Theorie
GUTs
Familiensymmetrien können hauptsächlich Beziehungen zwischen gleichen Teilchenarten (z.B. Neutrinos oder Uptype-Quarks) erklären. Große vereinheitlichte Theorien können auch Beziehungen zwischen
verschiedene Teilchenarten herstellen. In Pati-Salam GUTs gibt es beispielsweise Beziehungen zwischen
dem Bottom-Quark und dem Tauon und zwischen dem Strange-Quark und dem Myon.
Modelle mit Familiensymmetrien und GUTs
Ein Modell mit beiden Symmetrien kann sehr viele Aspekte des Massensektors erklären. Wir haben ein
Modell mit einem Pati-Salam GUT und S4 Familiensymmetrie [1] entwickelt. Das Modell kann die Massen und Flavour-Mischung des Standardmodells erklären und sagt einen meßbaren neutrinolosern DoppelBetazerfall voraus.
Die Kombination der Symmetrien gibt allerdings neue Komplikationen. Der Higgs-Sektor wird sehr groß
und der Effect der Renormierungsgruppen-Gleichungen ist größer als erwartet. Diese Effekte können ein
großen Teil des Parameterraums ausschließen, so das das Modell weniger attraktiv ist als wenn man naiv
nur die guten Aspekte beider Symmetrien kombiniert.
[1] R. de Adelhart Toorop, F. Bazzocchi and L. Merlo, “Discrete Flavour Symmetries in GUTs: the Beauty and the Beast,” arXiv:1003.4502 [hep-ph].
T-2 (B) Numerische NLO-Rechnungen in QCD
M OHAMMAD A SSADSOLIMANI
Institut für Physik, HU Berlin
Man untersucht die Wechselwirkungen der Hochenergiephysik hauptsächlich an Teilchenbeschleunigern
wie dem Large Hadron Collider (LHC). Für einen möglichst präzisen Vergleich zwischen theoretischen
Vorhersagen und Experiment braucht man in der Theorie die nächstführende Ordnung der Störungtheorie
(NLO), da die führende Ordnung (LO) oft eine große Skalenabhängigkeit aufweist.
Die analytische Berechnung von NLO-Korrekturen werden komplizierter, wenn es viele Teilchen im Endzustand gibt. Daher sind numerische Methoden nützlich, die uns eine genauere und schnellere Berechnung
der NLO-Korrekturen ermöglichen. Jeder QCD W i rkungsquerschni t t in NLO kann in der folgenden Form geschrieben werden:
NLO
b
v
r
2!N
D 2!N
C 2!N
C 2!N
C1 ;
(T.1)
.b/
wobei .2!N / der Born W i rkungsquerschni t t, proportional zum Quadrat der Born Amplit ude,
.v/
.r/
für einen 2 ! N Prozess ist und .2!N / die virtuelle Korrektur. Der dritte Term .2!N C1/ beschreibt die
.v/
reelle Strahlung eines unbeobachteten Partons auf dem Born-Niveau. Die beiden letzten Beiträge .2!N /
.r/
und .2!N C1/ enthalten divergente Integrale. Diese Divergenzen werden durch unterschiedliche Singularitäten hervorgerufen, die Ultraviolett- und die Infrarot-Singularitäten. Die UV-Singularitäten kommen
aus den Integrationsbereichen großer Schleifenimpulse. Diese können systematisch durch die Renormierung in die Parameter des Modells absorbiert werden. Infrarot-Singularitäten können aus Phasenraumbereichen kommen, in denen das Teilchen weich (“soft”) ist, also sein Impuls verschwindet. Oder es treten
kollineare Divergenzen in Phasenraumbereichen auf, in denen das Teilchen mit einem anderen Teilchen
42
42. Herbstschule für Hochenergiephysik Maria Laach 2010
im Anfangs- oder Endzustand kollinear ist. Die UV-Singularitäten treten nur in den virtuellen Korrekturen auf, während die Infrarot-Singularitäten sowohl in den reellen als auch in den virtuellen Korrekturen
vorkommen.
Die Amplitude für jedes Einschleifendiagramm kann wie folgt dargestellt werden:
Z
I D
n
Y
d 4k
N.k/
4
.2/
.k
i D1
i
pi /2
m2i
,
(T.2)
wobei N.k/ ein beliebiges Polynom ist und k ,p Vierervektoren aus dem Minkowskiraum sind. Der Nenner dieses Integranden .k pi /2 m2i kann Null werden, wenn .k pi /2 D m2i . Das führt zu Polen, die
im Integrationsintervall liegen. Die von diesen Polen entstandenen Singularitäten können vermieden werden, wenn man den Integrationsweg an diesen Stellen verschiebt bzw. deformiert. Das Integral in Gl.(T.2)
kann noch nicht numerisch ausgewertet werden, denn es gibt Infrarot-Singularitäten im Integranden, die
man mit Hilfe der Subtraktionsterme beseitigen kann. Die Idee hierbei ist, dass man einen Term wie S
findet, den man zu dem Integranden I addieren und dann subtrahieren kann
Z
Z
Z
Z
I D Œ.I S / C S  D .I S / C S
(T.3)
und so erhält man einen Integranden .I S /, der numerisch ausgewertet werden kann und das zweite
Integral kann analytisch behandelt werden.
T-3 (C) Thermodynamischer Limes und Kontinuumlimes von MesonScreeningmassen
M ARCEL M ÜLLER
Universität Bielefeld
Meson-Screeningmassen, welche aus der räumlichen Meson-Korrelationsfunktion ermittelt werden, sind
eine wichtige Basismessgröße in der Hochtemperatur-Gitter-QCD. Bisherige Rechnungen bei endlichen
Gittervolumina lieferten abweichende Abschirmmassen für zwei weit verbreitete Gitterwirkungen, die
clover-verbesserte Wilson Wirkung und die Standard-Staggered Wirkung.
Dies motivierte eine Analyse beider Wirkungen, um durch die Extrapolation zu unendlicher Gittergröße
(thermodynamischer Limes) und die Extrapolation zu infinitisimalem Gitterabstand (Kontinuumslimes)
die systematischen Fehler beider Wirkungen zu vergleichen.
Hierzu musste zunächst die vorhandene massiv parallele Software auf die Gitterwirkungen angepasst und
die Berechnungen durchgeführt werden. Die berechneten Korrelatoren sind insbesondere in den Vektorund Axialvektor-Kanälen der Staggered-Wirkung durch Flavour-Mischung sehr verrauscht, so dass für
exakte Extrapolationen eine recht aufwenige statistische Analyse implementiert werden musste.
Als Ergebnis liegen Rohdaten der Mesonkorrelatoren verschiedener Gittergrößen und Temperaturen (1:5Tc
und 3:0Tc ) sowie thermodynamische und Kontinuumsextrapolationen mit geringen Fehlern vor. Der Einfluss von Gittergröße und -abstand auf die Mesonkorrelatoren (und damit auch auf bestimmte anderer
Observablen) lässt sich nun für die beiden Wirkungen ermitteln und vergleichen. Außerdem zeigt ein Vergleich des Kontinuumslimes beider Wirkungen, ob hier die Abweichung der Abschirmmassen aufgehoben
ist oder weitere, von der speziellen Wirkung unabhängige systematische Fehler vorliegen.
Der Vortrag geht auf die verwendete Methodik, Soft- und Hardware sowie die Ergebnisse dieser Arbeit
ein.
T. Theorie
43
T-4 (A) Die Vorzüge des Zerfalls BN ! KN l C l bei großen Dileptonmassen
DANNY VAN DYK
Theoretische Physik III, TU Dortmund
p
Mein Vortrag wird die Vorzüge der kinematischen Region großer Dileptonmassen q 2 für den Zerfall
BN ! KN l C l behandeln. Dabei werde ich p
darlegen, dass sich durch eine Kombination einer Operatorproduktentwicklung in 1=Q, Q D fmb ; q 2 g und verbesserter Isgur-Wise-Relationen der QCDFormfaktoren die Beschreibung der zahlreichen Zerfallsobservablen drastisch vereinfacht. Es bieten sich
so Gelegenheiten die elektroschwachen, kurzreichweitigen Kopplungen C9 ; C10 zu extrahieren. Die Ergebnisse von Parameterscans auf Basis aktueller Experimentaldaten der Kollaborationen Belle und CDF
werden vorgestellt. Es wird gezeigt, dass die momentane Datenlage disjunkte Parameterbereiche favorisiert, die das Standardmodell, aber auch darüber hinausgehende Modelle einschließen. Diese Mehrdeutigkeit kann durch Präzisionsmessungen ausgewählter Observablen aufgelöst werden.
T-5 (B) Die Berechnung von Schwellenkorrekturen im Exzeptionellen Supersymmetrischen Standardmodell (E6 SSM)
A LEXANDER VOIGT
Institut für Kern- und Teilchenphysik, TU Dresden
Das Standardmodell der Teilchenphysik ist die zur Zeit am besten getestete Theorie, die alle beobachteten
Teilchen, sowie die starke, schwache und elektromagnetische Wechselwirkung im Rahmen der theoretischen und experimentellen Ungenauigkeiten beschreibt. Jedoch ist es keine vollständige Beschreibung
der Natur, da z. B. die Gravitation nicht berücksichtigt wird.
Große vereinheitlichte Theorien mit lokaler Supersymmetrie stellen attraktive Erweiterungen des Standardmodells dar, denn sie ermöglichen eine vereinheitlichte Beschreibung aller vier Grundkräfte sowie
die Einbettung aller bekannten Teilchen in eine einfache Eichgruppe. Da Supersymmetrie in der Natur
jedoch nicht beobachtet wurde, müssen derartige Theorien Supersymmetrie brechende Terme enthalten
um bei niedrigen Energien die bekannten Observablen zu reproduzieren. Theorien dieser Art können aus
der heterotischen E8 E80 Stringtheorie abgeleitet werden. Durch verschiedene Brechungsmechanismen
können supersymmetrische Eichtheorien mit der Eichgruppe E6 und zusätzlichen Familiensymmetrien
konstruiert werden.
Das Exzeptionelle Supersymmetrische Standardmodell (E6 SSM) ist eine supersymmetrische Eichtheorie,
basierend auf einer E6 Eichgruppe. Es bietet Eichkopplungsvereinigung sowie die Einbettung aller Materiefelder in fundamentale Darstellungen der E6 . Auf Grund dieser Gruppenstruktur enthält das Modell
zusätzliche exotische Teilchen, sowie eine weitere U.1/ Eichsymmetrie, die zu einem weiteren Eichboson
Z 0 führt. Darüber hinaus vermeidet das E6 SSM das -Problem, das in der minimalen supersymmetrischen
Erweiterung des Standardmodells auftritt.
Unterhalb der elektroschwachen Symmetriebrechungsskala muss das E6 SSM die bereits gemessenen Observablen reproduzieren. Da letztere durch das Standardmodell bereits hinreichend gut beschrieben werden, muss das E6 SSM für niedrige Energien in das Standardmodell übergehen. Nach dem Appelquist–
Carazzone-Entkopplungstheorem ist dies möglich, falls die neuen E6 SSM-Teilchen, die nicht im Standardmodell enthalten sind, Massen oberhalb der elektroschwachen Symmetriebrechungsskala haben. In
einem solchen Fall können die schweren Teilchen aus dem E6 SSM entfernt (ausintegriert) werden, wodurch man das Standardmodell als eine effektive Niederenergietheorie erhält. Bei diesem Übergang müssen
die E6 SSM-Parameter in Standardmodellparameter umgerechnet werden. Diese Umrechnungen nennt
man Schwellenkorrekturen. Sie können als Effekt der schweren Teilchen auf die Parameter der effektiven
44
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Theorie interpretiert werden.
In einer 2009 erschienen Veröffentlichung wurden erste Massenspektren einer eingeschränkten Version
des E6 SSM (cE6 SSM) berechnet. Der darin dargestellte Algorithmus benutzt die Methode der effektiven
Feldtheorie um das cE6 SSM bei niedrigen Energien in das Standardmodell zu überführen. Jedoch werden die dabei notwendigen Schwellenkorrekturen für die Modellparameter vernachlässigt, was zu einer
erhöhten Ungenauigkeit der vorhergesagten Teilchemassen führt.
In diesem Vortrag wird die Berechnung von Schwellenkorrekturen im E6 SSM vorgestellt. Dabei werden
zunächst das E6 SSM und das cE6 SSM definiert und anschließend die Methode der effektiven Feldtheorie anhand eines Beispiels erklärt. Danach wird die Prozedur zur Berechnung der Schwellenkorrekturen
für die Eichkopplungen des E6 SSM und des Standardmodells beschrieben. Abschließend erfolgt eine
numerische Anwendung der Ergebnisse, indem die berechneten Schwellenkorrekturen in einen cE6 SSMTeilchenspektrumgenerator eingebaut werden und präzisere cE6 SSM-Massenspektren berechnet werden.
T-6 (C) Implementation von Parton Showern für WHIZARD
S EBASTIAN S CHMIDT
Universität Freiburg
Die Simulation von Proton-Proton-Kollisionen gemäß einer bestimmten Theorie spielt eine wichtige Rolle
beim Vergleich von Messdaten und theoretischen Vorhersagen. Um von einer durch die Theorie beschriebenen härtesten Interaktion, meist der Annihilation zweier Teilchen in einige wenige Teilchen, zu einem
mit dem im Detektor gemessenen Ereignis zu kommen, sind noch einige weitere Schritte nötig.
Diese Schritte bei der Generierung eines Ereignisses ausgehend von der harten Wechselwirkung sind:
Initial State Parton Shower und Multiple Interactions
Final State Parton Shower
Hadronisierung
Zerfälle instabiler Hadronen
Simulation des Detektors
Die Simulation des Parton Showers hat großen Einfluss auf die Struktur der in dem Ereignis auftretenden Jets. Ein Verständnis der Physik der Parton Shower ist also nötig, um Untergründe und Signale zu
verstehen.
Ein Parton Shower besteht aus konsekutiven 1 ! 2-Branchings, z.B. der Abstrahlung eines Gluons von
einem Quark. Die Wahrscheinlichkeiten für diese Branchings werden beschrieben durch die Anwendung
der DGLAP-Gleichungen, die nicht wie bei PDFs inklusiv auf Parton-Dichten angewendet werden, sondern exklusiv und auf einzelne Partonen angewandt werden.
Die Implementation von Parton Showern, die ich für WHIZARD schreibe, unterscheidet sich von bekannten
Implementationen dadurch, dass die Simulation von 1 ! 2-Branchings durch kombinierte Branchings,
und zwar 2 ! 4-Branchings für den Final State Parton Shower und 1 ! 3-Branchings im Initial State
Parton Shower ersetzt wird.
Desweiteren bietet es sich an, die Simulation des Initial State Parton Shower mit der Simulation von
zusätzlichen Interaktionen zu verbinden. Diese beiden physikalischen Vorgänge müssen parallel simuliert
T. Theorie
45
werden, da beide die Zusammensetzung des Proton-Rests verändern können. Die Implementation dieser
sogenannten Interleaved Evolution für WHIZARD ist ebenfalls in Arbeit.
T-7 (A) Hidden Sektor Teilchen
S ARAH A NDREAS
Deutsches Elektronen Synchrotron, DESY
In vielen Erweiterungen des Standardmodells (SM) treten häufig so genannte “hidden sectors” - versteckte
Sektoren - auf, die nur schwach mit dem sichtbaren Sektor wechselwirken und deshalb bislang nur wenig experimentellen Einschränkungen unterliegen. Im hidden Sektor können sogar Teilchen mit Massen
im sub-GeV-Bereich existieren, die aufgrund ihrer schwachen Wechselwirkung noch nicht nachgewiesen
werden konnten. Zu diesen Teilchen, die häufig als “weakly interacting sub-GeV particles”, kurz WISPs,
bezeichnet werden, zählen zusätzliche U(1)-Eichbosonen, das CP-ungerade Higgs-Boson des “Next-toMinimal Supersymmetric SM” (NMSSM) sowie andere axion-ähnliche Teilchen. In diesem Vortrag stelle
ich die verschiedenen Modelle, die diese Szenarien beschreiben, sowie den gegenwärtigen Status experimenteller Schranken für den Massenbereich unterhalb der doppelten Muonmasse m vor (entstanden in
Zusammenarbeit mit O. Lebedev, S. Ramos-Sánchez und A. Ringwald).
Aus der top-down Perspektive gehen solche Teilchen auch aus String-Kompaktifizierungen hervor, die das
NMSSM reproduzieren und/oder zusätzliche versteckte U(1)-Symmetrien enthalten. Darüber hinaus sind
sie von großem aktuellem Interesse in vielen Modellen, die versuchen, neueste terrestrische und astrophysikalische Anomalien als Signale Dunkler Materie zu interpretieren. Dazu zählen z.B. die von DAMA
beobachtete jährliche Modulation der Ereignisrate in nuklearen Rückstößen sowie die von PAMELA in
der kosmischen Strahlung gemessene Zunahme des Positronen-Anteils mit steigender Energie. Letztere
lässt sich nur schwer durch die Annihilation eines gewöhnlichen WIMPs erklären, da der erforderliche
Wirkungsquerschnitt den übersteigt, der in Standard Kosmologie durch “thermal freeze-out” zur korrekten “relic abundance” führt und das Spektrum außerdem auf eine leptophile Annihilation hindeutet. Beides
ergibt sich direkt in Modellen mit einem leichten Austauschteilchen, welches durch eine langreichweitige attraktive Kraft ein “Sommerfeld enhancement” des Annihilationswirkungsquerschnittes generiert und
bedingt durch Kinematik ausschließlich in leichte Leptonen zerfällt.
Die Erweiterung des MSSM um ein zusätzliches Superfeld SO zum NMSSM ist gut motiviert, da es eine Lösung des -Problems sowie eine Entschärfung des “little hierarchy”-Problems liefert. Im MSSM
fehlt eine Erklärung dafür, dass der Massenterm der beiden Higgs-doublets Hu und Hd weit unterhalb
dem zu erwartenden Wert der GUT-Skala liegt: MGUT . Dies ergibt sich im NMSSM auf natürliche
Weise, indem der Massenterm durch die Kopplung SHu Hd von Hu und Hd zu einem skalaren Feld
ersetzt wird, dessen vev, hervorgerufen durch die soft-SUSY brechenden Terme, von der gewünschten
Größenordung ist: D hSi. Um die Higgs-Masse von der MSSM tree-level Vorhersage mh mZ
durch ein-loop Korrekturen über die LEP-Schranke mh 114 GeV zu heben, sind große soft-SUSY
brechende Massen erforderlich. Die Größe dieser Massen im Vergleich zur schwachen Skala, als “little
hierarchy”-Problem bezeichnet, erfordert ein beträchtliches Mass an “fine-tuning” der soft-SUSY brechenden Parameter. Durch das zusätzliche Superfeld SO im NMSSM wird der Teilchenbestand des MSSM
unter anderem um ein CP-ungerades Higgs-boson A0 erweitert, welches, falls leicht genug, einen neuen
Zerfallskanal h ! 2A0 für das SM Higgs-boson h öffnet. Die bei diesem Kanal, im Vergleich zum traN geringere Sensitivität von LEP kann zu einer Herabsetzung des
ditionell untersuchten Zerfall h ! b b,
LEP-limits und damit zur Verringerung des notwendigen “fine-tunings” führen.
Wir beschränken uns auf eine spezielle Version des NMSSM, die keinen direkten -Term hat, das so
genannte Z3 -symmetrische NMSSM. In diesem Modell ist A0 auf natürliche Weise leicht, falls das Higgs-
46
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Potential eine ungefähre Peccei-Quinn-Symmetrie besitzt. Die Kopplung von A0 an Fermionen
1
g
N
N
CAff md d 5 d C
mu u
N 5 u C ml l5 l A0
ˇ D i
2mW
tan2 ˇ
ermöglicht verschiedene experimentelle Test des Modells von denen wir Einschränkungen auf die Kopplungskonstante CAff und die Masse für den Bereich mA0 < 2m ableiten. Im NMSSM ist das Intervall
10 2 . CAff . 102 am relevantesten, da es außerhalb zur Verletzung von Perturbativität und/oder
“fine-tuning” kommt. Unsere Analyse trifft auch ganz allgemein auf die Kopplung eines Pseudoskalars
an Materie zu, sofern CAff universell für alle Fermionen ist. Die Einschränkungen aus verschiedenen
Meson-Zerfällen, anomalem magnetischem Moment des Muons, beam-dump und Reaktor-Experimenten
lassen uns schlussfolgern, dass ein solches Teilchen schwerer als 210 MeV sein oder vier Größenordnungen schwächer an Fermionen koppeln muss als das SM Higgs-boson.
Zusätzliche U(1)-Eichgruppen unter denen das SM ungeladen ist, können beim Brechen größerer Symmetriegruppen zur SM-Eichgruppe übrig und bis zu kleinen Energien ungebrochen bleiben. Die dominierende Wechselwirkung mit dem sichtbaren Sektor ist durch kinetisches Mischen des hidden-Photons mit
dem gewöhnlichen elektromagnetischen Photon, welche durch den niederenergie effektiven Lagrangian
ˇD
1
F F 4
1
1
1
B B C B F C m2 0 B B 4
2
2
mit hidden-Photon Feld B und Feldstärke B sowie kinetischem Mischungsparameter beschrieben
wird. Letzterer kann in der Größenordnung 10 8 10 2 durch Loops schwerer, unter beiden U(1) geladener Teilchen erzeugt werden und in Stringtheorien sogar im noch größeren Bereich 10 23 10 2
liegen. Der dritte nicht-diagonale kinetische Term entspricht dem kinetischen Mischen, der letzte Term
steht für eine mögliche Masse des hidden-Photons 0 . SM Teilchen erhalten eine mini-Ladung proportional zu unter dem hidden-Photon, wodurch dieses in SM Fermionen zerfallen kann. Für diese Kopplung
ans SM ergeben verschiedene Experimente Einschränkungen analog zum CP-ungeraden Higgs-boson des
NMSSM. Im Gegensatz zu diesem ist der Massenbereich m 0 < 2m noch weniger eingeschränkt und
kann unter anderem an zukünftigen beam-dump Experimenten weiter getestet werden.
T-8 (B) On-Shell-Renormierung von Mischungsmatrizen
PATRICK R IETH
Theorie, DESY
Im Standardmodell der Elementarteilchen (SM) ist der Formalismus der Renormierung notwendig, damit
Divergenzen, die aufgrund von Quanteneffekten verursachte werden, anhand einer Redefinition endlich
vieler unabhängiger Parameter, wie Massen und Kopplungskonstanten, beseitigt werden können und man
für physikalische Größen im Experiment verifizierbare Ergebnisse erhält. Im elektroschwachen Sektor
des SM ist die Cabibbo-Kobayashi-Maskawa-Matrix (CKM-Matrix), die die Mischung der verschiedenen
Quarkflavour beschreibt, von besonderer Bedeutung. Jedoch besteht aber seit langer Zeit Unklarheit, welches die angemessenste Methode der Definition des Counterterms (CT) der CKM-Matrix ist, wobei hierzu
verschiedene Vorschläge existieren. Als Problem tritt hierbei auf, dass man instabile Teilchen betrachtet,
was zu sogenannten branch-cuts, sogar eichparameterabhängigen1 im SM führt. Notwendigerweise muss
aber der CT der CKM-Matrix eichunabhängig sein, um wieder eichunabhängige physikalische Größen
zu erhalten, da diese offensichtlich unabhängig von frei wählbaren, nicht physikalischen Parametern sein
müssen.
1 Mit den verkürzenden Begriffen eichabhängig/eichunabhängig ist natürlich eichparameterabhängig/eichparameterunabhängig
gemeint
T. Theorie
47
Als eine mögliche Lösung dieser Probleme bietet sich jetzt folgendes Verfahren an, bei dem man die
Selbstenergieeinschübe der äußeren Beine in zwei verschiedene Anteile separiert: Einerseits in eichunabhängige Selbstmassenbeiträge (sm) und andererseits in eichabhängige Wellenfunktionsrenormierungen (wfr). Anschließend werden nicht-diagonale CT-Matrizen folgendermaßen abgestimmt, dass diese
die sm-Beiträge wegheben und die Hermitizität der Massenmatrix erfüllen. Die Diagonalisierung dieser
kompletten Massenmatrix führt dann zu einer explizit eichunabhängigen CKM-CT-Matrix.
In einem neueren Vorschlag ist es gelungen, die Berechnung einer CT-Matrix wesentlich zu vereinfachen,
wobei diese direkt als Funktion der lorentzinvarianten Selbstenergiefunktionen ausgedrückt werden kann
und automatisch die Hermitizitätsbedingung der Massenmatrix erfüllt. Dieser Quarkmassen-CT ist dahingehend von Vorteil da er zu einer eichunabhängigen CKM-CT-Matrix führt, die Unitarität erhält und
demokratisch bezüglich des Quarkflavours ist, d.h. keinen bestimmten Quarkflavour bevorzugt.
Eine wichtige Rolle bei der Bestimmung des CT in diesem Verfahren spielen dabei die sogenannten
Nielsen-Identitäten (NI), anhand derer sich die Eichabhängigkeit der Theorie kontrollieren lässt. Diese NI
folgen aus einer Erweiterung der Becchi-Rouet-Stora-Tyutin-Symmetry (BRST-Symmetie), ähnlich wie
man gewöhnliche Ward-Identitäten aus der Invarianz unter BRST-Transformationen erhalten kann. Dies
bedeutet, dass die Variation von einzelnen Green’schen Funktionen bezüglich des Eichparameters der
Theorie zu bestimmten Symmetrierelationen führt, wobei auch mehrere Eichparameter gleichzeitig auftreten können. Die Mächtigkeit dieser Technik liegt in der Möglichkeit begründet, die Eichabhängigkeit
auszufaktorisieren, wobei diese Abhängigkeit dann als Green’sche Funktion der BRST-Quellen vorliegt.
Dieses Ausfaktorisieren gilt für jede Ordnung in der Störungstheorie, wobei das Zusammenspiel mit der
Renormierungsprozedur nicht trivial ist. Mit Hilfe dieser NI lässt sich dann der Quarkmassen-CT bestimmen.
Aktuell wird an einer Erweiterung dieses Formalismus für höhere Schleifenordnungen sowie für massive
Majorana-Neutrinos gearbeitet, wobei hierfür die entsprechenden NI auf 1-Schleifen-Niveau bekannt sind.
Des Weiteren soll in naher Zukunft der Formalismus ebenso auf supersymmetrische Theorien ausgeweitet
werden, in denen die Mischung von Teilchen eine große Rolle spielen.
In diesem Vortrag wird einerseits auf die bisherigen Rechnungen im SM, andererseits auf die andauernden
Berechnungen für Theorien mit Majorana-Neutrinos eingegangen. Hierbei wird besonderes Augenmerk
auf die Berechnungen der NI gelegt, die für die Konstruktion der CT notwendig sind.
T-9 (C) Der flavorverletzende Zerfall tQ1 ! c C Q 01 auf Einschleifenniveau
E VA P OPENDA
Institut für Theoretische Physik, KIT
Alle Präzisionsmessungen der letzten Jahre im Bereich der Flavorphysik unterstützen das Bild, das das
Standardmodell der Teilchenphysik bezüglich flavorverletzender Prozesse zeichnet. Die experimentellen
Daten lassen kaum Freiraum die beobachtete Flavorverletzung anders als mit dem Cabibbo-KobayashiMaskawa (CKM) Mechanismus des Standardmodells zu beschreiben. Dies hat weitreichende Folgen: Die
Physik an der TeV-Skala darf nicht mehr Flavorverletzung enthalten als das Standardmodell. Die minimale supersymmetrische Erweiterung des Standardmodells (MSSM) in ihrer allgemeinen Form bietet jedoch
eine Vielzahl neuer, flavorverletzender Quellen, die im supersymmetriebrechenden Sektor verankert sind.
Dieses sogenannte Flavorproblem der Neuen Physik“ wird in dem Modell der minimalen Flavorver”
letzung (MFV), das in Übereinstimmung mit den aktuellen Präzisionsmessungen ist, gelöst. Die grundlegenden Aussagen dieses Modells können einfach zusammen gefasst werden: Alle flavorverletzenden
Übergänge werden allein durch die CKM Matrix bestimmt. Insbesondere gibt es keine flavorverletzenden
neutralen Ströme (FCNC) auf Bornniveau [1].
48
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Dementsprechend ist der flavorverletzende Zerfall des leichten Top-Squarks in ein Charm-Quark und das
leichteste Neutralino tQ1 ! c C Q 01 in diesem Modell auf Bornniveau verboten. Er findet durch Einschleifendiagramme mit geladenen Teilchen in den Schleifen statt. Deswegen ist er durch die kleinen
Mischungswinkel der CKM Matrix der Größenordnung jVcb j 0:04 unterdrückt. Der Zerfall in ein
Quark der ersten Generation wäre aufgrund eines noch kleineren CKM-Mischungswinkel jVub j 0:004
noch stärker unterdrückt.
Aufgrund der großen Mischung von Wechselwirkungseigenzuständen der dritten Squarkgeneration kann
das tQ1 sehr leicht werden, so dass die flavorerhaltenden Zerfälle in Quarks der dritten Generation tQ1 !
t C Q 0 ; tQ1 ! b C Q C kinematisch verboten sind. Dann ist der führende Zerfallskanal der hier betrachtete
Prozess. Er wird deswegen auch umfangreich in phänomenologischen Analysen untersucht [2], allerdings
fehlt bisher eine vollständige Einschleifenrechnung.
Es existiert eine Arbeit [3] aus dem Jahr 1987, in der dieser Prozess in einer Näherung gerechnet wurde.
Einerseits wurde lediglich der Zerfall in ein photinoartiges Neutrino tQ1 ! c C Q betrachtet. Andererseits
wurden nur Beiträge von divergenten Graphen berücksichtigt und Anteile der übrigen Einschleifendiagramme vernachlässigt. Es verbleibt ein großer Logarithmus log.MP2 =m2W /, in dem der Ursprung der
hohen Skala MP 1019 GeV unklar bleibt.
Im Vortrag soll nach einer kurzen Einführung in das betrachtete Modell die Einschleifenrechnung des Prozesses vorgestellt werden. Es tragen drei Typen von Diagrammen bei: Squark- und Quark-Selbstenergien
sowie Vertexkorrekturen. Alle drei Beiträge liefern Divergenzen, die sich in der Summe nicht aufheben,
sobald man supersymmetriebrechende Terme hinzunimmt. Auf die erforderliche Renormierung im Rahmen der MFV wird im Detail eingegangen.
[1] A. J. Buras, “Minimal Flavour Violation,” Act. Phys. Pol. B34:5615–5668, 2003.
[2] K. Hikasa et al., “Flavor-changing neutral current top-squark decay as a probe of squark mixing,”
Phys. Rev. D70 (2004) 055001, G. Hiller et al., “Collider signatures of minimal flavor mixing from
stop decay length measurements,” Phys. Rev. D80 (2009) 115016.
[3] K. Kikasa and M. Kobayashi, “Light scalar top quark at e C e colliders,” Phys. Rev. D36:724–732,
1987.
T-10 (A) Higgs-Bosonproduktion durch Gluonfusion in NNLO im MSSM
N IKOLAI Z ERF
Institut für Theoretische Teilchenphysik, KIT
Es wird erwartet, dass das letzte, bis jetzt unentdeckte Teilchen des Standardmodells (SM), das HiggsBoson, am LHC produziert wird. Sein Nachweis benötigt eine präzise theoretische Vorhersage des Produktionswirkungsquerschnitts .pp ! H C X / im SM.
Den dominanten Beitrag zur Higgs-Produktion am LHC liefert die Gluonfusion, bei der zwei Gluonen
über eine Topquarkschleife an das Higgs-Boson koppeln. Rechnungen in der Störungstheorie im SM zeigen, dass große radiative Korrekturen zu diesem Prozess auftreten. In nächstführender Ordnung (NLO)
der starken Kopplungskonstanten ˛s ergeben sich relative Korrekturen zum totalen Wirkungsquerschnitts
von bis zu 70% im Vergleich zur Vorhersage in führender Ordnung (LO). Um eine akkurate Vorhersage
zu erhalten, ist es daher notwendig, den Wirkungsquerschnitt in nächstnächstführender Ordnung (NNLO)
zu bestimmen.
Die ersten NNLO Ergebnisse wurden mit Hilfe einer effektiven Theorie (EFT) gewonnen, in der die über
T. Theorie
49
eine Topquarkschleife induzierte Kopplung der Gluonen an das Higgs-Boson in Form eines Matchingkoeffizienten C1 berücksichtigt wird. Die EFT stimmt per Konstruktion für eine unendlich große Topquarkmasse mit den Vorhersagen des SM überein und kann als Näherung für im Vergleich zur Higgs-Masse
großer Topquarkmasse (m t mH ) verwendet werden.
Daß diese Näherung sogar für physikalische Massenverhältnisse zutreffende Vorhersagen macht, wurde
erst durch eine, vor kurzem durchgeführte Rechnung in der vollen Theorie, im Falle des SM in NNLO
gezeigt.
Eine analoge Rechnung im Minimal Super Symmetrische Standardmodell (MSSM) ist aufgrund der vielen
verschiedenen Teilchenmassen nicht ohne weiteres möglich. Man ist daher in NNLO auf die Vorhersage
der EFT angewiesen. Um diese anwenden zu können, benötigt man den Matchingkoeffizienten C1 für den
Fall, in dem die volle Theorie durch das MSSM gegeben ist. In C1 sind dann alle Beiträge der zusätzlichen
schweren SUSY-Teilchen - der Supersymmetriepartner der Quarks und des Gluon - der Squarks und des
Gluino, sowie die des Topquarks enthalten. Unter Annahme einer bestimmten Massenhierarchie, läßt sich
C1 auf Dreischleifenniveau (NNLO) berechnen.
In diesem Vortrag wird diese Rechnung vorgestellt und der Einfluß der SUSY-Teilchen auf den totalen
Produktionswirkungsquerschnitt diskutiert.
T-11 (B) Automatisierung von Einschleifenrechnungen
S EBASTIAN B ECKER
Institut für Physik, Universität Mainz
Einleitung
Die Experimente am LHC sind mit einer hohen QCD Jetrate konfrontiert. Um die theoretischen Vorhersagen für Multijetobservablen zu verbessern, sind NLO Korrekturen notwendig. In NLO Rechnungen tragen
reelle und virtuelle Korrekturen bei.
NLO D B C R C V
(T.4)
Das Matrixelement der virtuellen Korrekturen berechnet sich aus dem Interferenzterm zwischen einer
Baum- und Einschleifenamplitude. Eine effiziente Berechnung einer Einschleifenamplitude, mit vielen
Teilchen im Endzustand, stellt augenblicklich das größte Hindernis bei der Berechnung von NLO Korrekturen dar. Hier soll eine effiziente, rein numerische Methode zur Berechnung von Einschleifenamplituden
vorgestellt werden.
Subtraktionsmethode
Das Integral in der Einschleifenamplitude ist im Allgemeinen ultraviolett(UV)- und infrarot(IR)-divergent
und daher nicht für eine Monte-Carlo-Integration geeignet. Unser Ansatz besteht nun darin, lokale Subtraktionsterme für die UV- und IR- Divergenzen zu finden, so dass der Integrand nach der Subtraktion
numerisch in 4 Dimensionen integriert werden kann.
Z
d
V
Z
D
.d
V
d
UV
d
IR
Z
/C
d
UV
Z
C
d IR
Die Integrale in den letzten beiden Termen können analytisch berechnet werden.
(T.5)
50
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Lokale Ultraviolett-Subtraktion
Wir können einen Einschleifengraphen vereinfacht wie folgt schreiben:
G
.1/
Z
D
d 4 k .1/
G ;
.2/4
G
.1/
D N.k/
n
Y
k2
j D1 j
1
;
C iı
(T.6)
mit kj D k qj und qj D p1 C : : : C pj . Abhängig von der Zählerfunktion N.k/ ist dieses Integral für
n D 2; 3; 4 UV-Divergent. Wir entwickeln den Integranden für große k:
G
.1/
N.k/
'
.kN 2
1C
2U V /n
N
˝1 .k/
.kN 2
2U V /
C
!
N
˝2 .k/
.kN 2
N /
C O.1=jkj
3
2U V /2
DW G
.1/
;
(T.7)
N ein Polynom in kN vom Grad m ist. Die analytische Integration von G .1/ in D D 4 2
wobei ˝m .k/
.1/
Dimensionen liefert uns einen endlichen Anteil Gf i n plus einen Anteil proportional zu 1=. Da wir nur
den divergenten Anteil des Integranden über den Subtraktionsterm modellieren wollen, ziehen wir den
.1/
endlichen von G ab. Damit ist der UV-Subtraktionsterm:
.1/
GU V
D G
.1/
.kN 2
2U V
.1/
Gf i n ;
3
/
1
Z
D
d 4k
.2/4 .kN 2
1
2U V /3
:
(T.8)
Lokale Infrarot-Subtraktion
Die IR-Divergenzen stehen in Beziehung zu soften und kollinearen Partonen in der Schleife. Sei nun ki2
ein Gluonpropagator in der Schleife, dann gilt:
“Softe”- Singularität: , k ! qi
“Kollineare”- Singularität: , k ! qi
ki2
)
1
C xpi
1
D ki2 D ki2C1 D 0;
ki2 1
)
D
ki2
D 0;
(T.9)
(T.10)
wobei x 2 Œ0; 1. Wir definieren nun die soften und kollinearen Subtraktionsterme für einen Graphen G
wie folgt:
lim
Si .G/ D
k!qi
n
ki2 1 ki2 ki2C1 G .1/ .G/
ki2 1 ki2 ki2C1
o
lim
;
Ki .G/ D
k!qi
1 Cxpi
n
o
ki2 1 ki2 G .1/ .G/
ki2 1 ki2
KiU V ; (T.11)
wobei KiU V so gewählt wird, dass der kollineare Subtraktionsterm UV-endlich ist. Summieren wir nun die
Subtraktionsterme für alle Graphen einer Amplitude, so erhalten wir eine einfache und kompakte Formel
für die lokalen IR-Subtraktionsterme. Schlussendlich müssen wir noch über alle Gluonen in der Schleife
summieren.
.1/
Gsof t
D
4 ˛s i
X 4pi pi C1
.0/
Ai ;
2
2 2
ki 1 ki ki C1
i 2I
(T.12)
g
.1/
Gkol l
D
4 ˛s i
X
i 2Ig
.0/
. 2/
si KiU V
ki2 1 ki2
C
V
si C1 KiUC1
ki2 ki2C1
!
.0/
Ai ;
(T.13)
wobei si Symmetriefaktoren und Ai die zu A.1/ zugehörigen Baumamplituden sind. Diese Subtraktionsterme entsprechen lokal der Einschleifenamplitude im IR-Limes.
T. Theorie
51
Integrationswegdeformation
Um Feynmans Ci ı-Vorschrift in dem Einschleifenintegral zu berücksichtigen, müssen wir den Integrationsweg ins komplexe verschieben. Das Integral verläuft nun über einen komplexen Integrationsweg um,
wann immer es möglich ist, die Pole der Propagatoren zu umgehen. Wir setzten:
ˇ 0 ˇ
ˇ @k ˇ
0
(T.14)
k D k C i .k/
und
J.k/ D ˇˇ ˇˇ :
@k
Damit ist das Einschleifenintegral:
Z
I
D
n
Y 1
d 4k
0
J.k/N.k
.k//
:
.2/4
k 0 .k/2
(T.15)
i D1
Die Effizienz der Monte-Carlo-Integration hängt sehr stark von der Funktion .k/ ab, die die Integrationswegdeformation definiert.
Zusammenfassung
Wir haben hier einen numerischen Ansatz zur Berechnung von Einschleifenamplituden vorgestellt. Um
die darin enthaltene Einschleifenintegrale mit Monte-Carlo-Methoden berechnen zu können, führen wir
UV- und IR-Subtraktionsterme ein und deformieren den Integrationsweg ins Komplexe.
T-12 (C) Axionen im frühen Universum
P ETER G RAF
Max-Planck-Institut für Physik
Das Standardmodell (SM) ist ein sehr guter theoretischer Rahmen, um die starke, schwache und elektromagnetische Wechselwirkung zu beschreiben. Dennoch gibt es eine Reihe von Hinweisen auf Physik jenseits des SM. Ein Beispiel ist das starke CP Problem: Eine Verletzung der CP Symmetrie in der QuantenChromodynamik würde zu einem elektrischen Dipolmoment des Neutrons führen, das weit größer ist
als es die experimentellen Grenzen erlauben. Dieses fine-tuning nennt man das starke CP Problem. Die
bis heute vielversprechendste Lösung wurde bereits 1977 von Peccei und Quinn (PQ) vorgeschlagen.
Sie entdeckten, dass eine neue, globale chirale U(1)-Symmetrie den problematischen CP-verletzenden
-Term dynamisch auf null bringt. Diese U(1)PQ wird bei der Skala fa spontan gebrochen. Das pseudoNambu-Goldstone Boson dieses Symmetriebruchs ist das Axion a. Die einzigen modellunabhängigen
Wechselwirkungen des Axions sind gegeben durch den Lagrange
La D
gs2 1
b e b a G
G
32 2 fa
b und dem dazu dualen Tensor
mit der starken Kopplungkonstante gs , dem Gluon-Feldstärketensor G
e b D G b =2. Obwohl das Axion klassisch masselos ist, erzeugen Instantonen für Temperaturen
G
T . 1 GeV eine kleine Axionmasse:
10
10 GeV
ma D 0:60 meV
:
fa
Verschiedendste kosmologische und astrophysikalische Beobachtungen sowie negative Ergebnisse von
direkten Suchexperimenten im Labor begrenzen den Parameter fa auf
fa & 6 108 GeV:
52
42. Herbstschule für Hochenergiephysik Maria Laach 2010
Damit ist das Axion ein sehr leichtes, elektrisch ungeladenes, sehr schwach wechselwirkendes Boson,
dessen Lebensdauer viel größer ist als das Alter des Universums.
Diese Eigenschaften machen es sehr interessant als Kandidat für die dunkle Materie. Das Axion kann
im frühen Universum auf nicht-thermische Art durch den misalignment-Mechanismus produziert werden.
Ich werde mich aber auf die thermische Produktion beschränken, also auf die Produktion von Axionen in
Streuprozessen. Weiterhin verwende ich nur die durch den oben angegebenen Lagrange definierten AxionGluon Kopplungen, weil es die einzigen sind, die unabhängig vom verwendeten Axionmodell sind. Das
erlaubt Prozesse wie z.B. gCg ! gCa. Dabei werden Methoden der thermischen Feldtheorie angewandt,
um der Abschirmung von Wechselwirkungen mit langer Reichweite im Quark-Gluon-Plasma des frühen
Universums Rechnung zu tragen.
T-13 (B) Flavorsymmetrien des Leptonsektors
A NDREAS J OSEPH
Physik Department T31, TU München
Noch immer wirft der Flavorsektor des Standardmodells (SM) viele unbeantwortete Fragen auf, unter
Anderem: Warum gibt es gerade drei Familien von Quarks und Leptonen? Warum spannt sich die Massenskala von geladenen Leptonen und Quarks über sechs Größenordnungen? Wie kommen Mischung und
CP-Phase im Quarksektor zustande? — Weiterhin gilt es inzwischen als experimentell gesichert, dass
Neutrinos, wenn auch kleine, Massen besitzen. Da Neutrinos im SM strikt masselos sind, muss dieses erweitert werden, und es stellen sich weitere Fragen. Welcher Natur sind Neutrinos, Majorana– oder Dirac–
? Was ist ihre absolute Massenskala, und wie sieht das Spektrum aus? Wie kommen Mischung und, falls
vorhanden, CP-Phase(n) zustande? Und schließlich, warum sind die gemessenen Mischungswinkel im
Quark- und Leptonbereich so unterschiedlich.
Um diesen Punkten weiter auf den Grund zu gehen, ist es nützlich, die Symmetrien des Flavorsektors im
SM, bzw. deren Brechung durch die Yukawakopplungen an das Higgs-Boson, zu betrachten. Dazu werde
ich zunächst einen Überblick über die experimentellen Befunde im Neutrinosektor geben, sowie einige
populäre theoretische Erklärungsmodelle erläutern. Dabei beschränken wir uns im Folgenden auf minimale Erweiterungen des SMs, und betrachten die Flavorkoeffizienten als Vakuumserwartungswerte (VEVs)
neuer Skalarfelder, welche die Flavorsymmetrie (dynamisch) brechen. Anhand eines expliziten Beispiels
wird schließlich gezeigt, wie sich die Hierarchien der Massen und Mischungswinkel im Leptonsektor in
eine Sequenz von teilweise gebrochenen Flavorsymmetrien übersetzt.
Experimentelle Befunde und minimale Erweiterung des Standardmodells
Das SM, welches in Form einer lokalen Eichtheorie im Rahmen der Quantenfeldtheorie beschrieben wird,
liefert eine konsistente Beschreibung der elektroschwachen und starken Wechselwirkung, wobei die oben
genannten Fragen unbeantwortet bleiben. Aus Experimenten zu Neutrinooszillationen, wie KamLAND,
MiniBooNE oder SNO weiß man, dass Neutrinos geringe Massen besitzen und zwei der drei Mischungswinkel groß sind. Absolute Massenskala und Neutrinospektrum sind zur Zeit nicht zugänglich. Eine theoretische Möglichkeit, die Beobachtungen zu erklären, sind sogenannte See-Saw Mechanismen (engl. für
Wippe), bei denen die Energieskala schwerer SM-Singulett–Neutrinos für die Unterdrückung der Massen
der SM-Neutrinos verantwortlich ist und ähnlich zum Quarksektor eine Mischungsmatrix zwischen geladenen Leptonen und Neutrinos induziert, die Pontecorvo-Maki-Nakagawa-Sakata (PMNS) Matrix. Im SM
ist der Yukawa-Sektor für die spontane Symmetriebrechung der globalen Flavorsymmetrien verantwortlich, wobei die Brechungsterme proportional zu den Massen der Leptonen sind. Analoges gilt zu führender Ordnung für den effektiven Dimension-5–Operator (D5O), der nach dem Ausintegrieren der schweren
T. Theorie
53
Singulett-Neutrinos auftritt (Type-I See-Saw–Mechanismus). Dieser ist proportional zu den Massen der
SM-Neutrinos und invers-proportional zu der Massenskala der schweren Singulett-Neutrinos. Im minimal
erweiterten SM fungieren diese Operatoren so gleichzeitig als möglicher Ursprung von Lepton-Flavorund Leptonzahlverletzung. Letztere wird in kosmologischen Modellen von Lepton- und Baryongenesis
gebraucht, um die Baryonasymmetrie im Universum zu erklären.
Spurionparametrisierung und Spontane Symmetriebrechung
Eine elegante Möglichkeit, die beobachteten Hierarchien (für Massen und Mischungswinkel) im Leptonsektor (wie auch für Quarks) zu parametrisieren, ist, die Yukawa-Kopplungsterme und die Koeffizientenmatrix des D5O als skalare Spurionfelder zu beschreiben, die entsprechend der Flavorsymmetrien (FS)
transformieren. Die FS werden nun durch Vakuumserwartungswerte (VEVs) dieser Spurionfelder schrittweise gebrochen, wodurch Massen und Mischungsparameter durch einen dynamischen Prozess festgelegt
werden. Die Strukturen der Massen- und Mischungsmatrizen spiegeln sich in der Struktur und den Hierarchien der VEVs der Spurionfelder wider. Im Leptonsektor des hier betrachteten See-Saw Modells sind
dies 12 physikalische Parameter: 6 Massen von geladenen Leptonen und SM-Neutrinos, 3 Mischungswinkel, eine Dirac-Phase und 2 Majorana-Phasen. Den Fällen von normalem, invertiertem oder entartetem Spektrum kann durch Konstruktion entsprechender Szenarien leicht Rechnung getragen werden.
CP-verletzende Dirac- bzw. Majorana-Phasen treten dabei aufgrund von komplexen VEVs auf. Interessant ist zu sehen, wie sich verschiedene phänomenologisch “sinnvolle” Szenarien, wie zum Beispiel bi-trimaximale Mischung realisieren lassen, wobei zusätzliche diskrete Symmetrien, wie zum Beispiel A4 , eine
Rolle spielen können. Falls man die Flavorsymmetrie als zusätzliche Symmetrie der effektiven Lagrangedichte fordert, resultiert die spontante Symmetriebrechung aus dem Grundzustand der Spurionfelder in
einem Invariantenpotential. Das Invariantenpotential hat die besondere Eigenschaft, dass es unabhängig
von der Basiswahl für die Leptonfamilien im Yukawa-Bereich bzw. D5O ist. Ein Invariantenpotential lässt
sich während jedes Schrittes der oben beschriebenen Symmetriebrechung aus den restlichen Spurionfeldern konstruieren. Die dynamische Herkunft des Potentials bleibt dabei zunächst offen. Im Rahmen der
effektiven Theorie kann unser Szenario dennoch als “book-keeping device” für die Parametrisierung von
Lepton-Flavour-verletzenden Prozessen und als Startpunkt für die Konstruktion von dynamischen Modellen jenseits des SM (mit ggf. geeichten Flavoursymmetrien) verwendet werden.
T-14 (A) Über die Enstehung der Arten durch große Eichgruppen
A LEXANDER P RITZEL
LMU München
Das Standardmodell der Teilchenphysik beschreibt Physik zu einer bis dato nicht bekannten Genauigkeit
und ist in perfekter Übereinstimmung mit jeder Beobachtung. Allerdings gibt es im Standard Modell Probleme die eindeutig zeigen, dass das Standardmodell unmöglich die finale Theorie sein kann und, dass es
neue Physik jenseits des Standard Modells geben muss. Das deutlichste dieser Probleme ist das Hierarchieproblem. Das lässt sich wie folgt formulieren: Warum ist die einzige Skala im Standardmodell -die
elektroschwache Skala- soviel kleiner als die Planck Skala, welche die fundamentale Skala der Gravitation ist? Für dieses Problem gibt es verschiedene Lösungsansätze, eine besonders attraktive Möglichkeit
ist anzunehmen, dass sich Gravitation auf kleinen Skalen deutlich anders verhält als man es erwarten
würde. Die Idee ist, dass wir auf unsere Theorie aus einem falschen Blickwinkel schauen und deshalb
annehmen, dass die fundamentale Skala der Gravitation die Planck Skala ist, aber in Wirklichkeit ist sie
die TeV Skala. Das Ziel ist also Gravitation so zu modifizieren, dass die fundamentale Skala mit der
elektroschwachen Skala übereinstimmt. Dadurch wird das Hierarchieproblem offensichtlich gelöst, da in
54
42. Herbstschule für Hochenergiephysik Maria Laach 2010
diesem Fall keine Hierarchie zwischen den Parametern mehr existiert und folglich auch keine Hierarchie
erklärt werden muss. Der Zerfall schwarzer Löcher zeigt eindeutig, dass die Einführung vieler neuer Teilchenspezies in das Standardmodell die fundamentale Gravitationsskala senken muss. Eine konkrete Idee
ist, diese zusätzlichen Teilchenspezies durch zusätzliche exakte Kopien des Standard Modells zu erklären.
Um das zu realisieren kann man sich verschiedene Mechanismen vorstellen, zwei konkrete sind:
Man kann viele Standard Modell Kopien in eine grosse 4 dimensionale Eichgruppe einbetten, also eine Art
Über-GUT einführen. Hier gibt es verschiedene Probleme, die ein derartiges Modell faktisch unmöglich
zu realisieren machen.
Der andere Mechanismus basiert auf einer höher dimensionalen Konstruktion, konkret werden die Kopien des Standardmodells in zusätzlichen Raumdimensionen auf sogenannten feldtheoretischen Branen zu
lokalisieren. Der Mechanismus zur Lokalisation funktioniert hierbei analog zu einem Josephson Kontakt,
blos, dass man den Supraleiter durch einen magnetischen Supraleiter, also eine nichtabelsche Eichtheorie
ersetzt. Wenn man diesen Mechanismus im Detail studiert ergeben sich ausserdem interessante Analogien
zu String Theorie.
Eine Konstruktion dieser Art macht verschiedene interessante Vorhersagen, insbesondere zum Verhalten
schwarzer Löcher. Leider gibt es hierbei noch einige offene Probleme, die gelöst werden müssen bevor
man ein konkretes phänomenlogisches Modell bauen kann.
T-15 (B) Mischung neutraler D-Mesonen im Standardmodell
M ARKUS B OBROWSKI
Institut für Theoretische Teilchenphysik, KIT
Mischung und CP-Verletzung neutraler Mesonen spielten eine Schlüsselrolle bei der Entwicklung des
Standardmodells der Teilchenphysik und der Messung seiner fundamentalen Parameter. Flavourverändernde neutrale Ströme im elektroschwachen Sektor des Standardmodels vermitteln Übergange neutraler Mesonen in ihre CP-konjugierten Antiteilchenzustände über einen gemeinsamen Zerfallskanal. Diese bemerkenswerte Verwandlung von Materie zu Antimaterie gibt Anlaß zu beobachtbaren Flavouroszillationen,
in denen sich die Quantenstruktur der Natur auf makroskopischen Skalen offenbart. Grundsätzlich sind
solche Oszillationen denkbar bei den vier Hadronen K 0 , D 0 , B 0 and Bs0 . Pionen sind ihre eigenen Antiteilchen während die angeregten Mesonzustande zu kurzlebig sind und stark oder elektromagnetisch
zerfallen ehe eine nennenswerte Mischung in den Antiteilchenzustand Zustande kommt. Seit 2007 ist bekannt, daß bei allen dieser vier Mesonen Oszillationen auch tatsächlich beobachtet werden können. In
diesem Vortrag diskutiere ich den gegenwärtigen Status theoretischer Vorhersagen zur D 0 -Mischung.
Die Amplitude des Meson-Antimeson-Übergangs wird üblicherweise im Rahmen der ‘Heavy Quark Expansion’ (HQE) berechnet, einer Entwicklung der jF j D 2 Übergangsmatrix (F D S; C; B) in eine
Reihe lokaler Operatoren wachsender Dimension D, unterdrückt durch inverse Potenzen der schweren
Valenzquarkmasse. Dieser Zugang erlaubt die Isolation aller Effekte nichtperturbativer NiederenergieQCD in Matrixelementen von Vierquark-Operatoren, die auf dem Gitter berechnet werden können. HQEbasierte Methoden erlauben die Bestimmung von Mischung, Lebensdauern und CP-Verletzung neutraler
B- und Bs -Mesonen in guter Übereinstimmung mit den beobachteten Werten. Berechnet man auf der gleichen Grundlage die Lebensdauerdiffenz im D 0 -System, stößt man auf eine Abweichung vom Experiment
um mindestens drei Größenordnungen. Formal manifestiert sich darin effiziente GIM-Unterdrückung, ein
Zusammenspiel von CKM-Hierarchie und SU.3/F -Flavoursymmetrie. Zur Erklärung dieser auffälligen
Abweichung kann man entweder die Anwendbarkeit der HQE auf den D-Sektor in Frage stellen oder
aber nach relevanten Beiträgen innerhalb der HQE suchen, die in der zugrundeliegenden Rechnung nicht
berücksichtigt wurden. Der erste Fall entspricht einem Zusammenbruch der HQE-Störungsreihe, sobald
T. Theorie
55
˛s oder 1=m an der Charm-Schwelle kein geeigneter Entwicklungsparameter mehr ist. Die Berechnung
nächstführender QCD Strahlungskorrekturen sowie D D 7 Massekorrekturen legt allerdings nahe, daß die
HQE zumindest eine richtige Abschätzung der Größenordnung liefern sollte. Daneben kann die Nichtanwendbarkeit des HQE-Ansatzes auch Folge von Verletzung der Quark-Hadron-Dualität (QHD) in Gegenwart nichtperturbativer langreichweitiger QCD-Dynamik sein. Dies tritt auf, sobald die Valenzquarkdynamik im Charm-Sektor nicht mehr der wesentliche Beitrag zur Physik auf Hadron-Niveau ist und der niederenergetische Seequark- und Gluoninhalt des Mesons eine dominierende Rolle zu spielen beginnt. Die
HQE, die wesentlich auf der Annahme von QHD beruht, wäre somit nicht mehr in der Lage, die wesentlichen Beiträge zum jC j D 2 Übergang richtig zu beschreiben. Das zweite der oben erwähnten Szenarien, die Dominanz bislang nicht berücksichtigter Beiträge zur HQE, ist eng verknüpft mit der erwähnten
GIM-Interferenz: Die Mischungsamplitude wächst mit dem Parameter der SU.3/F -Symmetriebrechung.
Korrekturen mit verstärkter Flavourverletzung sind daher potentiell in der Lage, die dominanten Beiträgen
zur D-Mischung zu werden. Da Effekte von SU.4/F -Symmetrie weitaus schwächer ausgeprägt sind, ist
klar, daß solche Beiträge im B-Sektor eine untergeordnete Rolle spielen.
Schon seit langer Zeit besteht die Vermutung, daß die GIM-Unterdrückung in höheren Ordungen der HQE
durchbrochen wird. Der Grund dafür liegt in einer ausgeprägten Verletzung der Flavoursymmetrie, sobald
Zwischenzustände des bilokalen jC j D 2 Übergangs an den Seequark- und Gluoninhalt des Mesons
koppeln. Gegenstand dieser Studie ist die Untersuchung von Beiträgen der Dimension 10 und 12 zur
effektiven jC j D 2 Hamiltondichte, wie sie sich aus Diquark-Kopplungen an den Mesonhintergrund
ergeben. Generisch führt die Rechnung auf Matrixelemente von Sechsquarkoperatoren. Gegenwärtig gibt
es keine zuverlässige Methode für deren Berechnung auf auf dem Gitter oder mit Summenregeln. In dieser Arbeit wird ein Faktorisierungsansatz für die Kopplungen im Zwischenzustand vorgeschlagen, der
auf einer Vakuumeinfügungsnäherung im beruht. Der Einfluß von Seequarks und Gluonen wird darin
in erster Näherung mit dem Kondensathintergrund des QCD-Vakuums beschrieben, unter Vernachlässigung höherer Anregungen im Mesonzustand. Die Faktorisierung erlaubt es, die Operatorstruktur so zu
vereinfachen, daß nur noch Matrixelemente von Vierquarkoperatoren auftreten, für die auf eine Fülle bestehender Numerik zurückgegriffen werden kann. Erwartungsgemäß übersteigen sie die HQE-führenden
(D D 6; 7)-Terme. Numerisch findet sich ein Verstärkungsfaktor der Ordnung zehn.
Diese Studie zeigt damit, daß höhere Ordnungen der HQE tatsächlich in der Lage sind, zu dominanten Beiträgen anzuwachsen. Nichtsdestotrotz ist die gefundene Verstärkung nicht ausreichend, um die
Spannung zwischen Theorie und Experiment aufzulösen. Im Vortrag gebe ich einen Überblick über sinnvolle nächste Schritte in einer Standardmodellanalyse der D 0 -Mischung. Dabei gehe ich im besonderen
auf weitere höherdimensionale Beiträge ein, von denen die Aufhebung einer weiteren Ordnung GIMUnterdrückung zu erwarten ist. Daneben zeige ich eine Möglichkeit auf, wie man zuvor zu einer besseren
Einschätzung des HQE-Konvergenzverhaltens kommen könnte und erkläre, wie die CP-Verletzung in der
D 0 -Mischung quantifiziert werden kann. Die vorgeschlagenen nächsten Schritte, im Zusammenspiel mit
den Ergebnissen dieser Studie, dürfen schließlich in der Lage sein, ein klareres Bild des Ursprungs von
Mischung und CP-Verletzung neutraler D-Mesonen zu zeichnen und bergen möglicherweise interessante
Erkenntnisse über Quark-Hadron-Dualität oder neue Physik im D-Sektor.
T-16 (A) Colorflow-Methode bei QCD-Prozessen
PATRICK G ELHAUSEN
Theoretische Physik 1, Universität Siegen
Seit der Entwicklung der Quantenchromodynamik (QCD) in den siebziger Jahren aus dem Quark-Modell
heraus hat sich die QCD nach und nach zu einem festen Bestandteil des Standardmodells entwickelt.
Um Wirkungsquerschnitte für verschiedene Prozesse - insbesondere unter Beteiligung von Hadronen - zu
56
42. Herbstschule für Hochenergiephysik Maria Laach 2010
berechnen, ist es daher eine umfassende Kenntnis im Bereich der QCD nötig.
Im Gegensatz zu abelschen Eichtheorien wie z.B. der QED tritt in der QCD eine Wechselwirkung der
Eichboson-Felder untereinander auf (! Farbladung der Eichbosonen). Als Konsequenz daraus ergibt sich
eine Modifikation der aus der QED bekannten Feynmanregeln, deren Anwendung bei der Berechnung des
Matrixelementes M nun zum Auftreten von sog. Farbfaktoren führt. Wenngleich die eigentliche Wechselwirkungsdynamik des Prozesses in den restlichen Termen von M enthalten ist, so ist die Bestimmung
des Farbfaktors für eine korrekte theoretische Vorhersage unerlässlich.
Bei der Anwendung der neudefinierten QCD-Feynmanregeln treten diese Farbfaktoren in der einzelnen
Amplitude zunächst als Kombination von Gell-Mann-Matrizen T a (den Generatoren der zugrunde liegenden SU.3/Color ) auf. In der späteren Aufsummierung über alle Farben erscheinen die Farbfaktoren dann
als Spuren dieser Matrix-Kombinationen (Casimir Trick). Die Berechnung dieser Spuren ist im Prinzip
durch einfache Computer-Algorithmen machbar, benötigt aber gerade bei komplizierteren Prozessen einen
beachtlichen Anteil an Rechenaufwand.
Im Interesse diesen Aufwand zu minimieren, wurde ein neuer Ansatz zur Berechnung von M gewählt.
Dieser Ansatz orientiert sich am sogenannten “Colorflow” zwischen Quarks und Gluonen und ist heute in so gut wie allen Monte-Carlo-Generatoren (beispielsweise WHIZARD) üblich. Als entscheidende
Änderung ergänzt man die acht Gluonen der S U.3/Color um ein neuntes “Geist”-Gluon zu einer U.3/Darstellung. Tatsächlich erleichtert diese neue Darstellung die Berechnung der Farbfaktoren enorm, denn
sie reduzieren sich dann auf eine Kombination von Kronecker-Deltas. Anschließend werden die durch
das “unphysikalische” U.1/-Geist-Gluon erzeugten Beiträge im Ergebnis wieder abgezogen. Da die auftretenden Kroneckerdeltas anschaulich mit “Farbflüssen” (Colorflows) zwischen den beteiligten Partikeln
identifiziert werden können, erklärt sich somit auch der Name dieser Methode.
Über die Anwendung dieses kleinen Umweges lassen sich die Rechenzeiten für die Berechnung von
QCD-Amplituden also stark verkürzen. Die Zeitersparnis gegenüber der Berechnung per Spur nimmt mit
steigender Komplexität der Prozesse zu.
In diesem Vortrag sollen einige Details der “Spur”- und der “Colorflow”-Methode näher erläutert und
verglichen werden. Neben einer kurzen Herleitung und Gegenüberstellung wird dabei der Fokus vor allem
auf den Vorteilen und der Anschaulichkeit der Colorflow-Methode liegen.
T-17 (B) Endliche Familiensymmetriegruppen im Leptonsektor
PATRICK OTTO L UDL
Fakultät für Physik, Universität Wien
Im Standardmodell der Elementarteilchenphysik werden Teilchenmassen durch den Higgs-Mechanismus
erzeugt. Die wesentlichste Eigenschaft des Standardmodells in Hinsicht auf die Neutrinophysik ist die
Tatsache, dass das Standardmodell nur linkshändige Neutrinofelder beschreibt. Aufgrund dessen, und
der einfachen Struktur des skalaren Sektors (nur ein Higgs-Doublet), sind Neutrinos im Standardmodell
masselos.
Aufgrund der Existenz von Neutrinooszillationen ist jedoch bekannt, dass zumindest zwei Neutrinos massiv sein müssen. Dies ist der deutlichste bekannte Hinweis auf die Existenz elektroschwacher Physik jenseits des Standardmodells. An die absoluten Neutrinomassen gibt es derzeit nur obere Schranken:
mi < 2 eV;
i D 1; 2; 3 ; Œ1 :
T. Theorie
57
Als nächstes stellen wir uns die Frage, wie Neutrinomassen im Standardmodell implementiert werden
können.
Eine Möglichkeit ist die Erweiterung des Standardmodells um drei rechtshändige Neutrinofelder (Singlets
unter der Standardmodell-Eichgruppe). Alle Leptonmassen können dann in Analogie zum Quark-Sektor
über den Higgs-Mechanismus generiert werden. Dieses Modell führt zu massiven Dirac-Neutrinos. Eine
weitere Möglichkeit wäre die Einführung eines Majorana-Massenterms in der Lagrangedichte des Standardmodells, was auf massive Majorana-Neutrinos führen würde.
Im Prinzip gibt es keine physikalischen Einschränkungen an die Zahl der Standardmodell Higgs-Doublets.
Es ist jedoch darauf zu achten, dass die Schranken an “seltene Zerfälle” (rare decays), wie z.B. flavourändernde neutrale Ströme, durch Hinzufügen von Higgs-Doublets nicht überschritten werden.
Die Lagrangedichte für die schwache Wechselwirkung mit dem geladenen Strom (charged current) hat
die Form
g ˇC C D p JC C W C H:c:;
2
mit
0
0 0
0 0
0 0 JC C D dNL0 uL
C sNL
cL C bNL
tL C C eNL
eL C N L
L C NL0 L :
Die im geladenen Strom enthaltenen Felder sind nicht physikalisch (keine Masseneigenfelder). Die Relationen zu den Masseneigenfeldern sind durch den Higgs-Mechanismus bestimmt (wir nehmen hier DiracNeutrinos und Massenerzeugung durch den Higgs-Mechanismus an):
0 1
0 1
0 1
0 1
0
0
1
1
0 1
0 1
0
uL
uL
dL
dL0
1L
eL
eL
e0
B C
B C
B C
B C
B
B
C
C
B C
B LC
B C
B C
B
C
C
B C
uŽ B 0 C
dŽ B 0 C
Ž B
eŽ B 0 C
B cL C D UL B cL
C ; B sL C D UL B sL
C ; B2L C D UL BL C ; BL C D UL BL
C
@ A
@ A
@ A
@ A
@
@
A
A
@ A
@ A
0
tL0
bL
bL
3L
L
L
L0
tL
JC C kann nun durch die Masseneigenfelder ausgedrückt werden:
JC C
0 1
0
1
uL
1L
B C
B
C
B C
B
C
Ž
D .dNL ; sNL ; bNL / UCKM B cL C C .eNL ; N L ; NL / UPMNS B2L C :
@ A
@
A
tL
3L
uŽ
eŽ
UCKM D UL ULd ist die sogenannte Cabibbo-Kobayashi-Maskawa-Matrix, UPMNS D UL UL die Pontecorvo-Maki-Nakagawa-Sakata-Matrix (Lepton-Mischungsmatrix). Die Abweichung dieser Matrizen von
der 3 3-Einheitsmatrix ist der Grund für die Existenz von Mesonoszillationen (z.B. K0 KN 0 ) und
Neutrinooszillationen. Während UCKM nicht sehr stark von der 3 3-Einheitsmatrix abweicht, ist UPMNS
innerhalb des 2 -Bereiches kompatibel mit der sogenannten Harrison-Perkins-Scott-Mischungsmatrix
1
0q
2
p1
0
3
B 3
C
C
B
p1
p1 C :
UHPS D B p1
6
3
2A
@
p1
6
p1
3
p1
2
Die interessante Form dieser Matrix führte zur Idee, dass es möglicherweise Symmetrien in der Lagrangedichte des Leptonsektors (und des skalaren Sektors) geben könnte, die zur Harrison-Perkins-ScottMischung (tribimaximale Mischung) führen. Interessante Kandidaten für Symmetriegruppen des Leptonsektors sind (da es drei Generationen von Leptonen und Quarks gibt) Untergruppen von U.3/ bzw.
58
42. Herbstschule für Hochenergiephysik Maria Laach 2010
SU.3/. Dabei sind besonders diskrete Symmetrien interessant, da bei der notwendigen Brechung (durch
den Higgs-Mechanismus) diskreter Symmetrien keine Goldstonebosonen auftreten.
Die einfachsten Modelle dieser Art enthalten alle Felder des Standardmodells, sowie zusätzlich drei
rechtshändige Neutrinofelder. Um eine nichttriviale Lepton-Mischungsmatrix zu erhalten, muss mindestens ein (zusätzliches) Standardmodell-Higgs-Doublet hinzugefügt werden. Die Massenmatrizen, und
damit UPMNS , sind bestimmt durch die Vakuumerwartungswerte der Higgs-Doublets, die Yukawa-Kopplungen und die sogenannten Clebsch-Gordan-Koeffizienten (CGCs) der betrachteten Symmetriegruppe.
In der Arbeit Systematic analysis of finite family symmetry groups and their application to the lepton
sector [2] konnten unter anderem die Clebsch-Gordan-Koeffizienten für einen großen Teil der 3 ˝ 3Tensorprodukte von endlichen Untergruppen der S U.3/ berechnet werden. Die Resultate dieser Arbeit
könnten in Zukunft zum besseren Verständnis von Symmetrien im Leptonsektor nützlich sein. Vielleicht
kann eine geeignete Symmetrie, die sowohl Leptonmassen als auch Leptonmischung beschreiben kann,
einen Hinweis auf eine allgemeinere Theorie liefern, welche das heutige Standardmodell in einem bestimmten Limes enthält.
[1] C. Amsler and others, “Particle Data Group,” Phys. Lett. B667:1, 2008, Online updates:
http://pdg.lbl.gov
[2] P. O. Ludl, “Systematic analysis of finite family symmetry groups and their application to the lepton
sector,” [arXiv:0907.5587]
T-18 (A) Higgs-Produktion durch Gluonfusion im MSSM
H ENDRIK M ANTLER
Universität Wuppertal
Das Higgs-Boson ist das einzige elementare Teilchen des Standardmodells, das bisher nicht experimentell nachgewiesen werden konnte. Dieser Nachweis soll nun am LHC gelingen. Auf theoretischer Seite ist
daür eine möglichst genaue Berechnung der Wirkungsquerschnitte für die Higgs-Produktion erforderlich.
Von den Higgs-Produktionsprozessen hat die Gluonfusion am LHC den größten Wirkungsquerschnitt.
Aus diesem Grund ist eine genauere Betrachtung dieses Prozesses besonders interessant.
Bei der Gluonfusion entsteht das Higgs-Boson über einen Quark-Loop. Da die Quark-Higgs-Kopplung
proportional zur Masse ist, tragen hauptsächlich schwere Quarks bei. Im Standardmodell liefert das TopQuark den größten Beitrag zum Wirkungsquerschnitt.
Neben der Berechnung im Rahmen des Standardmodells ist auch die Betrachtung supersymmetrischer
Modelle von besonderem Interesse. Im minimal supersymmetrischen Standardmodell (MSSM) wird das
Standardmodell um die minimale Anzahl an Elementarteilchen erweitert. Bei der Berechnung im MSSM
können im Loop auch Squarks, die Superpartner der Quarks, auftreten. Zusätzlich verändern sich auch
die Quark-Higgs-Kopplungen der Quarks gegenüber dem Standardmodell. Die Yukawa-Kopplung für das
Bottom-Quark bekommt einen zusätzlichen Faktor tan ˇ und kann deshalb die Yukawa-Kopplung des
Top-Quarks übersteigen. Die Bottom- und Sbottom-Beiträge dominieren daher für große tan ˇ.
Als Kanal für die Higgs-Suche am LHC eignet sich unter anderem die Higgs-Produktion in Verbindung
mit einem high-pT -Jet. Durch geeignete Phasenraum-Schnitte kann das Signal-zu-Untergrund-Verhältnis
verbessert werden.
T. Theorie
59
In dem Vortrag wird die Berechnung des Wirkungsquerschnitts für die Gluonfusion zur Next-to-LeadingOrder im MSSM präsentiert. Dabei wird der Einfluss von tan ˇ, sowie der anderen Parameter des MSSM
gezeigt, indem verschiedene Benchmark-Szenarios betrachtet werden. Berücksichtigt werden die Beiträge
von Bottom-, Sbottom-, Top- und Stop-Quark. In die Berechnung gehen bei den Top- und Bottom-QuarkBeiträgen die exakten Massenabhängigkeiten ein, während für die Squark-Beiträge bei den virtuellen
Korrekturen eine effektive Theorie für große Squark-Massen verwendet wird. Bei den reellen Korrekturen werden jedoch die exakten Squark-Massenabhängigkeiten verwendet.
Für die Gluonfusion stellt man fest, dass die NLO-Korrekturen in der Größenordnung des LO-Resultates
liegen. Daher ist es sinnvoll, auch höhere Ordnungen zu betrachten. In dem Vortrag wird daher auch der
Einfluß der NNLO-Beiträge gezeigt. Berechnet werden dabei allerdings nur die Top-Quark-Beiträge in
einer effektiven Theorie für eine große Top-Masse.
Zusätzlich werden pT -Verteilungen und der Einfluß von Phasenraumschnitten gezeigt.
T-19 (B) Bestimmung der R-paritätsverletzenden Parameter im MSSM mit
bilinear gebrochener R-Parität
F RANK T HOMAS
Institut für Theoretische Physik und Astrophysik,
Universität Würzburg
Mit dem Start des Large Hadron Collider (LHC) hat die Erforschung der Tera-Skala begonnen. Neben
der Erforschung des genauen Mechanismus der elektroschwachen Symmetriebrechung ist auch die Suche nach Teilchen, die von Erweiterungen des Standardmodells vorhergesagt werden, ein zentraler Punkt
des experimentellen Programms. Viel diskutierte Modelle sind in diesem Zusammenhang supersymmetrische Modelle, in denen jedem Standardmodellteilchen ein Superpartner zugeordnet wird. Supersymmetrische Modelle besitzen einen intrinsischen Mechanismus, die Kleinheit von Neutrinomassen zu erklären,
nämlich Brechung der R-Parität mit Hilfe von Leptonzahl-verletzenden Operatoren.
Die einfachste Variante dieses Mechanismus ist die minimale supersymmetrische Erweiterung des Standardmodells mit bilinear gebrochener R-Parität (BRpV). Dieselben Parameter, die für die Generierung
von Neutrinomassen verantwortlich sind, führen auch zum Zerfall des leichtesten supersymmetrischen
Teilchens (LSP). Dies impliziert, dass es Korrelationen zwischen dessen Zerfallseigenschaften und Neutrinodaten gibt und Erstere als Funktionen der Zweiten vorhergesagt werden. Unter der Annahme, dass
z.B. das LSP das leichteste Neutralino ist, zerfällt dieses innerhalb eines typischen Detektors und eröffnet
damit die Möglichkeit Neutrinophysik direkt an Teilchenbeschleunigern zu testen.
Falls Supersymmetrie (SUSY) bei niedriger Energie realisiert ist, werden der LHC sowie der zukünftige
International Linear Collider eine Fülle von Daten supersymmetrischer Prozesse liefern. Eine der zentralen Aufgaben ist es dann die Parameter der Lagrangedichte und deren Unsicherheiten aus diesen Daten
zu extrahieren. Unter diesem Gesichtspunkt wurde untersucht, mit welcher Genauigkeit die R-paritätsverletzenden Parameter des MSSM mit BRpV aus Beschleunigerobservablen mit deren zu erwartenden
experimentellen Unsicherheiten bestimmt werden können. Außerdem wurde untersucht welchen Einfluss
Neutrinophysik auf die Bestimmung dieser Parameter hat. Zusätzlich wurden diejenigen Zerfallskanäle
des LSP identifiziert, die besonders sensitiv auf die diese Parameter sind und damit interessant für Tests
der Neutrinophysik sind.
Zur Bestimmung der R-paritätsverletzenden Parameter wurde das generische Fit-Programm Kaimini entwickelt, das unter Verwendung verschiedener deterministischer und stochastischer Optimierungsalgorithmen, beliebige Kombinationen von Parametern an Observablen fitten kann. Zur Berechnung der theore-
60
42. Herbstschule für Hochenergiephysik Maria Laach 2010
tischen Vorhersagen von SUSY Observablen wurde SPheno verwendet, jedoch kann Kaimini jedes Programm verwenden, das den SUSY Les Houches Accord implementiert. Das Ergebnis eines Fits sind dann
Parameterpunkte hoher Anpassungsgüte und die Konfidenzintervalle der Parameter.
T-20 (A) Automatisierte Gitterstörungstheorie im Schrödinger Funktional
D IRK H ESSE
NIC, DESY
Die Gitterregularisierung der Quantenchromodynamik (QCD) erlaubt einen nichtstörungstheoretischen
Zugang zu Phänomenen der starken Wechselwirkung, also zu solchen, die bei niedrigen Energien auftreten. Übliche Observable, die hierbei von Interesse sind, wären Mesonen- oder Hadronenmassen. Bei der
Formulierung der Gitter-QCD wird die Raumzeit nicht als kontinuierlich, sondern als aus diskreten Gitterpunkten mit Abstand a bestehend aufgefasst. Die Wirkung der QCD wird hierbei in eine Gitterversion
überführt. Die Zuordnung einer Gitterwirkung zur Wirkung der Kontinuums-QCD ist aber nicht eindeutig. In der Praxis werden viele verschiedene Gitterwirkungen verwendet, die im Limes verschwindenden
Gitterabstandes, dem Kontinuumlimes a ! 0, alle die ursprüngliche Wirkung der QCD reproduzieren.
Wenn auch die großen Stärken der Gitterformulierung der QCD in der Möglichkeit der Durchführung von
Monte Carlo Simulationen liegen, so ist in der Praxis dennoch eine störungstheoretische Entwicklung, die
nur bei hohen Energieskalen konvergent ist, zusätzlich notwendig oder zumindest wünschenswert.
Aus der eingangs erwähnten Uneindeutigkeit der Gitterwirkung ergibt sich für störungstheoretische Rechnungen eine gravierende Komplikation. Jede Wirkung definiert einen eigenen Satz von Feynmanregeln.
Da letztere die Bausteine jeder Störungsrechnung sind, muss im Prinzip jede Rechnung wiederholt werden, sobald man eine andere Wirkung betrachtet. Erst im Kontinuumslimes würden die Ergebnisse dann
übereinstimmen. Daher ist es wünschenswert, die Generierung von Feynmanregeln von einer beliebigen
Wirkung ausgehend zu automatisieren.
Das Schrödingerfunktional ist ein wichtiges Werkzeug zur Behandlung skalenabhängiger Größen wie der
laufenden Kopplung oder Renormierungsfaktoren. Durch die Einführung von Dirichlet-Randbedingungen
in Zeitrichtung2 wird hier, ähnlich wie zwischen geladenen Kondensatorplatten, ein Hintergrundfeld induziert. Dies erschwert störungstheoretische Rechnungen zusätzlich und eine Automatisierung wird um
so wünschenswerter.
In den letzten zwei Jahren habe ich ein Softwarepaket entwickelt, das von beliebigen Wirkungen ausgehend Feynmanregeln aufstellt und eine leicht zu verwendende Schnittstelle bietet, mit diesen Feynmandiagramme zu berechnen. Einige Ergebnisse erster Rechnungen werden, zusammen mit einer kurzen
Übersicht über die Prinzipien der Automatisierung, vorgestellt werden.
2 Da
in der Gitter-QCD üblicherweise eine Euklidische Raumzeit angenommen wird, ist der Zeitbegriff hier nicht wörtlich zu
verstehen.
Die Abtei Maria Laach
Die Abtei wurde als Abbatia ad Lacum - später auch Abbatia Lacensis - zwischen 1093 und 1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich
II. von Laach und seiner Frau Adelheid von Weimar-Orlamünde, für sein und seiner Gemahlin Seelenheil und dazu als Grablege, zurück. Das Wort Laach ist eine
verschliefene Form des althochdeutschen Wortes lacha - von lat. lacus, -us m und ist als Name für den See, den Ort und das Kloster erhalten geblieben.
Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten frühesten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen 819 und 829 im Kloster Reichenau.
Die sechstürmige Abteikirche gehört zu den schönsten Denkmälern der romanischen Baukunst aus der Zeit der Salier in Deutschland. Dies liegt vor allem daran,
dass die Klosterkirche von späteren Umbauten fast völlig verschont geblieben ist.
Laach Klosterkirche, Basis
In der Zeit der Gotik und des Barock kam es jedoch zu einigen Veränderungen,
die allerdings während Renovierungsarbeiten im 20. Jahrhundert rückgängig gemacht wurden, so dass in
beindruckender Weise die Form einer mittelalterlichen Klosteranlage bis heute bewundert werden kann.
Der prachtvolle Westeingang mit seinem nördlich der Alpen einzigartigen Paradies (Narthex) findet sich
stilisiert im Logo der Herbstschule wieder. Der Abteikirche, auch als Laacher Münster bezeichnet, einer
doppelchörigen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica
minor” durch Papst Pius XI. verliehen.
Die Abtei blieb von der Säkularisierung in der Zeit der Napoleonischen Herrschaft nicht verschont. Im
Jahre 1801 wurden ihre Güter enteignet und 1802 die Abtei durch das Säkularisationsedikt Napoleons
durch die französische Verwaltung aufgehoben. Nach dem Wiener Kongress ging die Abtei 1815 in preußischen Staatsbesitz über. 1892 konnten einige Benediktinermönche unter Prior Willibrord Benzler die
Abtei zunächst als Priorei wieder besiedeln, schließlich, 1893, 737 nach ihrer Gründung, wurde die Abtei
zum zweiten Male konsekriert und erhielt den Namen “Maria Laach”.
1093
Gründung durch Pfalzgraf Heinrich II. von Laach
1095
Tod des Pfalzgrafen, seine Frau Adelheid führt die Bauarbeiten fort
1112
Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballenstadt, er
schenkt das Kloster an die Abtei Affligem im Landgrafschaft Brabant.
1138
Laach wird selbständige Abtei
1802
Aufhebung der Abtei in Folge der Säkularisation
1820
Erwerb des Klosters als Rittergut durch Daniel Heinrich Delius für
24.900 “Thaler in preußischen Courant”
1855
Zerstörung der Prälatur durch einen schweren Brand
1863
Erwerb der Abteigebäude durch die deutsche Jesuitenprovinz und errichtet “Collegium Maximum”.
1892
Wiederbesiedelung durch Benediktiniermönche aus der Erzabtei Beuron.
1924
Übereignung der Klosterkirche an die Abtei durch den preußischen
Staat
2006
Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850. Weihetag.
Laach Klosterkirche. Ostseite
Bildnachweis
Titel- und Rückseite: Maria Laach, Basis und Ostseite aus G. Dehio und G. Bezold, “Die Kirchliche Baukunst des Abendlandes.” Verlag der
J. G. Cotta’schen Buchhandlung, 1892, mit freundlicher Genehmigung des Magnus Verlag, Essen.
Herunterladen