2012 - 49. Herbstschule für Hochenergiephysik 2017

Werbung
44. Herbstschule
für
Hochenergiephysik
Maria Laach
4.–14. September 2012
Zusammenfassungen
der Kurzberichte
der Teilnehmerinnen und Teilnehmer
44. Herbstschule
für
Hochenergiephysik
Maria Laach
4.–14. September 2012
Die Herbstschule für Hochenergiephysik
wird vom
Bundesministerium für Bildung und Forschung (BMBF)
finanziell unterstützt.
Organisatoren
Prof. Dr. S. Bethke
MPI für Physik, München
Prof. Dr. Th. Mannel
Universität Siegen
Prof. Dr. R. Rückl
Universität Würzburg
Kontaktperson für 2012
Prof. Dr. S. Bethke
MPI für Physik, München
http://www.maria-laach.tp1.physik.uni-siegen.de
Inhaltsverzeichnis
Programm . . . . . . . . . . . . . . . . . . . . . . . . 6
Zeitplan . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Teilnehmerinnen und Teilnehmer . . . . 9
Kurzdarstellungen . . . . . . . . . . . . . . . . 15
Laach Klosterkirche, Basis
5
Programm
Vorlesungen
Das Standardmodell
Ansgar Denner
Uni Würzburg
Heavy Flavour Physics
Clara Matteuzzi
INFN Milano
Neutrino Physics
Boris Kayser
Fermilab
Physics beyond the Standard Model
Georgi Dvali
LMU und MPI München
Physik am LHC
Sandra Kortner
MPI München
Moderne Methoden der Datenanalyse Allan Caldwell
MPI München
Particle Cosmology
INR RAS Moscow
V. A. Rubakov
Abendvorträge
Mönchtum:
Pater Athanasius
Welt von gestern, Lebensmöglichkeit heute.
Wolff
Geologie der Vulkaneifel.
Brigitte Bethke
Bad Dürkheim
Teller oder Tank:
Robert Schlögl
Fritz-Haber-Inst.,
Warum wir chemische Energiespeicherung benötigen.
6
Maria Laach
Berlin
Übungen
Feynman-Diagramme für Anfänger
Thorsten Ohl
Uni Würzburg
Renormierung und effektive Feldtheorie Peter Uwer
HU Berlin
Supersymmetrie
RWTH Aachen
Alexander Mück
Koordinatoren der Gruppenberichte
Gruppe Experiment
A
Giorgio Cortiana
B
C
Theorie
MPI
Silja C. Thewes
DESY
Ringaile Placakyte DESY
Peter Marquard
KIT
Markus Jüngst
David Straub
INFN Pisa
CERN
7
Zeitplan
Dienstag
Mittwoch
Donnerstag
Freitag
Samstag
4.9.
5.9.
6.9.
7.9.
8.9.
08:30–09:25
Kortner
Denner
Caldwell
Caldwell
09:40–10:35
Denner
Kortner
Denner
Caldwell
10:50–11:45
Denner
Kortner
Kortner
Diskussion
Übungen
Gruppen
11:55
14:30–16:00
Mittagessen
Anreise
Übungen
16:05–16:25
Kaffeepause
16:30–18:00
Übungen
18:25
19:30
Übungen
Gruppen
Gruppen
Abendessen
Begrüßung
20:00
Wolff
Bethke
Montag
Dienstag
Mittwoch
Donnerstag
Freitag
10.9.
11.9.
12.9.
13.9.
14.9.
08:30–09:25
Rubakov
Dvali
Matteuzzi
Kayser
Kayser
09:40–10:35
Dvali
Dvali
Rubakov
Matteuzzi
Kayser
10:50–11:45
Kirchenbesuch Rubakov
Dvali
Matteuzzi
Diskussion
Übungen
Abreise
11:55
14:30–16:00
Mittagessen
Übungen
Übungen
16:05–16:25
16:30–18:00
Kaffeepause
Gruppen
Gruppen
18:25
20:00
8
Gruppen
Abendessen
Schlögl
Abschlußabend
Teilnehmerinnen und Teilnehmer
Detektor- und Beschleunigertechnologie
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Bonn
D-1 (A)
Malte Backhaus
Universität Bonn
Charakterisierung neuer hybrider Pixeldetektor Modulkonzepte für das ATLAS Insertable B-Layer Upgrade
Silke Altenheiner
TU Dortmund
C
Strahlenhärte von n -in-n Pixelsensoren
Mirco Deckenhoff
TU Dortmund
Untersuchung der Strahlenhärte von Silizium Photomultipliern für ein Upgrade des Spurdetektorsystems des LHCb-Experiments
CERN und II. Physikalisches Institut, Uni Göttingen
Andre Schorlemmer
Messungen der effeketiven Depletionsspannung und Depletionstiefe im ATLAS Pixel Detektor
Universität Hamburg
Joachim Erfle
Systematische Untersuchung verschiedener Siliziummaterialien auf Strahlenhärte für den CMS-Spurdetektor im HL-LHC
Benjamin Hermberg
DESY
Realisierung und Überprüfung eines technischen Prototypen eines CALICE
Hadronkalorimeters
Universität Hamburg / DESY
Klaus Zenker
Charakterisierung und Optimierung von Gas-Elektronen-Vervielfachungsfolien für den ILD Detektor am ILC
Max-Planck-Institut für Physik
Christian Soldner
Das T3B Experiment: Die Zeitauflösung hadronischer Schauer in hochgranularen Kalorimetern mit Wolfram oder Stahl Absorber
Physikalisches Institut, Universität Würzburg
Stefan Weber
Detektorenentwicklung für das Upgrade des Myon-Spektrometers von ATLAS
Dortmund
D-2 (B)
Dortmund
D-3 (C)
Göttingen
D-4 (A)
Hamburg
D-5 (B)
Hamburg
D-6 (C)
Hamburg
D-7 (A)
München
D-8 (C)
Würzburg
D-9 (C)
Institut
Seite
15
16
16
17
19
20
20
22
24
9
Experimentelle Analyse
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Aachen
E-1 (A)
III. Physikalisches Institut A, RWTH Aachen
Robert Fischer
Messung der W -assoziierten Produktion einzelner Top-Quarks mit dem
CMS-Experiment
III. Physikalisches Institut B, RWTH Aachen
Bastian Kargoll
Suche nach dem Higgs-Boson in Ereignissen mit zwei hadronisch zerfallenden Tau-Leptonen bei CMS
III. Physikalisches Institut A, RWTH Aachen
Klaas Padeken
Suche nach Unparticles in Z C E
6 T Zerfallskanal mit dem CMS Detector
Aachen
E-2 (B)
Aachen
E-3 (C)
Institut
Seite
Andreas Menzel
Humboldt-Universität zu Berlin
Einschränkungen der Eigenschaften einer 4. Fermionenfamilie durch Flavourphysik, elektroschwache Präzisionsmessungen und aktuelle Ergebnisse der
Higgs-Suche
Berlin
Patrick Rieck
Humboldt-Universität zu Berlin
E-5 (B)
Die Matrixelement-Methode in nächst-führender Ordnung und Single-TopProduktion in ATLAS
Physikalisches Institut, Universität Bonn
Bonn
Jessica Liebal
E-6 (C)
Suche nach dem Standardmodel Higgsboson im Zerfallskanal H ! !
had `3 in ATLAS
Physikalisches Institut, Universität Bonn
Bonn
Steffen Schaepe
E-7 (C)
Suche nach Supersymmetrie in Endzuständen mit zwei Tau Leptonen, Jets
und fehlender Transversalenergie mit dem ATLAS Detektor.
Physikalisches Institut, Universität Bonn
Bonn
Martin Schultens
E-8 (B)
Suche nach Supersymmetrie mit Tau-Leptonen und einem Elektron am
ATLAS-Experiment
Institut für experimentelle Physik IV, TU Dortmund
Dortmund Ingo Burmeister
E-9 (C)
Trackjets in ATLAS
Dortmund Maximilian Schlupp
TU Dortmund
E-10 (A) Messung des CKM-Winkels im Zerfall Bs0 ! Ds˙ K mit dem LHCbExperiment
Physikalisches Institut, Universität Freiburg
Freiburg
Claudia Giuliani
E-11 (C)
Suche nach direkter Produktion von leichten supersymmetrischen TopSquarks mit einem
Lepton und b-Jets im Endzustand bei einer Schwerpunktp
senergie von s D 7 TeV im ATLAS Experiment
Physikalisches Institut, Universität Freiburg
Freiburg
Christian Schillo
E-12 (B)
Suche nach neutralen Higgs-Bosonen im Zerfallskanal H ! ! e4
mit dem ATLAS-Detektor
Berlin
E-4 (A)
10
25
26
28
29
30
31
32
33
34
35
36
38
München
E-13 (A)
Göttingen
E-14 (B)
Göttingen
E-15 (C)
Hamburg
E-16 (A)
Hamburg
E-17 (B)
Heidelberg
E-18 (C)
Karlsruhe
E-19 (A)
Karlsruhe
E-20 (B)
Karlsruhe
E-21 (C)
Mainz
E-22 (C)
Mainz
E-23 (B)
Mainz
E-24 (C)
München
E-25 (A)
München
E-26 (B)
Rostock
E-27 (C)
Wien
E-28 (A)
Josephine Wittkowski Lehrstuhl für Elementarteilchenphysik, LMU München
Optimierung der Triggerstrategie für die Suche nach elektroschwach produ40
zierten supersymmetrischen Teilchen
II. Physikalisches Institut, Universität Göttingen
Philipp Hamer
Suche nach B ! bei Belle
41
II. Physikalisches Institut, Universität Göttingen
Jason Mansour
Suche nach Supersymmetrie im trileptonischen Endzustand mit dem DØ42
Experiment
Insitut für Experimentalphysik, Universität Hamburg
Kristin Heine
Suche nach Supersymmetrie im voll-hadronischen Kanal mit dem CMS De43
tektor am LHC
Jan Kieseler
DESY
Messung des Wirkungsquerschnittsverältnisses von t tN und Z 0 Produktion in
45
den dileptonischen Zerfallskanälen
Physikalisches Institut, Universität Heidelberg
Georg Krocker
Bestimmung des Produktionsflavours von Bs -Mesonen beim LHCb Experi46
ment
Institut für Experimentelle Kernphysik, KIT
Matthias Huschle
Vollständige Rekonstruktion von B-Mesonen in .5S/-Zerfällen bei Belle
47
Institut für Experimentelle Kernphysik, KIT
Bastian Kronenbitter
Analyse des Zerfalls B 0 ! D C D am Belle-Experiment
48
Institut für Experimentelle Kernphysik, KIT
Steffen Röcker
Messung des Single Top t-Kanal Wirkungsquerschnitts mit neuronalen Net49
zen am CMS-Detektor
Institut für Physik, Universität Mainz
Timo Müller
Suche nach Supersymmetrie in Ereignissen mit einem Lepton, Jets und feh50
lender Transversalenergie mit dem ATLAS Experiment
Institut für Physik, Universität Mainz
Ruth Pöttgen
ATLAS-Suche nach Dunkler Materie in Monojet-Ereignissen
51
Institut für Physik, Johannes-Gutenberg Universität Mainz
Simon Wollstadt
Messung des Drell-Yan Wirkungsquerschnittes mit Hilfe von Elektron52
Positron-Paaren bei ATLAS
Max-Planck-Institut für Physik, München
M. Goblirsch-Kolb
Suche nach supersymmetrischen Teilchen in Endzuständen mit vier oder mehr
53
Leptonen mit dem ATLAS-Detektor
Max-Planck-Institut für Physik, München
Martin Ritter
Zeitabhängige Analyse der CP -Verletzung im Kanal B 0 ! D C D KS0 bei
54
Belle
Institut für Physik, Universität Rostock
Miriam Heß
Untersuchung des Zerfalls BN 0 ! C
N K C mit dem BABAR Experiment
55
c pK
Robin Glattauer
Institut für Hochenergiephysik der ÖAW
Spurrekonstruktion in der Vorwärtsrichtung des ILD
56
11
Theorie
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Institut
Seite
Institut für Physik, HU Berlin
Peter Galler
Beiträge skalarer und pseudoskalarer Bosonen zur t tN-Produktion am LHC
58
Institut für Physik, HU Berlin
Berlin
Felix Stollenwerk
T-2 (B)
Modellunabhängiger Ansatz für ! C und 0 ! C 59
Institut für Theoretische Physik, Universität Bern
Bern
Stefanie Marti
T-3 (C)
W=Z= -Produktion bei grossem pT in SCET
61
Physikalisches Institut, Universität Bonn
Bonn
Daniel Schmeier
T-4 (A)
Effektive Modelle für Dunkle Materie am ILC
62
Physikalisches Institut, Universität Freiburg
Freiburg
Markus Hecht
T-5 (B)
NLO QCD Korrekturen zur Produktion von W C Endzuständen am LHC
63
Hamburg Elina Fuchs
DESY
T-6 (C)
Interferenzeffekte im MSSM in einer verallgemeinerten Narrow-Width Ap64
proximation
Institut für Theoretische Physik, KIT
Karlsruhe Ramona Gröber
T-7 (A)
Higgspaarproduktion in Composite Higgs Modellen
65
Institut für Theoretische Teilchenphysik, KIT
Karlsruhe Thomas Hermann
N
T-8 (B)
B.B ! Xs / in 2-Higgs-Dublett-Modellen
66
Institut für Theoretische Physik, KIT
Karlsruhe Christian Röhr
T-9 (C)
Colour-Reconnection im Ereignisgenerator H ERWIG ++
67
Institut für Physik, Universität Mainz
Mainz
Stephan Thier
T-10 (B)
Phänomenologie am LHC mit P OWHEG
68
Institut für Physik (THEP), Universität Mainz
Mainz
Daniel Wilhelm
T-11 (A)
Produktion von massiven Bosonen bei kleinem Transversalimpuls qT
69
Physikdepartment IV (T31), TU München
München Francesco Dighera
T-12 (B)
Radiative Corrections to Dark Matter Annihilation in the MSSM
70
Physikdepartment (T30), TU München
München Andreas Trautner
T-13 (A)
Horizontale Diskrete R Symmetrien
72
Max-Planck-Institut für Physik, München
München Hendrik Vogel
T-14 (B)
Dunkle Materie und Dunkle Strahlung mittels extra U.1/
73
Institut für Theoretische Physik, Universität Münster
Münster
Florian König
T-15 (A)
Photon-Produktion in Proton-Proton- und Schwerionenkollisionen
74
Fakultät IV, Theoretische Physik I, Universität Siegen
Siegen
Denis Rosenthal
T-16 (B)
Zerfallskonstanten von schweren Mesonen in der QCD
75
Fakultät für Physik, Universität Wien
Wien
Piotr Pietrulewicz
T-17 (A)
Effektiver Feldtheorieansatz für Masseneffekte in inklusiven Prozessen
76
Berlin
T-1 (A)
12
Inst. f. Theor. Physik und Astrophysik, Uni Würzburg
Würzburg Christian Pasold
T-18 (B)
Elektroschwache NLO Korrekturen zur W und Z Produktion mit vollen
77
leptonischen Zerfällen
Zeuthen
Felix Bahr
DESY Zeuthen
T-19 (A)
Formfaktoren für B ! ` Zerfälle in Gittereichtheorie
78
13
D. Detektor- und
Beschleunigertechnologie
D-1 (A) Charakterisierung neuer hybrider Pixeldetektor Modulkonzepte für das ATLAS Insertable B-Layer Upgrade
M ALTE BACKHAUS
Universität Bonn
Für den ATLAS Pixeldetektor wird eine vierte, hybride Pixeldetektorlage entwickelt, der so genannte Insertable B-Layer (IBL). Diese wird in den bestehenden Pixeldetektor eingeschoben.
Aufgrund des sehr kleinen Abstandes zum Wechselwirkungspunkt von ca. 3,4 cm wird der IBL
die Trackrekonstruktionsleistung und Vertexauflösung des ATLAS Pixeldetektors verbessern.
Um mit der extrem hohen Strahlungsbelastung in der Nähe des Wechselwirkungspunktes klarzukommen wurden neue Sensorkonzepte und ein neuer Auslesechip, FE-I4, entwickelt. Um die
Pixelokkupanz zu reduzieren wurde die Pixelgröße von 50 400 m2 des momentanen ATLAS
Pixeldetektor Auslesechips (FE-I3) auf 50 250 m2 reduziert. Die aktive Fläche des FE-I4
bedeckt 2 1; 7 cm2 und beinhaltet 26880 Pixel, eine ca. zehnfache Pixelanzahl im Verhältnis
zu FE-I3. Das Verhältnis von aktiver zu inaktiver Fläche wurde von 75% im FE-I3 auf 90% im
FE-I4 gesteigert. Dies ermöglicht die Entwicklung eines stark vereinfachten, integrierteren Modulkonzeptes, dass durch weniger Peripherie und mechanische Bauteile einen geringere Anteil
der Strahlungslänge besitzt. Eine möglichst kleine Strahlungslänge verbessert die Trackrekonstruktionsfähigkeit und ist eine der Hauptanforderungen an das Design des Modulkonzeptes für
IBL.
FE-I4 wurde designed um die Anforderungen der verschiedenen neuen, strahlenharten Sensorkonzepte – planare Silizium Pixelsensoren, 3D Silizium Pixelsensoren und planare Diamantsensoren – zu erfüllen, welche momentan für den Einbau im IBL bzw. dem Diamond Beam Monitor
(DBM) vorgesehen sind. Diese Sensorkonzepte sind verfügbar für die neue Auslesechipgeneration FE-I4 und wurden mit diesem detailiert in Labor und Teststrahlumgebung charakterisiert.
Der Vortrag wird eine Einleitung in die verschiedenen Anwendungen und eine detailierte Beschreibung der Auslesearchitektur des FE-I4 beinhalten. Der Hauptfokus ist die Präsentation des
Betriebs und der Leistungsfähigkeit von bestrahlten und unbestrahlten Prototypmodulen mit den
verschiedenen Sensorkonzepten.
16
44. Herbstschule für Hochenergiephysik Maria Laach 2012
D-2 (B) Strahlenhärte von nC-in-n Pixelsensoren
S ILKE A LTENHEINER
TU Dortmund
Für den ATLAS Pixeldetektor sind zwei große Upgrades auf dem Weg zum HL-LHC geplant.
Als Erstes in 2013 der Einbau einer vierten Pixellage mit einem mittleren Radius von nur 33 mm,
dem sogenannten Insertable B-Layer (IBL). Dabei muss der Tracker eine erhöhte Luminosität
von etwa 31034 cm 2 s 1 bewältigen, was eine Strahlenhärte der Sensoren von 51015 neq cm 2
voraussetzt.
Am Ende dieser Dekade ist ein kompletter Austausch des inneren Trackers vorgesehen, da bei
HL-LHC eine Luminosität von 10 1035 cm 2 s 1 erwartet wird. Bei dieser Luminosität muss
die innerste Pixellage Strahlenschäden bis zu einer Fluenz von 2 1016 neq cm 2 standhalten.
Um sicherzustellen, dass die Pixelsensoren auch bei solch hohen Fluenzen noch eine gute Effizienz besitzen, wurden sowohl nC -in-n SingleChip Assemblies, basierend auf dem im jetzigen
Pixel Detektor verbauten FE-I3 Auslesechip, als auch Sensoren mit dem neuen IBL Auslesechip
FE-I4 bestrahlt.
Die SingleChip Assemblies wurden in Karlsruhe mit 23 MeV und in Los Alamos (New Mexico, USA) mit 800 MeV Protonen bestrahlt. Eine Bestrahlung mit Neutronen hat in Ljubljana
(Slowenien) stattgefunden. Um ihre Effizienz und ihr Verhalten nach verschieden hohen Fluenzen zu bestimmen, wurden und werden verschiedene Labormessungen als auch Messungen in
Testbeams am CERN (Genf, Schweiz) und DESY durchgeführt.
Erste Ergebnisse und Erfahrungen mit solch hoch bestrahlten Sensoren werden vorgestellt.
D-3 (C) Untersuchung der Strahlenhärte von Silizium Photomultipliern für ein Upgrade des Spurdetektorsystems des
LHCb-Experiments
M IRCO D ECKENHOFF
TU Dortmund
Das am Large Hadron Collider (LHC) am Forschungszentrum CERN (Genf, Schweiz) beheimatete LHCb-Experiment hat als primäres Ziel die indirekte Suche nach Neuer Physik. Dazu
werden – insbesondere CP -verletzende – Zerfälle und Prozesse untersucht, anhand derer es
möglich ist, durch Präzisionsmessungen Abweichungen von den Vorhersagen des Standardmodells zu bestimmen.
Der aktuelle Detektor des LHCb-Experiments ermöglicht eine Datennahme von etwa 1 fb 1 pro
Jahr bei einer Luminosität von bis zu 5 1032 cm 2 s 1 . Um bei einer erhöhten Luminosität
ab dem Jahr 2018 eine Datennahme von etwa 5 fb 1 pro Jahr zu ermöglichen, ist ein Upgrade
mehrerer Detektorkomponenten notwendig.
Ein wichtiger Teil des derzeitigen Spurdetektorsystems ist der Outer Tracker (OT). Dieser besteht aus Driftröhren von 5 mm Durchmesser und ermöglicht eine Ortsauflösung von 230 m.
Die maximale Driftzeit in den Röhren dieses Subdetektors liegt bei 42 ns. Dem gegenüber ste-
D. Detektor- und Beschleunigertechnologie
17
hen zukünftig 25 ns als Zeit zwischen zwei Proton-Bunch-Crossings am Wechselwirkungspunkt.
Dies führt – vor allem im Bereich nahe des Strahlrohrs – zu einer derart erhöhten Detektorbelegung, dass mit einer deutlichen Abnahme der Effizienz der Spurrekonstruktion zu rechnen ist.
Ein möglicher Kandidat für ein Upgrade dieser Detektorkomponente ist ein System aus szintillierenden Fasern mit Silizium-Photomultiplier-Auslese. Dabei erzeugen die nachzuweisenden Teilchen in einzelnen, zu Matten verarbeiteten, parallelen Fasern von 250 m Durchmesser Szintillationslicht, welches an deren Ende mit Hilfe von strukturierten Silizium-Photomultipliern (SiPM)
detektiert wird. Die Anregungszeit des Szintillationslichts beträgt dabei etwa 2 ns. Ein derartiges
Spurdetektorsystem wurde bereits für das PEBS-Experiment an der RWTH-Aachen entwickelt.
Um dieses für das LHCb-Experiment adaptieren zu können, sind jedoch einige Hindernisse zu
überwinden. Neben der Herausforderung der Produktion deutlich größerer Module als der für
das PEBS-Experiment entwickelten spielt die Strahlenhärte der szintillierenden Fasern und der
SiPMs eine wesentliche Rolle.
Um die Verwendbarkeit der SiPMs zu testen, wurden Bestrahlungen dieser an Protonen-Beschleunigern in Nizza (Frankreich) und München sowie 2011 und aktuell in situ in der LHCbKaverne durchgeführt.
Der Vortrag gibt eine Einführung in das Konzept und die Funktionsweise eines Spurdetektorsystems aus szintillierenden Fasern mit SiPM-Auslese. Es werden die durchgeführten Studien zur
Bestimmung des Effekts von Strahlung auf die SiPMs und ihre bisherigen Ergebnisse präsentiert.
D-4 (A) Messungen der effeketiven Depletionsspannung und
Depletionstiefe im ATLAS Pixel Detektor
A NDRE S CHORLEMMER
CERN und II. Physikalisches Institut, Uni Göttingen
Durch die hohe Luminsität im LHC haben Effekte aufgrund von Strahlenschäden im ATLAS
Pixel Detektor einen zunehmenden Einfluss auf den Betrieb und die Leistung des Detektors.
Daher ist es notwendig, diese Effekte im ATLAS Pixel Detektor regelmäßig zu überwachen. Eine
entscheidende Observable ist die Depletionsspannung, sowie die Tiefe der depletierten Zone
nach Typ-Inversion.
Der Sensor im ATLAS Pixel Detektor is n-dotiert und die depletierte Zone wächst mit wachsender Spannung von der Rückseite aus. Die Strahlenbelastung durch den LHC hat eine Veränderung der effektiven Dotierungkonzentration der Halbleitersensoren zur Folge. Die Defekte bewirken eine Verringerung der n-Typ-Dotierungskonzentration im Sensor und führen nach einer
gewissen Zeit zu einer effektiven p-Dotierung. Nach Typ-Inversion wächst die depletierte Zone
auf der Pixelseite. Dieser Effekt ermöglicht es, den Detektor nur teilweise depletiert zu betreiben.
Abbildung D.1 zeigt einen Querschnitt des Pixelsensors vor und nach Typ-Inversion.
Für den ATLAS Pixel Detektor wurden zwei verschiedene Messungen entwickelt, um die Depletionspannung vor Typ-Inversion sowie die Depletionstiefe nach Typ-Inversion zu messen.
Vor der Typ-Inversion wird die Depletionsspannung im Pixel Detektor durch das Übersprechen benachbarter Pixel gemessen (Crosstalk Messung). Die Messung nutzt die Veränderung
der Leitfähigkeit zwischen einzelnen Pixeln. Ladungsträger können durch den Sensor zu einem
benachbarten Pixel driften, solange der Sensor nicht vollständig depletiert ist. Sobald der Sensor
18
44. Herbstschule für Hochenergiephysik Maria Laach 2012
Abbildung D.1.: Querschnitt des ATLAS Pixel-Sensors. Vor (links) und nach Typ-Inversion
(rechts).
vollständig depletiert ist, sind die einzelnen Pixel voneinander isoliert. Die Crosstalk Messung
nutzt den Ladungsträgerdrift, in dem ein Pixel in der Mitte ausgelesen wird, nachdem Ladung in
zwei benachbarte Pixel injiziert wurde. Die Veränderung des Übersprechens wird in Abhängigkeit von der Hochspannung gemessen. Sobald der Sensor komplett depletiert ist, kann kein Signal am Auslesepixel mehr empfangen werden, da die Pixel isoliert sind.
Vor Typ-Inversion nimmt in der Regel die Depletionspannung aufgrund der sinkenden Dotierungskonzentration mit der Zeit ab. Allerdings können Heilungseffekte eine Zunahme der Spannung zur Folge haben kann. Ausheilung der Defekte kann nach Unterbrechung der Kühlung
im Detekor beobachtet werden. Nach Typ-Inversion nimmt die effektive p-Dotierung des Sensors wieder zu. Daher muss die Betriebsspannung mit der Zeit erhöht werden, um die 250 m
dicken Sensoren vollständig zu depletieren. Da die maximale Spannung limitiert ist, wird die
Depletionstiefe mit zunehmender Bestrahlung des Detektors abnehmen. Durch den Rückgang
des sensitiven Volumens im Sensor wird die Effizienz des Detektors verringert.
Je geringer die Depletionstiefe im Sensor ist, desto weniger Pixel werden ansprechen, wenn ein
Teilchen den Sensor durchquert. Dieser Zusammenhang eröffnet die Möglichkeit, die Depletionstiefe mit Hilfe der Cluster-Größe und der rekonstruierten Spur des entsprechenden Teilchens
zu messen. Da die Messung Teilchenspuren verwendet, kann sie kontinuierlich während der gesamten Betriebszeit des LHC durchgeführt werden.
Dieser Vortrag erläutert die beschriebenen Messungen und stellt die erhaltenen Ergebnisse vor.
D. Detektor- und Beschleunigertechnologie
19
D-5 (B) Systematische Untersuchung verschiedener Siliziummaterialien auf Strahlenhärte für den CMS-Spurdetektor im
HL-LHC
J OACHIM E RFLE
Universität Hamburg
Die geplante Hochluminositätserweiterung des LHC (HL-LHC) stellt extreme Anforderungen
an die Strahlenhärte der Silizium-Sensoren. Durch die Erhöhung der Luminosität um Faktor 10
gegenüber dem LHC, nimmt die Schädigung des Siliziums durch die zu messenden Teilchen
deutlich zu. Dies führt dazu, dass der aktuelle Spurdetektor nur ein Betriebsjahr funktionieren
würde.
Um das beste Material für die Erneuerung des CMS-Spurdetektors auszuwählen, wurden im
Rahmen einer CMS-weiten Mess- und Bestrahlungskampagne verschiedene Teststrukturen und
Sensoren mit verschiedenen Siliziummaterialien (Magnetic Czochralski, Float-Zone und epitaktisches Silizium) produziert. Diese verschiedenen Siliziummaterialien werden mit Protonen verschiedener Energie und mit Neutronen auf Fluenzen bestrahlt, die der integrierten Luminosität
am Ende der geplanten HL-LHC Laufzeit von Lint D 3000 fb 1 an verschiedenen Positionen
innerhalb des CMS-Spurdetektors entspricht. Die so geschädigten Teststrukturen werden dann
auf verschiedene Kenngrößen untersucht. Die wichtigsten Kenngrößen sind der Leckstrom, die
Kapazität und die Ladungssammlung.
Leckstrom: Durch die Strahlenschäden wird der Leckstrom (unabhänig vom verwendeten Material) erhöht. Dieser hat zum einen den Effekt, dass das Rauschen zunimmt, zum
Anderen, dass die Leistung, die in den Spurdetektor gebracht und damit wieder gekühlt
werden muss, zunimmt.
Um den thermischen Leckstrom zu verringern kann die Betriebstemperatur gesenkt werden.
Verarmungsspannung: Die Schäden verändern zudem die für den Betrieb nötige Spannung. Aufgrund begrenzter Spannungsfestigkeit von Sensoren und anderen verwendeten
Materialien ist es vermutlich nötig unterhalb einer Betriebsspannung von 1000 V zu bleiben.
Ladungssammlung: Die wichtigste Eigenschaft der Sensoren ist die Ladungssammlung.
Die gesammelte Ladung wird durch vermehrten Ladungseinfang in geschädigtem Material
reduziert. Die Ladungssammlung sollte im Vergleich zum Rauschen groß genug sein, um
eine möglichst hohe Effizienz zu erhalten.
In diesem Vortrag wird auf die Problematiken ein Sensormateria für das HL-LHC upgrade des
CMS Spurdetektors zu finden eingegangen sowie der aktuelle Stand der Messungen von verschiedenen Materialien bei verschiedenen Fluenzen vorgestellt.
20
44. Herbstschule für Hochenergiephysik Maria Laach 2012
D-6 (C) Realisierung und Überprüfung eines technischen Prototypen eines CALICE Hadronkalorimeters
B ENJAMIN H ERMBERG
DESY
Für die nächste Generation von Teilchenbeschleunigern werden derzeit Entwürfe wie der International Linear Collider (ILC) oder der Compact Linear Collider (CLiC) entwickelt. Der ILC
wird ein e C e Linearbeschleuniger werden und dementsprechend befinden sich verschiedene
Detektorkonzepte für diesen Beschleuniger in der Entwicklung. Der International Large Detektor (ILD) ist ein solches Konzept. Ein Baustein des ILDs ist das Hadronkalorimeter. Hadronkalorimeter der nächsten Generation müssen in der Lage sein zwischen hadronischen W - und
p .
Z-Bosonzerfällen separieren zu können. Dafür bedarf es einer Energieauflösung von 30%
E
Die CALICE Kollaboration entwickelt mehrere mögliche Hadronkalorimetertechnologien, basierend auf dem Particle Flow Ansatz. Hierbei werden nur die neutralen Hadronen im Kalorimeter gemessen, während geladene Hadronen im Trackersystem des Detektors bestimmt werden.
Um dies zu realisieren zeichnen sich die Kalorimeter durch eine hohe longitudinale und transversale Segmentierung aus. Im Rahmen dieser Forschung wird ein technischer Prototyp für ein
hadronisches Stahl-Plastikszintillator Kalorimeter entwickelt. Der technische Prototyp wird um
die 600 Kanäle haben, mit dem Messungen am Teststrahl gemacht werden können. Die hohe
Granularität, die benötigt wird, um die geforderte Energieauflösung zu erhalten wird durch Segmentierung der Szintillatorlagen in quadratische Kacheln (330:3 cm3 ) erreicht. Die Messung
des Szintillatorlichts aus den einzelnen Kacheln erfolgt durch Photodetektoren auf Siliziumbasis (so genannte SiPMs), die im Geiger Modus betrieben werden. Besondere Fragestellungen
des technischen Prototypen gelten der Skalierbarkeit und Integration. Hierbei geht es um die
Umsetzbarkeit eines Detektors mit voll integrierter Eingangselektronik.
Das Konzept und der derzeitige Status des technischen Prototypen sollen hier vorgestellt werden.
D-7 (A) Charakterisierung und Optimierung von GasElektronen-Vervielfachungsfolien für den ILD Detektor am
ILC
K LAUS Z ENKER
Universität Hamburg / DESY
Der International Linear Collider (ILC) ist ein in Planung befindlicher Linearbeschleuniger,
welcher Elektronen und Positronen kollidieren soll und dabei eine Schwerpunktsenergie von
bis zu 500 GeV erreicht. Dieser Beschleuniger wird Präzisionsmessungen ermöglichen, die mit
aktuellen Experimenten nicht möglich sind. Der Grund hierfür ist der exakt bestimmte Ausgangszustand durch die Kollision von punktförmigen Elementarteilchen. Dadurch ermöglichte
Messungen sind zum Beispiel die direkte Bestimmung der Higgsmasse oder die Charakterisierung des Higgspotentials. Aber auch bekannte Messungen der Physik des Standardmodells, wie
die Bestimmung der top-Quark Masse, können mit einer höheren Präzision durchgeführt werden.
D. Detektor- und Beschleunigertechnologie
21
Um diese anspruchsvollen Ziele zu erreichen, bedarf es hoch entwickelter Detektoren an den Experimenten des ILC. Eines von zwei Detektorkonzepten für den ILC ist das International Large
Detector (ILD) Konzept. Die Spurkammer des ILD Detektors ist eine Zeit-Projektionskammer
(TPC). Eine zentrale Aufgabe der Spurkammer ist die Impulsmessung von geladenen Teilchen.
Die benötigte Impulsauflösung, die mit dieser Spurkammer erreicht werden soll, ist zehn mal
besser als sie bei Experimenten am LEP Beschleuniger, dem bisher größten Elektron-Positron
Beschleuniger, war.
Für eine Impulsmessung von geladenen Teilchen werden deren Spuren in der TPC vermessen.
Dazu ist das Volumen der TPC mit einem edelgasbasierten Gasgemisch gefüllt. Geladene Teilchen ionisieren das Gas beim Durchtritt und hinterlassen Ion-Elektron Paare. Durch ein magnetisches Feldes innerhalb der TPC bewegen sich geladene Teilchen auf Kreisbahnen. Ein
zusätzliches elektrisches Feld, welches parallel zum magnetischen Feld ist, bewirkt eine Drift
der erzeugten Ladungsträger zu den Enden der TPC. Da Elektronen eine größere Driftgeschwindigkeit besitzen, werden sie zur Signalauslese genutzt. Für eine direkte Detektion ist das Signal
jedoch zu schwach. Eine etablierte Möglichkeit der Verstärkung basiert auf einer Reihe von
Drähten mit denen lokal ein starkes elektrisches Feld erzeugt wird. Damit wird in diesen sogenannten Vieldraht-Proportional-Kammern (MWPC) durch Gasionisation eine Ladungslawine
erzeugt und letztendlich die Messung des Signals ermöglicht. Durch das radiale Feld der Drähte
entstehen jedoch unerwünschte Feldkomponenten des elektrischen Feldes, welche nicht parallel
zum eigentlichen Feld der TPC sind. Dies minimiert die Einzelpunktlösung der TPC und resultiert in einer im Vergleich mit den gesetzten Zielen nicht ausreichenden Impulsauflösung. Damit
scheidet diese etablierte Technologie der Signalverstärkung für die ILD TPC aus.
Basierend auf der Forschung mit gasbasierten Detektoren wurde in den letzten Jahren jedoch eine
weitere Möglichkeit der Gasverstärkung entwickelt – sogenannte Mikrostrukturierte Gasdetektoren (MPGD). Eine Realisierung solcher MPGDs ist der Gas-Elektron-Vervielfacher (GEM).
Er ist im Wesentlichen ein perforierter Kondensator (s. Abb. D.2), wobei die isolierende Schicht
Abbildung D.2.: Ausschnitt einer GEM-Folie. Quelle:[http://gdd.web.cern.ch/]
50 m dick ist und aus hochisolierendem Kaptonr besteht. Durch Anlegen einer Spannung an
den Elektroden entsteht in den Löchern ein sehr starkes elektrisches Feld, welches zu einer La-
22
44. Herbstschule für Hochenergiephysik Maria Laach 2012
dungslawine beim Eintritt von Elektronen führt. Ein Teil der Elektronen und Ionen, die beim Ionisationsprozess entstehen, werden auf den Elektroden wieder absorbiert. Somit besitzt ein GEM
eine intrinsische Ionenabsorption. Dies ist von Vorteil, da Ionen, die in das sensitive Volumen der
TPC zurückdriften, zu Feldverzerrungen führen und die Einzelpunktauflösung verschlechtern.
Zieht man die Länge der TPC, die Driftgeschwindigkeit der Ionen und die Paketstruktur der
Teilchenpakete im ILC in Betracht, stellt man fest, dass sich immer drei Ionenscheiben gleichzeitig in der TPC befinden. Diese erzeugen radiale Feldverzerrungen. Analytische Rechnungen
haben gezeigt, dass durch Ionen hervorgerufene Verzerrungen zu groß sind um die anvisierte
Einzelpunktauflösung und damit verknüpft die angestrebte Impulsauflösung zu erreichen.
Ziel ist es daher die fundamentalen Prozesse der Verstärkung und Ionenabsorption in dem GEM
zu verstehen und einen Aufbau zu finden bei dem so wenig Ionen wie möglich in das sensitive
Volumen der TPC gelangen. Um dieses Ziel zu erreichen, bedarf es optimaler Weise eines für
Elektronen durchlässigen und für Ionen undurchlässigen GEMs. Eine Möglichkeit der gezielten Ionenabsorption bietet eine dahingehend optimierte GEM, welche keine Verstärkung aufweisst und vor den verstärkenden GEMs postioniert ist. Ob ein solcher Aufbau erfolgreich ist
und welche Parameter des ionenabsorbierenden GEM gewählt werden müssen, wird im Rahmen
der vorgestellten Studien untersucht. Dazu werden sowohl Simulationen als auch Experimente
durchgeführt und hier vorgestellt.
D-8 (C) Das T3B Experiment: Die Zeitauflösung hadronischer
Schauer in hochgranularen Kalorimetern mit Wolfram oder
Stahl Absorber
C HRISTIAN S OLDNER
Max-Planck-Institut für Physik
Einführung
Der Compact Linear Collider (CLIC) ist ein zukünftiger e C e -Beschleuniger mit einer Kollisionsenergie von bis zu 3 TeV und einer Kollisionsrate der Teilchenbündel von 2 GHz. Damit
stellt CLIC besondere Anforderungen an ein Gesamtdetektorsystems. Zum Einen erfordert die
hohe Kollisionsrate die Einbeziehung der Zeitentwicklung hadronischer Schauer. So können im
Kalorimeter detektierte Teilchenschauer mit einem Zeitstempel versehen werden und später einer bestimmten Bündelkollision bestmöglich zugeordnet werden. So soll die Akkumulation von
Hintergrundereignissen – wie zum Beispiel aus Beamstrahlung resultierende ! Hadronen
Interaktionen – vermieden werden. Zum Anderen wird für CLIC die Verwendung von Wolfram
als Absorbermaterial favorisiert. Mit seiner hohen Dichte vermag Wolfram Teilchenschauer auf
engstem Raum zu stoppen. Dies hält den Gesamtdetektor kosteneffiezient, da die Kalorimeter
innerhalb des Magnetsystems untergebracht werden müssen und die Kosten stark mit der Größe
des Magnetsystems skalieren. Gleichzeitig wird eine zuverlässige Energiemessung hadronischer
Schauer bei selbst hohen Energien ermöglicht.
D. Detektor- und Beschleunigertechnologie
23
Abbildung D.3.: Links: Das CALICE Wolfram HCAL am Protonsynchrotron des CERN mit
dem T3B Experiment installiert hinter der letzten Lage des Kalorimeters. Rechts: Layout der 15
Szintillatorkacheln des T3B Experiments. Das radiale Schauerprofil kann vom Zentrum bis zum
Rand des Kalorimeters vermessen werden.
Das Experiment
Gegenwärtig ist die zeitaufgelöste Propagation hadronischer Schauer in Wolfram experimentell
noch nicht hinreichend erforscht. Dies ist nötig um herauszufinden mit welcher Präzision Teilchenschauer mit einem Zeitstempel versehen werden können, wie groß der verspätete Anteil der
Gesamtenergiedeposition eines Schauers ist und wie gut Monte-Carlo-Simulationen das Zeitverhalten reproduzieren können. Das Tungsten Timing TestBeam (T3B) Experiment wurde speziell
dafür entwickelt. Es besteht aus einer Kette von 15 Plastikszintillatorkacheln, deren Lichtsignal
durch kleine Photosensoren (SiPMs) detektiert und durch Oszilloskope mit einer Abtastrate von
1:25 GHz digitalisiert wird. Dieser Kachelstreifen wurde hinter zwei verschiedenen Prototypen
für Hadronkalorimeter der CALICE Kollaboration montiert, die mit einer Stahl- bzw. Wolframabsorberstruktur ausgestattet waren (Abb. D.3). Stahl ist ein oft verwendetes und getestetes
Absorbermaterial, das aufgrund seiner atomaren Zusammensetzung ein schnelleres Abklingen
hadronischer Schauer als Wolfram aufweist. Ein Vergleich zwischen Wolfram- und Stahlabsorber ist daher unabdingbar.
Das T3B Experiment hat während der CALICE Teststrahlphase 2010/2011 am PS und SPS des
CERN (Genf, Schweiz) Hadronschauer in einem Energiebereich von 2 300 GeV zeitlich vermessen. Das Design von T3B ermöglicht es die Energiedepositionen hadronschauer Teilchenschauer lateral und longitudinal mit einer Zeitauflösung 1 ns zu untersuchen. Die longitudinale Information konnte durch eine offline Synchronisation der Daten von T3B und dem CALICE
Wolframkalorimeter erreicht werden. Hierbei wird der longitudinale Startpunkt des Teilchenschauers aus den Daten des Kalorimeters und die Schauertiefe der T3B Lage relativ dazu ermittelt.
Ergebnisse
Es wurde eine umfassende Analyse der Testbeamdaten bemüht. Die Annahme einer erhöhten
Verspätung hadronischer Schauer in Wolfram relativ zu Stahl konnte verifiziert werden. Ausserdem wurde das Zeitverhalten hadronischer Schauer relativ zu den quasi instantanen Energiedepositionen von Myonen verglichen. Auch in Stahl kann so eine signifikant verspätetes Zeitverhalten nachgewiesen werden. Die für Monte-Carlo-Simulationen für LHC (Large Hadron Colli-
24
44. Herbstschule für Hochenergiephysik Maria Laach 2012
der) standardmäßig verwendete Physikliste QGSP BERT reproduziert das Zeitverhalten hadronischer Schauer nur schlecht, wohingegen die Hochpräzisionserweiterung QGSP BERT HP und
die neue Physikliste QBBC erheblich bessere Übereinstimmung mit den Daten aufzeigen.
D-9 (C) Detektorenentwicklung für das Upgrade des MyonSpektrometers von ATLAS
S TEFAN W EBER
Physikalisches Institut, Universität Würzburg
Die Arbeitsgruppe Experimentelle Teilchenphysik der Universität Würzburg arbeitet im ATLAS
Experiment des LHC am CERN (Genf, Schweiz). Für den LHC ist für die kommenden Jahre
ein Luminositäts-Upgrade vorgesehen. Die Detektoren der beteiligten Experimente müssen auf
dieses Upgrade vorbereitet werden. Unsere Arbeitsgruppe ist diesbezüglich in der Weiterentwicklung des Myon-Spektrometers von ATLAS engagiert. Meine Tätigkeiten sind in meheren
Teilaspekten dieses Engagements angesiedelt.
Ein Aspekt sind wiederholte Beteiligungen an Testbeam-Messungen am CERN zur Untersuchung neuer Gasdetektoren für das Upgrade. Aber auch dezentral sollen Studien zu diesen neuen
Detektortechnologien durchgeführt werden. Hierfür wird ein Messraum in Würzburg aufgebaut
sowie die Konzeptionierung und Realisierung eines geeigneten Messstandes für Alterungs- und
Gasstudien vorangetrieben.
Dieser Messstand wird nach bisheriger Planung aus einem Hodoskop, einer Gasmischanlage
und der entsprechenden Steuerungs- und Ausleseelektronik bestehen. Das Hodoskop soll nicht
nur als Trigger für die zu testenden Kammern dienen, sondern auch zur Spurbestimmung kosmischer Myonen sowie zur Selektion von hochenergetischer Myonen, um die Vielfachstreuung
innerhalb der Strukturen der Kammern zu minimieren. Deshalb wird das Hodoskop aus drei Ebenen segmentierter Szintillatoren aufgebaut sein, deren unterste Ebene durch Metall abgeschirmt
ist, welches energiearme Myonen absorbiert. Die Gasmischanlage ermöglicht im Vergleich zu
vorgemischten Gasen aus Flaschen eine hohe Flexibilität.
Ein weiterer Aspekt zur Weiterentwicklung des Myonspektrometers ist die Simulation des Schildes für das New Small Wheel. Das Small Wheel, beziehungsweise das für das Upgrade geplante
New Small Wheel, ist Teil des Myon-Spektrometers in Vorwärtsrichtung nahe der Strahlachse.
In diesem Bereich gibt es einen relevanten Untergrund von Teilchen, die nicht bei der Kollision
der Protonen im Kollisionspunkt entstehen, sondern durch Wechselwirkung von Protonen der
Strahlen mit der Wand des jeweiligen Strahlrohres. Um diesen Untergrund zu minimieren, ist
direkt vor dem Small Wheel ein mehrschichtiges Schild positioniert.
Für den Einbau des New Small Wheels muss auch dieses Schild neu konzipiert werden. Die
Simulation der Untergrundstrahlung und der Wechselwirkung dieser Strahlung mit dem Schild
ist dabei der erste Schritt.
E. Experimentelle Analysen
E-1 (A) Messung der W -assoziierten Produktion einzelner TopQuarks mit dem CMS-Experiment
ROBERT F ISCHER
III. Physikalisches Institut A, RWTH Aachen
Das Standardmodell der Teilchenphysik hat mehrere Teilchen bereits vor ihrer experimentellen Entdeckung vorhergesagt. Eines der zuletzt entdeckten Teilchen ist das Top-Quark, das
zunächst 1995 in Form von Top-Antitop-Quark-Paaren von den Experimenten des TevatronTeilchenbeschleunigers am Fermilab beobachtet wurde. Diese Paarproduktion findet über die
starke Wechselwirkung statt. 2009 gelang schließlich die Beobachtung einzelner Top-Quarks,
deren Produktionsmechanismus über die elektroschwache Wechselwirkung abläuft. Insgesamt
erlaubt das Standardmodell drei Kanäle aus denen einzelne Top-Quarks hervorgehen: den tKanal, den s-Kanal und die W -assoziierte Produktion, bei der zusammen mit dem Top-Quark
ein reales W -Boson entsteht.
In diesem Vortrag wird eine Messung des Produktionswirkungsquerschnitts einzelner Top-Quarks
in der W -assozierten Produktion,
auch tW -Kanal genannt, mit dem CMS-Experiment bei einer
p
Schwerpunktsenergie von s D 7 TeV vorgestellt. Das assoziierte W -Boson zerfällt bei diesem
Vorgang weiter in Quark-Antiquark- oder Lepton-Antilepton-Paare. Das Top-Quark zerfällt nahezu immer in ein Bottom-Quark und ein weiteres W -Boson, das schließlich wieder in Quarkbzw. Lepton-Paare zerfällt. Für die vorgestellte Messung des Wirkungsquerschnitts werden Ereignisse mit Jets, die aus den Quark-Paaren entstehen, und Leptonen ausgewählt. Eines der beiden W -Bosonen zerfällt bei diesen Ereignissen also in Leptonen, während das andere hadronisch
in Quarks zerfällt, weshalb man auch vom semi-leptonischen Kanal spricht. Die Datenanalyse
erfolgt nach der Vorselektion in mehreren Schritten: der Ereigniskategorisierung, der Trennung
von Signal und Untergrund sowie einer anschließenden statistischen Auswertung mittels eines
Bayesschen Verfahrens.
Die selektierten Ereignisse werden, basierend auf der Anzahl der enthaltenen Jets und b-Jets,
in Kategorien eingeteilt. Dabei sind b-Jets diejenigen Jets, die mit Hilfe eines sogenannten bTagging-Algorithmus als von einem Bottom-Quark stammend identifiziert wurden. Derartige
Algorithmen nutzen für die Identifizierung spezielle Eigenschaften von Bottom-Mesonen aus,
etwa die hohe Masse und die lange Lebensdauer.
Die beiden Hauptuntergründe in der Messung sind die Top-Quark-Paarproduktion sowie Ereignisse, bei denen W -Bosonen zusammen mit weiteren Jets entstehen. Um das tW -Signal von
den Untergründen trennen zu können, kommt ein multivariates Klassifikationsverfahren, die sogenannte Boosted-Decision-Trees-Methode (BDT-Methode), zum Einsatz. In diesem Verfahren
werden simulierte Signal- und Untergrundereignisse in einem Trainingsschritt verwendet, um
mehrere hundert Entscheidungsbäume zu generieren. Diese lernen anhand ausgesuchter Varia-
26
44. Herbstschule für Hochenergiephysik Maria Laach 2012
blen Signal und Untergrund voneinander zu separieren. Für die eigentliche Analyse wird eine
über alle Entscheidungsbäume gemittelte Ausgabevariable verwendet, der sogenannten BDTOutput. Dieser wird für alle, in die einzelnen Kategorien vorselektierten, Datenereignisse bestimmt und als Histogramm aufgetragen. Die so erhaltenen diskreten Verteilungen sind Gegenstand der folgenden statistischen Auswertung.
In dieser Auswertung wird zunächst ein Modell erzeugt, das aus Templates zusammengesetzt ist.
Jedes Template ist eine aus simulierten Ereignissen bestimmte Vorhersage, wie viele Ereignissen aus einem bestimmten physikalischen Prozess, an einem bestimmten Punkt der Verteilung
beobachtet werden. Das Modell ergibt sich nun als Linearkombination aller Templates. Die zu
den Templates gehörenden Koeffizienten hängen von diversen Modellparametern ab. Einer diese
Parameter ist die gesuchte Signalstärke, die sich in den Produktionswirkungsquerschnitt umrechnen lässt. Weitere Parameter beschreiben, z. B. die einzelnen Untergrundanteile.
Ziel der statistischen Auswertung ist es, den wahrscheinlichsten Wert aller Modellparameter
und dazugehörige Unsicherheiten zu finden. Für alle Parameter werden A-priori-Wahrscheinlichkeitsfunktionen eingebracht und anschließend über alle Parameter außer der Signalstärke integriert. Hieraus ergibt sich eine A-posteriori-Wahrscheinlichkeitsverteilung für die Signalstärke.
E-2 (B) Suche nach dem Higgs-Boson in Ereignissen mit zwei
hadronisch zerfallenden Tau-Leptonen bei CMS
BASTIAN K ARGOLL
III. Physikalisches Institut B, RWTH Aachen
Das CMS-Experiment ist einer der beiden Vielzweck-Teilchendetektoren am Beschleuniger LHC
(Large Hadron Collider) bei Genf (Schweiz). In seinem Zentrum kollidieren Protonen mit Schwerpunktsenergien von momentan 8 TeV, die vom LHC bereitgestellt werden. Hauptaufgabe dieses
Hadronbeschleunigers ist die Suche nach neuen Phänomenen in diesem zuvor nicht zugänglichen Bereich. Dazu gehört das letzte, bisher nicht nachgewiesene Teilchen des Standardmodells
der Teilchenphysik, das Higgs-Boson.
Die Existenz eines Higgs-Bosons ist ein notwendiger Baustein für die Konsistenz des Standardmodells. In vorherigen Beschleunigerexperimenten konnte die Existenz dieses Teilchens nicht
nachgewiesen werden. Jedoch dienen ihre Ergebnisse dazu, die Higgs-Masse, ein freier Parameter im Standardmodell, vorherzusagen und einzuschränken. In Kombination mit den ersten
Ergebnissen von ATLAS und CMS kann die Masse des Higgs-Bosons momentan auf einen Bereich zwischen etwa 115 und 130 GeV eingeschränkt werden. Eine endgültige Entdeckung –
oder der Nachweis der Nichtexistenz – des Higgs-Bosons wird mit den im Jahr 2012 am LHC
aufgenommenen Daten erwartet.
Das Higgs-Boson des Standardmodells zerfällt, abhängig von seiner Masse, in verschiedene Endzustände. Bei einer Masse im oben genannten Bereich ist der Zerfall in zwei Tau-Leptonen mit
einem Verzweigungsverhältnis von etwa 7% von großem Interesse für die experimentelle Suche.
Das Tau-Lepton, als schwerstes Lepton des Standardmodells, zerfällt als einziges nicht nur leptonisch, sondern auch in Hadronen, insbesondere in Pionen und Kaonen. Bei der Suche nach dem
Higgs in Ereignissen mit zwei Tau-Leptonen müssen daher verschiedene Endzustände berücksichtigt werden. Bislang veröffentlichte die CMS-Kollaboration eine entsprechende Analyse mit
E. Experimentelle Analysen
27
drei betrachteten Endzuständen: H ! ! eh , H ! ! h sowie H ! ! e.
Dabei bezeichnet h ein hadronisch zerfallendes Tau-Lepton. Die im Detektor nicht nachweisbaren, jedoch bei Tau-Zerfällen immer auftretenden Neutrinos werden bei dieser Notation vernachlässigt.
Da Tau-Leptonen mit 65% Wahrscheinlichkeit hadronisch zerfallen, ist die Zerfallskaskade H !
! h h von großer statistischer Bedeutung. Problematisch ist jedoch die Signatur dieses Prozesses im Detektor: Da an Hadronen-Collidern wie dem LHC eine Vielzahl von hadronischen
Jets auftreten, die hadronischen Tau-Zerfällen sehr ähnlich sehen, ist die Abtrennung dieser Prozesse experimentell sehr schwierig.
Bei CMS werden hadronisch zerfallende Taus mit dem HPS-Verfahren (Hadron Plus Strips)
identifiziert. Dies erfordert eine exakte Rekonstruktion der einzelnen Bestandteile des Tau-Zerfalls, also der geladenen und neutralen Mesonen. Der damit verbundene große Rechenaufwand
kann vom Trigger des CMS-Detektors nicht geleistet werden. Aufgabe dieses zweistufigen Triggersystems ist es, uninteressante Ereignisse sofort zu verwerfen, noch bevor sie abgespeichert
werden. Nur mit Hilfe dieser Vorauswahl kann die Informationsmenge, die bei Kollisionsraten von 20 MHz aufgezeichnet wird, auf ein verwertbares Maß reduziert werden. Da das Triggersystem eine Entscheidung in kurzer Zeit treffen muss, sind komplizierte Algorithmen wie
HPS nicht ausführbar, eine Abtrennung von Tau-Leptonen zu Quark- oder Gluon-Jets ist daher
schwierig.
Der erste Teil der vorgestellten Studien über Trigger für Ereignisse mit zwei Tau-Leptonen untersucht Möglichkeiten, die Firmware des Hardware-basierten Level-1-Triggers anzupassen. Eine
Neuerung in der Firmware erlaubt es seit diesem Jahr, den Winkel zwischen zwei Objekten in
die Level-1-Triggerentscheidung einfließen zu lassen. Tau-Leptonen aus Higgs-Zerfällen werden
mit großen Winkeln zueinander erzeugt, während Quark- und Gluon-Jets unter beliebigen Winkeln auftreten können. Es zeigt sich jedoch, dass die Forderung nach hohen Transversalenergien
der beiden Objekte zumeist mit einem großen Winkel zwischen ihnen einhergeht, so dass durch
eine zusätzliche Winkelanforderung kein signifikanter Gewinn erzielt werden kann.
Die zweite Stufe des CMS-Triggersystems ist der High Level Trigger (HLT). Hier sind prinzipiell alle Detektorinformationen verfügbar, jedoch ist die verfügbare Rechenzeit begrenzt. TauLeptonen werden mit vereinfachten Methoden identifiziert. Aufgrund der gestiegenen Luminosität und Schwerpunktsenergie des LHC im Jahr 2012 war es nicht möglich, den Doppel-TauTrigger aus dem Jahr 2011 identisch zu übernehmen. Durch die Einführung zusätzlicher Anforderungen an die Tau-Kandidaten, etwa an die Zahl assoziierter geladener Hadronen, konnte
erreicht werden, den Trigger sogar mit geringeren Energie-Schwellenwerten von ET > 35 GeV
weiterzuführen. Im so genannten Data Parking Stream werden die Daten dieses Triggers aufgezeichnet, jedoch nicht direkt analysiert. Sie werden abgespeichert und sollen im Verlauf des
Jahres 2013, während des geplanten Stillstandes des LHCs, untersucht werden.
Die experimentellen Daten, die vom CMS-Experiment nach Vorauswahl durch das Triggersystem aufgezeichnet wurden, werden genutzt, um nach dem Higgs-Zerfall in zwei Tau-Leptonen
zu suchen. Zunächst werden Ereignisse selektiert, bei denen das Higgs-Boson in Assoziation
mit einem hochenergetischen Jet entstanden ist. Eine derartige Signatur ist leichter vom QCDdominierten Untergrund abzutrennen. Der Einfluss des verwendeten Triggers auf die Ergebnisse
einer derartigen Analyse wird untersucht und beurteilt.
28
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-3 (C) Suche nach Unparticles in Z C E
6 T Zerfallskanal mit
dem CMS Detector
K LAAS PADEKEN
III. Physikalisches Institut A, RWTH Aachen
Es gibt viele Erweiterungen des Standardmodells, die ein Hidden Valley bei hohen Energien vorhersagen. Ein Beispiel hierfür ist das von H. Georgi im Jahr 2007 [1, 2] vorgeschlagene Modell
des Unparticles. Die Idee hinter diesem Modell ist ein skaleninvarianter (conformaler) Sektor,
in dem bei hohen Energien ein skaleninvariantes Feld mit dem Standardmodell wechselwirkt.
Konsequenzen einer solchen Skaleninvarianz wären entweder masselose Teilchen oder Teilchen,
die eine kontinuierliche Massenverteilung haben. Da diese keine Teilchen im klassischen Sinne
sind, wurde der Name Unparticle(s) geprägt.
Eine der bestechenden Eigenschaften des Unparticle Modells ist, dass nicht wie bei vielen anderen Erweiterungen des Standardmodells eine Vielzahl neuer Teilchen vorhergesagt wird. Statt
dessen wird nur ein einziges Teilchen postuliert, dessen Eigenschaften zum größten Teil aus
der Annahme der Skaleninvarianz hergeleitet werden können. Die Wechselwirkung zwischen
diesem “Unparticle Stuff” und dem Standardmodell bei den am LHC zugänglichen Energien
kann durch eine effektive Theorie beschrieben werden. Die wichtigsten Parameter dieser effektiven Beschreibung sind die Dimension der Skaleninvarianz dU und die Energieskala U der
effektiven Wechselwirkung. Da die Forderung nach Skaleninvarianz keine Einschränkung an die
Spin-Konfiguration eines solchen Teilchens macht, sind bosonische und fermionische Unparticles denkbar.
Ein am LHC bei 7 TeV Schwerpunktsenergie erzeugtes Unparticle wäre aus Sicht des Detektors
sowohl stabil, als auch neutral und würde somit undetektiert bleiben. Einer der goldenen Kanäle
um fehlende transversale Energie im Detektor nachzuweisen ist Z C E
6 T.
Diese Analyse konzentriert sich auf die Suche nach einem skalaren Unparticle, welches zusammen mit einem Z-Boson erzeugt wird. Dabei konzentriert sich die Untersuchung auf den myonischen Zerfallskanal des Z-Bosons. Um ein klares Signal im Detektor zu erhalten und dieses
von möglichen Untergrundereignissen abgrenzen zu können, werden Ereignisse mit zwei gut rekonstruierten Myonen selektiert, die eine invariante Masse in der Nähe der Z-Boson Resonanz
haben. Die E
6 T wird als Diskriminator verwendet, damit das Signal von dem Z-Boson unterschieden werden kann. Der größte verbleibende Untergrund ist t tN, welches sich durch zusätzliche Jets und andere Kinematik vom Signal abhebt. Durch Schnitte auf diese Variablen kann das
Verhältnis zwischen Signal und Untergrund entschieden angehoben werden.
Durch den Vergleich der Daten mit dem vorhergesagten Modell ist es möglich eine Aussage über
die Signalparameter zu treffen.
[1] H. Georgi, “Unparticle physics,” Phys. Rev. Lett. 98 (2007) 221601 [hep-ph/0703260].
[2] A. Delgado and M. J. Strassler, Phys. Rev. D 81 (2010) 056003 [arXiv:0912.2348 [hepph]].
E. Experimentelle Analysen
29
E-4 (A) Einschränkungen der Eigenschaften einer 4. Fermionenfamilie durch Flavourphysik, elektroschwache Präzisionsmessungen und aktuelle Ergebnisse der Higgs-Suche
A NDREAS M ENZEL
Humboldt-Universität zu Berlin
Bislang enthält das Standardmodell (SM) der Elementarteilchen 12 Arten von Fermionen, die in
drei sogenannte Familien oder Generationen unterteilt sind. Jede davon enthält je ein up-artiges
Quark, ein down-artiges Quark, ein geladenes Lepton und ein Neutrino und die Generationen
unterscheiden sich untereinander nur durch die Massen ihrer Mitglieder. Schon seit längerer Zeit
wird immer wieder mit verschiedener Motivation die Möglichkeit der Existenz einer 4. Generation in Erwägung gezogen, die dazu beitragen könnte, offene Probleme in der Elementarteilchenphysik zu lösen – beispielsweise diverse Unstimmigkeiten in der Flavourphysik und das
Problem, dass im SM3 die CP -Verletzung nicht ausreicht, um die Baryogenese zu erklären. Da
keine neuen Konzepte nötig sind, ist diese in der Literatur oft SM4 oder 4SM genannte Erweiterung des Standardmodells sehr einfach und daher attraktiv. In den vergangenen 15 Jahren wurde
zwar immer wieder behauptet, das SM4 sei durch experimentelle Daten widerlegt. Die entsprechenden Untersuchungen gehen jedoch von Annahmen aus, die sich bei genauerer Untersuchung
als fragwürdig erweisen:
Die am LEP gemessene unsichtbare Zerfallsbreite des Z-Bosons legt die Zahl derjenigen
Neutrino-Flavours auf drei fest, die leicht genug sind, dass das Z-Boson in ein solches
-Paar
N
zerfallen kann. Schwerere Neutrinos wären von dieser Messung nicht betroffen.
Im PDG stand in den vergangenen Jahren immer wieder in verschiedenen Formulierungen
zu lesen, eine 4. Generation Quarks sei aufgrund der elektroschwachen Präzisionsmessungen ausgeschlossen. Den Aussagen liegen jedoch folgende Annahmen zugrunde, die nicht
ungeprüft als richtig angenommen werden dürfen: Erstens seien die Quarks der 4. Familie
miteinander massenentartet und mischten zweitens nicht mit den SM3-Quarks und drittens
seien die Massen aller Teilchen der 4. Fermionfamilie sehr viel größer als die Masse des
Z-Bosons.
Direkte Suchen gehen meist davon aus, dass die Quarks der 4. Familie zu 100% in b- bzw.
t -Quarks zerfallen.
Da die Existenz einer 4. Familie derzeit auch durch aktuelle Ergebnisse von LHC und Tevatron
strengenommen nicht ausgeschlossen werden kann, wird im Rahmen dieses Projekts an einem
globalen Fit des SM4 gearbeitet, der dessen Parameter einschränken soll. Folgende Größen sollen berücksichtigt werden und sind zum großen Teil bereits implementiert:
Bestimmung der Fermi-Konstante GF . Im SM4 ist hierbei ein kombinierter Fit erforderlich, der zu einer erheblich größeren Unsicherheit führt als die Extraktion aus dem MyonZerfall im SM3
Loop-Observablen der Flavour-Physik (z. B. Mesonoszillationen)
Elektroschwache Präzisionsobservable
30
44. Herbstschule für Hochenergiephysik Maria Laach 2012
Direkte Suchen
Single-Top-Analysen
Higgs-Suchen am LHC
Durch die gewonnenen Einschränkungen auf Eigenschaften wie Mischung mit anderen Fermionen und Teilchenmassen der 4. Familie streben wir an, definivere Aussagen über die Existenz
der 4. Familie und Nachweismöglichkeiten abgeben zu können. Aufgrund der Unitaritätsgrenze der Störungstheorie ist zu erwarten, dass die Experimente am LHC ein endgültiges Urteil
ermöglichen.
E-5 (B) Die Matrixelement-Methode in nächst-führender Ordnung und Single-Top-Produktion in ATLAS
PATRICK R IECK
Humboldt-Universität zu Berlin
Der Large Hadron Collider (LHC) am CERN (Genf, Schweiz) ist heute und auf absehbare Zeit
der Teilchenbeschleuniger höchster Energie. Zur Zeit werden dort Protonen bei einer Schwerpunktsenergie von 7 TeV zur Kollision gebracht. Auch seine Luminosität ist deutlich höher als
bei vergleichbaren Vorgängern. Er ermöglicht damit einzigartige Messungen, wie sie unter anderem beim Universalexperiment ATLAS durchgeführt werden.
Eines der interessanten Phänomene ist das Top-Quark, welches am LHC in großer Anzahl produziert wird. Neben der Top-Paarproduktion findet auch die elektroschwache Produktion einzelner
Top-Quarks statt. Hierzu tragen wiederum verschiedene Kanäle bei, die man einzeln untersuchen
möchte. Bei diesen Messungen kommen verschiedene Analysemethoden zum Einsatz. Eine in
der Vergangenheit sehr erfolgreiche Methode zur Extraktion von Single-Top-Signalen sowie zur
Messung von Parametern ist die Matrixelement-Methode.
Bei der Matrixelement-Methode wird für ein gemessenes Ereignis ein Wahrscheinlichkeitsmaß
für eine bestimmte Hypothese definiert, die auf dem differentiellen Wirkungsquerschnitt für diesen Prozess basiert. Im Prinzip können alle gemessenen Objekte einbezogen werden. Es liegt
keine Beschränkung auf bestimmte kinematische Größen vor, sodass die vorhandene Information optimal genutzt wird. Das resultierende Wahrscheinlichkeitsmaß kann verwendet werden,
um ein bestimmtes Signal aus einem Datensatz zu extrahieren. Außerdem können Parameter
der Matrixelemente wie z. B. Massen oder Kopplungskonstanten variiert werden. Durch einen
statistischen Test der Verteilung der Wahrscheinlichkeitsmaße wird eine Messung der entsprechenden Parameter möglich.
Es muss als Nachteil der Matrixelement-Methode in ihrer bisherigen Form gewertet werden,
dass genau genommen nur solche Ereignisse korrekt ausgewertet werden können, bei denen der
gemessene Endzustand mit dem vorausgesetzten Endzustand führender Ordnung übereinstimmt.
Dies wird immer eine Näherung sein, und die Frage nach der Gültigkeit dieser Näherung ist
dementsprechend zu stellen. Eine Verbesserung der Methode wäre zu erwarten, wenn es gelingt
sie auf die nächst-führende Ordnung der Störungstheorie zu erweitern. Bisher ist es im Allgemeinen nicht bekannt wie eine solche Erweiterung durchzuführen ist. Das Problem hierbei besteht
E. Experimentelle Analysen
31
darin, dass jenseits der führenden Ordnung sowohl virtuelle als auch reelle Korrekturen auftreten.
Diese Korrekturen sind jeweils divergent. Erst die Summe der beiden ergibt eine endliche (und
messbare) Korrektur. Die Phasenräume der Endzustände sind für virtuelle und reelle Korrekturen entsprechend unterschiedlich. Aus diesem Grund ist die Erweiterung der MatrixelementMethode ein nicht-triviales Problem.
Im Rahmen des Vortrags wird diskutiert werden, welche Ansätze zur Lösung dieses Problems
existieren und wie eine allgemeine Umsetzung der Matrixelement-Methode in nächst-führender
Ordnung realisiert werden könnte. Abschließend werden mögliche Anwendungen für SingleTop-Messungen bei ATLAS diskutiert.
E-6 (C) Suche nach dem Standardmodel Higgsboson im Zerfallskanal H ! ! had`3 in ATLAS
J ESSICA L IEBAL
Physikalisches Institut, Universität Bonn
Im Jahr 2010 wurde der Large Hadron Collider (LHC) am CERN in der Nähe von Genf (Schweiz)
in Betrieb genommen. Der LHC ist ein Ringbeschleuniger, in welchem zur Zeit Protonen mit
einer Schwerpunktsenergie von 8 TeV zur Kollision gebracht werden. Von diesem internationalen Projekt werden signifikante Beiträge zur Grundlagenforschung der Physik erwartet. Eines
der vier Experimente am LHC ist der ATLAS-Detektor. Er hat die Aufgabe, die Proton-Proton
Kollisionen im LHC umfassend zu vermessen und auszuwerten. Seit der Inbetriebnahme
des
R
ATLAS-Detektors im November 2009 wurde bereits eine Datenmenge von L D 5; 3 fb 1
aufgenommen. Bis zum Ende des Jahres 2012 wird mit einer Vervierfachung der bisherigen Datenmenge gerechnet.
Eine wichtige Aufgabenstellung des LHCs ist die Verifizierung des Standardmodels (SM) der
Teilchenphysik und damit verbunden die Suche nach dem Higgsboson, welches das einzige
noch nicht nachgewiesene Elementarteilchen des SM ist. Das Higgsboson resultiert aus dem
sogennanten Higgsmechanismus. Dieser Mechanismus erklärt im SM die spontane Symmetriebrechung der schwachen Wechselwirkung und damit, warum die Eichbosonen, das Z und
die W ˙ -Bosonen, der schwachen Wechselwirkung eine Masse besitzen. Im SM verlangt der
Higgsmechanismus die Existenz eines skalaren, elektrisch neutralen Teilchens, des Higgsbosons. Messungen an anderen Experimenten konnten bisher ein vergleichsweise schweres Higgsboson (mH > 150 GeV) ausschließen. So konzentriert sich die Suche in ATLAS auf ein leichtes
Higgsboson im Massenbereich 115 140 GeV.
Der dominante Prozess zur Erzeugung des Higgsboson am LHC ist die Gluon-Fusion (gg !
H ). In ihr fusionieren zwei Gluonen aus den kollidierenden Protonen zu einem Higgsboson.
Problematisch für diesen Prozess ist, dass dieser für ein leichtes Higgsboson von einem großen
Untergrund begleitet wird. Ein anderer Produktionsprozess ist die Vektor-Boson-Fusion VBF
(qq ! H qq), welche den Vorteil einer klaren Signatur bietet. In diesem Prozess wechselwirken
im Anfangszustand zwei Quarks schwach miteinander, wodurch zwei Bosonen (W ˙ oder Z 0 )
erzeugt werden. Diese fusionieren zu einem Higgsboson. Die klare Signatur äußert sich durch
die beiden Quarks im Endzustand, welche hadronisieren, so dass zwei Jets im Detektor zu beobachten sind. Der theoretisch berechnete Produktionswirkungsquerschnitt für Higgsmassen um
32
44. Herbstschule für Hochenergiephysik Maria Laach 2012
100 GeV ist etwa drei Ordnung über dem Wirkungsquerschnitt des W -Bosons. Dieser kleine
Produktionswirkungsquerschnitt erklärt, warum bis heute kein Higgsboson nachgewiesen werden konnte. Allerdings wird die bis Ende 2012 am LHC gesammelte Datenmenge ausreichen,
um die Existenz eines Higgsbosons endgültig zu verifizieren oder aber zu widerlegen.
Um das Higgsboson nachweisen zu können, werden verschiedene Zerfallskanäle des Higgsbosons untersucht. Zu einem der interessantesten Kanäle, welche noch nicht durch vorangegangene
Studien ausgeschlossen wurden, gehört u. a. der Zerfall in zwei tau Leptonen (H ! ). Dieser ist für Higgsmassen zwischen 115 140 GeV neben H ! b bN und H ! von hoher
Relevanz. Im Zerfallsprozess H ! unterscheidet man drei Endzustände: Beide -Leptonen
zerfallen jeweils in ein leichteres, geladenes Lepton `, wobei ` für ein Elekron oder Muon steht
(H ! ! ``4), oder beide zerfallen hadronisch (H ! ! had had 2). Eine dritte Möglichkeit ergibt sich, wenn ein -Lepton hadronisch zerfällt, während das Zweite in ein
leichteres, geladenes Lepton zerfällt (H ! ! had `3).
Im Fokus dieses Vortrags steht der Kanal H ! ! had `3. Es wird die aktuelle Analyse dieses Kanals erläutert. Des Weiteren werden datenbasierte Methoden zur Abschätzung des
Untergrunds präsentiert. Durch die Verwendung von derartigen Methoden kann die Abhängigkeit der Ergebnisse von Monte-Carlo-Simulationen reduziert werden. Im Weiteren werden die
Ergebnisse der Studie der Datenmenge aus 2011 sowie einem Teil der Daten aus 2012 diskutiert.
E-7 (C) Suche nach Supersymmetrie in Endzuständen mit zwei
Tau Leptonen, Jets und fehlender Transversalenergie mit dem
ATLAS Detektor.
S TEFFEN S CHAEPE
Physikalisches Institut, Universität Bonn
Unter dem Begriff Supersymmetrie“ (SUSY) versteht man eine Erweiterung des bekannten
”
Standardmodell (SM) der Teilchenphysik, in der jedem SM Teilchen ein Partner zur Seite gestellt
wird. Dabei unterscheiden sich SUSY und SM Teilchen a priori nur durch ihren Spin. Da jedoch
noch keine gleich schweren Partnerteilchen gefunden wurden, muss SUSY gebrochen sein. Hier
existieren viele unterschiedliche theoretische Ansätze, die diese Brechung erklären und zu sehr
unterschiedlichen Voraussagen führen.
Einer dieser Mechanismen basiert auf der Vermittlung der Brechung zu den SM Teilchen mittels der bekannten Wechselwirkungen des Standardmodells. Er wird daher als Gauge Mediated
”
Symmetry Breaking“ (GMSB) bezeichnet. Allen GMSB Modellen ist gemeinsam, dass sie ein
leichtes, stabiles und nur gravitativ wechselwirkendes Teilchen, das Gravitino, vorhersagen. Daher wird in diesen Modellen die Phänomenologie durch das zweit leichteste Teilchen (Next-toLightest SUSY Particle, NLSP) bestimmt.
Für weite Parameterbereiche des Mechanismus ist das Stau, der SUSY-Partner des Tau Leptons
das NLSP. Hat das Stau eine kurze Lebensdauer, so dass es im Detektor zerfällt, treten in jedem
Ereignis mindestens zwei, häufig sogar vier Tau Leptonen im Endzustand auf. Außerdem ergibt
sich durch die entkommenden Gravitinos ein Ungleichgewicht in der Summe der Energie, die
im Kalorimeter gemessen wird (fehlende Transversalenergie). Da die Wirkungsquerschnitte für
die Produktion von SUSY Teilchen über die Starke Wechselwirkung am LHC dominieren ist
E. Experimentelle Analysen
33
außerdem eine zusätzliche Produktion von Quarks und Gluonen zu erwarten, die im Detektor als
Jets detektiert werden.
Dieser Endzustand wird vor allem dadurch interessant, dass es nur sehr wenig irreduziblen Untergrund durch Standardmodell Prozesse gibt. Einzig in Top-Antitop Zerfällen kann diese Signatur auftreten. Daneben spielen aber auch W und Z Ereignisse eine Rolle, bei denen die Signatur
durch Fehler in der Rekonstruktion der Teilchen auftritt. Daher bietet dieser Suchkanal eine weite
Aussicht auf die Physik jenseits des Standardmodells, insbesondere für GMSB SUSY Modelle.
Neben einer allgemeinen Motivation und einem Überblick über die theoretischen Grundlagen
wird die ATLAS Suche in diesem Endzustand im vollen 7 GeV Datensatz von 2011 vorgestellt.
Hierbei spielen insbesondere Techniken, mit denen sich erwartete SM Untergründe mit Hilfe
von Daten abschätzen lassen, eine Rolle. Die Anzahl der beobachteten Ereignisse wird in Form
eine Ausschlussgrenze für Parameter im Rahmen von GMSB interpretiert. Außerdem wird ein
erster Ausblick auf die Analyse und Interpretation des 8 TeV Datensatzes in diesem Suchkanal
gegeben.
E-8 (B) Suche nach Supersymmetrie mit Tau-Leptonen und einem Elektron am ATLAS-Experiment
M ARTIN S CHULTENS
Physikalisches Institut, Universität Bonn
Zu einer der wichtigsten Aufgaben im Physikprogramm des ATLAS-Experiments am Large Hadron Collider (LHC), zählt die Suche nach supersymmetrischen Erweiterungen des Standardmodells der Teilchenphysik (SUSY). Dabei können Tau-Leptonen eine wichtige Signatur darstellen.
Die Rekonstruktion von Ereignissen, an denen Tau-Leptonen beteiligt sind, ist jedoch aufgrund
des Tau-Zerfalls keine leicht zu bewältigende Aufgabe. Rein hadronische Endzustände sind dabei, hinsichtlich der großen Untergrundbeiträge, komplizierter zu analysieren als Endzustände,
in denen ein Tau in ein leichteres Lepton (in diesem Fall ein Elektron) zerfällt.
Die Betrachtung solcher Ereignisse, bietet die Möglichkeit für gute Untergrundunterdrückung
und zeichnet sich durch ein großes Entdeckungspotenzial für Tau-reiche SUSY-Szenarien aus.
In dieser Präsentation werden die Analysetechniken und Ergebnisse der Suche nach Endzuständen
mit Tau-Leptonen und einem Elektron vorgestellt. Die Abschätzung der Hintergrundereignisse
aus dem Standardmodell spielt dabei eine wichtige Rolle.
Für die Abschätzung der QCD-Hintergrundereignisse muss dabei auf eine datengetriebene Technik zurückgegriffen werden. Mithilfe der sogenannten Matrix-Methode kann der Anteil der
QCD-Ereignisse aus den Daten abgeschätzt werden.
Für die Anteile von Top- und W -Ereignissen müssen Skalierungsfaktoren errechnet werden um
eine falsche Modellierung in den Monte-Carlos auszugleichen. Diese werden aus den Verhältnissen von Daten zu Monte-Carlo in drei definierten Kontrollregionen für Top und W -Ereignisse
errechnet. Diese Skalierungen können dann in der Signalregion für die korrekte Abschätzung der
Hintergrundereignisse benutzt werden, um die Ergebnisse der Suche nach einem Elektron-TauEndzustand in einem GMSB-SUSY-Modell korrekt zu interpretieren.
34
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-9 (C) Trackjets in ATLAS
I NGO B URMEISTER
Institut für experimentelle Physik IV, TU Dortmund
Der ATLAS-Detektor besteht aus verschiedenen Teilen, die jeweils verschiedene Aufgaben erfüllen.
So lässt sich der Detektor grob in vier Teile unterteilen. Der Innere Detektor besteht aus verschiedenen Komponenten, die dazu dienen die Spuren geladener Teilchen nachzuweisen. Damit lassen
sich primär und sekundär Vertices bestimmen, sowie der Impuls der einzelnen Teilchen und ihre
Zugehörigkeit zu den Vertices. Das elektromagnetische Kalorimeter dient dem Nachweis von
Elektronen und Photonen, die im Detektor einen charakteristischen Schauer hinterlassen. Auch
geladene Hadronen hinterlassen dort ihre Spuren, schauern aber meist erst im hadronischen Kalorimeter auf wo ihre gesammte Energie gemessen wird. Der äußerste Teil des Detektors sind
die Myonen-Kammern, zum Nachweis von Myonen.
Die Rekonstruktion von Calorimeter-Jets (Calojets) erfolgt anhand der Kalorimeterinformationen. Diese werden mit verschiedenen Clustering-Algorithmen zu Jets kombiniert. Der aktuell
favorisierte Algorithmus ist Anti-k t , da er verschiene Vorteile hat. Unteranderem ist er kollinear
und infrarot stabil und bildet kegelförmige Jets. Der Abstand dij zwischen zwei Objekten wird
dabei definiert als
2ij
;
dij D min k t i2 ; k tj2
R2
mit dem transversalen Impuls k t , dem Abstandsquadrat 2ij D .yi yj /2 C .i j /2 in der
Rapiditäts-Phi-Ebene und dem Abstandsparameter R des Algorithmus. Dieser Abstandsparameter wird meist zu R D 0; 4 (oder R D 0; 6) gewählt. Der Anti-k t -Algorithmus clustert so lange
Objekte i zu einem Jet, bis der Abstand dij größer wird als diB mit
diB D k t i2 :
Die Messungenauigkeit der Kalorimeter und die Unsicherheiten, die durch den Anti-k t -Algorithmus
entstehen führen zu einer systematischen Unsicherheit auf die rekonstruierte Energie eines Jets.
Diese Systematik wird als Jet-Energy-Scale (JES) bezeichnet und stellt in vielen Analysen eine der größten Unsicherheiten dar. Trackjets werden, anders als Calojets, anhand der Spuren
im inneren Detektor ohne Kalorimeterinformationen rekonstruiert. Dabei werden die selben
Clustering-Algorithmen benutzt, wie für Calojets. Somit sind sie weitestgehend unabhängig von
den Unsicherheiten der JES.
Um diesen Vorteil ausnutzen zu können, werden Trackjets systematisch auf ihre Eigenschaften
untersucht. Dabei sind der Einfluss von Pileup und benachbarter Jets von besonderer Bedeutung. Um sie für weitere Analysen zu validieren, werden insbesondere die Unterschiede und die
Performance der Trackjets im Vergleich zu Calojets bestimmt.
In diesem Vortrag wird ein Status zu diesen Studien gezeigt und exemplarisch für die Zerfallslängenmethode dargestellt, wie Trackjets für die Bestimmung der Top-Masse verwendet
werden können.
E. Experimentelle Analysen
35
E-10 (A) Messung des CKM-Winkels im Zerfall Bs0 !
Ds˙K mit dem LHCb-Experiment
M AXIMILIAN S CHLUPP
TU Dortmund
Das LHCb-Experiment ist eines der großen vier Experimente am Large Hadron Collider (LHC).
Während das ATLAS- und CMS-Experiment verschiedenste Bereiche der Teilchenphysik untersuchen können, ist ein großer Teil des Forschungsprogramms des LHCb-Experiments darauf
ausgelegt Präzisionsmessungen im b-Quark Sektor durchzuführen. Dabei liegt ein Hauptaugenmerk auf der genauen Bestimmung von Parametern des Standardmodells (SM), da viele weiterführende Theorien Abweichungen in einigen Observablen vorhersagen.
Spezielles Interesse gilt dabei den Parametern der CP -Verletzung, welche im SM nicht ausreichend beschrieben ist. Zum Beispiel ist die Frage noch offen, ob die 3 3 Cabibbo-KobayashiMaskawa (CKM)-Matrix tatsächlich unitär ist, wie es das SM voraussetzt oder eventuell durch
Beiträge von Neuer Physik“ nur fast unitär. Postuliert man Unitarität, lassen sich geschlossene
”
Dreiecke definieren, deren Winkel und Seitenlängen man messen kann.
Das am häufigsten genannte Dreieck entsteht aus der Bedingung
C V t d V tb D 0
C Vcd Vcb
Vud Vub
und enthält die CKM-Winkel ˛, ˇ und .
Eine der zentralen Messungen am LHCb-Experiment ist die Bestimmung des Winkels , der
definiert ist als
Vud Vub
D arg
Vcd Vcb
und bisher am wenigsten präzise bekannt ist. Eine Möglichkeit zu erhalten, ist das Studium
von zeitaufgelösten Bs0 ! Ds˙ K Zerfällen, welche exklusiv am LHCb-Experiment vermessen
werden können.
Das Bs0 - bzw. das BN s0 -Meson kann sowohl in DsC K als auch in Ds K C zerfallen. Abhängig
davon, ob man bestimmen konnte aus welchem Mutterteilchen der Zustand Ds K hervorging,
spricht man von tagged“ (erfolgreich) oder untagged“ (nicht erfolgreich). Somit lassen sich
”
”
vier bzw. sechs Zerfallstypen
Bs0 ! DsC K (tagged)
Bs0 ! Ds K C (tagged)
BN s0 ! DsC K (tagged)
BN s0 ! Ds K C (tagged)
Bs0 =BN s0 ! DsC K (untagged)
Bs0 =BN s0 ! Ds K C (untagged)
36
44. Herbstschule für Hochenergiephysik Maria Laach 2012
analysieren.
Aus Fits an die Massen- und Zeitverteilung dieser Datensätze lassen sich Parameter extrahieren,
die Rückschlüsse auf den CKM-Winkel erlauben.
Dieser Vortrag wird den Status der weltweit ersten -Messung aus Bs ! Ds K am LHCb-Experiment vorstellen.
E-11 (C) Suche nach direkter Produktion von leichten supersymmetrischen Top-Squarks mit einem Lepton und b-Jets im
p
Endzustand bei einer Schwerpunktsenergie von s D 7 TeV
im ATLAS Experiment
C LAUDIA G IULIANI
Physikalisches Institut, Universität Freiburg
Supersymmetrie (SUSY) ist eine der vielversprechendsten Erweiterungen des Standardmodells
(SM) der Teilchenphysik. Sie fürt eine neue Symmetrie zwischen Fermionen und Bosonen ein,
sodass jedem SM Teilchen ein supersymmetrischer Partner zugeordnet wird. Durch Supersymmetrie lassen sich einige Probleme des SM lösen. SUSY liefert zum Beispiel einen guten Kandidaten für die dunkle Materie des Universums, das leichteste supersymmetrische Teilchen (LSP).
Darüber hinaus kann das Hierarchie-Problem gelöst werden, wenn die Massen der SUSY-Teilchen
in der Größenordnung von 1 TeV liegen. Dafür sind besonders die Teilchen der dritten Generation entscheidend, da sie das höchste Gewicht in den Strahlungskorrekturen der Higgs-Masse
haben. Die veröffentlichten Analysen der Kollaborationen von ATLAS und CMS führen zu einem Ausschluss von Squark- (1. und 2. Generation) und Gluino-Massen über 1 TeV. Auf der
anderen Seite sind die bestehenden Grenzen für Squarks der dritten Generation immer noch
schwach und daher die Suche nach dem Partner des Top-Quarks, des Stop (tQ), nun von großem
Interesse.
p
Die Daten von Proton-Proton Kollisionen mit einer Schwerpunktsenergie von s D 7 TeV
gesammelt mit dem ATLAS-Detektor im Jahr 2011, wurden untersucht. Es wurde eine Analyse
entwickelt, die besonders sensitiv auf die direkte Produktion von leichten Stop-Squarks ist. Der
untersuchte Massenbereich liegt nahe der Top-Quark Masse, 130 GeV< mtQ < 230 GeV. Eine der
wahrscheinlichsten Zerfälle von dem Stop in einem solchen Szenario ist tQ ! Q ˙
Q 01 W b, mit
1b ! Q ˙
Q 01 LSP. Wenn in der Paarproduktion von Stop-Paaren eines der W -Bosonen
1 Chargino und leptonisch und das zweite hadronisch zerfällt (s. Abb. E.1), entstehen Endzustände mit einem
Lepton und fehlender transversaler Energie.
In dem betrachteten Massenbereich ist die Stop-Kinematik fast identisch mit der Top-Zerfallskinematik, welches der wichtigste Untergrund der Analyse ist. Es wird ein Top-ähnliches System
selektiert: 4-Jets, davon 2 b-Jets, ein Lepton und fehlende transversale Energie im Ereignis. Mit
den ausgewählten Objekten ist es möglich, die Masse des Tops zu rekonstruieren, welches hadronisch zerfallen ist. Die rekonstruierte Masse ist eine starke diskriminierende Variable zwischen
dem SM-Untergrund und dem SUSY Signal, da sie für SUSY-Ereignisse tendenziell niedrigere
Werte als die Top Masse hat. Um darüber hinaus zwischen Signal und Untergrund zu unterschei-
E. Experimentelle Analysen
b
Q C
1
Q 01
37
`
WC
tQ
`C
q
tQN
bN
Q 1
Q 01
W
q0
Abbildung E.1.: Feynman-Graph zur Stop-Antistop-Produktion und semi-leptonischem Zerfall.
q
sub
den, wird die smin
Variable [1] verwendet. Diese stellt die minimale Schwerpunktsenergie, die
mit dem untersuchten System kompatibel ist, dar und berücksichtigt sowohl die sichtbaren Teilchen als auch den fehlenden Transversalimpuls des Ereignisses. Während die Verteilung für den
Top-Untergrund ein Maximum bei etwa 2mtop und einen Endpunkt bei rund 250 GeV aufweist,
ist die Signal-Verteilung aufgrund der Präsenz des neutralen und massiven LSPs zu niedrigeren
Werten verschoben.
Um eine solide Untergrundsabschätzung zu erhalten, sollte ebenfalls die assoziierte Produktion
von W -Bosonen mit 2 b-Jets untersucht werden, ein Prozess, der nicht gut in den Simulationen beschrieben ist. Es werden Bereiche des Phasenraums definiert, die jeweils dominiert sind
von der Top-Paarproduktion und von der .W C b Jets/-Produktion. Dort werden die MonteCarlo-Vorhersagen anhand der gesammelten Daten normiert und der Beitrag in der Signalregion
bestimmt.
Für Stop-Massen im Bereich von 150 180 GeV mit einem Q 01 mit m D 60 GeV wird ein
Ausschluss erwartet.
p
p
[1] P. Konar, K. Kong, K. T. Matchev and M. Park, “RECO level s min and subsystem s min :
Improved global inclusive variables for measuring the new physics mass scale in E
6 T events
at hadron colliders,” JHEP 1106 (2011) 041, [arXiv:1006.0653 [hep-ph]].
38
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-12 (B) Suche nach neutralen Higgs-Bosonen im Zerfallskanal
H ! ! e4 mit dem ATLAS-Detektor
C HRISTIAN S CHILLO
Physikalisches Institut, Universität Freiburg
Die Teilchenphysik beschäftigt sich mit den elementaren Bausteinen der Materie und deren
Wechselwirkungen. Die rasche Entwicklung der Teilchenphysik zu Beginn der zweiten Hälfte
des 20. Jahrhunderts mündete schließlich in den 1960er Jahren in der Formulierung des Standardmodells (SM) der Teilchenphysik. Die Vorhersagen des Standardmodells konnten in einer
großen Anzahl von Experimenten mit hoher Genauigkeit bestätigt werden. Es beruht auf dem
Konzept der lokalen Eichsymmetrie, in denen Massenterme für die Elementarteilchen zunächst
nicht vorgesehen sind. Allerdings zeigt die Natur, dass die Massen der Elementarteilchen eine
sehr große Bandbreite von nahezu masselosen Neutrinos bis hin zu sehr massiven Top-Quarks
mit einer Masse von ca. m t D 172:9 GeV abdecken.
Die Lösung dieses Problems liefert der Englert-Brout-Higgs-Guralnik-Hagen-Kibble-Mechanismus, der die Anwesenheit eines skalaren Higgs-Feldes voraussagt, dessen Vakuumerwartungswert von Null verschieden ist und somit durch spontane Symmetriebrechung der Eichinvarianz
die Massenterme für die Teilchen des Standardmodells erzeugt. Die Folge dieser in den 1960er
Jahren entwickelten Idee ist die Existenz eines neutralen Higgs-Bosons. Die Suche nach diesem
Higgs-Teilchen, dessen Masse im Standardmodell eine unbekannte Größe ist, ist eine der Hauptaufgaben der heutigen Teilchenphysik. Bis zum Frühsommer 2012 konnte das Higgs-Boson noch
nicht experimentell bestätigt werden.
Das Standardmodell wirft trotz seiner weitreichenden Aussagekraft offene Fragen auf wie zum
Beispiel das Problem der Dunklen Materie oder der Vereinigung der Kräfte, welche im Rahmen
dieser Theorie nicht erklärt werden können. Zusätzliche Symmetrien, die das Standardmodell
erweitern würden, könnten die Antwort auf diese Fragen sein. Eine mögliche Erweiterung ist
die Theorie der Supersymmetrie (SUSY). Sie beschreibt die Symmetrie zwischen Fermionen
mit halbzahligem Spin und Bosonen mit ganzzahligem Spin. Das Minimale Supersymmetrische
Standardmodell (MSSM) beinhaltet dabei mehr als doppelt so viele Teilchen wie das Standardmodell, wobei sogar fünf Higgs-Bosonen vorausgesagt werden: drei neutrale (h, A und H ) und
zwei geladene (H ˙ ) Higgs-Bosonen.
Der Large Hadron Collider (LHC) am CERN (Genf, Schweiz) ermöglicht die Erschließung eines bisher noch nicht erreichten Energiebereiches der Hochenergiephysik, in dem unter anderem
Neue Physik“ vermutet wird. Der Teilchenbeschleuniger LHC wurde konstruiert für Schwer”
punktsenergien von bis zu 14 TeV, was derzeit kein anderer Beschleuniger erreichen kann. Er
wurde im Jahre 2009 in Betrieb genommen. Eines der großen Experimente am LHC ist ATLAS. Dieser Vielzweckdetektor wurde für die Vermessung von Proton-Proton- und SchwerionSchwerion-Kollisionen ausgelegt. Die Hauptziele des ATLAS-Experiments sind Präzisionsmessungen innerhalb des Standardmodells sowie die Suche nach neuer Physik, die über das Standardmodell hinausgeht, wie z. B. SUSY, und welche das Design und den Aufbau von ATLAS
maßgeblich beeinflußt hat. Die hohen Luminositäten und Schwerpunktsenergien des LHC und
die Auslegung von ATLAS ermöglichen zudem die Messung von Higgs-Bosonen. Aufgrund der
geringen Wirkungsquerschnitte der Produktionsprozesse dieser Teilchen sind Luminositäten in
der Größenordnung von 1033 bis 1034 cm 2 s 1 notwendig, um ausreichend große Produktions-
E. Experimentelle Analysen
39
raten zu erzielen. Mit Hilfe des ATLAS-Experiments können bereits jetzt schon weite Massenbereiche experimentell ausgeschlossen werden.
Als Beispiel erreicht der Datensatz des Jahres
R
2011 mit der integrierten Luminosität von Ldt 4:9 fb 1 bei einer Schwerpunktsenergie von
p
s D 7 TeV für ein Vertrauensniveau von 95% einen Ausschluß des Higgs-Bosons des Standardmodells in den Massenbereichen 110.0 bis 117.5 GeV, 118.5 GeV bis 122.5 GeV und 129
bis 539 GeV.
Der Vortrag beschäftigt sich mit der Suche nach neutralen Higgs-Bosonen im Zerfallsmodus
H ! ! e4. Der Zerfall des Higgs-Bosons in Paare von -Leptonen ist aufgrund des
Verzweigungsverhältnisses vor allem für kleine Higgs-Boson-Massen von bis zu 150 GeV ein
vielversprechender Kanal. In diesem Bereich sind auch im Standardmodell noch Massenbereiche
nicht vollständig ausgeschloßen. Zudem können im Falle einer Entdeckung eines Higgs-Bosons
in diesem Kanal Eigenschaften wie die Higgs CP Quantenzahlen untersucht werden.
Der Zerfall der -Leptonen in ein Elektron und ein Myon mit entgegengesetzter elektrischer
Ladung und fehlender transversaler Energie aufgrund der vier auftretenden Neutrinos ist dabei
ein sehr klarer Signalprozess, dessen Endzustand im Detektor gut rekonstruiert werden kann. Es
wird eine Datenanalyse des genannten Zerfallskanals vorgestellt werden, die neben einer Optimierung der Ereignisselektion auch Methoden zur Abschätzung von Untergründen aus den Daten sowie die Abschätzung systematischer Unsicherheiten enthält. Um das Signal bestmöglichst
zu separieren, wird versucht, die Ereignisselektion den Topologien der verschiedenen HiggsBoson-Produktionsmechanismen Vektorboson-Fusion, Gluon-Gluon-Fusion und die assoziierte
Produktion mit W - oder Z-Bosonen, bzw. den Produktionprozessen des MSSM, anzupassen.
Dazu wird die Analyse aufgrund der unterschiedlichen Jet-Multiplizitäten in 2-Jet, 1-Jet und
0-Jet Kanäle unterteilt und Schnitte auf verschiedene kinematische Variablen angewendet. Im
e-Endzustand liefert besonders der irreduzible Untergrund aus Z ! einen dominanten Beitrag und wird deshalb mit der speziellen Methode der Einbettung von simulierten -Leptonen in
Z ! Ereignisse datenbasiert abgeschätzt.
Die Herausforderung einer Analyse an dem Proton-Proton-Collider LHC ist vor allem die Reduzierung von QCD-Multijet-Prozessen, deren Produktionswirkungsquerschnitt sehr groß ist. Ein
weiteres Problem am LHC ist der Einfluss von Teilchen in einem Ereignis, die aus der Kollision
zweier Protonenpakete resultieren und keinem bestimmten physikalischen Untergrundprozess
entsprechen, jedoch dennoch zusätzliche Energie in den Kalorimetern deponieren und somit
die Messung der fehlenden transversalen Energie beeinflussen. Diesbezügliche systematische
Unsicherheiten werden ebenfalls besprochen. Desweiteren wird die Massenrekonstruktion des
Higgs-Bosons ein weiterer wichtiger Bestandteil der Präsentation sein.
40
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-13 (A) Optimierung der Triggerstrategie für die Suche nach
elektroschwach produzierten supersymmetrischen Teilchen
J OSEPHINE W ITTKOWSKI
Lehrstuhl für Elementarteilchenphysik, LMU München
Am Large Hadron Collider (LHC) am CERN (Genf, Schweiz) werden Protonen beschleunigt
und derzeit, 2012, mit einer Schwerpunktenergie von 8 TeV kollidiert. Der ATLAS Detektor registriert etwa 40.000.000 Ereignisse pro Sekunde, gespeichert werden können aber nur 600 Hz
(2012). Das Triggersystem entscheidet, welches der Ereignisse behalten werden soll. Aufgezeichnet werden auch Ereignisse, deren Analyse die Entdeckung neuer Physik jenseits des Standardmodells ermöglicht. Endzustände mit zwei geladenen Leptonen, Neutrinos und supersym-
`; Q ˙
1
Q 1
; `
;
Q Q̀
Q 01
Q̀; Q
Q 01
; `
`; Abbildung E.2.: Zerfall von Charginos in einen Endzustand mit zwei Leptonen
metrischen Neutralinos sind mögliche Resultate nach der Produktion von supersymmetrischen
Bosinos über elektroschwache Wechselwirkung, siehe Abb. E.2. Der Wirkungsquerschnitt ist
groß genug um die Entdeckung von Supersymmetrie in diesem Kanal möglich zu machen wenn
supersymmetrische Gluinos und Squarks deutlich schwerer sind als nicht-farbgeladene supersymmetrische Bosinos und Sleptonen – beispielsweise in einem allgemeinen phänomenologischen minimal supersymmetrischen Standardmodell (pMSSM).
Solche physikalische Prozesse mit relativ kleinem Wirkungsquerschnitt sollen durch entsprechende Triggerbedingungen effizient aus den Daten ausgewählt werden. Um die Signalakzeptanz
zu erhöhen, sollten die Trigger vor allem die Aufzeichnung von Ereignissen mit Leptonen, die
möglichst niedrigen Transversalimpuls haben, erlauben. Dem gegenüber steht jedoch für einen
bestimmten Trigger eine maximale Bandbreite, die durch strengere Triggerbedingungen verringert werden kann.
Die Analyse von Ereignissen mit zwei geladenen Leptonen und fehlender Transversalenergie
von nicht detektierten, ungeladenen Teilchen im Endzustand wird durch eine geeignete Kombination von Triggerbedingungen optimiert. Wenn zwei Leptonen bestimmte Anforderungen an
ihren Transversalimpuls erfüllen und eventuellen weiteren Kriterien wie Isolation entsprechen,
wird der entsprechende Trigger ausgelöst. Dieser stellt niedrigere Anforderungen an den Transversalimpuls als ein Trigger, der schon bei einem Lepton ausgelöst wird. Es werden Trigger, die
E. Experimentelle Analysen
41
mindestens ein oder zwei Leptonen mit verschiedenen Transversalimpulsschwellen verlangen
(symmetrisch oder asymmetrisch), mit oder ohne Isolation, durch logisches oder“ kombiniert
”
und der Phasenraum der zwei Leptonen wird dadurch optimal abgedeckt.
Um die Messung der Triggereffizienzen möglichst einfach zu gestalten, werden die Effizienzen von zusammengesetzten Triggern, die erst für mindestens zwei Leptonen in einem Ereignis
ausgelöst werden, durch die Effizienzen zweier Trigger, die jeweils schon bei einem der beiden
Leptonen feuern, ersetzt. Die Gültigkeit dieser Faktorisierung durch nicht bedingte Wahrscheinlichkeiten, die einem logischen und“ gleich kommt, muss nachgewiesen werden. Die Effizien”
zen der beiden Trigger werden durch die sogenannte Tag&Probe“-Methode berechnet.
”
Bei der Analyse von Monte-Carlo simulierten Ereignissen verlässt man sich nicht auf die Triggersimulation um beispielsweise nicht einfach einen Großteil der generierten Statistik weg zuwerfen. Stattdessen wird in Daten die Wahrscheinlichkeit dafür berechnet, dass ein ausgewähltes
Lepton mit spezieller Kinematik, in dem Fall ein Elektron oder ein Myon, den Trigger ausgelöst
hat. Mit den Leptonen aus Z ! und Z ! ee Zerfällen erhält man Kartogramme ( maps“)
”
für die Triggereffizienz. Bei der Gewichtung der Monte-Carlo-Ereignisse mit den kombinierten
Effizienzen aus den maps wird die mehrfache Berücksichtigung des gleichen Leptons aus dem
selben Ereignis vermieden.
E-14 (B) Suche nach B ! bei Belle
P HILIPP H AMER
II. Physikalisches Institut, Universität Göttingen
Das BELLE Experiment am asymmetrischen e C e Beschleuniger KEKB in Tsukuba (Japan) hat
in den letzten 10 Jahren eine Datenmenge von 711 fb 1 auf der .4s/ Resonanz aufgenommen.
Diese große Datenmenge erlaubt neben der genauen Vermessung physikalischer Parameter auch
die Beobachtung seltener B-Meson Zerfälle, wie den bisher noch nicht beobachteten Zerfall
B 0 ! C . Dieser Prozess beinhaltet das Cabibbo-Kobayashi-Maskawa (CKM) Matrixelement Vub , wobei jVub j D .3:89 ˙ 0:44/ 10 3 ist. Das erwartete Verzweigungsverhältnis liegt
im Bereich um 1:0 10 4 . Desweiteren kann ein geladenes Higgs-Boson die Eigenschaften
dieses Zerfalls verändern. B ! ermöglicht somit Aussagen über die Physik jenseits des
Standard-Modells.
Die Optimierung der Signalrekonstruktion und Trennung von Signal und Untergrund wird anhand von Monte-Carlo Daten durchgeführt. Vorgestellt werden die Rekonstruktionsstrategie sowie erste Ergebnisse auf Monte-Carlo Daten.
42
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-15 (C) Suche nach Supersymmetrie im trileptonischen Endzustand mit dem DØ-Experiment
JASON M ANSOUR
II. Physikalisches Institut, Universität Göttingen
Ein viel versprechender Kandidat für eine Theorie jenseits des Standardmodells (SM) stellen
Modelle mit Supersymmetrie (SUSY) dar. Die Motivationen für SUSY sind zahlreich. So bietet
es möglicherweise eine Lösung für das Hierarchieproblem, und ermöglicht eine Vereinheitlichung der Kopplungskonstanten bei hohen Energien. Von theoretischer Seite ist SUSY interessant, da sie die maximal mögliche Erweiterung der raumzeitlichen Symmetrien darstellt. Außerdem bieten supersymmetrische Theorien mit R-Parität eine Lösung für das Rätsel der dunklen
Materie (DM), indem sie ein neutrales, stabiles Teilchen als Kandidat für die DM vorhersagen.
Im Allgemeinen gibt es zwei verschiedene Mechanismen, wie supersymmetrische Teilchen produziert werden können: über die starke Wechselwirkung (Produktion von Squarks und Gluinos)
und über die elektroschwache Wechselwirkung. Während am LHC vor allem die starke Produktion relevant ist, ist bei Tevatron-Energien wahrscheinlich nur der elektroschwache Mechanismus
verfügbar. Die Produktion von Chargino-Neutralino-Paaren findet bei 7 TeV entweder durch ein
virtuelles W -Boson statt, oder durch den Austausch eines Squarks qQL (s. Abb. E.3).
Q ˙
1
qN 0
q
W
Q ˙
1
Q 02
qN 0
qQL
q
Q 02
Abbildung E.3.: Koproduktion von Charginos und Neutralinos via W -Boson oder Squark qQL
Q
Das Chargino Q ˙
Q 01 , ein
1 kann leptonisch über ein W -Boson oder Slepton ` in ein Neutralino Lepton und ein Neutrino zerfallen. Hierbei ist das Neutralino als leichtestes supersymmetrisches
Teilchen (LSP) stabil, und macht sich als fehlende Transversale Energie (MET) bemerkbar. Der
leptonische Zerfall des zweiten Neutralinos Q 02 verläuft über ein Z-Boson oder Slepton in zwei
Leptonen und ein LSP. Somit besteht der Endzustand aus drei Leptonen und MET. Dieser Endzustand ist sehr auffällig und hat nur sehr geringe Untergründe von SM-Prozessen, weswegen er
gelegentlich als goldener Kanal“ bezeichnet wird.
”
Nennenswerte Untergrundquellen sind Diboson-Prozesse (W W , W Z, ZZ), t tN-Paarproduktion,
QCD-Multijetereignisse, sowie W /Z + Jets-Ereignisse, in denen ein Objekt fälschlicherweise
als ein (promptes) Lepton identifiziert wird.
Im Vortrag wird eine Suche in diesem Kanal mit dem DØ-Experiment am Tevatron vorgep
stellt. Das Tevatron ist ein Proton-Antiproton-Collider mit einer Schwerpunktsenergie von s D
1:96 TeV, der von 1992 - 2011 am Fermilab (USA) in Betrieb war. Der Beschleuniger lieferte
dabei insgesamt ca. 11 fb 1 an Kollisionen an jedes seiner beiden Experimente DØ und CDF.
E. Experimentelle Analysen
43
DØ ist ein Vielzweck-Detektor in hermetischer 4-Bauweise. An innerster Stelle befindet sich
das Spurerfassungssystem, bestehend aus einem Silizium-Mikrostreifen-Detektor (SMT) und einem Detektor aus szintillierenden Fasern, dem Central Fiber Tracker (CFT). Das Spursystem
befindet sich in einem 2 T Magnetfeld. Außerhalb ist das Kalorimeter, welches in einer Zentral-,
und zwei Vorderregionen segmentiert ist. Das Kalorimeter ist ferner in einen elektromagnetischen und einen hadronischen Teil aufgeteilt, welche beide in Sampling-Bauweise ausgeführt
sind. Als aktives Material wird flüssiges Argon verwendet, zum Schauern Uran bzw. Eisen. Um
das Kalorimeter ist ein toroidialer 2 T-Magnet angebracht. Ganz außen befinden sich noch Spurkammern zur Detektion von Myonen.
Die Analysestrategie ist wie folgt: Zunächst wurde sichergestellt, dass die Untergründe sehr gut
verstanden und modelliert sind. Dazu wurden eine Reihe von Korrekturen auf die Monte-CarloSamples bestimmt und angewendet.
Anschließend werden mit einigen Schnitten die reduzierbaren Untergründe, vor allem Z+Jets,
weitestgehend entfernt. Dann wird versucht, eine größtmögliche Trennung von Signal und Untergrund durch multivariate Methoden (boosted decision trees, BDT) zu erreichen. Dabei werden
auch spezielle Variablen verwendet, wie pT -balance“ oder transversale Massen, die sich durch
”
besondere Trennkraft auszeichnen.
Wir untersuchen zwei verschiedene Modellannahmen, die Variationen des CMSSM sind: In dem
3l-max“-Szenario sind die Parameter so gewählt, dass das Verzweigungsverhältnis in den trilep”
tonischen Endzustand maximiert wird. Alternativ betrachten wir das heavy Sleptons“-Szenario,
”
indem die Sleptonen so schwer sind, dass sie als Zwischenzustand nicht in Frage kommen. Somit
läuft der Zerfall der supersymmetrischen Teilchen nur über W - und Z-Bosonen. Dieses Szenario ist auch von den bisherigen negativen Ergebnissen in Suchen nach SUSY am Tevatron und
LHC motiviert. Suchen z.B. im mSUGRA/CMSSM-Modell in leptonischen Endzuständen gehen von Sleptonen im Zwischenzustand aus. Ist dieser Kanal aber ausgeschlossen, sind die bisher
ermittelten Grenzen auf Chargino- und Neutralinomassen nicht unbedingt anwendbar.
Ergebnisse werden im Sinne der Modellunabhängigkeit auch als Grenzen auf die Charginomasse
angegeben, statt nur auf Modellparameter. Abschließend wird versucht, einige Lehren aus den
Ergebnissen zu ziehen. Es werden zudem Überlegungen für künftige Suchen in nicht-minimalen
Varianten von mSUGRA/CMSSM angestellt.
E-16 (A) Suche nach Supersymmetrie im voll-hadronischen
Kanal mit dem CMS Detektor am LHC
K RISTIN H EINE
Insitut für Experimentalphysik, Universität Hamburg
Der Large Hadron Collider (LHC) am CERN in Genf (Schweiz) ist ein Proton-Proton Beschleuniger, der seit 2010 erfolgreich Teilchenkollisionen bei einer Schwerpunktsenergie von 7 TeV
durchführt. Am CMS Experiment wurden seitdem Daten aufgezeichnet, die einer integrierten
Luminosität von ca. 5 fb 1 entsprechen. Neben Präzisionsmessungen von bekannten Prozessen,
kann man diese Daten vor allem nutzen, um nach neuartiger Physik zu suchen, welche bisher
nicht im Standardmodell (SM) der Teilchenphysik beschrieben wird.
Eine solche Theorie, die über das SM hinausgeht, ist beispielsweise Supersymmetrie (SUSY).
Hier wird jedem Standardmodellteilchen ein supersymmetrisches Partnerteilchen zugeordnet,
44
44. Herbstschule für Hochenergiephysik Maria Laach 2012
welches die gleichen Quantenzahlen besitzt und sich lediglich im Spin um einen Faktor 1=2
unterscheidet. Fordert man die Erhaltung einer weiteren Quantenzahl – die Erhaltung der sogenannten R-Parität (RD C1 für standardmodell Teilchen, RD 1 für SUSY Teilchen) – so ergibt
sich, dass das leichteste supersymmetrische Teilchen (LSP) stabil ist. Da ein derartiges Teilchen bisher nicht entdeckt wurde, ist davon auszugehen, dass dieses Teilchen elektrisch neutral
geladen ist und nur schwach wechselwirkt, sodass es den Detektor ohne eine sichtbare Signatur verlässt. Ein Bestandteil der experimentellen SUSY-Signatur ist somit ein hoher Anteil von
fehlender Energie im Detektor.
Des Weiteren wird erwartet, dass eine große Anzahl von Squarks und Gluinos – die SUSYPartnerteilchen der Quarks und Gluonen – produziert wird, da diese an der starken Wechselwirkung teilnehmen und einen hohen Produktionswirkungsquerschnitt aufweisen. Diese zerfallen
weiter in Quarks, Gluonen und schließlich das LSP. Neben fehlender Energie erwartet man demnach mehrere Jets im Detektor. Quantifiziert wird dieser Prozess mit den sensitiven Variablen
HT (skalare Summe der transversalen Jet-Impulse) und MHT (Betrag der negativen vektoriellen
Summe der Jet-Impulse).
In diesem Vortrag wird die inklusive Suche nach Supersymmetrie in Multijet-Ereignissen mit
fehlender Energie am CMS-Experiment beschrieben. Neben der Selektion von Signalereignissen ist es besonders wichtig, die einzelnen Beiträge aus Standardmodell Untergrundprozessen zu
verstehen und zu bestimmen. Bei dieser Suche tragen hauptsächlich Z. /
N C Jet-, W C Jet- und
t tN-, sowie QCD-Multijet-Ereignisse bei. W CJet- und t tN- Ereignisse führen zu einer Signatur von
Jets und fehlender Energie, wenn ein W -Boson direkt oder über ein in ein Elektron oder Muon
zerfällt, welches nicht rekonstruiert wird, oder wenn ein hadronisch zerfällt. In diesen Zerfällen
entstehen Neutrinos, die eine echte Quelle für fehlende Energie sind. QCD-Multijet-Ereignisse
weisen überwiegend dann fehlende Energie auf, wenn in Jets heavy-flavour-Hadronen leptonisch
zerfallen oder die Energie des Jets falsch gemessen wird. Zu den verschiedenen Untergründen
wurden datengetriebene Methoden entwickelt, um die einzelnen Beiträge abzuschätzen. Der Fokus des Vortrags liegt auf der Bestimmung des QCD-Multijet Untergrunds, für welchen die Re”
balance and Smear“-Methode verwendet wird. Hier werden selektierte Multijet-Ereignisse durch
einen kinematischen Fit rebalanciert, sodass die enthaltene Komponente von fehlender Energie
gleich 0 ist. Anschließend werden die Ereignisse mit den entsprechenden Detektor-ResponseFunktionen verschmiert, um so den Beitrag von QCD Ereignissen zum HT- und MHT-Spektrum
zu bestimmen.
Neben der Selektion von Multijet-Ereignissen mit fehlender Energie und der Abschätzung des
Untergrunds wird die Interpretation der Analyse in verschiedenen SUSY-Szenarien diskutiert.
E. Experimentelle Analysen
45
E-17 (B) Messung des Wirkungsquerschnittsverältnisses von t tN
und Z 0 Produktion in den dileptonischen Zerfallskanälen
JAN K IESELER
DESY
Durch die große Menge der vom CMS Detektor 2011 bei einer Schwerpunktsenergie von 7 TeV
gelieferten Daten, wird der Fehler des totalen t tN Wirkungsquerschnitts durch systematische Unsicherheiten dominiert. Diese können reduziert werden, indem ein Wirkungsquerschnittverhältnis
betrachtet wird, bei dem sich beiden Prozessen gemeine Detektoreffekte und Effizienzen mit
deren Unsicherheiten herauskürzen.
Der Zerfall eines t tN Paares erfolgt nahezu ausschließlich in je ein W -Boson und ein b-Quark.
Der weitere Zerfall des W -Bosons bestimmt den Zerfallskanal des t tN Zerfalls. Im dileptonischen
Fall zerfallen beide W -Bosonen zu jeweils einem Lepton und einem entsprechenden Neutrino.
Resultierend besteht die Signatur also aus zwei entgegengesetzt geladenen Leptonen, zwei b-Jets
und fehlender Energie. Mit Ausnahme von Jets und fehlender Energie ähnelt damit die Signatur der des dileptonischen Z 0 Zerfalls, was beide Prozesse gegenseitig Hintergrund zueinander
werden lässt, allerdings auch die Möglichkeit eröffnet, in einem Wirkungsquerschnittverhältnis
viele Selektionsunsicherheiten zu reduzieren.
Die Messung des Wirkungsquerschnittverhältnisses von t tN zu Z 0 Produktion erfolgt durch Selektion von entgegen gesetzt geladenen, isolierten hochenergetischen Leptonen. Konkret werden
die Kombinationen ˙ und e ˙ e zur Signalselektion ausgewählt. Die Datensätze zur Untersuchung des Z 0 Zerfalls und des t tN Zerfalls werden durch einen Schnitt auf die invariante Masse
des Leptonenpaares getrennt. Zur weiteren Selektion der t tN Ereignisse werden mindestens zwei
hochenergetische Jets, wovon mindestens einer einem b-Jet zugeordnet werden kann, und ein
hohes Maß an fehlender Transversalenergie gefordert. Die dominierenden Hintergründe sowohl
zu dem Z 0 als auch dem t tN Signal werden mit auf Daten basierenden Methoden bestimmt, in
denen das Fehlen des Z 0 Signals in der Leptonpaarkombination e ˙ ausgenutzt wird.
Aus dem gewonnenen Wirkungsquerschnittverhältnis lässt sich mithilfe des theoretischen Z 0
Wirkungsquerschnitts der t tN Wirkungsquerschnitt berechnen. Dabei treten an die Stelle von gemeinsamen Selektions-, Effizienz- und Luminositätsunsicherheiten die Unsicherheit auf den
theoretischen Z 0 Wirkungsquerschnitt und antikorrelierte Effekte.
46
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-18 (C) Bestimmung des Produktionsflavours von Bs -Mesonen beim LHCb Experiment
G EORG K ROCKER
Physikalisches Institut, Universität Heidelberg
In den vergangenen Jahren konnte mit der präzisen Vermessung der Eigenschaften des B-Meson
Systems bei den Experimenten Belle und BABAR an den B-Fabriken wichtige Erkenntnisse für ein
detailliertes Verständnis des Flavoursektors im Standardmodell (SM) gewonnen werden. So wurde unter anderem der Cabibbo-Kobayashi-Maskawa (CKM) Mechanismus der Quarkmischung
etabliert und die Parameter der CKM Matrix präzise bestimmt. Diese Studien beschränkten sich
größtenteils auf Bd Mesonen die im Vergleich zum etwas schwereren Bs vorwiegend an den
B-Fabriken produziert wurden. Das Tevatron ermöglichte erstmals Messungen im Bs System,
wenn auch mit vergleichsweise geringer Statistik.
Mit der Inbetriebnahme des Large Hadron Collider (LHC) am CERN (Genf, Schweiz) im Jahr
2010, der im nominellen Betrieb 1012 b bN Paare im Jahr erzeugt, steht nun erstmals ein großer
Datensatz für Präzisionsmessungen im Bs System zur Verfügung. Das LHCb Experiment ist
als dezidiertes B-Physik Experiment speziell darauf ausgelegt sich die hohe b bN Produktionsrate
des LHC zunutze zu machen. Das Physikprogramm umfasst neben der genauen Vermessung der
SM Parameter des B Systems auch die Suche nach möglichen Beiträgen von Neuer Physik“ in
”
Quantenkorrekturen.
Neutrale B-Mesonen können in ihre Antiteilchen oszillieren. Bei Messungen im B System, zum
Beispiel der CP verletzenden Phase ˚s im Zerfall Bs ! J = , ist es daher nötig den Flavour
des B-Mesons zum Zeitpunkt der Produktion zu kennen. Da ein direkter Zugriff auf den Produktionsflavour nicht möglich ist muss dieser mit sogenannten Tagging Algorithmen bestimmt
werden. Im Bs System besteht dabei, neben anderen Methoden, die Möglichkeit, den Produktionsflavour durch ein bei der Bs Fragmentation erzeugtes Kaon zu bestimmen. Hierbei wird
ausgenutzt, dass in Assoziation mit dem im Bs enthaltenen s (Ns ) Quark ein zweites sN (s) Quark
erzeugt wird welches in etwa 35% der Fälle in ein geladenes Kaon hadronisiert. Aus der Ladung
dieses Kaos lässt sich der Produktionsflavour des Bs bestimmen.
In meinem Vortrag werde ich die Funktionsweise des Same Side Kaon Taggers bei LHCb beschreiben und vorstellen, welche Schritte nötig sind um den Tagger auf Daten zu optimieren und
anzuwenden.
E. Experimentelle Analysen
47
E-19 (A) Vollständige Rekonstruktion von B-Mesonen in
.5S /-Zerfällen bei Belle
M ATTHIAS H USCHLE
Institut für Experimentelle Kernphysik, KIT
Ein Vorteil der B-Fabriken BABAR und Belle gegenüber Hadronkollisionsexperimenten ist die
Kontrolle über die in der Einzelkollision zur Verfügung stehende Energie. Sie erlaubt in erster
Linie die gezielte Produktion von Resonanzen – bei Belle hauptsächlich .4S/ und in geringeren
Mengen .5S/, beides angeregte Bottomoniumzustände.
N
Das Besondere an der .4S/-Resonanz ist, dass sie dank des b b-Quarkinhaltes
und ihrer Energie
C
N
knapp oberhalb der Bd;u BdN ;uN -Schwelle nahezu immer in entweder B B oder Bd0 BN d0 zerfällt,
also ein Zwei-Körper-Zerfall in etwa gleich schwere B-Mesonen stattfindet. Kinematisch bedeutet dies (im Schwerpunktssystem), dass die B-Mesonen jeweils die Hälfte der ursprünglichen
Strahlenergie besitzen und ihre Impulse antiparallel sind.
Dies hat zwei besondere Vorteile für die Rekonstruktion von B-Mesonen: Die Konstruktion von
Messgrößen in Abhängigkeit von der sehr genau bekannten Schwerpunktsenergie zur besseren
Vermessung und Identifizierung der B-Mesonen, sowie die Untersuchung von nicht vollständig
rekonstruierbaren B-Mesonen (z. B. mit Neutrinos in der Zerfallskette) nach vollständiger Rekonstruktion ihres Zerfallspartners.
Die in der Belle-Kollaboration auf der .4S/ eingesetzte vollständige Rekonstruktion arbeitet
hierarchisch mit insgesamt über 1000 Rekonstruktionskanälen und nutzt neuronale Netze in jeder
Rekonstruktionsstufe, um weit bessere Effizienzen als schnittbasierte Selektionen zu erreichen.
Ein vollständig rekonstruiertes B-Meson bietet dreierlei Möglichkeiten zur weiteren Verarbeitung: Direkte Analyse, Identifizierung der nicht zum rekonstruierten B gehörenden Spuren im
Detektor, sowie Bestimmung des Viererimpulses des nicht rekonstruierten B-Mesons.
Eine Erweiterung der Methode zur vollständigen Rekonstruktion auf die .5S/-Resonanz liegt
nahe, da unter anderem Bs -Zerfälle Möglichkeiten zu Präzisionsmessungen bieten. Dies erfordert allerdings mehr als nur Parameteranpassungen, da die Schwerpunktsenergie auf der .5S/Resonanz im Zerfall sowohl Mehr-Körper-Zerfälle als auch angeregte B-Mesonen erlaubt. Ersteres hat zur Folge, dass sich das Spektrum der mit der Strahlenergie konstruierten Messgrößen
verschiebt und somit nur zerfallsspezifisch zur B-Meson-Identifizierung genutzt werden kann.
Im zweiten Fall lassen sich die Photonen aus abklingenden B-Mesonen nur sehr schwierig detektieren und stören so die vorherige, eindeutige Kinematik. Da Zerfälle des .5S/ in angeregte
B-Mesonen dominieren, ist eine genaue Bestimmung des Viererimpulses seiner Kinder nur selten möglich.
Die vollständige Rekonstruktion von B-Mesonen in Zerfällen des .5S/ ermöglicht damit die
Untersuchung nicht direkt rekonstruierbarer B-Meson-Zerfälle, erfordert jedoch neue Techniken, um an die Stärken des Verfahrens auf der .4S/-Resonanz anzuschließen.
48
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-20 (B) Analyse des Zerfalls B 0 ! D CD Experiment
am Belle-
BASTIAN K RONENBITTER
Institut für Experimentelle Kernphysik, KIT
In diesem Vortrag wird die Messung des Verzweigungsverhältnisses, der Polarisation und der
Parameter der zeitabhängigen CP -Verletzung von B 0 ! D C D Zerfällen beschrieben.
Die zeitabhängige CP -Verletzung in Zerfällen von neutralen B-Mesonen wird im Standardmodell (SM) der Teilchenphysik durch eine komplexe Phase in der Cabibbo-Kobayashi-Maskawa
(CKM)-Quarkmischungsmatrix beschrieben. Sie wurde in B 0 ! .c c/K
N 0 Zerfällen mit sehr
großer Präzision gemessen und sollte laut Standardmodell der in B 0 ! D C D Zerfällen
entsprechen.
Die Rekonstruktion und Analyse dieses Zerfalls wird mit Daten durchgeführt, die mit dem BelleDetektor am KEKB-Beschleuniger in Tsukuba (Japan) aufgezeichnet wurden. Dabei handelt es
sich um einen asymmetrischen Elektron-Positron-Beschleuniger, der bei einer Schwerpunktsenergie von 10:58 GeV operiert. Dies entspricht der Ruhemasse der .4S/-Resonanz, welche
N
zu 98% in ein B B-Paar
zerfällt. Die Asymmetrie der Strahlenergien führt zu einem Boost des
Schwerpunktsystems im Laborsystem von ˇ D 0:425, was die Messung des Abstandes der
Zerfallsvertices der beiden B-Mesonen und damit der Zerfallszeitdifferenz t ermöglicht. Zusammen mit der Information des Flavours eines der B-Mesonen kann die zeitabhängige Asymmetrie von B 0 - und BN 0 -Zerfällen und damit die Parameter der zeitabhängigen CP -Verletzung
gemessen werden.
Eines der beiden B-Mesonen in einem Kollisionsereignis wird aus den Informationen der gemessenen Spuren und Energiedepositionen vollständig rekonstruiert, wobei zuvor Zwischenzustände
rekonstruiert werden. Auch diese können teilweise auf Grund ihrer kurzen Lebensdauer nicht direkt gemessen werden. Dabei kann es sich zum Beispiel um D-Mesonen oder ungeladene Pionen
und Kaonen handeln.
Die Zahl der rekonstruierten Signalereignisse wird mit einer Parameteranpassung bestimmt, wobei zwei Observablen verwendet werden, die häufig zu diesem Zweck bei Untersuchungen an
B-Fabriken eingesetzt werden: Die Masse des rekonstruierten B-Mesons unter Einbeziehung der
Kenntnis über die Strahlenergie Mbc und die Differenz zwischen rekonstruierter und nomineller
Energie des B-Mesons E.
Die Tatsache, dass es sich bei dem Zerfall B 0 ! D C D um den Zerfall eines pseudoskalaren in zwei Vektormesonen handelt, macht es notwendig für die Messung der CP -Verletzung
eine Winkelanalyse durchzuführen und damit den Anteil der CP -ungeraden Komponente im
Endzustand des Zerfalls zu bestimmen.
Die Polarisation und die Parameter der CP -Verletzung werden gleichzeitig mit einer fünfdimensionalen Parameteranpassung in den Observablen Mbc , E, t und zwei der drei Winkel
der Transversitybasis bestimmt. Die Wahrscheinlichkeitsverteilung, die der Beschreibung der
Signalverteilung in t zu Grunde liegt, beinhaltet die zwei Parameter S und A, welche die
zeitabhängige CP -Verletzung beschreiben, wobei S die mischungszinduzierte und A die direkte CP -Verletzung beschreibt. Der Zusammenhang zwischen S und dem Winkel '1 des Unitaritätsdreickes ist im Standardmodell gegeben durch S D sin 2'1 .
E. Experimentelle Analysen
49
E-21 (C) Messung des Single Top t-Kanal Wirkungsquerschnitts mit neuronalen Netzen am CMS-Detektor
S TEFFEN R ÖCKER
Institut für Experimentelle Kernphysik, KIT
Das Top-Quark ist das schwerste bekannte Quark im Standardmodell und wird hauptsächlich in
Top-Antitop-Quarkpaaren über die starke Wechselwirkung erzeugt. Neben der Paar-Produktion
können über die elektroschwache Wechselwirkung auch einzelne Top-Quarks erzeugt werden,
sogenannte single tops“. Dabei unterscheidet man zwischen drei verschiedenen Produktionsme”
chanismen in denen jeweils einen W t b-Vertex vorkommt. Die Produktion über die elektroschwache Wechselwirkung ermöglicht die direkte Bestimmung des Cabibbo-Kobayashi-Maskawa (CKM)
-Matrixelements jV t b j. Ein von jV t b j 1 abweichender Wert wäre ein Hinweis auf Neue
”
Physik“, wie etwa einer möglichen vierten Generation. Der Produktionsmechanismus mit dem
größten Wirkungsquerschnitt am Large Hadron Collider (LHC) ist der t -Kanal, bei dem ein
leichtes Quark mit einem W -Boson streut. Dieser Produktionsmechanismus wurde erstmals
2009 in Proton-Antiproton-Kollisionen am Tevatron-Beschleuniger bei einer Schwerpunktsenergie von 1.96 TeV nachgewiesen und konnte schon 2011 am LHC in Proton-Proton-Kollisionen
mit einer Schwerpunktsenergie von 7 TeV von den Experimenten CMS und ATLAS bestätigt
werden. Wegen dem günstigeren Verhältnis der Wirkungsquerschnitte von Signal und Untergrundprozessen am LHC kann nun eine detaillierte Studie elektroschwacher Top-Quark-Produktion unternommen werden.
Aufgrund seiner hohen Masse und damit großen Zerfallsbreite zerfällt das Top-Quark bevor
es gebundene Zustände eingehen kann. Es zerfällt dabei in nahezu 100% in ein W -Boson und
ein b-Quark. Die Signatur des Zerfalls von t -Kanal Einzel-Top-Quarks besteht aus einem bJet aus dem Top-Zerfall, den Zerfallsprodukten des W -Bosons (hier werden nur leptonische
Zerfälle in ein Myon oder Elektron und dem jeweiligen Neutrino betrachtet) und mindestens
einem weiteren, häufig in Vorwärtsrichtung detektierten, leichten Jet. Des Weiteren kommt es
durch das nicht im Detektor nachweisbare Neutrino zu fehlender Transversalenergie.
In dieser Analyse wird eine auf einem neuronalen Netzwerk basierende Methode zur Trennung von t-Kanal Signalereignissen und Untergrundereignissen mit ähnlicher Signatur, wie etwa t tN und W +Jets, vorgestellt. Dazu werden mit dem CMS-Detektor aufgezeichnete Daten von
Proton-Protonkollisionen bei einer Schwerpunktsenergie von 7 TeV untersucht. Der Anteil von
QCD-Multijet-Ereignissen wird in einem Seitenband aus Daten abgeschätzt. Zur Bestimmung
des Signalanteils wird eine Bayessche Methode eingesetzt, die die Ausgabe der Diskriminatorwerte des neuronalen Netzes verwendet. Dabei werden die meisten systematischen Einflüsse
als Nuisance-Parameter ausmarginalisiert. Diese Methode ermöglicht eine präzise Messung des
t -Kanal Wirkungsquerschnitts und somit des CKM-Matrixelements jV t b j.
50
44. Herbstschule für Hochenergiephysik Maria Laach 2012
E-22 (C) Suche nach Supersymmetrie in Ereignissen mit einem
Lepton, Jets und fehlender Transversalenergie mit dem ATLAS Experiment
T IMO M ÜLLER
Institut für Physik, Universität Mainz
Supersymmetrische Theorien (SUSY) stellen einen vielversprechenden Lösungsansatz für viele
Probleme des Standardmodells, wie etwa der Existenz kalter dunkler Materie oder des Hierarchieproblems dar. Falls stark wechselwirkende supersymmetrische Teilchen (Squarks und Gluinos) nahe der TeV-Skala existieren, sollten diese in großer Zahl am LHC produziert werden.
Squarks und Gluinos zerfallen sodann in Quarks und Gluonen sowie in die supersymmetrischen
Partner der Eichbosonen des Standardmodells (Charginos und Neutralinos), woraus Ereignisse
mit hochenergetischen Jets resultieren. In R-paritätserhaltender SUSY ist das leichteste supersymmetrische Teilchen (LSP) stabil und schwach wechselwirkend und kann den Detektor daher undetektiert verlassen, was zu einer Signatur mit signifikanter fehlender Transversalenergie
führt. Aus den Zerfällen von Charginos und Neutralinos können hochenergetische Leptonen entstehen, welche eine ausgezeichnete Möglichkeit bieten, potentielle supersymmetrische Signale
von Prozessen des Standardmodells zu trennen.
Die dominanten Standardmodellprozesse, die eine Signatur mit einem Lepton, Jets und fehlender Transversalenergie erzeugen, sind Top-Antitop- und W +Jets-Produktion, was ein genaues
Verständnis dieser Untergründe unabdingbar macht. Eine datenbasierte Bestimmung dieser Untergründe in der SUSY Signalregion ist aufgrund großer theoretischer Unsicherheiten bei hohen
Jet Multiplizitäten und der damit verbundenen systematischen Fehler der Monte-Carlo Vorhersage vorzuziehen. Dabei spielen insbesondere Skalenunsicherheiten, welche in der Monte-CarloSimulation nicht berücksichtigte Korrekturen höherer Ordnung einbeziehen, eine entscheidende Rolle. Um die damit verbundenen systematischen Unsicherheiten besser kontrollieren zu
können, wurde eine fitbasierte Methode entwickelt, welche die Sensitivität der Jet Multiplizität
auf die Wahl der Skala des Prozesses ausnutzt und eine datenbasierte Korrektur der MonteCarlo Vorhersage liefert. Die Extrapolation dieser Messung aus einer mit Untergrundereignissen
angereicherten Kontrollregion in die SUSY Signalregion liefert eine verbesserte Untergrundvorhersage.
Vor der Untersuchung der Daten muss eine Signalregion definiert werden, die mit potentiellen
SUSY Ereignissen angereichert ist. Dazu wurden Schnitte auf kinematische Variablen optimiert,
die eine Trennung von SUSY Ereignissen und Prozessen des Standardmodells erlauben. Diese
Optimierung wurde im mSUGRA (minimal supergravity) Szenario sowie unter Berücksichtigung von Simplified Models, welche einen bestimmten Produktions- und Zerfallsmodus isolieren, durchgeführt.
Die vorgestellte Analyse
basiert auf dem vollen im Jahr 2011 von ATLAS bei einer Schwerp
werden auch Resultate
punktenergie von s D 7 TeV aufgezeichneten Datensatz. Eventuell
p
basierend auf Daten aus 2012 mit einer Schwerpunktenergie von s D 8 TeV präsentiert.
E. Experimentelle Analysen
51
E-23 (B) ATLAS-Suche nach Dunkler Materie in MonojetEreignissen
RUTH P ÖTTGEN
Institut für Physik, Universität Mainz
Kosmologische Beobachtungen liefern starke Hinweise darauf, dass die Teilchen, die das Standardmodell beschreibt, nur etwa 4% des Materie- bzw. Energiegehaltes des Universums ausmachen. Die verbleibenden 96% werden als dunkle Materie (24%) und dunkle Energie (72%)
bezeichnet. Es gibt viele Modelle, die dunkle Materie mit neuen Teilchen mit unterschiedlichen
Eigenschaften erklären. Ein beliebter Kandidat sind schwach wechselwirkende, massive Teilchen – sogenannte WIMPs (Weakly Interacting Massive Particle) – im Folgenden auch mit bezeichnet.
Unter bestimmten Voraussetzungen ist die Produktion solcher WIMPs an Teilchenbeschleunigern möglich. Nimmt man an, dass die Wechselwirkung zwischen Standardmodell und dunkler
Materie über ein neues, schweres Teilchen (Mediator) vermittelt wird, dessen Masse außerhalb
der Reichweite des Beschleunigers liegt, lässt sich der Prozess im Rahmen einer effektiven Feldtheorie beschreiben, in der über den Mediator integriert wird. Macht man weiterhin die Annahme, dass die WIMPs Dirac-Fermionen sind, ergeben sich 14 verschiedene Operatoren für eine sogenannte Kontaktwechselwirkung mit einem -Paar
N
im Endzustand. Der Wirkungsquerschnitt
hängt dabei zum einen von der Masse des WIMPs (m ) und zum anderen von der sogenannten
Unterdrückungsskala ab, die wiederum durch die Masse des schweren Mediators und dessen
Kopplungsstärke an Standardmodellfermionen sowie die WIMPs bestimmt ist.
Die WIMPs selbst hinterlassen – ähnlich wie Neutrinos – keine Signale im Detektor und werden
nur als fehlende Transversalenergie (missing transverse energy, ETmiss ) sichtbar. Man sucht daher
nach Ereignissen mit einem harten Jet und fehlender Transversalenergie, wobei der Jet von einem im Anfangszustand abgestrahlten Gluon stammt. Die wichtigsten Untergrundprozesse sind
zusammen mit einem Jet erzeugte Z-Bosonen, die in ein Neutrino-Paar zerfallen, sowie W Bosonen, die zusammen mit einem Jet erzeugt werden, wobei das bei ihrem Zerfall entstehende
Lepton nicht identifiziert wird. Ein vorhandenes Signal würde ein härteres Spektrum der fehlenden Transversalenergie aufweisen und daher vor allem in Ereignissen mit hoher transversaler
Energie als Überschuss gegenüber der Standardmodellerwartung sichtbar werden.
Beim ATLAS-Experiment am LHC (Large Hadron Collider) bei Genf (Schweiz) wird daher eine
Suche nach Ereignissen mit einem Jet und ETmiss im Endzustand (sogenannte Monojet-Ereignisse)
in mehreren Signalregionen, die sich durch die kinematischen Schnitte auf ETmiss und den Transversalimpuls des Jets unterscheiden, durchgeführt. Wird kein Über-schuss beobachtet, werden
Ausschlussgrenzen auf die Unterdrückungsskala in Ab-hängigkeit von m gesetzt.
ATLAS ist einer von zwei Allzweckdetektoren am LHC. Mit ihm werden Proton-Proton-Kollisionen,
die am LHC mit einer Rate von bis zu 40 MHz auftreten, analysiert. Seit März diesen Jahres läuft
der LHC bei einer Schwerpunktsenergie von 8 TeV, 2011 waren es noch 7 TeV.
Dieser Beitrag wird zunächst die Annahmen, die in die Suche am Beschleuniger eingehen,
erläutern. Darüber hinaus werden die wesentlichen Schritte der Analyse des gesamten im Jahr
2011 aufgezeichneten Datensatzes sowie Aspekte der Suche bei 8 TeV vorgestellt. Es wird zum
einen auf die Selektion der Ereignisse in den Signalregionen, zum anderen auf die Definition
von Kontrollregionen eingegangen, die zur teilweise datenbasierten Untergrundbestimmung die-
52
44. Herbstschule für Hochenergiephysik Maria Laach 2012
nen. In diesem Zusammenhang werden auch die wesentlichen experimentellen und theoretischen
systematischen Unsicherheiten diskutiert.
Die Simulation von Signalereignissen mit dem MadGraph-Generator und die relevanten zugehörigen Unsicherheiten werden ebenfalls besprochen. Schließlich werden die Ergebnisse im
Hinblick auf die WIMP-Hypothese interpretiert und mit anderen Experimenten zur Suche nach
dunkler Materie verglichen – separat sowohl für spin-abhängige als auch für spin-unabhängige
Wechselwirkungen.
E-24 (C) Messung des Drell-Yan Wirkungsquerschnittes mit
Hilfe von Elektron-Positron-Paaren bei ATLAS
S IMON W OLLSTADT
Institut für Physik, Johannes-Gutenberg Universität Mainz
Der Large Hadron Collider (LHC) am CERN (Genf, p
Schweiz) lieferte im Jahr 2011 ProtonProton Kollisionen mit einer Schwerpunktsenergie von s D 7 TeV. Mit dem ATLAS-Detektor
wurde eine Datenmenge von ungefähr 5 fb 1 aufgezeichnet. Mit Hilfe dieser Daten ist es erstmals möglich den Drell-Yan Prozess (pp ! Z= C X ) im invarianten Massenbereich des
Zweielektronsystems von 116 GeV < Mee < 1500 GeV zu beobachten und den Wirkungsquerschnitt zu bestimmen.
Beim Drell-Yan Prozess in Proton-Proton Kollisionen fusioniert ein Quark mit einem Antiquark
zu einem Z0 -Boson oder einem virtuellen Photon ( ) und zerfällt anschließend in ein FermionAntifermion Paar. (s. Abb. E.4). Die leptonischen Zerfallskanäle in Elektron-Positron Paare und
qN 0
q
eC
Z= e
Abbildung E.4.: Der Drell-Yan Prozess mit dem Zerrfallskanal in ein Elektron-Positron Paar.
Myon-Antimyon Paare liefern ein wesentlich einfacheres Signal im Detektor als die übrigen
Zerfallskanäle. Die Analyse wurde mit Hilfe von Elektron-Positronpaaren durchgeführt. Neben
einer wohl definierten Spur im inneren Detektor ist eine lokalisierte Energiedeposition im elektromagnetischen Kalorimeter erforderlich. Der Untergrund wird bei hoher Signaleffizienz gut
unterdrückt.
Der Drell-Yan Prozess ist ein wichtiger Prozess im Standardmodell (SM). Es ist wichtig, die
theoretischen Vorhersagen, durch Messungen zu überprüfen und den Drell-Yan Prozess bei hohen invarianten Massen möglichst genau zu verstehen, da er bei der Suche nach neuer Physik
häufig als irreversibler Untergrund auftritt. Die differentielle Messung kann als Grundlage für fits
an Parton Verteilungsfunktionen (PDFs) dienen. Die Sensitivität wird sich durch eine doppeltdifferentielle Messung (invarianter Masse und Rapidität) noch verbessern.
E. Experimentelle Analysen
53
Die Messung wurde differentiell bezüglich der invarianten Masse des Zwischenzustandes durchgeführt und der Wirkungsquerschnitt innerhalb der kinematischen Schnitte mit Hilfe der folgenden Formel berechnet:
NSig
d
R
:
D
d mee
CDY Ldt
Dabei ist NSig die Anzahl der untergrundbereinigten selektierten Ereignisse und CDY die Korrektur auf die Ineffizienzen des Detektors. Der Untergrund mit echten Elektronen (aus Zerfällen
von t tN und Di-Boson Zwischenzuständen) wurde mit Hilfe von Monte-Carlo-Simulationen bestimmt und der Untergrund, bei dem ein oder zwei Jets als Elektronen fehlidentifiziert wurden
(z. B. Zweijet Ereignisse oder ein Zerfall eines W -Boson in ein Elektron und Neutrino mit einem
zusätzlichem Jet), wurde Datenbasiert abgeschätzt. Die Korrektur der Ineffizienz des Detektors
wurde mit Hilfe von Monte-Carlo-Simulationen bestimmt. Darin enthalten sind sowohl die Effizienz des Triggers, als auch die Rekonstruktion und Identifizierung von Elektronen im Detektor.
Außerdem wird auf die theoretische Extrapolation auf den totalen Wirkungsquerschnitts eingegangen und die Studien zur Abschätzung der systematischen Fehler vorgestellt.
Als Ergebniss wird der Wirkungsquerschnitt innerhalb der kinematischen Schnitte, sowie nach
der theoretischen Extrapolation der totale Wirkungsquerschnitt präsentiert. Die Ergebnisse werden mit verschiedenen Berechnungen leading order (LO), next-to-leading order (NLO) und nextto-next-to-leading order (NNLO) verglichen.
E-25 (A) Suche nach supersymmetrischen Teilchen in Endzuständen mit vier oder mehr Leptonen mit dem ATLASDetektor
M AXIMILIAN G OBLIRSCH -KOLB
Max-Planck-Institut für Physik, München
Eines der interessantesten Physikziele der Experimente am Large Hadron Collider (LHC) ist die
Suche nach Anzeichen von Supersymmetrie. Entsprechende Theorien besitzen eine zusätzliche
Symmetrietransformation, welche zwischen Bosonen und Fermionen wirkt, und den bekannten
Teilchen des Standardmodells Superpartner“ mit um 12 abweichendem Spin zuordnet. So wird
”
der Teilcheninhalt des Standardmodells mehr als verdoppelt.
Da diese Partner bisher nicht beobachtet worden sind, muss es sich um eine gebrochene Symmetrie handeln. Nach Symmetriebrechung können die Superpartner höhere Massen als die Standardmodellteilchen besitzen.
Werden derartige Teilchen an Collidern erzeugt, kommt es zu Zerfallskaskaden, die sich durch
die Produktion von hochenergetischen Standarmodellteilchen auszeichnen. In zahlreichen Modellen ist das leichteste supersymmetrische Teilchen (LSP) stabil und kann den Detektor verlassen. Somit ist eine hohe fehlende transversale Energie typischer Bestandteil von Suchen nach
Supersymmetrie.
Endzustände mit vier oder mehr Leptonen treten besonders in Modellen mit instabilem LSP und
bei Produktion der schweren Partner der Eichbosonen auf, häufig begleitet von Neutrinos.
Suchen in derartigen Kanälen sind attraktiv, da hier die Untergründe durch bekannte Standardmodellprozesse sehr klein sind. Noch am bedeutendsten ist die Erzeugung von ZZ-Paaren und
deren Zerfall in 4 hochenergetische Leptonen. Die Unterdrückung derartiger Ereignisse macht
54
44. Herbstschule für Hochenergiephysik Maria Laach 2012
sich die Tatsache zu Nutze, dass in diesem Fall Leptonenpaare im Endzustand vorliegen, deren
invariante Masse an der Z-Resonanz liegt.
Um gezielt Zerfälle supersymmetrischer Teichen zu selektieren und weiteren Untergrundausschluss zu erzielen werden zwei Signalregionen untersucht, die entweder eine hohe fehlende
transversale Energie oder eine hohe effektive Masse fordern. Die verbleibenden Untergrundbeiträge in diesen hochselektiven Regionen abzuschätzen stellt eine Hauptherausforderung der
Analyse dar.
Im Vortrag wird die Analyse von 2011 mit dem ATLAS-Detektor aufgezeichneten Kollisionen
mit einer integrierten Luminosität von 4.7 fb 1 präsentiert, mit besonderem Augenmerk auf die
Untergrundabschätzung.
E-26 (B) Zeitabhängige Analyse der CP-Verletzung im Kanal
B 0 ! D CD KS0 bei Belle
M ARTIN R ITTER
Max-Planck-Institut für Physik, München
Die Cabibbo-Kobayashi-Maskawa (CKM) Matrix beschreibt die CP -Verletzung im Standardmodell. Sie ist eine komplexe, unitäre 3 3 Matrix, welche die Mischung der Quarks beschreibt.
Aus der Unitarität folgt, dass das Produkt zweier beliebiger Spalten verschwinden muss
0
1
0
10 1
0
jd i
V
Vus Vub
jd i
B
C
B ud
CB C
B 0 C
B
CB C
B js i C D B Vcd Vcs Vcb C B jsi C ;
@
A
@
A@ A
jb 0 i
Vt d Vt s Vt b
jbi
„
ƒ‚
…
CCKM
X
k
Vi k Vjk D 0 :
Die Bedingung kann durch Dreiecke in der komplexen Zahlenebene visualisiert werden. Alle
drei Seiten und Winkel dieser Dreiecke können experimentell gemessen werden, wobei sich hier
B-Mesonen besonders eignen, da im zugehörige Unitaritätsdreieck alle Seiten ähnlich groß sind.
Für die Untersuchung der zeitabhängigen CP Asymmetrie ist es notwendig, die Zerfallszeit des
B-Mesons zu bestimmen. Da die mittlere Lebenszeit des B-Mesons nur 1.5 ps beträgt, ist sie
nicht direkt messbar, kann aber durch einen Boost in eine Flugstrecke übersetzt werden. Diese
kann dann mit präzisen Vertexdetektoren gemessen werden kann.
Der KEKB Beschleuniger in Japan ist ein asymmetrischer e C e Ringbeschleuniger der speziell
für die Untersuchung der CP -Verletzung im System der B-Mesonen konzipiert wurde. Hierbei
werden beim Zerfall der .4S/ Resonanz (10.58 GeV) kohärente B-Mesonen erzeugt. Von 1999
bis 2010 wurde so mit dem Belle Detektor eine integrierte Luminosität von 1 ab 1 (770 Millionen
B BN Events) aufgezeichnet. Bis zum Jahr 2015 wird KEKB durch ein Upgrade (SuperKEKB) auf
eine 40-fache instantane Luminosität (8 1035 cm 2 s 1 ) gesteigert werden. Entsprechend wird
E. Experimentelle Analysen
55
0.6
0.5
η
0.4
excluded area has CL > 0.95
0.7
∆md
φ3
∆md & ∆ms
CKM
εK
fitter
Winter 12
sin 2φ1
sol. w/ cos 2φ < 0
1
(excl. at CL > 0.95)
φ
2
εK
0.3
φ
2
0.2
Vub
0.1
φ
φ
0.0
-0.4
φ
3
1
2
-0.2
0.0
0.2
0.4
0.6
0.8
1.0
ρ
Abbildung E.5.: Unitaritätsdreieck im System der B-Mesonen
der Belle-Detektor aufgerüstet (Belle II). Um möglichst präzise Messungen der Zerfalls-Vertizes
für B-Mesonen bei den zu erwartenden Untergründen zu ermöglichen wird mit unserer Hilfe ein
neuer Pixel Vertex Detektor für das Belle II Experiment entwickelt.
Dieser Vortrag soll die Analyse des Zerfalles B 0 ! D C D KS0 vorstellen. Dieser Kanal erlaubt im Gegensatz zu vielen anderen Zerfällen nicht nur die Messung von sin 21 sondern auch
von cos 21 , womit eine der Lösungen von 1 ausgeschlossen werden kann. Durch die hohe
Anzahl an Zerfallskanälen und Endzuständen in diesem Kanal ist die Rekonstruktion allerdings
sehr anspruchsvoll.
N
K C mit
E-27 (C) Untersuchung des Zerfalls BN 0 ! C
c pK
dem BABAR Experiment
M IRIAM H ESS
Institut für Physik, Universität Rostock
In dieser Analyse wurde der Zerfall BN 0 ! C
N K C mit Hilfe des BABAR-Experiments unc pK
tersucht. Das BABAR-Experiment stand am Stanford National Accelerator Center (Kalifornien,
USA). Dort p
wurden am PEP-II Speichering Elektronen und Positronen bei einer Schwerpunktsenergie von s 10:58 GeV zur Kollision gebracht. Hierbei entsteht die .4S/-Resonanz, die
dominant in zwei B-Mesonen zerfällt. Während der Laufzeit des Experiments wurde mit dem
BABAR-Detektor zwischen 2000 und 2007 eine integrierte Luminosität von 424 fb 1 aufgezeichN
net. Dies entspricht der Erzeugung von 471 106 B B-Paaren.
0
C
C
C
Der Zerfall BN ! c pK
N K , wobei c ! pK C , wurde anhand seiner stabilen Zerfallsprodukte, der Protonen, Kaonen und einem Pion, rekonstruiert. Die Anzahl der zerfallenen
neutralen B-Mesonen wurde mit Hilfe eines zweidimensionalen Fits in der Ebene der invarian-
56
44. Herbstschule für Hochenergiephysik Maria Laach 2012
ten B-Masse und einer zweiten unabhängigen Variablen mE S ermittelt. Hierdurch konnte der
Zerfall BN 0 ! C
N K C beobachtet werden. Es gibt einen nicht signifikanten Hinweis für
c pK
den resonanten Unterkanal BN 0 ! C
N der über die ! K K C Resonanz zerfällt.
c p,
Dieser ist von besonderem Interesse, da viele Drei-Körper-Zerfälle eine Anreicherung für kleine
Baryon-Antibaryon Massen nahe der Schwelle zeigen. Auch in Mehr-Körper-Zerfällen kann
diese Anreicherung beobachtet werden. Das Auftreten solch einer Schwellenanreicherung kann
nur durch phänomenologische Modelle erklärt werden. Daher ist es wichtig diese durch neue
Untersuchungen verschiedener Zerfälle zu verifizieren.
E-28 (A) Spurrekonstruktion in der Vorwärtsrichtung des ILD
ROBIN G LATTAUER
Institut für Hochenergiephysik der ÖAW
Gegenwärtig ist der Large Hadron Collicer (LHC) am CERN (Genf, Schweiz) auf der Suche
nach dem Higgs-Teilchen (oder einem alternativen symmetriebrechenden Mechanismus) sowie
anderer neuer Physik. Um die betroffenen Energiebereiche genauer untersuchen zu können (z. B.
mit geringerem Hintergrund und schärfer definierter Kinematik) wären Leptonenkollisionen von
Vorteil. Diese sind am LHC aber nicht in der benötigten Energie durchführbar, da der Energieverlust durch Synchrotronstrahlung (invers proportional zur 4. Potenz der Masse) wesentlich zu
hoch wäre. Aus diesem Grund bieten sich Linearbeschleuniger an um die TeV Physik näher
zu beleuchten und Ergebnisse des LHC präziser vermessen zu können. Die zwei bedeutendsten
Anwärter sind der ILC (International Linear Collider) und der CLIC (Compact Linear Collider).
Beide Beschleuniger teilen sich gegenwärtig die Detektorkonzepte, so auch den so genannten
International Large Detector (ILD).
Zentraler Bestandteil bei der Rekonstruktion von Events im ILD ist die Suche nach den Teilchenspuren. Dies wird durch eine Kombination einer TPC (Time Projection Chamber) und mehrerer Silizium Detektoren realisiert. Die Spuren in der Vorwärtsrichtung (jene in der Gegend
des Strahlrohrs) werden vom so genannten Forward Tracking Detector (FTD) abgedeckt. Die
Abbildung E.6.: Schnitt durch den ILD.
Schwierigkeit besteht nun darin, in den Hits auf den Sensoren des Detektors die wahren Teilchenspuren wiederzuerkennen. Die geringe Anzahl an möglichen Hits pro Spur und der Hintergrund
E. Experimentelle Analysen
57
(e.g. Paarbildung durch Photonen) erschweren die Aufgabe wesentlich.
Algorithmen zur Rekonstruktion von Spuren müssen schnell sein, dürfen nicht zu viele echte
Spuren verlieren und sollten falsche Spuren weitestgehend ausschließen können. Dafür wird für
den ILD eine Kombination aus drei Algorithmen angewandt:
Der Zelluläre Automat: Dieser sehr vielseitige Basisalgorithmus kann spezialisiert und
adaptiert werden, um Teilchenspuren aufzufinden und dabei möglichst viel Information
möglichst früh einfließen zu lassen und so den kombinatorischen Hintergrund zu unterdrücken.
Der Kalman Filter: Wird verwendet um die Spuren zu fitten. Durch die Nutzung der kompletten Information einer Spur und die Mitberücksichtigung von Vielfachstreuung und
Energieverlust wird er zum optimalen Fitter für die Hochenergiephysik. Für das Suchen
von Spuren liefert er einen wichtigen Indikator für Qualität: die 2 - Wahrscheinlichkeit.
Das Hopfieldsche Neuronale Netz: Am Ende der Rekonstruktion von Spuren steht man
oft vor dem Problem, dass man zu viel“ gefunden hat und es Inkompatibilitäten gibt, i.e.
”
Spuren, die sich gegenseitig (höchstwahrscheinlich) ausschließen. Dann ist es nötig ein
optimales Subset zu finden, das einerseits vollständig kompatibel ist, andererseits auch
eine möglichst hohe Qualität aufweist. Dieses Problem kann durch eine Variante des Hopfieldschen Neuronalen Netzes gelöst werden.
T. Theorie
T-1 (A) Beiträge skalarer und pseudoskalarer Bosonen zur t tNProduktion am LHC
P ETER G ALLER
Institut für Physik, HU Berlin
Eine wichtige Motivation für den Errichtung des Large Hadron Colliders (LHC) ist die Suche
nach dem Mechanismus der elektroschwachen Symmetriebrechung, also dem Mechanismus,
welcher den Wechselwirkungsteilchen der schwachen Wechselwirkung (W - und Z-Bosonen)
ihre Massen gibt. Im Rahmen des Standardmodells (SM) der Elementarteilchen ist dieser Mechanismus mithilfe eines Skalars, des Higgsbosons, realisiert. Das Higgsboson ist jedoch das
einzige vom SM vorhergesagte Elementarteilchen, welches bisher (Stand Juni 2012) noch nicht
nachgewiesen werden konnte.
Neben seinen symmetriebrechenden Eigenschaften ist das SM-Higgs, wie schon erwähnt, außerdem noch ein elementares Skalar und damit das einzige dieser Art im SM. Alle anderen Teilchen
haben entweder die Spinquantenzahl s D 21 (Materieteilchen) oder s D 1 (Wechselwirkungsteilchen). Es entsteht also die Frage, ob diese Teilchenart überhaupt in der Natur realisiert ist.
Im SM selbst gibt es außer der elektroschwachen Symmetriebrechung noch andere Hinweise,
dass Skalare existieren könnten. So verhindert z. B. der Austausch von Skalaren bei der Streuung
von W -Bosonen aneinander die Verletzung der Unitarität. Aber auch in Theorien jenseits des
SM gibt es theoretisch sehr gut motivierte Kandidaten für Skalare. Es existieren z. B. Modelle,
in denen die Isotropie des kosmischen Mikrowellenhintergrunds durch eine Phase beschleunigter
Ausdehnung des Universums, der sogenannten Inflation, erklärt wird. Diese Inflation wird dabei
durch ein skalares Feld, das Inflaton, getrieben. Auch die dunkle Energie, welche rund 70% der
Energiedichte des Universums ausmacht, könnte durch Skalare erklärt werden.
Die Suche nach elementaren Skalaren ist also sowohl phänomenologisch als auch konzeptionell spannend, denn einerseits sollen mit der experimentellen Suche nach Skalaren (dem Higgs)
Lücken im SM geschlossen werden und anderseits stellen sie aus theoretischer Sicht sowohl im
SM als auch in dessen Erweiterungen interessante Objekte dar.
In diesem Vortrag geht es um die Untersuchung der phänomenologischen Auswirkungen eines schweren Skalars auf die t tN-Produktion in nächstführender Ordnung (NLO) der starken
Kopplungskonstanten ˛s . Das untersuchte Spin-0-Boson soll eine Masse von m > 2m t (m t
Topquarkmasse) besitzen und elektrisch neutral sein. Die Kopplung an Fermionen ist, wie beim
SM-Higgs, proportional zur Fermionenmasse. Aus diesem Grund ist die Kopplung an Topquarks,
die schwersten bekannten Elementarteilchen, besonders groß. Dadurch ist der Zerfall des Skalars in Topquarks stark bevorzugt (hohe braching ratio) und liefert deshalb den größten Beitrag
und das stärkste Signal im Experiment. Außerdem ist das t tN-System theoretisch sehr gut verstanden und eignet sich u. a. deshalb auch zur Untersuchung Neuer Physik“ im skalaren Sektor.
”
T. Theorie
59
Ein zentraler Punkt dieser phänomenologischen Studie ist die Untersuchung unterschiedlicher
Kopplungsarten des Skalars. Dabei werden skalare und pseudoskalare Kopplung unterschieden
und so parametrisiert, dass in der Berechnung von Observablen die volle Kontrolle über die
jeweilige Kopplungsstärke beibehalten wird. Zur Untersuchung der Kopplungsart ist die Wahl
geeigneter Observablen wichtig. So sind z. B. spinabhängige Observablen besonders sensitiv auf
pseudoskalare Kopplung. Zur Berechung dieser Observablen wird die volle Spininformation des
t tN-Paares benötigt, welche man mit Hilfe des Spindichtmatrixformalismus extrahieren kann. Das
t tN-System ist besonders für diese Analyse prädestiniert, da das Topquark aufgrund seiner hohen
Masse zerfällt, bevor es hadronisieren kann und damit seine Spininformation an die Zerfallsprodukte weitergibt. Diese Spininformationen, wie z. B. Polarisation oder Spinkorrelationen, lassen
sich dann in Form von Winkelverteilungen der Zerfallsprodukte extrahieren.
Higgsproduktion und -zerfall in Topquarks wurden bereits einzeln zu höheren Ordnungen in der
QCD berechnet doch die Berechnung der spinabhängigen Observablen existiert nur zu führender Ordnung (LO). Eine Untersuchung der Skalenabhängigkeit des LO-Ergebnisses zeigt eine
Unsicherheit von 20-30%, wenn man die Faktorisierungs- und Renormierungsskala zwischen
D 2m t und D 0:5m t variiert. Diese Unsicherheit ist vor allem der starken -Abhängigkeit
von ˛s anzurechnen. In nächstführender Ordnung wird diese Abhängigkeit teilweise kompensiert bzw. reduziert. Dadurch liefert das NLO-Ergebnis eine höhere Genauigkeit und damit eine
bessere Aussagekraft.
Der Vortrag beginnt zunächst mit einen kurzen Überblick über die Ergebnisse der führenden
Ordnung. Danach werden wesentlichen Aspekte und Schritte der Rechnung zur nächstführenden
Ordnung erläutert. Schließlich werden die Resultate präsentiert.
T-2 (B) Modellunabhängiger Ansatz für ! C und 0 !
C F ELIX S TOLLENWERK
Institut für Physik, HU Berlin
Bei den Strahlungszerfällen ! C und 0 ! C gibt es eine signifikante Abweichung zwischen Messungen und den Vorhersagen der Chiralen Störungstheorie (ChPT). Der
hauptsächliche Grund dafür ist die nichtperturbative Endzustandswechselwirkung, welche
universell im Pion (Vektor-)Formfaktor FV .s / erfasst werden kann. Die analytischen Eigenschaften dieses Formfaktors lassen sich in einer Dispersionsrelation ausdrücken, deren Lösung
FV .s / D exp
1
s hr 2 i
6 s2
C 1
ı11 .s/
ds 2
s .s s i/
4m2
Z
(T.1)
lautet. Hierbei ist s die invariante Masse der Pionen zum Quadrat, während hr 2 i und ı11 .s/ den
mittleren quadratischen Ladungsradius des Pions bzw. die elastische Streuphase im VektorIsovektor-Kanal bezeichnen.
Einerseits fixiert Glg. (T.1) den Formfaktor nur bis auf eine multiplikative Funktion ohne rechtshändige Schnitte in der komplexen s -Ebene. Andererseits weist die Zerfallsamplitude (bis auf einen
44. Herbstschule für Hochenergiephysik Maria Laach 2012
|FV(sππ)|
2
60
10
1
-0,2 0
0,2 0,4 0,6 0,8
1
2
sππ [GeV ]
Abbildung T.1.: Das rote Band zeigt den Formfaktor gemäß Glg. (T.1), die blaue gestrichene
Linie das 1–loop ChPT Ergebnis. Der kurze (lange) schwarze Strich zeigt den kinematischen
Bereich von s im Zerfall von (0 ) an.
von crossed channels herrührenden linkshändigen Schnitt, der jedoch kinematisch und chiral unterdrückt ist) die gleiche analytische Struktur wie FV .s / auf. Daher können wir die Amplitude
gemäß
d
jA P .s / FV .s /j2
(T.2)
ds faktorisieren und P .s / in eine Taylorreihe um s D 0 entwickeln:
P .s / D 1 C ˛ .0/ s C O s2 ;
(T.3)
wobei ˛ und ˛ 0 die zu den jeweiligen Zerfällen von bzw. 0 gehörigen Parameter sind. Wenn wir
davon ausgehen, dass der universelle Teil FV .s / alle nichtperturbativen Effekte einschließt,
sollte der reaktionsspezifische Teil A P .s / perturbativ betrachtet werden können. In der Tat
zeigt sich, dass bereits ein lineares Polynom (T.3) mit
˛ D .1:96 ˙ 0:27 ˙ 0:02/ GeV
0
˛ D .1:80 ˙ 0:49 ˙ 0:04/ GeV
2
2
I
(T.4)
ausreicht, um spektrale Zerfallsdaten zu beschreiben, siehe Abb. T.2. Die postulierte Zerfallsamplitude (T.2) kann – nach Ersetzung von FV .s / durch den 1–loop ChPT Formfaktor – mit der
1–loop ChPT Amplitude gleichgesetzt werden. Dann ist den Parametern ˛ .0/ jeweils die Niederenergiekonstante a2 in ChPT zugeordnet, und man erhält aus (T.4):
a2 D 9:70 ˙ 0:7 I
0
a2 D 9:23 ˙ 1:4
(T.5)
Die Verträglichkeit dieser beiden Werte bestätigt die Richtigkeit der Annahme, dass der Formfaktor den einzigen nichtperturbativen Teil der Amplitude ausmacht.
Der modellunabhängige Ansatz aus Glg. (T.2) stellt damit einen kontrollierten Weg zur Entflechtung von perturbativen und nichtperturbativen Effekten da und erlaubt es, perturbative Rechnungen in die kinematische Resonanzregion auszuweiten. Er kann allgemein angewendet werden
zur Analyse von Strahlungszerfällen von Mesonen in ein Vektor-Isovektor Pionenpaar, dessen
invariante Masse unterhalb der ersten signifikanten Schwelle im Vektorkanal liegt.
8
7
6
5
4
3
2
1
0
61
20
dΓ/dEγ [arb. units]
dΓ/dEγ [arb. units]
T. Theorie
15
10
0
0.05
0.1
0.15
Eγ [GeV]
0.2
5
0
0
0.1
0.2
Eγ [GeV]
0.3
0.4
Abbildung T.2.: Experimentelle Daten und fehlergewichtete Fits für (links) und 0 (rechts)
nach C unter Verwendung von Glg. (T.2) und (T.3) mit s D m.0/ .m.0/ 2E /.
T-3 (C) W=Z=-Produktion bei grossem pT in SCET
S TEFANIE M ARTI
Institut für Theoretische Physik, Universität Bern
Die Produktion eines elektroschwachen Bosons, gefolgt von dessen Zerfall in ein Leptonen-Paar,
ist einer der häufigsten harten Streuprozesse in Hadronenbeschleunigern. Inzwischen wurden am
Large Hadron Collider (LHC) bereits Millionen von W - und Z-Bosonzerfällen in LeptonenPaare aufgezeichnet. Diese Daten ermöglichen Präzisionsmessungen auch bei grossem transversalem Impuls pT des Bosons. Da elektroschwache Bosonen mit großem pT einerseits einen
wichtigen Hintergrund bei der Suche nach Neuer Physik“ darstellen, und andererseits zum Ka”
librieren von Jet-Energie-Skalen benutzt werden, ist es wichtig, eine gute theoretische Kontrolle
über den Wirkungsquerschnitt in dieser Region zu haben.
Die vollständigen O.˛s2 /-Korrekturen zur Vektorboson-Produktion sind bekannt. Da das pT Spektrum erst bei O.˛s / beginnt, liefern diese allerdings nur die NLO-Korrekturen für die
Vektorboson-Produktion bei großem pT . Zwar sind die virtuellen Korrekturen für die Produktion von elektroschwachen Bosonen in Verbindung mit einem Jet seit einiger Zeit auch auf NNLO
bekannt, aber die Korrekturen für die reellen Emissionen fehlen. Letztere sind zwar im Allgemeinen kompliziert, vereinfachen sich aber nahe der partonischen Schwelle. An dieser Schwelle
ist der transversale Impuls pT des Bosons nahe der Hälfte der partonischen Schwerpunktsenergie
und der hadronische Endzustand besteht aus einem einzigen Jet mit kleiner invarianter Masse.
Sämtliche reellen Abstrahlungen sind somit entweder soft oder kollinear zum Jet oder den eingehenden Hadronen. Für große pT dominieren diese Korrekturen und auch ausserhalb dieser
Region liefern diese Terme eine gute Näherung an den vollen Wirkungsquerschnitt. Aufgrund
der soften und kollinearen Strahlung enthält der Wirkungsquerschnitt große Logarithmen, die zu
allen Ordnungen in der Störungstheorie resummiert werden müssen. Diese Resummation kann
man in einer effektiven Theorie, der Soft-Collinear Effective Theory (SCET), durchführen.
Nahe der partonischen Schwelle faktorisiert der partonische Wirkungsquerschnitt für einen gegebenen partonischen Anfangszustand I in eine harte Funktion mal die Faltung einer Jet- und
62
44. Herbstschule für Hochenergiephysik Maria Laach 2012
einer soften Funktion:
d O I
D IB .Os ; tO/HI .Os ; tO; MV ; /
d sO d tO
Z
d kJI .mX2
2EJ k/SI .k; / ;
(T.6)
wobei sO D .p1 C p2 /2 und tO D .p1 q/2 die partonischen Mandelstam-Variablen sind und
q der Impuls des Vektorbosons mit q 2 D MV2 . Die partonischen Impulse p1 und p2 tragen
die Impulsanteile x1 und x2 der hadronischen Impulse, p1 D x1 P1 und p2 D x2 P2 . An der
partonischen Schwelle verschwindet die Masse des ausgehenden Jets mX2 D .p1 Cp2 q/2 D 0.
Nahe dieser Schwelle ist kein Phasenraum mehr übrig für zusätzliche harte Strahlung und die
einzigen Korrekturen des Wirkungsquerschnitts stammen aus virtuellen Korrekturen, welche in
der harten Funktion HI .Os ; tO; MV ; / enthalten sind und den soften und kollinearen Emissionen,
gegeben durch SI .k; / und JI .pJ2 /.
In meinem Vortrag werde ich die SCET-Faktorisierungsformel (T.6) kurz herleiten und die Berechnung der soften Funktion auf NNLO skizzieren. Weiter werde ich die wichtigsten Punkte
der Berechnung der Jet- und der harten Funktion erläutern und die Lösung der entsprechenden
Renormierungsgruppen-Gleichungen vorstellen. Schließlich können alle Zutaten zu der resummierten Korrektur in NNNLL-Näherung (next-to-next-to-next-to leading log) zusammengefügt
werden.
T-4 (A) Effektive Modelle für Dunkle Materie am ILC
DANIEL S CHMEIER
Physikalisches Institut, Universität Bonn
Viele astrophysikalische Beobachtungen könnten durch die Existenz massiver Teilchen mit nur
schwacher Wechselwirkung, so genannter Dunkle Materie, zufriedenstellend erklärt werden. Da
das Standardmodell (SM) keinen Kandidaten für ein solches Teilchen liefert, wird zur Zeit in
verschiedenen Experimenten nach möglichen Erweiterungen des Standardmodells gesucht. Die
üblicherweise hohe Anzahl an Freiheitsgraden in solchen fundamentalen Theorien erlaubt jedoch
häufig nur Analysen in spezifischen Parameterbereichen.
Die Verwendung effektiver Theorien ermöglicht es, mit einfachen Vertizes und wenigen Parametern die essentiellen Wechselwirkungsmechanismen zu beschreiben: Wir unterscheiden hierbei Spin, Masse und die Kopplung der Dunklen Materie an Standardmodell-Fermionen und leiten verschiedene effektive Vier-Teilchen-Vertizes zwischen je zwei Standardmodell- und zwei
Dunkle-Materie-Teilchen her. Diese Vertizes hängen jeweils nur noch von einer Kopplungskonstante Geff sowie der Masse der Dunklen Materie ab.
max
Für diese Modelle bestimmen wir die maximale Kopplungsstärke Geff
, die am International
Linear Collider (ILC) durch Messung der Photonen im Prozess e C e ! N ausgeschlossen
werden könnte.
Die fehlenden QCD-Unsicherheiten eines Elektron-Positron-Kolliders, die gegenüber vorherigen
Experimenten erhöhte Strahlenergie und die Polarisierbarkeit der einfallenden Leptonen lassen
gute Resultate für eine Messung am ILC im Vergleich mit vorherigen Experimenten vermuten.
Für den Signalprozess und die dominierenden Untergrundprozesse
./
N
und e C e simup
lieren wir Ereignisse bei einer Strahlenergie von s D 500 GeV und parametrisieren die Detektorantwort mit einer integrierten Luminosität von 500 fb 1 . Wir bestimmen statistische und
T. Theorie
63
systematische Unsicherheiten in der Untergrunderwartung und schließen für jedes Modell Kopplungskonstanten aus, die zu einer höheren Signalstärke führen als diese Gesamtfluktuation. Dabei
verwenden wir für jedes Modell die Eingangspolarisation mit dem bestzuerwartenden Ergebnis.
Im Vortrag werden die einzelnen Modelle vorgestellt und Details über die Ereigniserzeugung
und Detektorparametrisierungen erläutert. Der Einfluss der Eingangspolarisation und der systematischen Unsicherheiten auf das Ergebnis wird diskutiert und dieses schließ lich mit anderen
Experimenten verglichen.
T-5 (B) NLO QCD Korrekturen zur Produktion von W C Endzuständen am LHC
M ARKUS H ECHT
Physikalisches Institut, Universität Freiburg
Die Produktion von W C Endzuständen am Large Hadron Collider (LHC) ist ein wichtiger
Prozess für die Suche nach Neuer Physik“. Neue physikalische Effekte könnten sich in der
”
Kopplung zwischen Photon und W -Boson in Form von sogenannten Annomalen Kopplungen
zeigen. Des weiteren ist die Produktion von W C Paaren ein wichtiger Hintergrundprozess für
die Suche nach Neuer Physik“. Schließlich erlaubt die Messung von Distributionen eine präzise
”
Bestimmung der Eichboson-Kopplungen und der Eichboson-Massen. Um mit diesen Messungen
das Standardmodell zu testen, werden ebenso präzise theoretische Vorhersagen benötigt. Zwar
wurden bereits einige Korrekturen in NLO QCD berechnet, jedoch wurde in diesen Berechnungen das leptonisch zerfallende W Boson immer in der sogenannten narrow-width“ Approxima”
tion behandelt.
In diesem Vortrag wird die Berechnung der NLO QCD Korrekturen behandelt, wobei keine
Näherungen verwendet werden. Das heißt, es werden auch jene Fälle berücksichtigt, in denen
das W -Boson nicht auf seiner Massenschaale ist. Um dies konsistent zu beschreiben, wird das
sogenannte complex-mass-scheme“ verwendet.
”
Bei der Berechnung der reellen Korrekturen treten Infrarot (IR)-Divergenzen auf. Diese werden teilweise kompensiert durch IR Divergenzen, die in den virtuellen Korrekturen auftreten.
Die übrigen divergenten Terme können durch eine Neudefinition der Partondichten kompensiert
werden. Die Schwierigkeit besteht darin die Divergenzen aus den reellen Korrekturen zu extrahieren. Da die reellen und die virtuellen Korrekturen über unterschiedliche Phasenräume integriert werden, kann man die Kompensation der Divergenzen nicht einfach analytisch berechnen.
Deshalb wird der Subtraktionsformalismus verwendet. Dabei wird eine Subtraktionsfunktion
von den reellen Korrekturen abgezogen. Diese Funktion hat die Eigenschaft, dass sie die IR Divergenzen der reellen Korrekturen kompensiert. Gleichzeitig wird diese Funktion wieder addiert,
wodurch man am Gesamtergebnis nichts ändert. Nun wird die zurück addierte Subtraktionsfunktion über den divergenten Einteilchenphasenraum analytisch integriert und die Divergenz aus der
virtuellen Korrektur kann analytisch kompensiert werden. Wie oben bereits erwähnt, bleibt eine
kollineare Divergenz übrig. Diese kommt von Partonen im Endzustand, die von einlaufenden
Partonen kollinear abgestrahlt wurden. Eine Neudefinition der Partondichten kompensiert die
übrig gebliebene Divergenz schließlich.
Ein weiteres Problem tritt auf wenn das Photon und ein Jet kollinear abgestrahlt werden. Falls
64
44. Herbstschule für Hochenergiephysik Maria Laach 2012
der Jet aus einem Quark entstanden ist, tritt eine kollineare Divergenz auf. Würde man die kollineare Divergenz inklusiv behandeln, müsste die Kombination aus den beiden Prozessen W CJet
und W C berechnet werden. Um dies zu vermeiden wird der Anteil der Photon Energie innerhalb des Jets verwendet, um zwischen den beiden Prozessen zu unterscheiden. Die kollineare
Divergenz kann dann kompensiert werden durch eine Quark-Photon Fragmentationsfunktion.
Als alternative zur Quark-Photon Fragmentationsfunktion kann man auch einen Frixione Schnitt
verwenden. Es werden numerische Ergebnisse (totale Wirkungsqueerschnitte und verschiedene Distributionen) unter Verwendung beider Methoden präsentiert und verglichen. Desweiteren
werden unsere numerischen Ergebnisse verglichen mit Ergebnissen, die mit dem Monte-CarloProgramm MCFM generiert wurden.
T-6 (C) Interferenzeffekte im MSSM in einer verallgemeinerten Narrow-Width Approximation
E LINA F UCHS
DESY
Sowohl theoretische Argumente als auch experimentelle Befunde deuten darauf hin, dass das
Standardmodell (SM) der Teilchenphysik keine vollständige Theorie darstellen kann. Eine mögliche und vielversprechende Erweiterung ist Supersymmetrie (SUSY), die jedem SM-Teilchen
ein im Spin verschiedenes supersymmetrisches Partnerteilchen zuordnet und mit einem zweiten
Higgs-Dublett den Higgs-Sektor vergrößert.
Aufgrund des erweiterten Teilchenspektrums im Minimalen Supersymmetrischen Standardmodell (MSSM) können typischerweise lange Zerfallsketten auftreten, deren volle Berechnung aufwendig oder sogar bisher unmöglich ist. Die Näherung schmaler Breiten (NWA, narrow-width
approximation) erlaubt unter gewissen Voraussetzungen, einen komplizierteren Prozesses in die
Produktion eines instabilen Teilchens auf seiner Massenschale und den anschließenden Zerfall
mittels Multiplikation mit dem entsprechenden Verzweigungsverhältnis zu faktorisieren und damit mehrstufige Prozesse in einfachere Unterprozesse zu zerlegen. Dies basiert auf der Faktorisierung des Matrixelements und des Phasenraums in einen Produktions- und Zerfallsanteil.
Wenn jedoch die Massendifferenz zweier instabiler Teilchen, die zum Prozess beitragen, eine
der beiden totalen Zerfallsbreiten unterschreitet, ist der Überlapp der Breit-Wigner-Funktionen
im Interferenzterm nicht vernachlässigbar. Daher verliert die gewöhnliche NWA ihre Gültigkeit
im Fall von Interferenzen zwischen quasi massenentarteten Teilchen, da Interferenzterme im
quadrierten Matrixelement ausgelassen werden.
Beispielsweise können große Interferenzeffekte zwischen den Beiträgen der Higgs-Bosonen
des MSSM auftreten, die im untersuchten Fall im Zerfall eines schweren Neutralinos entstehen und anschließend in -Leptonen zerfallen. Eine verallgemeinerte NWA wird untersucht,
die die Berücksichtigung eines Interferenzterms – analog zur gewöhnlichen NWA – in einer onshell-Näherung ermöglicht. Während die gewöhnliche NWA stark von der exakten Zerfallsbreite
abweicht, gelingt es, mit Hilfe der verallgemeinerten NWA inklusive Interferenzterm das volle
Ergebnis mit einer Genauigkeit von wenigen Prozent anzunähern.
T. Theorie
65
Zusätzlich werden Ein-Schleifen-Korrekturen berücksichtigt, wobei der Neutralino-Sektor in eiN
nem on-shell-Schema und der Higgs-Sektor in einem kombinierten on-shell- und DR-Schema
renormiert werden. Diese Methode erlaubt unter Ausnutzung der Vereinfachung durch Faktorisierung in Produktion und Zerfall, Korrekturen höherer Ordung in Teilprozessen mit einer konsistenten Vorhersage für den Interferenzterm zu verbinden und die Vorhersage in der verallgemeinerten NWA mit dem vollen Dreikörperzerfall auf dem Ein-Schleifen-Niveau zu vergleichen.
Dieses Verfahren kann sich als nützlich erweisen in der Anwendung auf kompliziertere Prozesse,
für die die Faktorisierung in verschiedene Unterprozesse essentiell ist, um die Berechnung von
Beiträgen höherer Ordnung zu ermöglichen.
T-7 (A) Higgspaarproduktion in Composite Higgs Modellen
R AMONA G R ÖBER
Institut für Theoretische Physik, KIT
Eines der Hauptziele des Large Hadron Collider (LHC) ist es, den Mechanismus der elektroschwachen Symmetriebrechung zu enthüllen und damit den Ursprung der Eichbosonenmassen sowie der Fermionmassen zu ergründen. Im Standardmodell (SM) geschieht dies mithilfe
eines einzigen komplexen Skalarfelds, welches unter der SU.2/-Symmetrie der SM Eichgruppe
als Dublett transformiert. Dieses Feld hat vier Freiheitsgrade. Drei dieser Freiheitsgrade gehen
über in longitudinale Polarisationszustände der massiven Eichbosonen, ein Freiheitsgrad bleibt
übrig und zeigt sich als physikalisches Teilchen – das Higgsboson. An den Experimenten ATLAS
und CMS wurde vor kurzem ein Überschuss an Daten beobachtet, der mit der Hypothese eines
SM-artigen Higgsbosons bei 124 126 GeV vereinbar ist. Eine Entdeckung konnte jedoch noch
nicht verkündet werden. Sollte das Higgsboson allerdings gefunden werden, so muss zunächst
noch überprüft werden, ob dieses Higgsboson sich in der Tat so verhält wie vom SM vorhergesagt oder ob andere Modelle jenseits des SM sein Verhalten besser erklären können. Gerade im
Higgssektor könnte es Hinweise für Physik jenseits des SM geben, da das SM Higgsboson als
skalares fundamentales Teilchen, große Massenkorrekturen bekommt, die quadratisch im Abschneideparameter sind. Sollte das SM bis zur Planck-Skala gültig sein, würde dies ein großes
Maß an Feinabstimmung benötigen, um die Higgsmasse auf einen Wert an der elektroschwachen
Symmetriebrechungsskala festzulegen.
Ein Beispiel für Modelle, die dieses Problem beheben, sind Composite Higgs Modelle, in denen
das Higgsboson kein fundamentales Teilchen mehr ist sondern ein zusammengesetztes Teilchen
eines stark wechselwirkenden Sektors. Analog zum Pion in der Quantenchromodynamik ist das
Higgsboson ein Pseudo-Nambu-Goldstone-Boson, was bedeutet, dass das Higgsboson als Goldstoneboson des stark wechselwirkenden Sektors auftritt, das als solches masselos in alle Ordnungen Störungstheorie wäre. Die zugrunde liegende Symmetrie ist aber keine exakte Symmetrie,
also explizit durch Terme in der Lagrangedichte gebrochen. Dadurch bekommt das Higgsboson
durch Schleifen von SM Fermionen und Eichbosonen eine Masse. Terme, die die Symmetrie
explizit brechen, sind in Composite Higgs Modellen lineare Kopplungen von SM Fermionen an
den stark wechselwirkenden Sektor. Solche Modelle können auf einer fünfdimensionalen Antide-Sitter Raumzeit realisiert werden, jedoch ist eine effektive vierdimensionale Beschreibung
einfacher. Um die große Top-Quark-Masse zu erklären, ist es natürlich, anzunehmen, dass das
66
44. Herbstschule für Hochenergiephysik Maria Laach 2012
Top-Quark eine Mischung zwischen einem masselosen fundamentalen Top-Quark ist und Topartigen Fermionen des stark wechselwirkenden Sektors. In realistischen Modellen sind diese
Top-Partner relativ leicht und damit unterhalb des Abschneideparameters der effektiven Theorie.
Um den Mechanismus der elektroschwachen Symmetriebrechung zu verstehen, reicht das Auffinden des Higgsbosons allein nicht aus. Es müssen außerdem sämtliche Kopplungen gemessen
werden, im Besonderen auch die Higgs-Selbstkopplungen, mit deren Hilfe dann das Higgspotential rekonstruiert werden kann. Higgspaarproduktion erlaubt hierbei die Bestimmung der trilinearen Higgskopplung. Am LHC ist Higgspaarproduktion durch Gluonfusion der dominante Prozess. Er wird über Schleifen schwerer Fermionen vermittelt. Im SM sind das v. a. Top-Quarks;
Bottom-Quarks liefern schon deutlich niedrigere Beiträge. In Composite Higgs Modellen kommen – erlaubt man Top-Partner unterhalb des Abschneideparameters – deren Beiträge noch dazu.
Diese können in Higgspaarproduktion einen großen Einfluß auf den Wirkungsquerschnitt haben,
wohingegen in der Produktion eines einzelnen Higgsbosons der Wirkungsquerschnitt nicht vom
Spektrum dieser Partner abhängt. In meinem Vortrag werde ich Wirkungsquerschnitte für Higgspaarproduktion am LHC präsentieren und auf den Einfluss von Top-Partnern eingehen.
T-8 (B) B.BN ! Xs / in 2-Higgs-Dublett-Modellen
T HOMAS H ERMANN
Institut für Theoretische Teilchenphysik, KIT
Neben der direkten Suche nach Neuer Physik“ am Large Hadron Collider (LHC) ist es ebenso
”
wichtig, durch Präzissionsmessungen in Kombination mit Präzissionsrechnungen nach Abweichungen vom Standardmodell zu suchen. Der inklusive Zerfall BN ! Xs eignet sich hierbei
besonders gut, da der Zerfall schon im Standardmodell durch eine Schleife induziert wird und
damit sehr sensitiv auf Physik jenseits des Standardmodells ist. Außerdem wurde der Zerfall
durch mehrere Experimente sehr genau bestimmt, wobei der aktuelle experimentelle Messwert
für das Verzweigungsverhältnis .B/ bei
ˇ
B.BN ! Xs /ˇ
D .3:55 ˙ 0:24 ˙ 0:09/ 10 4
E >1:6 GeV
liegt.
Die Standardmodellvorhersage ist bis zur nächst-nächst-führenden Ordnung (NNLO) bekannt,
ˇ
B.BN ! Xs /ˇ
D .3:15 ˙ 0:23/ 10 4 :
E >1:6 GeV
In den 2-Higgs-Dublett-Modellen gibt es im Vergleich zum Standardmodell ein weiteres HiggsDublett, welches zu weiteren skalaren Freiheitsgraden führt. Das hierbei auftretende geladene
Higgs-Boson (H ˙ ) liefert durch die Kopplung zwischen up-artigen und down-artigen Quarks
Beiträge zum Zerfall b ! s .
Das besondere Interesse an BN ! Xs in Kombination mit 2-Higgs-Dublett-Modellen kommt
daher, dass im Type II Modell diese Observable für moderate tan ˇ Werte die stärkste untere
Grenze für die geladene Higgs-Masse mit MH C & 300 GeV (95% CL) liefert.
Die Rechnungen für BN ! Xs werden innerhalb einer effektiver Theorie durchgeführt in der
die schweren Teilchen (W ˙ , t , H ˙ ) ausintegriert werden und die Wechselwirkungen dieser Teilchen in Form von höherdimensionalen Operatoren auftreten. Dadurch ist es möglich die großen
T. Theorie
67
Logarithmen konsistent aufzusummieren. In den Kopplungskonstanten der höherdimensionalen Operatoren, den sogenannten Wilson-Koeffizienten, steckt die gesamte Physik der schweren
Teilchen. In Theorien jenseits des Standardmodells mit zusätzlichen schweren Teilchen ändern
sich deswegen nur die Wilson-Koeffizienten.
In diesem Vortrag werde ich die Berechnung der NNLO QCD-Korrekturen der Wilson-Koeffizienten
für 2-Higgs-Dublett-Modelle beschreiben. Dazu war es nötig Drei-Schleifen Vakuum Diagramme mit zwei verschiedenen Massenskalen (M t und MH ˙ ) zu berechnen.
Mit diesen Ergebnissen für die Wilson-Koeffizienten ist es nun möglich ein konsistentes NNLO
Ergebnis für das Verzweigungsverhältnis anzugeben. Im Vergleich zu bisherigen Ergebnissen
konnte die Unsicherheit der sogenannten Matchingskala reduziert werden, was zu einer Stabilisierung für die untere Grenze der Masse des geladenen Higgs-Bosons führt.
T-9 (C) Colour-Reconnection im Ereignisgenerator H ER WIG ++
C HRISTIAN R ÖHR
Institut für Theoretische Physik, KIT
Monte-Carlo-Ereignisgeneratoren spielen eine bedeutende Rolle in der Collider-Physik. Sie werden benötigt, um, ausgehend von Feldtheorien, Teilchenkollisionen zu simulieren. So ist es
möglich, Ergebnisse von Messungen an Teilchenbeschleunigern wie dem Large Hadron Collider
(LHC) zu verstehen und die zugrundeliegenden Theorien zu überprüfen.
Die Simulation von Hadron-Kollisionen in einem Ereignisgenerator findet in mehreren Schritten
statt. In der Regel wird zunächst auf der Basis störungstheoretischer Berechnungen eine 2 ! 2–
Wechselwirkung zweier Partonen, also (Anti-)Quarks oder Gluonen, erzeugt. Wichtige Beiträge
höherer Ordnungen der Störungsentwicklung werden daraufhin im Parton-Schauer näherungsweise berücksichtigt. Typischerweise entstehen dadurch Bündel von Partonen (Jets). Aus diesen
Parton-Jets werden mit Hilfe phänomenologischer Hadronisierungs-Modelle hadronische Endzustände erzeugt.
Diese Simulationsschritte reichen aber nicht aus, um wichtige an Hadron-Collidern beobachtete
Phänomene zu beschreiben. Beispielsweise enthalten Events mit harten (also transversalimpulsreichen) Jets immer zusätzliche weichere Jets, und zwar weitgehend unabhängig von Transversalimpuls und Richtung der harten Jets. Diese zusätzliche hadronische Aktivität wird Underlying
Event genannt. Es stellt sich heraus, dass das Underlying Event auf zusätzliche Parton-PartonWechselwirkungen innerhalb derselben Hadron-Kollision zurückgeführt werden kann.
Im Ereignisgenerator H ERWIG ++ werden diese Mehrfach-Parton-Wechselwirkungen als unabhängige Partonstreuungen erzeugt. Da die einzelnen Wechselwirkungen im Allgemeinen keine
Farbsinglets bilden, sind sie durch Farblinien miteinander verbunden. Dadurch können PartonPaare (Cluster) großer invarianter Masse entstehen, deren Bestandteile sich also in stark unterschiedliche Richtungen bewegen. Diese schweren Cluster tauchen nicht in e C e ! q q–
N
Ereignissen auf. Dort erzeugt der Parton-Schauer nämlich farbverbundene Partonen mit Impulsen
in ähnlichen Richtungen. Diese Eigenschaft des Parton-Schauers wird Preconfinement genannt.
68
44. Herbstschule für Hochenergiephysik Maria Laach 2012
Das Preconfinement legt den Schluss nahe, dass auch Jets aus verschiedenen Parton-Wechselwirkungen farbverbunden sein sollten, wenn sie sich im Impulsraum überlappen. Das wird mit
einem Colour-Reconnection-Modell ermöglicht. Anschaulich werden in der nicht-perturbativen
Hadronisierungsphase die Farblinien zwischen den Partonen neu verbunden, sodass überlappende Parton-Jets gemeinsam hadronisieren können.
In diesem Vortrag wird die Implementierung eines Colour-Reconnection-Modells in H ERWIG ++
vorgestellt. Es wird außerdem gezeigt, dass Underlying-Event-Daten des LHC, sowie inklusive,
sogenannte Minimum-Bias-Observablen mit Hilfe von Colour-Reconnection wesentlich besser
beschrieben werden können.
T-10 (B) Phänomenologie am LHC mit P OWHEG
S TEPHAN T HIER
Institut für Physik, Universität Mainz
Der Large Hadron Collider (LHC) am CERN (Genf, Schweiz) stößt in bisher unerforschte Energiebereiche bei hohen Ereignisraten vor. An verschiedenen Experimenten werden diese Ereignisse mit hoher Genauigkeit gemessen, aufgezeichnet und analysiert. Die Suche nach neuen
Teilchen oder Abweichungen vom Standardmodell setzt genaue Kenntnisse der Produktion der
zu untersuchenden Teilchen und aller relevanten Hintergrundprozesse voraus.
Faktorisierung erlaubt die Aufspaltung des Kollisionsvorgangs zweier Protonen in einen partonischen Subprozess und die Verteilung der entsprechenden Partonen in den kollidierenden Protonen. Nach der harten Wechselwirkung erfolgt eine Vielzahl von Abstrahlungsvorgängen, bei
denen die Farbladung tragenden Teilchen zu farbneutralen Teilchen kombinieren, die im Detektor beobachtet werden können.
Eine präzise theoretische Beschreibung dieses Vorgangs erfordert die Betrachtung des partonischen Subprozesses unter Berücksichtigung der Korrekturen aus Diagrammen höherer Ordnung
in der starken Kopplung in Kombination mit der Simulation anschließender Schauer. Das Zusammenfügen störungstheoretisch bestimmter Matrixelemente mit Programmen zur Simulation
partonischer Schauer erfordert große Sorgfalt. Insbesondere muss die Mehrfachberücksichtigung
von Emissionsprozessen vermieden und eine korrekte Behandlung auftretender Divergenzen sichergestellt werden.
Die P OWHEG-Methode erleichtert die Kombination störungstheoretischer Präzisionsrechnungen
mit Schauerprogrammen ohne von einem speziellen Schauerprogramm abhängig zu sein. Mit
der P OWHEG B OX existiert ein frei zugängliches Programm, welches auf Grundlage der Resultate einer störungstheoretischen Rechnung in der nächstführenden Ordnung die Umsetzung der
P OWHEG-Methode übernimmt. Vom Benutzer müssen nur die Matrixelemente für den Bornprozess, virtuelle und reelle Korrekturen, der Phasenraum sowie Flavour-, Farb- und Spinstruktur
bereitgestellt werden.
Viele Prozesse wurden bereits mit Hilfe der P OWHEG B OX analysiert, darunter die Produktion
von Vektorbosonen, Top-Quarks oder Higgs-Bosonen. Jeder kann durch die Implementierung
T. Theorie
69
neuer Prozesse zur Weiterentwicklung der P OWHEG B OX beitragen. Die kontinuierlich anwachsende Zahl verfügbarer Prozesse in der P OWHEG B OX bietet eine breite Basis für phänomenologische Untersuchungen mit hoher Genauigkeit.
T-11 (A) Produktion von massiven Bosonen bei kleinem Transversalimpuls qT
DANIEL W ILHELM
Institut für Physik (THEP), Universität Mainz
Die Transversalimpuls-Verteilung des Drell-Yan (DY)-Prozesses [1] ist eine der grundlegendsten Observablen an Hadron-Collidern. Der DY-Prozess beschrieb ursprünglich die Erzeugung
eines virtuellen Photons bei der Fusion eines Quark-Anti-Quark Paares aus den kollidierenden
Hadronen und den anschließenden Zerfall in ein Leptonpaar. Der Begriff lässt sich jedoch einfach
auf die Erzeugung von W - und Z-Bosonen erweitern. Selbst die Higgs-Produktion über GluonFusion kann analog beschrieben werden.
Der differentielle Wirkungsquerschnitt ist für diese vier Prozesse mindestens auf zwei-SchleifenNiveau bekannt. Somit ist die Genauigkeit der theoretischen Vorhersagen im Bereich großer
Transversalimpulse qT , das heißt in der Größenordnung der invarianten Masse M des produzierten Bosons, dominiert von experimentellen Fehlern der starken Kopplungskonstante ˛s und der
Partonverteilungsfunktionen (PDF). Im Bereich kleiner Transversalimpulse qT M führt die
große
der zugrundeliegenden physikalischen Skalen jedoch zu großen Logarithmen
2Hierarchie
M
ln q 2 , welche die Störungsreihe zusammenbrechen lassen. Dieser Bereich ist allerdings von
T
größtem phänomenologischen Interesse, da er am meisten zum totalen Wirkungsquerschnitt beiträgt und somit z. B. zur Bestimmung der W -Boson Masse und Breite genutzt wird. Auch in der
Higgs-Produktion ist der Bereich kleiner Transversalimpulse maßgebend für die Messungen, da
hier das Signal-über-Hintergrund Verhältnis deutlich besser ist. Dementsprechend gilt es, diese
Logarithmen für alle Ordnungen zu resummieren, um die Genauigkeit theoretischer Vorhersagen
auf das Niveau aktueller Messungen zu heben.
Die Resummation von großen Logarithmen für DY-Prozesse bei kleinem Transversalimpuls wurde bereits 1985 in [2] durchgeführt. Jedoch führen die herkömmlichen Methoden zu einigen technischen Schwierigkeiten, wie die Integration über Landau-Pol Singularitäten. In diesem Vortrag
stelle ich einen modernen Ansatz vor, der auf der Benutzung von effektiven Feldtheorien (EFT)
und Renormierungsgruppen (RG)-Methoden beruht und in [3] und [4] verfolgt wurde.
Eine Besonderheit der DY-Prozesse ist das Auftauchen von Sudakov Doppellogarithmen [5] auf
Ein-Schleifen Niveau. Dies führt zu einer komplexeren Struktur der zugrunde liegenden Skalen als die naiv zu erwartende einfache qT -Abhängigkeit. Deshalb reicht es nicht wie in der
Fermi-Theorie einfach massive Teilchen auszuintegrieren. Die geeignete EFT zur Beschreibung
dieser Prozesse ist die soft-collinear effective theory (SCET). SCET ist eine EFT der masselosen
QCD und beschreibt im Allgemeinen eine beliebige Anzahl kollinearen Moden, das heißt hoch
energetische Teilchen (oder Jets) mit lichtartigen Impulsen, die untereinander nur über weiche
Moden interagieren können. Im DY-Fall betrachtet man zwei kollineare Moden, die durch die
70
44. Herbstschule für Hochenergiephysik Maria Laach 2012
entgegengesetzten Impulse der kollidierenden Hadronen definiert werden. Mit Hilfe von SCET
lässt sich der differentielle Wirkungsquerschnitt in seine einzelnen Abhängigkeiten faktorisieren.
Anschließend ist es möglich, große Logarithmen mit Hilfe der RG-Gleichungen zu resummieren.
Ein weiterer Aspekt von SCET im DY-Fall ist die kollineare Anomalie (CA). Eine Anomalie im
üblichen Sinne, dass eine klassische Symmetrie von Quanten Korrekturen gebrochen wird. Sie
hat eine unerwartete Abhängigkeit der kollinearen Funktionen von der harten Skala zur Folge.
Diese führt jedoch zur dynamischen Generierung einer neuen Skala q , welche den Wirkungsquerschnitt vor nicht-perturbativen Effekten schützt. Somit ist es möglich, den Wirkungsquerschnitt bis hinunter zu verschwindendem Transversalimpuls perturbativ zu berechnen.
[1] S. D. Drell and T. -M. Yan, “Massive Lepton Pair Production in Hadron-Hadron Collisions
at High-Energies,” Phys. Rev. Lett. 25 (1970) 316 [Erratum-ibid. 25 (1970) 902].
[2] J. C. Collins, D. E. Soper and G. F. Sterman, “Transverse Momentum Distribution in DrellYan Pair and W and Z Boson Production,” Nucl. Phys. B 250 (1985) 199.
[3] T. Becher and M. Neubert, “Drell-Yan production at small q˙T, transverse parton distributions and the collinear anomaly,” Eur. Phys. J. C 71 (2011) 1665 [arXiv:1007.4005 [hep-ph]].
[4] T. Becher, M. Neubert and D. Wilhelm, “Electroweak Gauge-Boson Production at Small
qT : Infrared Safety from the Collinear Anomaly,” JHEP 1202 (2012) 124 [arXiv:1109.6027
[hep-ph]].
[5] V. V. Sudakov, Sov. Phys. JETP 3 (1956) 65 [Zh. Eksp. Teor. Fiz. 30 (1956) 87].
T-12 (B) Radiative Corrections to Dark Matter Annihilation in
the MSSM
F RANCESCO D IGHERA
Physikdepartment IV (T31), TU München
The existence of cold Dark Matter (DM) is inferred from a large number of astrophysical observations and it is by now well estabilished. Among the various theoretical models that have been
proposed, one of the most interesting class is the one in which the present amount of DM is the
thermal relic of a Weakly Interacting Massive Particle (WIMP), and in particular its realization
in the Minimal Supersymmetric extension of the Standard Model (MSSM). In this model, once
the R-Symmetry conservation is imposed, the Lightest Supersymmetric Particle (LSP) is stable,
this fact allowing for a thermal relic abundance today, and in many MSSM realizations the LSP
is the lightest neutralino (the superpartner of neutral gauge and Higgs bosons), which is charged
only under the weak interaction. The neutralino relic density today can be evaluated studying
the cross-section for the annihilation of two neutralinos into Standard Model particles and the
evolution governed by the Boltzmann equation. These calculations have been carried along by
different authors in various realization of the MSSM and the comparison with the experimental
value lead to strict constraints on the parameters space of the probed model.
T. Theorie
71
The typical velocity of neutralinos during the decoupling is of order v 0:3c, which means that
the annihilation process can be studied in the non-relativistic (NR) regime. This fact has been
used in the calculations to expand the annihilation cross-section in a Taylor series in the relative
velocity of the annihilating particles,
2
ann vrel a C bvrel
:
However, a threshold effect called Sommerfeld enhancement, associated with long-range potential interactions between the incoming NR particles, may spoil this perturbative expansion. Moreover, whenever the theory contains particle species with masses nearly degenerate with the LSP,
a significant modification in ann vrel arise, due to the coannihilation among these species and the
LSP before the freeze-out. In MSSM realization with heavy neutralinos (m O.TeV/), there
is a natural degeneracy among the LSP neutralino and the lightest chargino and, in many interesting regions of the parameter-space, the next-to-LSP is the lightest stau (the supersimmetric
partner of the lepton).
We will provide a precise determination of the relic density abundance of the neutralino LSP,
2
with fully consistent treatment of the O.vrel
/ terms, including non-perturbative contributions and
in presence of coannihilation among neutralinos, charginos and the stau. Moreover we keep the
probed model as general as possible by considering a generic composition of the neutralinos.
Previous investigations in less general contexts and with a lower level of accuracy were performed by different groups: the latest development of our collaboration, that will be discussed here,
is the inclusion of coannihilation with sleptons and the effect of the Sommerfeld enhancement in
the respective annihilation channels.
2
The NR regime results in a hierarchical separation of the involved energy scales, namely m vrel
2
m vrel m : As an important consequence, the separation among the NR kinetic energy m vrel ;
that characterize the long-range interaction, and the LSP mass m , at which the annihilation takes
place, allows the factorization of the two processes.
The long-range interaction produces a modification of the perturbative result for ann vrel by an
enhancement factor, evaluated with the resolution of a NR Schrödinger equation. This calculation
2
requires the projection of the Schrödinger equation on partial waves, and at the O.vrel
/ both the
S - and P -wave terms (l D 0; 1) contribute. This effect can be expressed in terms of Feynman
diagrams, the resolution of the Schrödinger equation being equivalent to the resummation of
the ladder diagrams in which the two incoming particles exchange an arbitrary number of light
bosons before the annihilation. Considering heavy neutralinos and staus, both gauge (; Z; W ˙ )
and Higgs (h0 ; H 0 ; A0 ; H ˙ ) bosons appear in the ladder exchanges. The exchange of a boson
may change the nature of the incoming particles, which means that the factorization takes place at
the amplitude level. For a given pair of incoming particles, the annihilation amplitude is written
as a sum over the possible two-particle states produced in the long-range interaction, each term
being the product of the enhancement factor and the tree-level amplitude for the annihilation of
the considered two particles. When the amplitude is squared in order to get the cross-section,
one obtains also off-diagonal contributions, in which the outgoing two-particle state is different
from the incoming one.
For the calculation of the annihilation processes we cannot take advantage of the existing numerical codes to extract the coefficients a and b; for two reasons: first we must keep the two
72
44. Herbstschule für Hochenergiephysik Maria Laach 2012
contributions b D b s wave C b p wave separate, second the off-diagonal reactions are not accessible anyway. The annihilation is then encoded into a non-relativistic effective field theory
(NREFT): all the momenta over the scale m are integrated out, ensuring the incoming particles
(with masses O.m /) being non-relativistic. The annihilation processes, in which the produced (light) SM particles would be relativistic, are accounted for by the introduction of effective
four-particles vertices: their Wilson coefficients can be evaluated in matching the absorptive part
of appropriate scattering amplitudes in the full MSSM theory with the EFT. In order to perform
the NR expansion consistently one has to expand simoultaneously in the spatial tri-momenta of
the incoming particles and their mass differences.
Previous studies suggest that the Sommerfeld enhancement can be responsible for a non-negligible
modification of the DM relic abundance: further development will include investigations of this
effect for a generic MSSM parameter-space point.
T-13 (A) Horizontale Diskrete R Symmetrien
A NDREAS T RAUTNER
Physikdepartment (T30), TU München
Aufgrund der theoretisch ansprechenden, maximal möglichen Kombination von Raum-Zeit und
internen Symmetrien, sowie dem Beheben mehrerer Probleme und Spannungen des Standardmodells (SM) der Kern- und Teilchenphysik, sind supersymmetrische (SUSY) Theorien seit langem
eine wohlmotivierte und vieldiskutierte Erweiterung desselben. Neben einer Lösung des Hierarchieproblems sowie präziser Eichkopplungsvereinigung können SUSY Theorien auch ansprechende phänomenologische Eigenschaften wie beispielsweise Teilchenkandidaten für Dunkle
Materie oder eine Lockerung der seit Jahren bestehenden Spannung zwischen Experiment und
theoretischer Vorhersage des annomalen magnetischen Moments des Muons, haben.
Die minimalste supersymmetrische Erweiterung des Standardmodells (MSSM) enthält ihrerseits aber selbst einige Erklärungsdefizite. Zwingend notwendig ist die Einführung eines zweiten
Higgs-Doubletts, wobei die Kopplung der zwei Higgs-Teilchen untereinander einen neuen massebhafteten Paramter mit sich bringt. Phänomenologisch ist klar, dass einen Wert nahe der
elektroschwachen Skala haben sollte. Eine Begründung, warum der -Term im Vergleich zu einer natürlichen cut-off Skala (z. B. MP ) so klein und genau so nahe bei der elektroschwachen
Skala liegen sollte, gibt es aber nich (sog. Problem). Ausserdem treten in einer möglichen Lagrangedichte eichinvariante, renormierbare, B bzw. L verletzende Terme der Massendimension
4 auf, welche - wären sie vorhanden - zu einem schnellen Protonzerfall führen würden. Daher
führt man ad-hoc eine Symmetrie (sog. R- oder Materie-Parität) ein, die diese Terme verbietet. Nimmt man die Vereinheitlichung der Eichkopplungen ernst und betrachtet Große Vereinheitlichte Theorien (GUTs), so stellt sich ausserdem die Frage nach der sog. doublett-triplett
Aufspaltung, d.h. dem Massenunterschied von Higgs-Doubletts im Vergleich zu den, in GUTs
notwendigerweise ebenfalls vorhandenen, farbgeladenen Higgs-Tripletts.
Alle diese Probleme ließen sich auf natürliche Weise lösen, gäbe es eine Symmetrie, die den Parameter zunächst verbietet, durch eine Brechung aber bei niedrigen Energien wiederherstellt.
Nimmt man an, dass diese Symmetrie kompatibel mit vereinheitlichten Eichsymmetrien sowie
T. Theorie
73
anomalienfrei (bzw. anomalienfrei durch Green-Schwarz Mechanismus) ist, so stellt sich heraus,
dass lediglich diskrete R Symmetrien (das sind Symmetrien, die nicht mit SUSY vertauschen,
d.h. zwischen Teilchen und Superpartnern unterscheiden) den -Term kontrollieren können.
Zusätzlich enthalten die so gefundenen Symmetrien R- bzw. Materie-Parität als Untergruppe,
erlauben Yukawa Kopplungen und können Protonzerfall auch durch effektive Massendimension
5 Operatoren verbieten. Die diskrete R Symmetrie ist nicht-pertubativ gebrochen und so wird
der -Term bei kleinen Skalen wiederhergestellt. Diese natürliche Lösung für das -Problem
ist gleichzeitig wegweisend in anderer Hinsicht: Es gibt Argumente die zeigen, dass eine solche
R Symmetrie neben einer GUT in 4-Dimensionen keinen Bestand haben kann, während sie in
höherdimensionalen Modellen ganz natürlich als Remanenz der Lorentz-Symmetrie der kompaktifizierten Dimensionen auftreten kann. Die R Symmetrie ist kompatibel auch mit See-Saw
Erweiterungen des MSSM oder könnte alternativ auch kleine Dirac-Neutrino Massen erklären.
Weiter noch gibt es, wie explizit gezeigt wurde, orbifold Kompaktifizierungen in heterotischen
String-Modellen (UV vollständig), die das exakte MSSM Spektrum mit ungebrochener Standardmodelleichgruppe sammt einer zusätzlichen diskreten R Symmetrie liefern.
Bisher wurden nur Familienunabhängige diskrete R Symmetrien untersucht. Lässt man die Annahme der Familienunabhängigkeit fallen, ergeben sich interesannte Verbindungen zum SUSY
Flavorproblem, wenn durch diskrete abelsche Symmetrien zunächst Null-Texturen bzw. bei Brechung auch Hierarchien in den Yukawa und Neutrino Massenmatrizen erzeugt werden können.
Es wird untersucht ob die so gewonnene Flavor-Struktur im niederenergie Grenzwert zu phänomenologisch brauchbaren Ergebnissen führen kann.
T-14 (B) Dunkle Materie und Dunkle Strahlung mittels extra
U.1/
H ENDRIK VOGEL
Max-Planck-Institut für Physik, München
Aus astrophysikalischen Beobachtungen wissen wir, dass unser Universum zu einem großen
Teil aus für uns nur schwer beobachtbarer nicht baryonischer Materie besteht, die nicht mit dem
Standardmodell der Teilchenphysik (SM) erklärt werden kann. Diese Komponente, die aufgrund
ihrer nur schwachen Wechselwirkung Dunkle Materie genannt wird, dominiert den Masseanteil
des Universums und führt über ihre Gravitationskraft zu beobachteten Effekten wie Gravitationslinsen und veränderte Rotationskurven von Galaxien. Auch für die Strukturbildung im Rahmen
des Standardmodells der Kosmologie (SMC) ist die Dunkle Materie essentiell. An diesem kaum
wechselwirkenden Anteil des Universums wird seit mehreren Jahrzehnten intensiv geforscht und
es gibt eine Vielzahl von Tests in direkten und indirekten Experimenten sowie an Teilchenbeschleunigern. Die Natur der Dunklen Materie bleibt bis zum heutigen Tag jedoch unbekannt.
Zusätzliche Hinweise für Neue Physik“ resultieren aus der Diskrepanz zwischen den Vorhersa”
gen des SMC und den Messungen der Wilkinson Microwave Anisotropy Probe (WMAP). Mit
dem Teilcheninhalt des SM ergeben sich zusätzlich zum Photon drei relativistische Teilchenspezies (Neff 3) zur Zeit der Big Bang Nucleosynthese und der Entstehung des Cosmic Microwave
Background. Diese drei Spezies sind die bekannten Neutrinos, weshalb Neff auch effektive Neutrinozahl genannt wird. Die neusten Messungen des WMAP Experiments bevorzugen allerdings
ein weiteres relativistisches Teilchen, genauer Neff D 3:90C0:39
0:56 auf 95% CL [1].
74
44. Herbstschule für Hochenergiephysik Maria Laach 2012
Auch im Standardmodell der Teilchenphysik bestehen noch offene Fragestellungen, wie zum
Beispiel das Hierarchieproblem oder das starke CP -Problem. Lösungen dieser Probleme führen
häufig zur Einführung neuer Teilchen, die jedoch noch nicht experimentell beobachtet wurden.
Es liegt daher nahe, die Unzulänglichkeiten beider Standardmodelle gemeinsam zu lösen. Ein
Ansatz hierfür ist zum Beispiel die supersymmetrische Erweiterung des SM, die in ihrer minimalen Form ein weiteres stabiles Teilchen, zum Beispiel das Neutralino, vorhersagt und somit
einen Kandidaten für Dunkle Materie liefert.
In diesem Vortrag stellen wir vor, wie ein supersymmetrischer Dunkler Sektor zur Lösung der
oben beschriebenen Probleme beitragen kann. Wir diskutieren ein Modell, welches eine weitere
abelsche lokale Eichgruppe neben den Eichgruppen des Standardmodells der Teilchenphysik
enthält. Die Teilchen, die unter dieser versteckten U.1/ geladen sind, wechselwirken mit den
Teilchen des sichtbaren Sektors nur über ein Mischen mit der elektromagnetischen U.1/. Ziel
ist es, neben den theoretischen Implikationen auch Vorhersagen für laufende und zukünftige
Experimente zu treffen.
[1] J. Hamann, S. Hannestad, G. G. Raffelt and Y. Y. Y. Wong, JCAP 1109 (2011) 034 [arXiv:1108.4136 [astro-ph.CO]].
T-15 (A) Photon-Produktion in Proton-Proton- und Schwerionenkollisionen
F LORIAN K ÖNIG
Institut für Theoretische Physik, Universität Münster
In Proton-Proton-Kollisionen erzeugte Photonen lassen sich in zwei Klassen einteilen:
Direkte Photonen stammen aus harten Streuprozessen der Partonen des Protons. Die in
führender Ordnung relevanten Prozesse sind qNq ! g und gq ! q; die Photonen treten
dabei als isolierte Photonen auf, deren Transversalimpuls idealerweise durch einen Jet
in entgegengesetzter Richtung kompensiert wird. Weiter zählt QCD-Bremsstrahlung zu
den Erzeugungsmechanismen direkter Photonen; bei diesem Signal sollte das Photon von
hadronischen Jets begleitet werden.
Zerfallsphotonen entstehen durch hadronische Zerfälle, wie z. B. 0 ! .
Die Messung von direkten Photonen aus harten Streuprozessen in pp-Kollisionen erlaubt z. B. eine Bestimmung der Gluonverteilung im Proton in O.˛˛s /-Prozessen. In tief inelastischer Streuung sind Gluon-PDFs hingegen erst in NLO-Prozessen zugänglich.
In Schwerionenkollisionen hingegen stellen Photonen ein wichtiges Messsignal für die Entstehung eines Quark-Gluon-Plasmas dar. Das QGP ist ein Zustand extrem hoher Energiedichte, in
dem die Streuung von freien Quarks und Gluonen zur Thermalisierung geführt hat. Nach der Entstehung breitet sich das QGP wie ein Feuerball aus und kühlt dabei ab, bis Quarks und Gluonen
T. Theorie
75
wieder in Hadronen eingeschlossen sind. Während dieses Vorgangs werden thermische Photonen in Stößen von Quarks und Gluonen erzeugt. Ist das QGP abgekühlt, erzeugen hadronische
Resonanzen durch Stöße weitere thermische Photonen.
Da Photonen nur elektromagnetisch wechselwirken, werden sie als Sonde zur Messung des
stark wechselwirkenden QGP benutzt: Thermische Photonen bilden die gesamte Raum-ZeitEntwicklung des Plasmas ab. Die oben beschriebenen Zerfalls- und harten Streuprozesse bilden
dabei ein Untergrundsignal, dessen genaue Bestimmung die Identifizierung des QGPs bedingt.
T-16 (B) Zerfallskonstanten von schweren Mesonen in der
QCD
D ENIS ROSENTHAL
Fakultät IV, Theoretische Physik I, Universität Siegen
Die Phänomenologie von schweren Mesonen stellt in der modernen Physik eine wichtige Quelle zur Überprüfung unserer theoretischen Konzepte dar. Zum einen können gebundene Quarkzuständen im Bereich nichtrelativischer Energien nicht perturbativ berechnet werden, zum anderen sind viele Zerfallskanäle von schweren Mesonen experimentell nur schwer zugänglich.
In den letzten Jahren haben sich eine Reihe von Methoden etabliert, welche sich dem Problem
von gebundenen Zuständen widmen: die Gittereichtheorie, effektive Theorien wie heavy quark
effective theory (HQET) oder die QCD-Summenregeln (QCDSR).
Die letzte Methode bietet eine flexiblen als auch zuverlässigen Zugang zur Berechnung von
hadronischen Matrixelementen für Vorhersagen grundlegender Eigenschaften von Mesonen. So
sind Abschätzungen von Quarkmassen, leptonischen Zerfallskonstanten, starken Kopplungen hadronischer Prozesse sowie Formfaktoren möglich. Im Zusammenspiel mit Messdaten aktueller
Teilchenexperimente (LHCb, BABAR, Belle) können zudem Voraussagen der Cabibbo-KobayashiMaskawa (CKM)-Matrixelemente getroffen werden. Die QCDSR wurden in den späten siebziger Jahren von Shifman, Vainshtein und Zakharov eingeführt und für die Analyse von , ,
K -Mesonen verwendet.
Im Speziellen betrachten wir Mesonen mit einem schweren bottom- oder charm-quark und einem leichten up-, down- oder strange-quark und werten deren Zerfallskonstanten fMeson aus.
Startpunkt der Analyse ist die Operatorproduktentwicklung (OPE) von Zweipunkt-Korrelationsfunktionen, also die Vakuumerwartungswerte zweier zeitgeordneter intermediärer heavy-light
Ströme an unterschiedlichen Raumzeitpunkten. Daraus ergibt sich eine Zerlegung der Korrelationsfunktion in eine Reihe von Koeffizienten, die lediglich kurzreichweitige Wechselwirkungen
beinhalten und dementsprechend perturbativ berechenbar sind, und nichtperturbativen Vakuumerwartungswerten von lokalen Operatoren, sogenannte Kondensate. Sie beschreiben Wechselwirkungen mit dem QCD-Vakuum. Aufgrund der oben genannten Zusammensetzung der schweren Mesonen sind Ströme folgender Spin-Parität von Bedeutung: J P D 0 ; 1 . Diese entsprechen den pseudoskalaren Mesonen B, Bs , D und Ds sowie vektorieller Mesonen B , Bs , D und Ds .
Die in den Korrelationsfunktionen auftretenen Quarkmassen werden im MS-Schema ausgedrückt. Die Korrelationsfunktion wird zum einen via OPE lokal entwickelt und zum anderen
76
44. Herbstschule für Hochenergiephysik Maria Laach 2012
über die hadronische Dispersionsrelation dargestellt, welche die benötigten Mesonen und dessen
Zerfallskonstanten als Grundzustand vom Kontiunuum, aus (angeregten) Ein- und Vielteilchenzuständen, separiert. Beide Entwicklungsdarstellungen sind nun unter der Annahme der QuarkHadron-Dualität verknüpfbar. Die Präzision der so entstehende Abschätzung für gewünschte
Zerfallskonstanten sind unter anderem über die Genauigkeit der Entwicklungskoeffizienten und
der Anzahl der lokalen Operatoren in der OPE gegeben. Der rein perturbative Beitrag niedrigster
dimensioneller Ordnung wird bis zur Ordnung ˛s2 der starken Kopplung sowie Kondensatbeiträge bis Massendimension d D 6 betrachtet. Neben einer Neuauswertung der Zerfallskonstanten für pseudoskalare Mesonen fügen wir für den Vektorfall neu berechnete Beiträge hinzu, die
in der Literatur noch nicht berücksichtigt wurden. Erwähnenswert ist an dieser Stelle, dass die
ermittelten Zerfallskonstanten beispielsweise für die Bestimmung des CKM-Matrixelement Vub
oder der starken Kopplungen B B und D D notwendig sind. Aufgrund der Aktualität der
genannten Parameter ist eine sehr präzise Auswertung der Zerfallskonstanten wünschenswert.
T-17 (A) Effektiver Feldtheorieansatz für Masseneffekte in inklusiven Prozessen
P IOTR P IETRULEWICZ
Fakultät für Physik, Universität Wien
Während meiner PhD-Arbeit untersuche ich die Effekte von Quarkmassen in Colliderprozessen
mit Hilfe der Soft-Collinear Effective Theory (SCET). Für inklusive Prozesse in der Jetphysik
bietet SCET einen konsistenten Rahmen, um Wirkungsquerschnitte in verschiedene Terme zu
faktorisieren: Einen Wilson-Koeffizienten, der die harte Physik bei der Energie Q beschreibt, eine Jetfunktion für den kollinearen Sektor und eine softe Funktion für den ultrasoften Sektor, die
die nichtperturbative Physik enthält. Jeder dieser Terme beschreibt Freiheitsgrade in verschiedenen Regionen des Phasenraums, die durch den Skalierungsparameter voneinander getrennt
sind (in SCET I QCD =Q). Mit Renormalisierungsgruppengleichungen können große Logarithmen dieser Skalen resummiert werden. Für 1, d.h. stark kollimierte Jets, eignet sich
SCET dazu, Präzisionsrechnungen durchzuführen.
Bisher wurde SCET hauptsächlich für masselose Teilchen angewandt. Daher müssen wir zuerst
ein Setup aufstellen, um massive Quarks einzuführen. Diese tauchen als zusätzliche kollineare
und softe Moden ( Massenmoden“) auf, neben den gewöhnlichen kollinearen und ultrasoften
”
Freiheitsgraden. Abhängig von der Beziehung zwischen m m=Q und tragen die Massenmoden zu verschiedenen Sektoren im Phasenraum bei und nehmen entweder eine masselose
oder eine massive Skalierung an. Als erstes Beispiel berechnen wir die Beiträge von massiven
virtuellen Quarks zum differentiellen Wirkungsquerschnitt für e C e ! Jets (für Thrust und
Hemispherenmassen) auf 2 Schleifen (bzw. N3 LL im SCET counting).
T. Theorie
77
Als Anwendung dieses Setups untersuchen wir die Auswirkung von schweren Quarks (charm,
bottom) auf Partonverteilungsfunktionen der leichten Quarks in tiefinelastischer Streuung. Derzeit werden unterschiedliche Schemas verwendet, die für verschiedene kinematische Regimes
der beteiligten Energien und Massen gelten. Wir wollen einen Rahmenwerk aufstellen, in dem
die Masse des schweren Fermions von der höchsten bis zur niedrigsten Skala variiert werden
kann, bzw. in dem ein Scan über die verschiedenen Partonimpulse durchgeführt werden kann.
Schließlich kann dieses Setup auch für andere inklusive Prozesse angewandt werden, wie z. B.
Drell-Yan, oder exklusivere Prozesse, für welche auch Faktorisierungstheoreme gelten.
T-18 (B) Elektroschwache NLO Korrekturen zur W und Z
Produktion mit vollen leptonischen Zerfällen
C HRISTIAN PASOLD
Inst. f. Theor. Physik und Astrophysik, Uni Würzburg
Das Standardmodell (SM) der Teilchenphysik liefert eine gute Beschreibung der elektroschwachen und der starken Wechselwirkung zwischen den bisher bekannten Elementarteilchen: den
Quarks, den Leptonen und den Eichbosonen. Die entsprechenden Prozesse an Collidern werden
mithilfe der Störungstheorie berechnet. Die präzisen Vorhersagen dafür sind Voraussetzung für
das Verständnis der LHC-Daten. Dabei liefert die führende Ordnung sehr große Unsicherheiten,
sodass brauchbare Resultate erst durch die Berechnung der nächstführenden Ordnung (NLO,
next-to-leading order) erzielt werden.
Von besonderem Interesse am Large Hadron Collider (LHC) sind Prozesse mit W - und ZBosonen, denn mit der Analyse der W - und Z-Produktion sind einerseits sehr genaue Aussagen über die Wechselwirkung der W - und Z-Bosonen mit den Photonen möglich. Andererseits
liefern diese auch wichtige Hintergrundprozesse bei der Suche nach neuen Teilchen.
Bisher existieren für elektroschwache NLO-Korrekturen nur Rechnungen in der Näherung stabiler W - und Z-Bosonen oder in einer Resonanznäherung (Leading Pole Approximation). Für die
Berechnung der elektroschwachen NLO-Korrekturen der vollständigen Prozesse pp! `N und
pp! ``N ohne Polnäherung müssen nun auch die nichtfaktorisierbaren Feynman-Diagramme
berücksichtigt werden. Ein Beispiel für ein solches Diagramm erhält man durch den im Vergleich zum Born-Prozess zusätzlichen Austausch eines Photon zwischen initial-state Quark und
final-state Lepton. Die Berechnung der zusätzlichen Diagramme und der damit verbundenen
Korrekturen ist deutlich komplizierter als die der faktorisierbaren Diagramme. Ein Grund dafür
ist das Auftreten von 5-Punkt-Funktionen, die in den bisherigen Berechnungen in Polnäherung
nicht vorkommen.
In meinem Vortrag werde ich die Strategie und das Verfahren erläutern, die für die Berechnung der NLO-Korrekturen verwendet werden. Dies umfasst die Berechnung des hadronischen
Wirkungsquerschnittes aus den partonischen Prozessen mithilfe der Partonverteilungsfunktionen
sowie die Bestimmung der Matrixelemente. Dabei werde ich sowohl auf die endlichen Anteile
für die virtuellen NLO- sowie die reellen QED-Korrekturen eingehen als auch die Behandlung
der soften und kollinearen Singularitäten mit der Subtraktionsmethode erläutern.
78
44. Herbstschule für Hochenergiephysik Maria Laach 2012
T-19 (A) Formfaktoren für B ! ` Zerfälle in Gittereichtheorie
F ELIX BAHR
DESY Zeuthen
Das Cabibbo-Kobayashi-Maskawa (CKM)-Matrix-Element Vub ist gegenwärtig nur unzureichend genau bekannt; so besteht zwischen aus inklusiven B ! Xu `, exklusiven B ! `
und exklusiven B ! Zerfällen bestimmten Werten von Vub derzeit eine Diskrepanz von 3.
Um die Präzision zu verbessern und systematische Fehler zu reduzieren, ist eine genauere, numerische Bestimmung von Vub über Methoden der Gittereichtheorie vonnöten. Wir untersuchen
dazu semi-leptonische Zerfälle, B ! `, von pseudo-skalaren B-Mesonen, deren Quarkinhalt
durch ein b-Quark und ein leichtes Quark (u; d ) gegeben ist. Auf dem Gitter berechenbar ist das
den Zerfall bestimmende hadronische Matrixelement, in führender Ordnung in der schwachen
Kopplung,
ˇ
ˇ
˝
˛
.p / ˇu
N b ˇ B.p C q/ D .pB C p / fC .q 2 / C .pB p / f .q 2 / ;
(T.7)
q 2 D .pB p /2 , welches sich durch die Formfaktoren fC ; f beschreiben lässt. Für kleine
Leptonmassen me; 0 ist der Beitrag von f vernachlässigbar. Wir berechnen die Formfaktoren numerisch auf einem hyperkubischen Gitter der Größe L3 2L mit endlichem Gitterabstand a und Nf D 2 dynamischen Seequark-Flavours. Um Effekte aufgrund des endlichen Volumens gering zu halten, ist eine Gittergröße Lm & 4 erforderlich, was bei Gitterabständen von
a 0:05 : : : 0:08 fm und -größen von L D 32; 48; 64 Pionmassen von m 250 : : : 450 MeV
entspricht. Nach Simulation für verschiedene Gitterabstände a und Pionmassen m kann zum
phys
physikalischen Punkt extrapoliert werden, a ! 0, m ! m . Aufgrund von Überlegungen
bezüglich der Analytizität des Formfaktors fC kann die modellunabhängige Parametrisierung
2
fC .q / D
1
K
X1 1
bk z k .q 2 /
q 2 =mB2 . 1/
k K
kD0
p
tC
z.q 2 / D p
tC
k K 2
z .q / ;
K
(T.8)
p
q2
tC t0
;
(T.9)
p
q 2 C tC t0
p
p 2
mit tC D .mB 0 m C /2 und t0 D .mB C m / mB
m angesetzt werden. Experimentell bestimmte differentielle Zerfallsraten werden durch
ˇ
d
GF2 jVub j2 3=2 2 ˇˇ
2 ˇ2
D
.q
/
f
.q
/
;
C
dq 2
192 3 mB3
.q 2 / D mB2 C m2
q2
2
4mB2 m2 ;
(T.10)
(T.11)
beschrieben. In einem kombinierten Fit des Formfaktors fC als Funktion des Impulsübertrags
q 2 gemäß der Parametrisierung (T.8) bei festem K an die numerisch simulierten sowie experimentelle Datenpunkte können die Koeffizienten bk sowie Vub als unabhängige Fitparameter
bestimmt werden.
Die Abtei Maria Laach
Die Abtei wurde als Abbatia ad Lacum – später auch Abbatia Lacensis – zwischen 1093 und
1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich II. von Laach und seiner Frau
Adelheid von Weimar-Orlamünde, für sein und seiner Gemahlin Seelenheil und dazu als Grablege, zurück. Das Wort Laach ist eine verschliefene Form des althochdeutschen Wortes lacha –
von lat. lacus, -us m – und ist als Name für den See, den Ort und das Kloster erhalten geblieben.
Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten frühesten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen 819
und 829 im Kloster Reichenau.
Die sechstürmige Abteikirche gehört zu den schönsten Denkmälern der romanischen Baukunst
aus der Zeit der Salier in Deutschland. Dies liegt vor allem daran, dass die Klosterkirche von
späteren Umbauten fast völlig verschont geblieben ist. In der Zeit der Gotik und des Barock
kam es jedoch zu einigen Veränderungen, die allerdings während Renovierungsarbeiten im 20.
Jahrhundert rückgängig gemacht wurden, so dass in beindruckender Weise die Form einer mittelalterlichen Klosteranlage bis heute bewundert werden kann. Der prachtvolle Westeingang mit
seinem nördlich der Alpen einzigartigen Paradies (Narthex) findet sich stilisiert im Logo der
Herbstschule wieder. Der Abteikirche, auch als Laacher Münster bezeichnet, einer doppelchörigen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica minor” durch Papst Pius XI. verliehen.
Die Abtei blieb von der Säkularisierung in der Zeit der Napoleonischen Herrschaft nicht verschont. Im Jahre 1801 wurden ihre Güter enteignet und 1802 die Abtei durch das Säkularisationsedikt Napoleons durch die französische Verwaltung aufgehoben. Nach dem Wiener Kongress
ging die Abtei 1815 in preußischen Staatsbesitz über. 1892 konnten einige Benediktinermönche
unter Prior Willibrord Benzler die Abtei zunächst als Priorei wieder besiedeln, schließlich, 1893,
737 nach ihrer Gründung, wurde die Abtei zum zweiten Male konsekriert und erhielt den Namen
“Maria Laach”.
1093
Gründung durch Pfalzgraf Heinrich II. von Laach
1095
Tod des Pfalzgrafen, seine Frau Adelheid führt die Bauarbeiten
fort
1112
Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballenstadt, er schenkt das Kloster an die Abtei Affligem im Landgrafschaft Brabant.
1138
Laach wird selbständige Abtei
1802
Aufhebung der Abtei in Folge der Säkularisation
1820
Erwerb des Klosters als Rittergut durch Daniel Heinrich Delius
für 24.900 “Thaler in preußischen Courant”
1855
Zerstörung der Prälatur durch einen schweren Brand
1863
Erwerb der Abteigebäude durch die deutsche Jesuitenprovinz
und errichtet “Collegium Maximum”.
1892
Wiederbesiedelung durch Benediktiniermönche aus der ErzabLaach Klosterkirche. Ostseite
tei Beuron.
1924
Übereignung der Klosterkirche an die Abtei durch den preußischen Staat
2006
Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850.
Weihetag.
Bildnachweis: Titel, S. 5 und S. 79: Maria Laach, Basis und Ostseite aus G. Dehio und G. Bezold, “Die Kirchliche Baukunst des Abendlandes.” Verlag der J. G. Cotta’schen Buchhandlung,
1892, mit freundlicher Genehmigung des Magnus Verlag, Essen.
Druck: UniPrint der Universität Siegen Hölderlinstraße 3 57068 Siegen, 2012
Herunterladen