47. Herbstschule fuer Hochenergiephysik Maria Laach 2015

Werbung
48. Herbstschule
für
Hochenergiephysik
Maria Laach
6.–16. September 2016
Zusammenfassungen
der Kurzberichte
der Teilnehmerinnen und Teilnehmer
Die Abtei Maria Laach
Die Abtei wurde als Abbatia ad Lacum – später auch Abbatia Lacensis – zwischen 1093 und
1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich II. von Laach und seiner Frau
Adelheid von Weimar-Orlamünde, für sein und seiner Gemahlin Seelenheil und dazu als Grablege, zurück. Das Wort Laach ist eine verschliffene Form des althochdeutschen Wortes lacha –
von lat. lacus, -us m – und ist als Name für den See, den Ort und das Kloster erhalten geblieben.
Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten
frühesten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen
819 und 829 im Kloster Reichenau.
Die sechstürmige Abteikirche gehört zu den schönsten Denkmälern der romanischen Baukunst aus der Zeit der Salier in Deutschland. Dies liegt vor allem daran, dass die Klosterkirche
von späteren Umbauten fast völlig verschont geblieben ist. In der Zeit der Gotik und des Barock kam es jedoch zu einigen Veränderungen, die allerdings während Renovierungsarbeiten im
20. Jahrhundert rückgängig gemacht wurden, so dass in beindruckender Weise die Form einer
mittelalterlichen Klosteranlage bis heute bewundert werden kann: Der prachtvolle Westeingang
mit seinem nördlich der Alpen einzigartigen Paradies (Narthex) findet sich stilisiert im Logo der
Herbstschule wieder. Der Abteikirche, auch als Laacher Münster bezeichnet, einer doppelchörigen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica minor” durch Papst Pius XI. verliehen.
Die Abtei blieb von der Säkularisierung in der Zeit der Napoleonischen Herrschaft nicht verschont. Im Jahre 1801 wurden ihre Güter enteignet und 1802 die Abtei durch das Säkularisationsedikt Napoleons durch die französische Verwaltung aufgehoben. Nach dem Wiener Kongress
ging die Abtei 1815 in preußischen Staatsbesitz über. 1892 konnten einige Benediktinermönche
unter Prior Willibrord Benzler die Abtei zunächst als Priorei wieder besiedeln, schließlich, 1893,
737 Jahre nach ihrer Gründung, wurde die Abtei zum zweiten Male konsekriert und erhielt den
Namen Maria Laach“.
1093” Gründung durch Pfalzgraf Heinrich II. von Laach.
1095
1112
1138
1802
1820
1855
1863
1892
1924
2006
Tod des Pfalzgrafen, seine Frau Adelheid führt die Bauarbeiten
fort.
Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballenstadt, er schenkt das Kloster an die Abtei Affligem im Landgrafschaft Brabant.
Laach wird selbständige Abtei.
Aufhebung der Abtei in Folge der Säkularisation.
Erwerb des Klosters als Rittergut durch Daniel Heinrich Delius
für 24.900 “Thaler in preußischen Courant”.
Zerstörung der Prälatur durch einen schweren Brand.
Erwerb der Abteigebäude durch die deutsche Jesuitenprovinz
und errichtet “Collegium Maximum”.
Wiederbesiedelung durch Benediktiniermönche aus der Erzabtei Beuron.
Übereignung der Klosterkirche an die Abtei durch den preußischen Staat.
Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850.
Weihetag.
Laach Klosterkirche, Ostseite
48. Herbstschule
für
Hochenergiephysik
Maria Laach
6.–16. September 2016
Die Herbstschule für Hochenergiephysik
wird vom
Bundesministerium für Bildung und Forschung (BMBF)
finanziell unterstützt.
Organisatoren
Prof. Dr. S. Bethke
MPI für Physik, München
Prof. Dr. S. Dittmaier
Universität Freiburg
Prof. Dr. Th. Mannel
Universität Siegen
Kontaktperson für 2016
Prof. Dr. Th. Mannel
Universität Siegen
http://maria-laach.tp.nt.uni-siegen.de/
Inhaltsverzeichnis
Programm . . . . . . . . . . . . . . . . . . . . . . . . 6
Zeitplan . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Teilnehmerinnen und Teilnehmer . . . . 9
Kurzdarstellungen . . . . . . . . . . . . . . . . 15
Laach Klosterkirche, Basis
5
Programm
Vorlesungen
QCD and the Standard Model
R. Keith Ellis
IPPP, Durham
Experimentelle Resultate des LHC
Alexander Schmidt
Monte-Carlo-Simulationen für den LHC
Frank Krauss
Physik jenseits des Standardmodells
Pedro Schwaller
Suche nach Dunkler Materie
Jochen Schieck
HEPHY, Wien
Neutrinophysik
Susanne Mertens
KIT, Karlsruhe
Flavourphysik bei LHCb und Belle-II
Jochen Dingfelder
Universität Hamburg
IPPP, Durham
DESY, Hamburg
Universität Bonn
Abendvorträge
Komplexität und Information -
Karlheinz Meier
Universität Heidelberg
Ist unser Gehirn ein Computer?
Neutrinos im Eis - Die Jagd auf
Christian Spiering
DESY, Hamburg
kosmische Geisterteilchen am Südpol
Geologie der Vulkaneifel
Gottes Sprache
in Naturwissenschaft und Glaube
6
Siegfried Bethke
Bruder Simeon
MPI für Physik, München
Kloster Maria Laach
Übungen
Feynman-Diagramme für Anfänger
Thorsten Ohl
Strahlungskorrekturen und Renormierung Lars Hofer
Univ. Würzburg
Univ. Barcelona
Koordinatoren der Gruppenberichte
Gruppe Experiment
A
Susanne Kühn
B
C
Theorie
Univ. Freiburg
Alexander Huss
ETH Zürich
Ilse Krätschmer HEPHY Wien
Frank Siegert
Univ. Dresden
Tatjana Lenz
Keri Vos
Univ. Siegen
Univ. Bonn
7
Zeitplan
Dienstag
Mittwoch
Donnerstag
Freitag
Samstag
06.09.
07.09.
08.09.
09.09.
10.09.
08:30–09:25
Ellis
Schmidt
Schieck
Ellis
09:40–10:35
Schieck
Ellis
Schmidt
Schmidt
10:50–11:45
Schmidt
Schieck
Ellis
Kirchenbesuch
Übungen
Gruppen
11:55
14:30–16:00
Mittagessen
Anreise
Übungen
16:05–16:25
Kaffeepause
16:30–18:00
Übungen
18:25
19:30
Übungen
Gruppen
Gruppen
Abendessen
Begrüßung
20:00
Meier
Bethke
Montag
Dienstag
Mittwoch
Donnerstag
Freitag
12.09.
13.09.
14.09.
15.09.
16.09.
08:30–09:25
Dingfelder
Krauss
Schwaller
Mertens
09:40–10:35
Schwaller
Dingfelder
Krauss
Schwaller
Mertens
10:50–11:45
Krauss
Schwaller
Mertens
Dingfelder
Diskussion
Übungen
Abreise
11:55
14:30–16:00
Mittagessen
Übungen
Übungen
16:05–16:25
16:30–18:00
Kaffeepause
Gruppen
18:25
20:00
8
Gruppen
Gruppen
Abendessen
Simeon
Spiering
Teilnehmerinnen und Teilnehmer
Detektor- und Beschleunigertechnologie
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Institut
Seite
I. Physikalisches Institut B, RWTH Aachen University
Martin Lipinski
Charakterisierung von Pixelmodulen für das CMS Phase 1 Pixel Upgrade
15
Physikalisches Institut der Universität Bonn
Bonn
Botho Paschen
D-2 (B)
Der DEPFET Pixeldetektor für das Belle II Experiment - Charakterisierung
17
von Teststrukturen
Physikalisches Institut Universität Bonn
Bonn
Tobias Schiffer
D-3 (C)
Entwicklung eines Auslesemoduls für die Zeitprojektionskammer des ILD
19
II. Physikalisches Institut, Universität Göttingen
Göttingen Tobias Bisanz
D-4 (A)
Teststrahlmessungen für den ATLAS Pixeldetektor für das HL-LHC Upgrade
20
Physikalisches Institut Heidelberg
Heidelberg Lennart Huth
D-5 (B)
Entwicklung eines Spurdetektors für die Suche nach dem Zerfall C !
21
e C e e C mit dem Mu3e Experiment
ETAP, Johannes Gutenberg-Universität Mainz
Mainz
Sebastian Artz
D-6 (C)
Firmwareentwicklung des topologischen Prozessors als Teil des ATLAS
23
Level-1 Triggerausbaus
Max-Planck-Institut für Physik, München
München Philipp Leitl
D-7 (A)
Qualitätssicherung und Charakterisierung der Module des Pixel Vertex De25
tektors für Belle II nach dem Anbringen der Kapton Kabel
Aachen
D-1 (A)
9
Experimentelle Analyse
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Institut
III. Physikalisches Institut A, RWTH-Aachen
Philipp Millet
Suche nach resonanter Sleptonproduktion in Endzuständen mit Myonen und
Jets bei CMS
III. Physikalisches Institut A, RWTH Aachen
Aachen
Tobias Pook
E-2 (B)
MUSiC - Modell Unspezifische Suchen in CMS
Physikalisches Institut, Universität Bonn
Bonn
Stephan Duell
E-3 (C)
MC HAMMER: Programm zur Formfaktor-Umgewichtung von semileptonischen Zerfällen
Physikalisches Institut, Universität Bonn
Bonn
Sebastian Heer
E-4 (A)
Analyse des t tNZ-Kanals im Endzustand mit 4 Leptonen mit dem ATLAS
Detektor
Physikalisches Institut, Universität Bonn
Bonn
Ruth Jacobs
E-5 (B)
Suche nach neuen massiven Resonanzen im Zerfallskanal V 0 ! VH !
l= l l= C b bN mit dem ATLAS Detektor
Experimentelle Physik
Dortmund Isabel Nitsche
p IV, TU Dortmund
E-6 (A)
Suche nach tH -Produktion mit H ! bei s = 13 TeV mit dem ATLAS
Experiment
Dortmund Tobias Tekampe
TU Dortmund
E-7 (C)
Suche nach Zerfällen neutraler B-Mesonen in vier Myonen beim LHCb Experiment
Physikalisches Institut, Universität Freiburg
Freiburg
Matthias Gorzellik
E-8 (B)
Messung exklusiver Reaktionen mit dem COMPASS Experiment
Albert-Ludwigs-Universität Freiburg
Freiburg
Alena Lösle
E-9 (C)
Messung der Kopplung des Higgs-Bosons an -Leptonen im Zerfall H !
! 2l4 mit dem ATLAS Detektor
Albert-Ludwigs-Universität
Freiburg
Philipp Mogg
E-10 (A) Suche nach schweren Top-Squarks im hadronischen Endzustand mit dem ATLAS Detektor
Ludwig-Maximilians Universität München
Garching Michael Adersberger
E-11 (B)
Suche nach schweren langlebigen geladenen Teilchen mit dem ATLASDetektor
Garching Nikolai Hartmann
LMU München
E-12 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton und vielen
Jets am ATLAS Experiment
II. Physikalisches Institut, Universität Göttingen
Göttingen Uwe Gebauer
.0/
E-13 (A) Analyse des B ! ` Zerfalls mit dem Belle-Detektor ohne Rekonstruktion des zweiten B-Mesons
Hamburg Robert Karl
DESY
E-14 (B)
Bestimmung der Strahlpolarisation am International Linear Collider
Aachen
E-1 (C)
10
Seite
27
29
30
32
33
34
35
37
39
41
42
43
44
45
Universität Hamburg
Dominik Nowatschin
Suche nach paarproduzierten vektorartigen Quarks
pin Endzuständen mit Leptonen und hochenergetischen Higgs-Bosonen bei s = 13 TeV mit dem CMS
Experiment
Deutsches Elektronen-Synchrotron (DESY)
Hamburg Daniel Rauch
E-16 (A) Suche nach dem Higgs-Boson in H ! Z-Zerfällen mit dem ATLASDetektor
Universität Hamburg
Hamburg Heiner Tholen
E-17 (B)
Suche nach Einzelproduktion von schweren vektorartigen T-Quarks mit Zerfall in ein Higgs-Boson und ein Top-Quark
Kirchhoff-Institut für Physik
Heidelberg Thomas Spieker
E-18 (C)
Nicht-lineare Energiekalibration für Jets im Level-1 Kalorimeter Trigger bei
ATLAS
Physikalisches Institut, Universität Heidelberg
Heidelberg Marian Stahl
0
E-19 (A) Erste Beobachtung des Zerfalls 0b ! C
c D K und Messung des relativen
Hamburg
E-15 (C)
Verzweigunsverhältnisses
0
B.0b !C
c D K /
B.0b !C
c Ds /
46
48
49
51
52
mit dem LHCb-Experiment
Institut für Experimentelle Kernphysik KIT
Karlsruhe Nils Faltermann
E-20 (B)
Suche nach Higgs-Boson-Produktion in Assoziation mit Einzel-Top-Quarks
am CMS-Detektor
Institut für Physik - Universität Mainz
Mainz
Maurice Becker
E-21 (C)
ZZ Produktion beim ATLAS-Experiment - Wirkungsquerschnittsmessung
und Suche nach anomalen Kopplungen
Mainz
Manuel Lornatus
Uni Mainz
E-22 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton, Jets und fehlender Transversalenergie mit dem ATLAS Detektor
Universität Mainz, Institut für Physik
Mainz
Simon Schmitz
E-23 (B)
Suche nach neuer Physik mit zwei Elektronen im Endzustand bei ATLAS
Max-Planck-Institut für Physik
München Rainer Röhrig
N mit dem
E-24 (C)
Suche nach dunkler Materie im Mono-Higgs-Kanal (H ! b b)
ATLAS-Detektor am LHC
Rostock
Nis Meinert
Universität Rostock
E-25 (B)
Bestimmung der Massen von ˙c Baryonen
Bergische Universität Wuppertal
Wuppertal Gunnar Jäkel
E-26 (B)
Messung des Wirkungsquerschnitts der Einzel-Top-Quark-Erzeugung
Universität Würzburg
Würzburg Verena Herget
E-27 (C)
Bestimmung der Masse des W -Bosons mit dem ATLAS-Experiment
Zeuthen
Elias Rüttinger
DESY Zeuthen
E-28 (A) Untersuchung von anomalen Vektorbosonenkopplungen in W W Ereignissen
mit dem ATLAS Detektor
54
55
56
57
58
59
60
61
62
11
Theorie
Stadt
Nr. (Gr.)
Name
Titel des Vortrags
Institut
Seite
Inst. f. Th. Teilchenph. und Kosmologie, RWTH Aachen
Frederic Poncza
Wiederverwendung von Monte-Carlo-Events in Parameterscans mit Check63
MATE
Institut fur Physik, Humboldt-Universität zu Berlin
Berlin
Stefan Mölbitz
T-2 (B)
Produktion einzelner Top-Quarks in Assoziation mit zwei weiteren Jets in
64
nächstführender Ordnung QCD
Fakultät für Physik, Universität Bielefeld
Bielefeld Dennis Schröder
T-3 (C)
Helizitätsasymmetrie der sterilen Neutrinos in Leptogenese
66
Theoretische Physik III TU Dortmund
Dortmund Mathias Becker
T-4 (A)
Extradimensionaler Seesaw Mechanismus sowie dessen Effekt auf Neutrino67
oszillationen
Institut für Kern- und Teilchenphysik, TU Dresden
Dresden
Sebastian Liebschner
T-5 (B)
Squarkproduktion im Minimal R-Symmetrischen Supersymmetrischen Stan68
dardmodell
Freiburg
Matthijs van der Wild Physikalisches Institut, Universität Freiburg
T-6 (C)
A non-perturbative analysis of quantum frame dependence
69
Garching Stephan Meighen-Berger TUM Physik T75
T-7 (A)
Collider Reach
70
Garching Maximilian Ruhdorfer Physikdepartment (T75), TU München
T-8 (B)
SO(7)/SO(6) Composite Higgs und Dunkle Materie
71
Physikdepartment (T75), TU München
Garching Stefan Weber
T-9 (C)
Die Suche nach dem Littlest Higgs Modell mit T-Parität
72
Aachen
T-1 (A)
Gustavo Álvarez Cosque II. Institut für Theoretische Physik, Universität Hamburg.
Über die expliziten Lösungen der laufenden QCD-Kopplung.
73
ITP Heidelberg
Heidelberg Martin Klassen
T-11 (B)
Ein zwei Higgs Doublette Dunkle Materie Modell
74
Institut für Theoretische Physik (KIT)
Karlsruhe Pascal Nagel
T-12 (C)
Ein meta-stabiles Soliton in SU.3/ Yang-Mills-Higgs-Theorie
75
Karlsruhe Jakob Schwichtenberg Institut für Theoretische Teilchenphysik KIT
T-13 (A)
Dunkle Materie und E6 Grand Unification
76
Max-Planck-Institut für Physik, München
München Henning Bahl
T-14 (B)
Resummierung logarithmischer Beiträge in MSSM Higgsmassenberechnun77
gen
Institut für Theoretische Physik Universität Münster
Münster
Marthijn Sunder
T-15 (C)
Der renormalon Effekt auf der Masse des Top-Quarks
79
Universität Siegen
Siegen
Tobias Mohrmann
T-16 (A)
Berechnung von soften Funktionen in SCET
81
Hamburg
T-10 (A)
12
Institut für Theoretische Physik, Universität Tübingen
Anton Stoyanov
NLO-QCD-Korrekturen zur Higgspaarproduktion am LHC
82
Yannick Ulrich
Paul Scherrer Institut
Muon Zerfall
84
Fakultät für Physik, Universität Wien
Christopher Lepenik
Der Einfluss von schweren Quarks auf Heavy Jet Mass-Verteilungen im Pro85
C
zess e e ! Hadronen
Wien
Lukas Semmelrock
Institut für Hochenergiephysik, ÖAW
T-20 (B)
Bremsstrahlung selbst-wechselwirkender Dunkler Materie
87
Julius-Maximilians-Universität Würzburg
Würzburg Thomas Faber
T-21 (C)
Natürliche SUSY-Modelle und rechte Sneutrinos als LSP
89
Tübingen
T-17 (B)
Villigen
T-18 (C)
Wien
T-19 (A)
13
D. Detektor- und
Beschleunigertechnologie
D-1 (A) Charakterisierung von Pixelmodulen für das CMS
Phase 1 Pixel Upgrade
M ARTIN L IPINSKI
I. Physikalisches Institut B, RWTH Aachen University
Mit dem Large Hadron Collider (LHC) am europäischen Kernforschungszentrum werden Protonen oder Bleiionen bei Schwerpunktsenergien bis derzeit 13 TeV zur Kollision gebracht. Der
CMS-Detektor ist einer von vier großen Detektoren, mit dem die Spuren und Energien der in
diesen Kollisionen entstehenden Teilchen vermessen werden.
Mit dem Silizium-Pixeldetektor, der die innerste Komponente des CMS-Detektors bildet und
dem Wechselwirkungspunkt am nächsten ist, sollen mit einer hohen Ortsauflösung bei hohen
Teilchenraten Spuren rekonstruiert werden. Der aktuelle Detektor ist für eine instantane Luminosität von 1 1034 cm 2 s 1 ausgelegt. Dieser Wert ist bereits heute überschritten. Durch Weiterentwicklungen am LHC soll die instantane Luminosität in den nächsten Jahren auf das Doppelte
des genannten Designwertes steigen. Dies führt zu einer Erhöhung der Ineffizienz durch Datenverluste, zum Beispiel von 4 % auf 16 % in der innersten Lage. Aus diesem Grund wird derzeit
im Rahmen des sogenannten Phase 1 Upgrades ein neuer Pixeldetektor gebaut und voraussichtlich in der Winterpause 2016/2017 installiert. Der Auslesechip wurde dafür weiterentwickelt, um
bei höheren Raten noch effizient Daten nehmen zu können.
Der Phase 1 Pixeldetektor besitzt im zylindrischen Zentralbereich (Barrel) eine zusätzliche vierte Lage und in den beiden Endkappen eine zusätzliche dritte Scheibe von Pixelmodulen. Die
Pixelmodule für die äußerste Lage im Barrel wurden in Deutschland von zwei Konsortien, bestehend aus der RWTH Aachen und dem KIT Karlsruhe sowie der Universität Hamburg und
dem DESY, gebaut. 385 in Karlsruhe produzierte Module wurden dabei in Aachen mit zwei
Testaufbauten auf eine Verwendbarkeit im Detektor hin untersucht und charakterisiert.
Der Pixeldetektor wird bei einer Temperatur von voraussichtlich 20 ı C betrieben. Im ersten
Aufbau wird die Funktion jedes Moduls daher bei 20 ı C getestet. In einer durch Peltierelemente gekühlten Box können bis zu vier Pixelmodule gleichzeitig elektrisch getestet werden.
Dabei wird unter anderem die Anzahl defekter oder nicht mit dem Sensor verbundener Pixel
bestimmt und der Leckstrom des Siliziumsensors gemessen. Die Auslesechips besitzen mehrere
Digital-Analog-Konverter, mit denen unter anderem Timings und Verstärkungen sowie Komparatorschwellen eingestellt werden. Die optimalen Betriebsparameter werden in den Tests ermittelt. Als mechanischer Stresstest werden 10 thermische Zyklen von 25 ı C bis C17 ı C durchfahren und anschließend erneut die Funktion bei 20 ı C und C17 ı C überprüft.
Mit einem Röntgenteststand werden die Module anschließend energiekalibriert. Durch Bestrah-
16
47. Herbstschule für Hochenergiephysik Maria Laach 2015
lung verschiedener metallischer Targets werden diese zur Emission von K˛ -Photonen angeregt,
deren Energie bekannt ist. Zusätzlich wird ein Hochratentest durchgeführt, um die Effizienz sowie die Gleichmäßigkeit der Datenauslese zu überprüfen. Die Pixelmodule werden dabei bis
Raten von 150 MHz/cm2 betrieben, was in etwa der fünffachen für Lage 4 des Pixeldetektors zu
erwartenden Rate entspricht.
Die Serienproduktion und die Charakterisierung der Module des Konsortiums aus Aachen und
Karlsruhe sind abgeschlossen. Es sind 343 für den Detektor verwendbare Module produziert
worden.
D. Detektor- und Beschleunigertechnologie
17
D-2 (B) Der DEPFET Pixeldetektor für das Belle II Experiment
- Charakterisierung von Teststrukturen
B OTHO PASCHEN
Physikalisches Institut der Universität Bonn
Das Belle II Experiment befindet sich in Tsukuba, Japan und ist eine verbesserte Version des
Belle Experiments, mit welchem von 1999 bis 2010 Daten von Teilchenkollisionen genommen
wurden. Für Belle II werden Teilchenkollisionen vom SuperKEKB Beschleuniger bereitgestellt,
bei welchem es sich seinerseits um eine verbesserte Version des vorherigen KEKB Beschleunigers handelt.
Der SuperKEKB Beschleuniger ist eine sogenannte B-Fabrik. Er erzeugt Elektron-Positron Kollisionen mit einer Schwerpunktsenergie von 10:58 GeV. Diese entspricht der Energie der .4S/
Resonanz, welche mit hoher Wahrscheinlichkeit in B-Mesonen Paare zerfällt. Belle II wird Präzisionsmessungen seltener Prozesse ermöglichen, um ein besseres Verständnis der fundamentalen
Wechselwirkungen des Standardmodells der Teilchenphysik zu erlangen und möglicherweise
“Neue Physik” zu entdecken. Die angestrebte Präzision wird mithilfe sehr vieler Einzelmessungen erreicht. Daher werden die Kollisionen bei Belle II mit höherer Luminosität als je zuvor von
bis zu L D 8 1035 =cm2 =s erzeugt werden. Um die hohe Datenrate bewältigen zu können,
müssen neue Detektorkonzepte umgesetzt werden.
Der Belle II Detektor (Abb. D.1) besteht aus verschiedenen rotationssymmetrischen Subdetektoren, die schalenartig um den Interaktionspunkt der Teilchenkollisionen aufgebaut sind. Der
Pixeldetektor (Abb. D.2) ist der innerste Teil dieser Struktur und ein Teil des sogenannten Vertexdetektors. Seine Aufgabe ist es, die Spuren geladener Teilchen aufzunehmen, um Impulse
und Wechselwirkungspunkte genau rekonstruieren zu können. Teilchen müssen den Pixeldetektor durchqueren, bevor sie die äußeren Lagen des Belle II Detektors erreichen. Daher sollte er
möglichst leicht gebaut werden, um Streuung und Energieverluste zu minimieren. Für die Senso-
Abbildung D.1.: Der Belle II Detektor.
Abbildung D.2.: Der Belle II Pixeldetektor.
Sensoren sind grau, ASICs
gelb und rot gefärbt.
18
47. Herbstschule für Hochenergiephysik Maria Laach 2015
ren wurden Depletierte P-Kanal FeldEffektTransistoren (DEPFETs) (Abb. D.3) ausgewählt, die
extrem dünn (75 ¯m) gefertig werden können. Sie bestehen aus Silizium und Teilchen werden
detektiert, indem die Ladung gemessen wird, welche sie beim Durchqueren im Sensorvolumen
generieren. Zur Signalerfassung großer, in Pixel unterteilter, Matrixstrukturen solcher Sensoren
bedarf es komplexer Elektronik, die direkt angeschlossen ist. Drei verschiedene AnwendungsSpezifische Integrierte Schaltkreise (ASICs) werden dafür verwendet. Einer steuert direkt die
Spannungen zur Matrixauslese (Switcher) und ein anderer digitalisiert den Drainstrom der DEPFETs (Digitalisierer). Der dritte ASIC (Datenprozessor) steuert den Betrieb der ersten beiden
und verarbeitet die digitalisierten Drainströme, bevor er die Daten zur Elektronik außerhalb des
Detektors schickt.
Um einzelne Aspekte der ASICs und DEPFET Matrizen zu testen und charakterisieren, werden
Testhybride gebaut. Sie bestehen aus je einer Platine auf der ein Minimalsystem aus Elektronik
und DEPFET Strukturen aufgebaut werden kann. Mit diesen Systemen werden die Eigenschaften der Chips verifiziert und optimale Arbeitspunkte für die Sensoren ermittelt. Unter anderem
können die Kommunikationssignale der ASICs mit Taktraten von bis zu 320 MHz auf den Hybridsystemen gesondert untersucht werden. Auf den finalen Detektormodulen ist dies wegen des
Layouts nicht mehr möglich. Außerdem müssen die optimalen Spannungen zwischen den verschiedenen Implantaten im Silizium des Sensors experimentell ermittelt werden.
Abbildung D.3.: Querschnitt durch eine DEPFET Struktur.
D. Detektor- und Beschleunigertechnologie
19
D-3 (C) Entwicklung eines Auslesemoduls für die Zeitprojektionskammer des ILD
T OBIAS S CHIFFER
Physikalisches Institut Universität Bonn
Für zukünftige Projekte in der Teilchenphysik, wie dem International Linear Collider (ILC),
werden neue hochauflösende Detektoren benötigt. Für den ILC werden derzeit zwei Detektoren
entwickelt. Einer dieser Detektoren ist der International Large Detektor (ILD), welcher eine
Zeitprojektionskammer (TPC) zur Spurrekonstruktion nutzen wird. Um hierbei eine möglichst
gute Auflösung der einzelnen Spuren zu erhalten sind zurzeit verschiedene Auslesekonzepte in
der Entwicklung.
Eines dieser Konzepte ist die Auslese mithilfe von Pixelchips mit einer integrierten Gasverstärkungsstufe. In dieser werden die eintreffenden Elektronen derart vervielfacht, dass sie auf
einzelnen Pixeln nachgewiesen werden können. Mittels photolithographischer Nachbearbeitung
wird diese Micromegas Struktur auf den Chips aufgebracht. Es handelt sich dabei um ein dünnes
Aluminiumgitter, welches auf kleinen Stützpfeilern ruht und so präzise erzeugt wird, dass jedes
Loch exakt über einem Pixel positioniert ist. Dieses Verfahren wurde mit dem Timepix ASIC
erprobt und liefert sehr vielversprechende Ergebnisse. Der Timepix ASIC besitzt wie sein Nachfolger der Timepix3 ASIC 256 256 Pixel mit einer Größe von 55 55 m2 . Somit lässt sich
fast jedes im Ionisationsprozess entstehende Elektron einzeln nachweisen. Die Produktion dieser
sogenannten GridPix wurde erfolgreich mit vollständigen Timepix 8’ Wafern durchgeführt und
wird nun auch für den Timepix3 ASIC umgesetzt.
Nachdem bereits Auslesemodule mit insgesamt 160 GridPixen auf Timepix Basis erfolgreich getestet wurden, soll nun der Nachfolger auf Basis des Timepix3 ASICs in Betrieb genommen werden. Hierzu wird zunächst überprüft ob die ASICs beim Aufbringen der Gitter Schaden nehmen.
Danach wird die Datennahme mit einem einzelnen GridPix getestet. Nach erfolgreichen Tests
soll dann ein Auslesemodul geplant und gebaut werden, welches zunächst aus 8 und später aus
bis zu 100 ASICs besteht. Die Herausforderungen hierbei sind vor allem die Kühlung, die Spannungsversorgung, sowie die schnelle Auslese und Verarbeitung von ca. 7 Millionen Kanälen.
Neben der Nutzung als Auslese für eine TPC lassen sich die GridPixe auch in anderen Experimenten nutzen. Zurzeit befinden sie sich beim CERN Axion Solar Telescope (CAST) im Einsatz.
Hier wird der ASIC zur Detektion von Röntgenphotonen genutzt, welche durch Konvertierung
von solaren Axionen in einem starken Magnetfeld entstehen.
Im Vortrag werden die Anwendungen der GridPixe, die Herausforderungen bei Planung und
Bau der Module, sowie die Anforderungen an die Auslesesysteme diskutiert. Auch werden die
Unterschiede zwischen Timepix und Timepix3 ASIC dargestellt.
20
47. Herbstschule für Hochenergiephysik Maria Laach 2015
D-4 (A) Teststrahlmessungen für den ATLAS Pixeldetektor für
das HL-LHC Upgrade
T OBIAS B ISANZ
II. Physikalisches Institut, Universität Göttingen
Bedingt durch das Upgrade auf den High-Luminosity LHC Anfang der 2020er Jahre muss der
ATLAS Pixeldetektor erneuert werden. Grund hierfür ist einerseits die erhöhte Fluenz und die
damit einhergehenden höhereren Strahlenschäden, als auch die allgemein höhere Okkupanz und
der somit gesteigerte Auslesebedarf, vorallem in den innersten Lagen des Detektors. Das ATLAS Experiment will im Rahmen des Upgrades den gesamten inneren Trackingdetektor (ITK)
ersetzen. Dabei soll auch die aktive Fläche des Pixeldetektors von knapp einem Quadratmeter
auf etwa zehn ansteigen. Neben strahlenhärteren und schnellerer Auslesechips sowie Sensoren
ist deswegen auch ein Detektor, welcher günstig und in großem Umfang herstellbar ist, erforderlich.
Aus diesem Grund arbeitet die Kollaboration gerade daran neue Sensoren und Auslesechips,
welche diese Anforderungen erfüllen, zu entwickeln. Beispielsweise wird versucht existierende
Sensorentwürfe mit planaren Elektroden in vierfacher Größe zu fertigen, sogenannte 4-Chip Module, welche die Herstellungskosten senken würden. Weiters wird auch intensiv an unterschiedlichen Kantendesigns, slim- und active-edge, geforscht. Andere Studien beschäftigen sich mit
aktiven Sensorn auf CMOS-Technologie, unter Umständen auch in monolithischer Ausführung.
Ebenso wird ein neuer Auslesechip, welcher jenen, der im vergangenen Upgrade für die neue,
innerste Lage verwendet wurde, ersetzt, entwickelt.
Solche neuen Detektoren müssen untersucht und charakterisiert werden. Teststrahlmessungen
stellen neben Labormessungen ein hilfreiches Werkzeug dar um diverse Aspekte dieser zu studieren. Bei Teststrahlmessungen handelt es sich um Messungen mithilfe eines Strahlteleskops,
welches verwendet wird um Spuren geladener Teilchen, welche auf den zu untersuchenden Detektor geschossen werden, zu rekonstruieren und extrapolieren. So können unter anderem Ladungssammlungseigenschaften oder Ineffizienzen untersucht werden.
Um Teststrahlmessungen erfolgreich durchführen zu können, müssen diverse Aspekte eines
Hochenergieexperiments verstanden und kontrolliert werden: mittels eines Triggersystems werden die Rohdaten aus dem zu untersuchenden Detektor ausgelesen und in den Datenstrom des
Teleskops geschrieben, die Rohdaten müssen interpretiert und rekonstruiert werden und im letzten Schritt muss eine Analyse mit den gewonnenen Spuren durchgeführt werden.
Der Fokus der vorgestellten Arbeit liegt auf der Datenrekonstruktion mithilfe eines generischen
Rekonstruktionsframeworks. Die unterschiedlichen Schritte einer Teststrahlrekonstruktion sowie
aktuelle ATLAS ITK Analyseresultate werden vorgestellt.
D. Detektor- und Beschleunigertechnologie
21
D-5 (B) Entwicklung eines Spurdetektors für die Suche nach
dem Zerfall C ! e C e e C mit dem Mu3e Experiment
L ENNART H UTH
Physikalisches Institut Heidelberg
Die Suche nach neuer Physik jenseits des Standardmodells (SM) erfordert neue Experimente und
Detektortechnologien, um die Sensitivität auf im SM verbotene und stark unterdrückte Prozesse
weiter zu erhöhen. Insbesondere bei der Suche nach niederenergetischen, seltenen und im SM
verbotenen Zerfällen werden hohe Ereignisraten benötigt, um in akzeptabler Messzeit neue Resultate zu generieren. Daher müssen die Detektoren und Datennahmesysteme immer schneller
und effizienter werden
Die Leptonzahlverletzung in geladenen Prozessen ist im SM zwar verboten, aber ein guter Kandidat für neue Physik jenseits des SM. Die relativ geringe Masse von Myonen erlaubt ausschlieslich leptonische Zerfälle und hat daher einen theoretisch gut verstandenen Untergrund.
Das Mu3e Experiment sucht nach dem leptonzahlverletztenden Zerfall C ! e C e e C mit
einer angestrebten Sensivität von einem in 1016 Zerfällen. Dazu werden bis zu 109 Myonen pro
Sekunde auf einem dünnen hohlen Doppelkegel gestoppt, welcher die Zerfallspunkte räumlich
trennt. Diese werden mit einem vierlagigen, pixelbasierten Spurdetektor vermessen, der eine
exzellente Vertex und Impulsauflösung bieten muss, um Untergrundprozesse zu unterdrücken.
Szintillierende Fasern und Kacheln sorgen für eine zusätzliche präzise Zeitmessung, die zur Unterdrückung von kombinatorischem Untergrund benötigt wird. Die hohe kontinuierliche Myonrate fordert ein Auslesesystem, welches kontinuierlich Daten der Subdetektoren empfängt und
direkt interessante Ereignisse selektiert, indem es das gesamte Ereigniss rekonstruiert.
Der Pixeldetektor basiert auf der neuen Technologie der hochspannungsbetriebenen monolitische aktive Pixelsensoren (kurz HV-MAPS), die auf 50 m gedünnt werden können. Die Hochspannung ermöglicht eine schnelle Ladungsammlung und damit geringe Totzeiten und eine hohe
Rate.. Die Ausleseelektronik ist direkt im Pixel integriert und es wird kein separater Auslesechip
benötigt. Der aktuelle Prototyp ist der MuPix 7, welcher in einem komerziellen HV-CMOS Prozess hergestellt wird, voll monolithisch ist und aus 32x40 Pixeln mit einer Größe von 103x80
m2 besteht. Die Auslese ist kontinuierlich, shutterfrei und null-unterdrückt. Jeder Pixel hat
einen integrierten Verstärker und eine direkte Verbindung zu seiner digitalen Partnerzelle in der
Peripherie des Sensors. In der digitalen Zelle wird das Signal erneut verstärkt, mit einer individuell angepassten Schwelle verglichen und ein 8bit Zeitstempel gespeichert. Eine integrierte finite
state machine liest die digitalen Zellen aus. Die Trefferinformation wird 8bit/10bit encodiert,
serialisiert und über einen 1.25 GBit/s LVDS Sender übertragen.
Um den HV-MAPS in ein komplexes Spurrekonstruktionssystem zu integrieren, das Mu3e Auslesekonzept zu validieren und Sensoren auf Strahlzeiten zu charakterisieren wurde ein Strahlteleskop aus MuPix 7 Prototypen gebaut. Um möglichst Nahe am Mu3e Auslesekonzept zu
bleiben wurden 8 Sensorlagen hintereinander plaziert, wobei jeweils 4 Lagen mit einem FPGA
verbunden sind. Die beiden FPGAs empfangen die Daten der Sensoren und senden die Konfigurationssignale. Auf dem FPGA werden die Daten von 4 Sensoren decodiert und direkt nach den
Zeitstempeln sortiert. Zusätzlich werden zwei szintillierende Kacheln verbaut um eine präzise
Referenzzeitmessung zu erhalten.
Die Daten werden am PC von einer grafischen Benutzeroberfläche in Empfang genommen und
dort verarbeitet. Im ersten Schritt werden die Daten direkt auf die Festplatte geschrieben und an
22
47. Herbstschule für Hochenergiephysik Maria Laach 2015
ein Datenüberwachungsfenster weitergeleitet, in welchem die Datenqualität geprüft wird. Dabei
werden die Korrelationen zwischen Sensoren dargestellt, erste Spuren rekonstruiert und eine
Abschätzung der Sensoreffizienz gegeben. Zusätzlich wurde eine Option integriert, die es erlaubt
die Spuren, analog zum Mu3e Auslesekonzept, direkt auf einer Grafikkarte zu rekonstruieren.
Im Vortrag werde ich zuerst das Mu3e Experiment und dannach das Konzept, die Auslesestruktur und einige MuPix Ergebnisse die aus dem MuPix Teleskop hervorgehen sind vorstellen. Abschließend werde ich noch ein Ausblick auf weitere Integrationsschritte geben.
D. Detektor- und Beschleunigertechnologie
23
D-6 (C) Firmwareentwicklung des topologischen Prozessors als
Teil des ATLAS Level-1 Triggerausbaus
S EBASTIAN A RTZ
ETAP, Johannes Gutenberg-Universität Mainz
Im ATLAS Detektor am Cern werden seit der letzten Upgradephase Proton-Proton Kollisionen
mit einer Schwerpunktsenergie von 13 TeV durchgeführt. Bei einer instantanen Designluminosität von 1034 cm 2 s 1 kollidieren Protonenpakte in einem zeitlichen Abstand von 25 ns entsprechend einer Rate von 40 MHz. Aufgrund der hohen anfallenden Datenmengen müssen die
Kollisionsereignisse auf mehreren Triggerebenen vorselektiert werden. Der Level-1 Trigger ist
als erste Triggerstufe komplett in Hardware realisiert und reduziert die Rate auf etwa 100KHz.
Darauf folgt der softwarebasierte High Level Trigger, welcher die Triggerrate weiter auf wenige hundert Hertz reduziert. Um die Triggerraten auch mit ansteigender Luminosität effizient
stabil zu halten wurde der topologische Prozessor (L1Topo) als komplett neues Hardwareboard
entwickelt und in den Level-1 Trigger integriert.
2014-2015 LHC collisions (40MHz, 6.5+6.5TeV, lumi>10 34)
~7200 digitized 0.1x0.1(ηxφ)
calorimeter signals
Level-1 Calo
Jet/Energy Processor
32 modules (jets, MET)
Level-1 Muon
Cluster Processor
56 modules (e, γ,τ)
upgraded merging
(4 modules)
TGC
Endcap
RPC
Barrel
upgraded merging
(8 modules)
Muon CTP
Interface
L1Topo
~1Tb/s
opto input
Upgraded Central Trigger
Processor
LHC
Level-1 Accept
Level-1 output rate: 100kHz
Abbildung D.4.: Integration des L1Topo in das Level-1 Triggersystem
Der Level-1 Trigger ist ein hardwarebasiertes, gepipelinetes, synchrones System mit einer festen Latenz. Er besteht aus drei verschiedenen Subsystemen: Level-1 Kalorimetertrigger, Level1 Myontrigger und Central Trigger Prozessor (CTP). Der neue topologische Prozessor erhält
Transversalenergie- und Winkelinformationen von Kalorimeter- und Myontrigger und ist somit
in der Lage auf eine Vielzahl von berechneten topologischen Größen zu triggern. Die Triggerentscheidungen werden anschließend an den CTP gesendet, der schließlich die finale Entscheidung
trifft.
Um die Hardwareanforderungen umsetzen zu können etwa 1Tb/s Inputdaten zu empfangen und
ca. 100 topologsche Algorithmen auf diesen Daten auszuführen, wird modernste Technik eingesetzt. Es werden 2 Virtex 7 FPGAs pro Modul verwendet, welche die Daten über 160 optische
Kabel bei einer Übertragungsgeschwindigkeit von 6.4 Gb/s empfangen. Um die große Anzahl
der Algorithmen zu ermöglichen werden aktuell zwei identische Module eingesetzt.
Der Input der FPGAs besteht aus ca. 330 potentiellen Teilchen (Em/Gamma, Tau, Jets, Myonen
24
47. Herbstschule für Hochenergiephysik Maria Laach 2015
120 Taus
1 BX
2 BX
120 Em/Gamma
32 Myonen
64 Jets
Missing ET
Parameter
Sort / Select
6/10 Em/Gamma
6/10 Taus
6/10 Myonen
Algorithmus 1
Algorithmus 2
Algorithmus 3
6/10 Jets
Algorithmus N
Overflow- & Ergebnisbits
Abbildung D.5.: Struktur der Algorithmen im topologischen Prozessor
und Energiesummen). Auf Grund der limitierten Ressourcen muss diese Zahl reduziert werden.
Aktuell sind zweit Möglichkeiten implementiert: Das Sortieren nach dem Wert der Transversalenergie mit einer Liste von 6 Output Triggerobjekten (TOB) und das Selektieren von TOBs oberhalb einer minimalen Transversalenergie mit 10 Output TOBs. Anschließed können auf diesen
reduzierten Listen verschiedenste topologische Algorithmen ausgeführt werden wie beispielsweise: Schnitte auf Winkeldifferenzen (, ), Berechnung von invarianten Massen, skalare
Jetenergiesummen, Korrektur der fehlenden Energie oder Berechnung von Energiequotienten.
Die Kombination verschiedener Teilchenarten in diesen Algorithmen kann flexibel im aktuellen
Triggermenü definiert werden.
Der Fokus soll auf der Implementation der Algorithmen, Konfiguration, Firmwareentwicklung
des Echtzeitdatenpfades und Verifikation der Algorithmen liegen.
D. Detektor- und Beschleunigertechnologie
25
D-7 (A) Qualitätssicherung und Charakterisierung der Module
des Pixel Vertex Detektors für Belle II nach dem Anbringen der
Kapton Kabel
P HILIPP L EITL
Max-Planck-Institut für Physik, München
Um die zeit-abhängige CP-Verletzung und seltene Zerfälle im B-Mesonen System genauer vermessen zu können, wurde der Teilchenbeschleuniger KEKB zum sogenannten SuperKEKB verbessert. Das Ziel ist es, bei der Produktion von B-Mesonen Paaren eine Luminosität von 8 1035 cm 2 s 1 zu erreichen und damit schneller eine höhere Statistik zu erhalten, die es erlaubt,
genauere Messungen zu machen und seltene Ereignisse zu untersuchen. Dazu wird auch die
Asymmetrie in den Energien der Teilchenstrahlen verringert, sodass die Elektronen mit etwa
7 GeV und die Positronen mit etwa 4 GeV den Interaktionspunkt (IP) erreichen. Der resultierende Boost der entstandenen Teilchen, der die Lebenszeit-Bestimmung in eine Längenmessung
überträgt, ist dadurch geringer als bei KEKB. Diese neuen Bedingungen machten ein Upgrade
der Detektoren unumgänglich. Eine verbesserte Vertex Auflösung und geringere Okkupanz wird
durch die Kombination eines Pixel- mit einem Streifen-Detektor erreicht.
Der Pixel Vertex Detektor (PXD) besteht aus 40 Silizium Modulen, die zylindrisch in zwei Lagen
mit Radien von nur 14 mm bzw. 22 mm angeordnet sind (Abb. D.6). Er wird durch einen StreifenDetektor, den Silizium Vertex Detektor (SVD), ergänzt, der ihn mit vier weiteren Lagen umgibt.
Abbildung D.6.: Pixel Vertex Detektor für das Belle II Experiment
Jedes Modul des PXD besitzt eine sensitive Fläche in Form einer Matrix von 192.000 DEPFET
Pixeln. Auf dem selbem Wafer, auf dem die Pixel mit über 80 Schritten prozessiert werden, werden auch die Leiterbahnen für den elektrischen Schaltkreis des Moduls aufgebracht. Im Bereich
der Matrix wird das Modul auf eine Dicke von nur 75 m herab geätzt. Danach werden die Module aus dem Wafer geschnitten und mit den aktiven Bauteilen, den Chips für die Steuerung und
Auslese, und den passiven Bauteilen, Kondensatoren und Widerständen, bestückt. Danach wird
26
47. Herbstschule für Hochenergiephysik Maria Laach 2015
das Kapton Kabel angelötet und die Verbindungen zum Modul mit feinen Wire Bonds hergestellt.
Mit dem Kapton Kabel wird die Verbindung der Module mit der externen Steuerungselektronik
möglich und nach dem Zusammenkleben zweier Module zu einer Ladder können sie in den PXD
eingebaut werden.
Die letzte Entscheidung, ob ein Modul für den PXD verwendet wird, fällt nach den Tests zur
Qualitätssicherung und Charakterisierung der Module nach dem Anbringen der Kapton Kabel.
Zu diesem Zeitpunkt können die Eigenschaften des Moduls genau bestimmt werden. Dazu wird
ein Testprogramm in Form von Mess- und Auslese-Skripten vorbereitet, die am PC automatisch
ablaufen. Untersucht werden unter anderem die Anzahl funktionierender Pixel, die Transferkurven der Analog-Digital-Wandler, die Signale bei Bestrahlung mit einer Quelle und das Verhalten
während des “gated mode”, einem bestimmten Operationsmodus, der den Detektor gegen periodischen Hintergrund des Beschleunigers immun machen soll. Die dabei gefundenen optimalen
Einstellungen werden für jedes Modul in einer Datenbank gespeichert, damit sie bei einem Neustart des Moduls sofort zur Verfügung stehen.
Die ersten Module, die dieses Testverfahren durchlaufen, werden im September 2016 erwartet.
Daraus sollen die ersten beiden Ladders entstehen, die im Winter 2016/17 zusammen mit vier
Modulen des SVD in einem kombinierten Testbeam am DESY getestet werden, bevor sie für erste Messungen am SuperKEKB nach Japan gebracht werden. Zeitgleich durchlaufen die weiteren
Module der Serienproduktion das Testprogramm, so dass der PXD bis März 2017 zusammengesetzt werden kann.
E. Experimentelle Analysen
E-1 (C) Suche nach resonanter Sleptonproduktion in Endzuständen mit Myonen und Jets bei CMS
P HILIPP M ILLET
III. Physikalisches Institut A, RWTH-Aachen
Das Standardmodell der Teilchenphysik (SM) ist eine enorm erfolgreiche Theorie, die über Jahrzehnte getestet wurde und eine große Bandbreite unterschiedlichster experimenteller Beobachtungen vereint. Ungeachtet des großen Erfolgs bleiben Fragen offen. Zur Beantwortung dieser
Fragen existieren verschiedene Theorien, die versuchen es zu erweitern oder zu ersetzen. Theorien mit Supersymmetrie (SUSY) bieten eine elegante fundamentale Erweiterung des SM und
sind aussichtsreiche Kandidaten um viele der ungelösten Fragen der Teilchenphysik zu erklären.
SUSY-Modelle postulieren unter anderem die Existenz von Sleptonen. Diese bislang unendeckten Teilchen könnten in hochenergetischen Teilchenkollisionen am LHC produziert und mit dem
CMS-Experiment nachgewiesen werden.
Das Thema dieses Vortrages ist die Suche nach Sleptonen in SUSY-Szenarien mit Verletzung
der R-Parität (RPV). In diesen können SUSY-Teilchen am LHC nicht nur paarweise wie in traditionellen SUSY-Modellen ohne RPV sondern einzeln erzeugt werden. Darüber hinaus kann das
leichteste supersymmetrische Teilchen wieder in SM-Teilchen zerfallen, sodass alle Zerfallsprodukte im Detektor gemessen werden können. Dies ermöglicht eine Rekonstruktion der Massen
der beteiligten SUSY-Teilchen, was in dieser Analyse zur Definition der Signalregionen und
Abgrenzung vom SM-Untergrund genutzt wird.
µ−
d
χ̃ 0
1
′
λ211
µ̃
µ̃
′
λ211
u
d
µ−
u
Abbildung E.1.: Resonante Smyonproduktion mit zwei Myonen und zwei Jets im Endzustand.
Der Parameter 0211 bestimmt hier die Stärke der R-Paritäts verletzenden Kopplung von zwei Quarks der ersten Generation (u-Quark, d-Quark) zu einem Slepton aus der zweiten Generation (Smuon, Sneutrino).
Ein für diese Analyse typisches Signal ist in Abbildung E.1 gezeigt. Hier wird zunächst ein
Smyon resonant aus zwei Quarks erzeugt, welches dann in zwei Myonen gleicher Ladung und
28
47. Herbstschule für Hochenergiephysik Maria Laach 2015
mindestens zwei Jets zerfällt. Diese Signatur eignet sich sehr gut für die Suche nach neuer Physik, da die Produktion von genau zwei gleichgeladenen Myonen und Jets im SM nur sehr selten
vorkommt.
E. Experimentelle Analysen
29
E-2 (B) MUSiC - Modell Unspezifische Suchen in CMS
T OBIAS P OOK
III. Physikalisches Institut A, RWTH Aachen
Die
p aktuelle Datennahme am Large Hadron Collider (LHC) mit einer Schwerpunktsenergie von
s D 13 TeV bietet eine nie dagewesene Gelegenheit für die Suche nach Physik jenseits des
Standardmodells.
Ein Großteil der derzeit durchgeführten Suchen ist dabei auf ein spezielles Modell optimiert.
Trotz der großen Anzahl von Analysen beim Compact Muon Solenoid (CMS) Detektor wird nur
ein Bruchteil aller gemessenen Endzustände untersucht. Die Modell unspezifische Suche in CMS
(Model Unspecific Search in CMS - MUSiC) bietet eine einzigartige Prozedur, um die Zahl der
untersuchten Endzustände deutlich zu erweitern und damit zu verhindern, dass neue Physik übersehen wird. Hierzu wird eine automatisierte Suche nach Abweichungen vom Standard Modell
basierend auf Monte Carlo Simulationen und einer kompletten Detektorsimulation durchgeführt.
Ein großer Teil aller gemessenen Ereignisse wird analysiert und physikalische Objekte (Leptonen, Jets oder auch fehlende Transversalenergie) werden möglichst generisch ausschließlich
nach Qualitätskriterien für die Messung und Rekonstruktion selektiert, um eine höchstmögliche
Modellunabhängikeit zu gewährleisten. Jedes analysierte Ereignis wird in eine Ereignisklasse
sortiert, welche durch die vorhandenen Objekte definiert ist, z.B. werden alle Ereignisse mit
einem Elektron und drei Jets in dieselbe Klasse sortiert.
Für jede Ereignsisklasse werden drei kinematische Verteilungen evaluiert, die sich durch eine
große Sensitivität für neue Physik auszeichnet: die invariante Masse aller selektierten Objekte,
die Summe der Transversalimpulse aller selektierten Objekte und die fehlende Transversalenergie. Abweichungen zwischen Daten und der Standardmodell-Vorhersage werden in verschiedenen Regionen der jeweiligen Verteilung anhand ihres p-Wertes quantifiziert.
Der MUSiC Algorithmus wird auf einen größeren Teil des CMS Datensatzs angewandt als in allen anderen Analyse bei CMS der Fall ist. Dadurch ergeben sich eine Vielzahl von Herausforderungen hinsichtlich der konsistenten Behandlung von Detektoreffekten und Messunsicherheiten
innerhalb verschiedener Energiebereiche.
Die MUSiC Analyse wurde bereits bei früheren Datennahmen bei CMS eingesetzt und das dabei
aufgebaute Analyseframework wurde für die aktuelle Datennahme bei einer Schwerpunktsenergie von 13 TeV erweitert und modernisiert. Dadurch ist es aktuell möglich, neue Daten innerhalb
weniger Tage auszuwerten und frühzeitig mögliche Probleme zu identifizieren, die in den enger
gefassten Maßnahmen innerhalb von CMS zum Datenqualitätsmanagement unerkannt geblieben
sind.
Neue Physik kann grundsätzlich auf zwei Arten in der MUSiC Analyse entdeckt werden. Die
erste Möglichkeit sind neue Resonanzen, die in einer oder wenigen Ereignisklassen zu einer
signifikanten Abweichung führen, z.B. neue schwere Eichbosonen (W 0 ; Z 0 ), oder durch Substrukturen hervorgerufene Anregungszustände von bisher elementar angenommenen Teilchen.
Die zweite Möglichkeit ist eine Vielzahl von weniger signifikanten Abweichungen, die deutlich
über der Anzahl erwarteter statistischen Fluktuationen liegt. Solche Signaturen werden z.B. bei
vielen supersymmetrischen Erweiterungen des Standardmodells erwartet.
Insbesondere für die zweite Möglichkeit ist eine detailierte Betrachtung der Verteilung aller ermittelten Abweichung unter Beachtung von Korrelationen notwendig.
Der präsentierte Vortrag gibt einen Überblick über die MUSiC Analyse, aktuelle Entwicklungen
und bisherige Beiträge zu Suchen nach neuer Physik bei CMS.
30
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-3 (C) MC HAMMER: Programm zur
Umgewichtung von semileptonischen Zerfällen
Formfaktor-
S TEPHAN D UELL
Physikalisches Institut, Universität Bonn
Das Belle–Experiment, das von 1999 – 2010 am KEK in Japan betrieben wurde, hat unter anderem wichtige Beiträge zur Messung von CP-Verletzung im B-Meson-System und der Extraktion
der CKM–Matrixelemente jVcb j und jVub j aus semileptonischen Zerfällen geliefert. Das Belle–
Experiment hat in der Zeit von 1999-2010 eine integrierte Luminosität von ca. 1 ab 1 aufgenommen. Die Datennahme des Nachfolgeexperiments Belle II soll im Jahr 2018 beginnen und
bis zum Ende seiner Laufzeit eine integrierte Luminosität von 50 ab 1 aufzeichnen. Dies stellt
die Kollaboration vor die Herausforderung mit sehr großen Datenmengen, insbesondere auch mit
sehr großen, auf Monte Carlo Simulationen basierten, künstlichen Pseudodatensätzen, umgehen
zu müssen. Die Implementation dieser Pseudodatensätze ist von den theoretischen Modellen, mit
dem die Teilchenzerfälle modelliert werden, abhängig. Aufgrund der erforderlichen Größe der
Datensätze wäre es sehr aufwändig, neue Pseudodatensätze zu erzeugen, wenn sich theoretische
Parameter des Modells ändern oder wenn neue Modelle entwickelt werden.
Aufgrund dessen wird in Zusammenarbeit mit dem Lawrence Berkeley National Laboratory an
dem Programm MC HAMMER (“Monte Carlo Helicity Amplitude Module for Matrix Element
Reweighting”) zur Umgewichtung von Datensätzen von semileptonischen B–Meson–Zerfällen
gearbeitet. Unser Ziel ist es, das Programm später auch in das Analyseframework von Belle II,
basf2, zu implementieren. Zur Umgewichtung werden die differentiellen Zerfallsraten verwendet. Bei der Berechnung der Zerfallsraten wird ein auf Helizitätsamplituden basierender Formalismus verwendet, der von den hadronischen Formfaktoren der Modelle abhängt. In vereinfachter
Form ergibt sich:
2
m2` /2 jpX j
GF2
d .B ! X`` /
2 .q
D
jV
j
ij
dq 2
.2/3
12mB2 q 2
m2`
3 m2` 2 2
2
2
2 2
2 2
.HC .q / C H .q / C H0 .q // 1 C 2 C
H .q / :
2q
2 q2 s
(E.1)
Die integrierte Zerfallsrate ergibt sich aus dem Integral über q 2 :
Z
.B ! X`` / D
2
qmax
m2`
dq 2 d .B ! X`` /=dq 2 :
(E.2)
Das Ereignisgewicht wird schließlich über das Verhältnis der differentiellen Zerfallsraten bestimmt:
d
wi D
new d
old
2
new .q /
:
2
old .q /
(E.3)
Zusätzlich liefert das Programm auch die Unsicherheiten der verwendeten Modelle zur Verwendung als systematische Fehler für Analysen. Die Anwendung dieser Gewichte bietet eine
E. Experimentelle Analysen
31
schnelle und einfache Möglichkeit, Datensätze gezielt für bestimmte Analysen zu manipulieren,
ohne die komplette Ereignisgenerierung und Detektorsimulation erneut laufen zu lassen.
32
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-4 (A) Analyse des t tNZ-Kanals im Endzustand mit 4 Leptonen
mit dem ATLAS Detektor
S EBASTIAN H EER
Physikalisches Institut, Universität Bonn
Mit der Wiederaufnahme von Daten am Large Hardon Collider (LHC) im Frühjahr 2015 hat sich
die Schwerpunktenergie mit denen die Protonenstrahlen kollidieren deutlich erhöht (von 8 auf 13
TeV). Dadurch ist die Produktion vieler seltener Prozesse wahrscheinlicher geworden und diese
können präziser gemessen werden. Mit dem t tNZ-Prozess kann die Kopplung des Z-Bosons an
ein Top Quark bestimmt und somit das Standardmodell direkt getestet werden.
Der Zerfall des t tNZ-Systems in 4 Leptonen (und 2 b-Jets) bietet das deutlichste Signal im Vergleich zu den anderen möglichen Zerfällen, ist aber gleichzeitig auch der Kanal mit dem kleinsten Wirkungsquerschnitts. Daher ist die Zahl der erwarteten Ereignisse gering. In der Analyse
mit 8 TeV Daten wurden in diesem Kanal 4 Ereignisse selektiert. Mit den 13 TeV Daten werden
mehr Ereignisse erwartet, da der Wirkungsquerschnitt von t tNZ um den Faktor 3,5 ansteigt. Die
Selektion der Ereignisse ist ein Kompromiss aus Unterdrückung von Untergrundprozessen und
Maximierung der selektierten Ereignisse. Im 4-Leptonen Kanal werden 4 verschiedene Selektionen genutzt, abhängig von der Anzahl der b-Jets und der Art der Leptonen. Diese 4 Signalregionen werde ich im Vortrag genauer diskutieren.
Beim 4-Leptonen-Kanal ist der ZZ-Prozess der dominanteste Untergrund. Daher ist ein genaues Verständnis dieses Untergrunds erforderlich. Im Rahmen meiner Doktorarbeit habe ich
die Unsicherheit der Monte-Carlo-Simulation des ZZ-Prozesses in Verbindung mit schweren
Quarks bestimmt. Diese Unsicherheit ist ein großer Teil der systematischen Unsicherheit in der
t tNZ-Analyse. Im Vortrag stelle ich zwei Methoden zur Bestimmung der Unsicherheit der MonteCarlo-Simulation des ZZ-Prozesses in Verbindung mit schweren Quarks vor.
E. Experimentelle Analysen
33
E-5 (B) Suche nach neuen massiven Resonanzen im Zerfallskanal V 0 ! VH ! l= l l= C b bN mit dem ATLAS Detektor
RUTH JACOBS
Physikalisches Institut, Universität Bonn
Eines der Hauptziele in der zweiten Datennahmeperiode des Large Hadron Collider (LHC) ist
die Suche nach Physik jenseits des Standardmodells. In einigen theoretischen Modellen, die
mögliche neue Physik beschreiben, werden Resonanzen vorhergesagt, deren Massen im Bereich
von mehreren TeV liegen. In meiner Doktorarbeit befasse ich mich mit der Suche nach Resonanzen V’ , die in ein schweres elektroschwaches Vektor-Boson V (W- oder Z-Boson) und ein
Standardmodell-Higgs-Boson H zerfallen. Im Detektor weist man dann die Zerfallsprodukte des
W- oder Z- und die des Higgs-Bosons nach und rekonstruiert aus diesen die invariante Masse des VH-Systems. Die Suche nach einer möglichen Resonanz wird durchgeführt, indem das
Spektrum der invarianten Masse auf einen lokalen Exzess in den gemessenen Daten relativ zum
vorhergesagten Standardmodell-Untergrund untersucht wird.
Da der häufigste Zerfallskanal des Standardmodell-Higgs-Bosons der Zerfall in zwei b-Quarks
ist, betrachtet man bei der Suche nach der VH-Resonanz diesen Endzustand. Bei ResonanzMassen im TeV-Bereich erfährt das Higgs-Boson aus dem Zerfall einen hohen Lorentz-Boost.
Beim Zerfall des Higgs-Bosons sind die dabei entstehenden b-Quarks und ihre Fragmentierungsprodukte deswegen stark kollimiert. Man kann sie deswegen nicht mehr mit zwei Jets vom
Radius R=0.4 auflösen. Stattdessen verwendet man einen Jet mit großem Radius R=1.0, um
die Zerfallsprodukte beider b-Quarks, also des gesamten Higgs-Boson-Zerfalls, zu rekonstruieren. Mithilfe weiterer experimenteller Techniken, wie der Anwendung von b-Jet-Identifikationsalgorithmen (“b-tagging“) und der Betrachtung der rekonstruierten Jet-Masse kann man schrittweise das Signal vom Standardmodell-Untergrund trennen. Das W- oder Z-Boson, das mit dem
Higgs-Boson gemeinsam im Resonanzzerfall produziert wird, zerfällt in Leptonen und Neutrinos. Das Auftreten von Leptonen mit hohem Transversalimpuls oder von großer fehlender transversalen Energie im Signalprozess ermöglichen es, auf effiziente Weise interessante Ereignisse
aus dem hauptsächlich durch Prozesse der starken Wechselwirkung dominierten Untergrund in
den Daten zu selektieren (”triggern”).
In meinem Vortrag werde ich die VH-Resonanz-Analyse vorstellen, die Selektion und die verwendeten statistische Methoden diskutieren. Im Anschluss werde ich die Ergebnisse der Suche
diskutieren und einen Ausblick auf weitere Möglichkeiten zur Verbesserung der Analyse geben.
34
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-6 (A) Suche nach tH -Produktion mit H ! bei
TeV mit dem ATLAS Experiment
p
s = 13
I SABEL N ITSCHE
Experimentelle Physik IV, TU Dortmund
Nach der Entdeckung des Higgs-Bosons am LHC im Jahr 2012 ist es von großer Bedeutung die
Eigenschaften dieses neuen Teilchens zu untersuchen um seine Konsistenz mit dem im Standardmodell (SM) vorhergesagten Teilchen zu überprüfen. Eine wichtige Eigenschaft des HiggsBosons ist die Yukawa-Kopplung Y t an das top-Quark. Da die Stärke der Yukawa-Kopplung
im SM proportional zur Fermionmasse ist, wird für das top-Quark eine starke Kopplung an das
Higgs-Boson vorhergesagt. Die elektroschwache Produktion eines einzelnen top-Quarks in Verbindung mit einem abgestrahlten Higgs-Boson (tH -Produktion) bietet neben t tNH -Produktion
die Möglichkeit Y t direkt zu messen.
Abbildung E.2.: Die beiden interferierenden Feynman-Diagramme in der t-Kanal-Produktion
von tH .
Die t-Kanal-Produktion von tH ist in Abbildung E.2 beispielhaft dargestellt. Das Higgs-Boson
kann bei der tH -Produktion sowohl vom top-Quark als auch vom W -Boson abgestrahlt werden. Im SM interferieren diese beiden Prozesse destruktiv, was in einem sehr kleinen Wirkungsquerschnitt für tH -Produktion resultiert. Diese destruktive Interferenz führt jedoch auch dazu,
dass eine Messung von tH -Produktion sensitiv auf das relative Vorzeichen zwischen Y t und der
Kopplung des Higgs-Bosons an das W-Boson gH W W ist. Es lässt sich ein Skalierungsfaktor t
mit Y t D t Y tSM einführen, welcher Abweichungen von dem im SM vorhergesagten Wert
Y tSM parametrisiert. Der Wirkungsquerschnitt tH . t / hat bei t = 1 ein Minimum und steigt
für kleine Abweichungen von diesem Wert stark an. Somit ist tH -Produktion sehr sensitiv auf
Abweichungen von Y tSM und damit auf Physik jenseits des SM.
Der H ! -Zerfallskanal, welcher hier betrachtet wird, ist sowohl vielversprechend aufgrund
seiner klaren Signatur, als auch herausfordernd, da er mit Br.H ! / = 2.28 10 3 ein sehr
kleines Verzweigungsverhältnis besitzt.
Es wird eine Analysestrategie zur Messung von tH -Produktion mit dem ATLAS-Experiment
vorgestellt und die erwartete Sensitivität diskutiert.
E. Experimentelle Analysen
35
E-7 (C) Suche nach Zerfällen neutraler B-Mesonen in vier
Myonen beim LHCb Experiment
T OBIAS T EKAMPE
TU Dortmund
Seltene Zerfälle von B-Mesonen bieten eine vielversprechende Möglichkeit des Nachweises
Neuer Physik. Im Rahmen des Standardmodells der Teilchenphysik können neutrale B-Mesonen
in einem Schleifenprozess über den Austausch zweier W -Bosonen in ein Paar von Myonen zerfallen. Ein weiteres Myonpaar kann durch ein abgestrahltes Photon erzeugt werden. Das Standardmodell sagt für Zerfälle der Art B 0 ! C ein Verzweigungsverhältnis in der Ordnung
von 10 10 voraus.
In Erweiterungen des Standardmodells werden neue Teilchen und damit auch neue Zerfallsamplituden eingeführt. So können B 0 - und Bs0 -Mesonen im Rahmen eines minimal supersymmetrischen Modells in ein skalares und ein pseudoskalares sGoldstino zerfallen, die ihrerseits jeweils
in ein Paar von Myonen zerfallen. Die Existenz von Teilchen jenseits des Standardmodells könnte somit das Verzweigungsverhältnis signifikant erhöhen.
Um das Verzweigungsverhältnis des gesuchten Zerfalls zu vermessen, werden die vom LHCbDetektor aufgezeichneten Daten nach Ereignissen durchsucht, in denen vier Myonenspuren von
einem gemeinsamen Vertex ausgehen. Zusätzlich werden Ansprüche an die Spur- und Vertexqualität gestellt. Die so selektierten Daten enthalten noch eine Vielzahl unterschiedlicher Untergrundereignisse, die mit verschiedenen Methoden noch weiter unterdrückt werden. Eine bedeutende Klasse von Untergründen sind resonante Zerfälle, bei denen Myonen aus Zerfällen von
J= -, .2S/- oder -Resonanzen stammen. Um diese zu unterdrücken, werden entsprechende
Vetos auf die invarianten Massenverteilungen der Zweimyonsysteme angewendet. Ferner tragen
Zerfälle mit fehlidentifizierten Teilchen, sowie zufällige Kombinationen von vier Myonen zum
Untergrund bei. Erstere werden durch Schnitte auf Teilchenidentifikationvariablen unterdrückt
und zweitere durch einen multivariaten Klassifizierer.
Jedes Selektionskriterium, das auf die Daten angewendet wird, entfernt nicht nur
Untergrund-, sondern auch Signalereignisse. Um die Verzweigungsverhältnisse zu bestimmen,
0
müssen die Signaleffizienzen der gesamten Detektion, Rekonstruktion und Selektion von Bd;s
!
C
C
Ereignissen bekannt sein. Diese werden auf simulierten Signalereignissen bestimmt.
Die direkte Messung eines Verzweigungsverhältnisses basiert auf der Kenntnis der integrierten
N
Luminosität und des b b-Wirkungsquerschnittes.
Vor allem letzterer ist nur mit einer sehr großen
Unsicherheit bekannt. Um eine resultierende systematische Unsicherheiten zu vermeiden, wird
die Messung relativ zu dem präzise vermessenen Zerfall B C ! J= .C /K C durchgeführt,
der zusätzlich eine hohe Anzahl an Signalkandidaten aufweist. Die Verzweigungshältnisse der
Zerfälle B 0 ! C C und Bs0 ! C C können nun gemäß
0
B.Bd;s
! C C / D
D
NB 0
d;s !
NB C !J=
C
C .C /K C
NB 0
d;s !
C
C Lint b bN 2 fq "B 0
;
C
C
d;s ! "B C !J= .C /K C fu
B.B C ! J= .C /K C /;
"B 0 !C C fq
d;s
bestimmt werden. Hierbei ist N die gemessenen Anzahl an Signalereignissen und " die Signaleffizienz des Signal- und Normierungskanals. Die Hadronisierungswahrscheinlichkeit fq gibt an,
36
47. Herbstschule für Hochenergiephysik Maria Laach 2015
zu welchem Bruchteil b-quarks mit einem q D u; d; s Quark hadronisieren. Man sieht, dass
durch die Verwendung eines Normierungskanals das Verzweigungsverhältnis nicht länger von
N
der integrierten Luminosität L und des b b-Wirkungsquerschnittes,
b bN , abhängt.
Sollte das durch das Standardmodell vorhergesagte Verzweigungsverhältnis korrekt sein, wird
es kein messbares Signal geben. In diesem Fall wird die CLs Methode herangezogen, um obere
Schranken für die Verzweigungsverhältnisse zu bestimmen. Bis zum jetzigen Zeitpunkt wurden die Daten ausschließlich mit entferntem Signalbereich in der B-Massenverteilung betrachtet. Dies soll sicherstellen, das die Analyse komplett unvoreingenommen durchgeführt wird.
Aus diesem Grund wurden bisher nur erwartete obere Grenzen auf die Verzweiungsverhältnisse
gemessen. Diese basieren auf der Annahme, dass keine Signalkandidaten beobachtet werden,
während die Anzahl an Untergrundereignissen durch die Anpassung einer Exponentialfunktion
an die Ereignisse unterhalb und oberhalb des Signalbereiches in der B-Massenverteilung gemessen wird. Die erwarteten oberen Ausschlussgrenzen belaufen sich auf
B.Bs0 ! C C / < 2:3 10 9 ;
und
B.Bd0 ! C C / < 6:1 10
10
:
Die weltbeste Grenze wurde von der LHCb-Kollaboration auf einem Drittel der hier analysieren Daten gemessen. Vergleicht man die aktuellen erwarteten oberen Grenzen mit denen der
vorangegangenen Messung, sieht man eine Verbesserung um einen Faktor 6,9 im Falle von
Bs0 ! p
C C und 7,0 im Falle von B 0 ! C C . Eine Verbesserung um einen
Faktor 3 1:7 ist auf den dreimal größeren Datensatz zurückzuführen. Weitere Verbesserungen sind eine bessere Wahl des Normierungskanals und die Verwendung eines multivariaten
Klassifizierers.
Die Analyse befindet sich dezeit in LHCb interner Begutachtung und wird Zeitnah veröffentlicht.
E. Experimentelle Analysen
37
E-8 (B) Messung exklusiver Reaktionen mit dem COMPASS
Experiment
M ATTHIAS G ORZELLIK
Physikalisches Institut, Universität Freiburg
Die Beschreibung der Hadronen als Zustand aus Valenz Quarks eingebettet in einem See aus
Quarks, Antiquarks und Gluonen und zusammengehalten durch die starke Wechselwirkung ist
seit den 60er Jahren anerkannt. Die grundlegende Beschreibung der inneren Dynamik der Hadronen ist jedoch auch heute noch weitgehend unbekannt. Ein offenes Rätsel ist weiterhin die
Zusammensetzung des Spins der Hadronen, im spezielleren des Protons. Frühe Experimente um
1985 stellten fest, dass die Beiträge durch die Helizitäten der Quarks und Antiquarks den Spin
des Nukleons lediglich zu ca. 30% erklären können. Vor kurzem konnte das C OMPASS Experiment zeigen, dass entgegen vieler theoretischer Vermutungen auch eine Berücksichtigung der
Gluonen nicht ausreicht, um den Spin des Nukleons aus den Beiträgen seiner Konstituenten zu
erklären. Offen ist der Beitrag durch die Bahndrehimpulse der Quarks und Antiquarks. Dieser
ist jedoch experimentell schwer zugänglich.
Ein Zugang zu diesem Problem können Generalisierte Partonverteilungen (GPDs) bieten. Über
eine von Ji eingeführte Summenregel können aus den GPDs letztendlich die Gesamtdrehimpulse der Partonen abgeleitet werden. Um diese experimentell zu bestimmen misst man in harten
exklusiven Streuprozessen sogenannte Compton Formfaktoren, aus denen mit einem globalen
Fitverfahren die Generalisierten Parton Verteilungen bestimmt werden.
Diese Untersuchungen können am Fixed-Target Experiment C OMPASS am CERN/SPS durchgeführt werden. Dort werden tiefinelastische virtuelle Comptonstreuung (DVCS) und harte exklusive Mesonproduktion (HEMP) untersucht. Als Strahl dient ein hoch intensiver, polarisierter
tertiärer C bzw. Strahl mit einem Impuls von 160 GeV. Das gestreute Myon sowie die weiteren Teilchen im Endzustand werden im C OMPASS Spektrometer nachgewiesen das durch seine
zwei Stufen eine große Winkel- und Impuls Akzeptanz bietet. Die Teilchenidentifikation erfolgt
durch einen ringabbildenden Tscherenkow Detektor und dem Myonsystem. Des Weiteren besitzt
jede Spektrometerstufe elektromagnetische sowie hadronische Kalorimeter. Mit der Installation
eines zusätzlichen elektormagnetischen Kalorimeters direkt hinter dem Target wurde die Akzeptanz für Photonen noch weiter erhöht.
Eine zentrale Rolle bei den exklusiven Messungen spielt der 2012 neu installierte Detektor
C AMERA welcher radial um das 2,5 m-lange unpolarisierte Flüssig-Wasserstoff Target angebracht ist. Erst durch den Nachweis des rückgestoßenen Protons wird die exklusive Messung
ermöglicht. Die Auslese Elektronik des Detektors wurde von unserer Gruppe speziell entwickelt
um den Anforderungen zur Identifikation des Protons anhand einer Flugzeitmessung gerecht zu
werden. Zum Einsatz kommen hierbei 12 bit tiefe Analog zu Digitalwandler mit 1 GHz Samplingrate die in Echtzeit eine Pulse Feature Extraction vornehmen. Das System wird ergänzt durch
einen digitalen Trigger, der seine Entscheidung basierend auf den Pulse Features mit einer Latenz
von nur 1 Mikrosekunde trifft.
Bei einem fünf wöchigen Testlauf Ende 2012 wurden mit diesem Aufbau erstmals Daten aufgezeichnet. Die Analyse der Daten setzt eine detaillierte Studie der Eigenschaften des C AMERA
Detektors und im Besonderen der Digitalisierungselektronik voraus. Eine Möglichkeit den Detektor zu charakterisieren besteht in der Messung von harten exklusiven Streuprozessen. Als besonders spannend hat sich in diesem Zusammenhang die Bestimmung des Wirkungsquerschnitts
38
47. Herbstschule für Hochenergiephysik Maria Laach 2015
zur exklusiven 0 Erzeugung herausgestellt.
Die Datenselektion bei der Messung des Wirkungsquerschnitts der exklusiven 0 Erzeugung
besteht aus drei wesentlichen Schritten. Zuerst müssen Vertizes mit ihren ein- und auslaufenden
Myonen gefunden werden, die gewissen Qualitätsansprüchen genügen. Dann werden Paare aus
Clustern in den elektromagnetischen Kalorimetern gebildet, die zusammen mit den Vertizes zu
Photonspuren bzw. zu der Spur des 0 führen. Im nächsten Schritt der Rekonstruktion werden
die Spektrometer Informationen mit den Spuren der potentiellen Protonen im C AMERA Detektor
vereinigt. Zusätzliche Schnitte auf die Erfüllung kinematischer Bedingungen stellen sicher, dass
beim vorliegenden Ereignis keine weiteren Teilchen produziert wurden. Als weiterer Indikator
für die Exklusivität des Prozesses wird ein kinematischer Fit hinzugezogen.
Der verbleibende nicht abtrennbare Untergrundanteil und die experimentelle Akzeptanz wurden
mit umfangreichen Monte Carlo Methoden untersucht.
Gefördert vom BMBF und dem DFG Research Training Group Programme GRK 2044.
E. Experimentelle Analysen
39
E-9 (C) Messung der Kopplung des Higgs-Bosons an Leptonen im Zerfall H ! ! 2l4 mit dem ATLAS Detektor
A LENA L ÖSLE
Albert-Ludwigs-Universität Freiburg
Eine der wichtigsten Aufgaben der Experimente am Large Hadron Collider (LHC) ist es, zu
überprüfen, ob das im Juli 2012 entdeckte Higgs-Boson [1,2] in seinen Eigenschaften den Vorhersagen des Standardmodels (SM) entspricht. Hierbei ist unter anderem von Bedeutung, wie
sich die Kopplung des Higgs-Bosons an andere Teilchen verhält. Der Zerfall in zwei -Leptonen
H ! ermöglicht es, die Kopplung des Higgs-Boson an Fermionen
p zu untersuchen. p
Basierend auf Daten, die in Run 1 bei Schwerpunktsenergien von s D 7 TeV und s D 8
TeV mit integrierten Luminositäten von jeweils 4.5 fb 1 und 20.3 fb 1 aufgenommen wurden,
konnte die Kopplung des Higgs-Bosons an -Leptonen mit einer beobachteten (erwarteten) Signifikanz von 4.5 (3.4) Sigma mit dem ATLAS-Detektor gemessen werden [3]. Die gemessene
Signalstärke von D 1:43C0:43
0:37 , definiert als das Verhältnis von gemessenem Wirkungsquerschnitt zu SM Wirkungsquerschnitt D M es =SM , stimmt hierbei mit den Vorhersagen des
SM überein.
p
Die aktuelle Datennahme in Run 2 bei einer Schwerpunktsenergie von s D 13 TeV ermöglicht
es, den Prozess H ! noch genauer zu untersuchen.
Ein -Lepton kann sowohl leptonisch, in Elektronen oder Myonen, als auch hadronisch zerfallen. Somit können im Zerfallskanal H ! drei Endzustände klassifiziert werden: der vollleptonische, der semi-leptonische und der voll-hadronische Endzustand. In meiner Doktorarbeit
beschäftige ich mich mit der Analyse des voll-leptonischen Endzustandes H ! ! 2l4.
Obwohl dieser Kanal die geringste Zerfallswahrscheinlichkeit aufweist, profitiert er von hohen
Effizienzen der Lepton-Trigger und geringere Untergrundbeiträge durch Multijet-Produktion im
Vergleich zu den semi-leptonischen und voll-hadronischen Endzuständen.
In der Analyse des voll-leptonischen Kanals wird nach einem Endzustand mit zwei Leptonen
und fehlender transversaler Energie durch die beteiligen Neutrinos gesucht. Hierbei ist ein wichtiger Untergrundbeitrag durch Prozesse mit fehlidentifizierten oder nicht-prompten Leptonen, so
genannte fake Leptonen, gegeben. Da für diese Prozesse Simulationen keine ausreichend präzise Beschreibung liefern, muss der fake Untergrund mit Hilfe von datenbasierten Methoden abgeschätzt werden. Ich beschäftige mich mit der Abschätzung des fake Untergrundes mithilfe
der Matrix Methode, die auf der Messung von Effizienzen für reale und fake Leptonen in Daten basiert. Hierbei werden Unterschiede in der Identifikation von realen und fake Leptonen
genutzt, indem zwei Kategorien mit unterschiedlichen Selektionsanforderungen an die Leptonen betrachtet werden: Die erste Kategorie, genannt harte Kategorie, entspricht der nominellen
Lepton-Selektion, während die zweite Kategorie, die sogenannte lose Kategorie, schwächere
Anforderungen an die Selektion der Leptonen stellt. Die harte Kategorie enthält hauptsächlich
Ereignisse mit realen Leptonen, während die lose Kategorie einen erhöhten Beitrag von Ereignissen mit fake Leptonen aufweist. Die Effizienz für reale (fake) Leptonen ist dann definiert als der
Bruchteil von Ereignissen mit realen (fake) Leptonen der losen Kategorie, die zusätzlich den Anforderungen der harten Kategorie genügen. Die Effizienz für reale Leptonen wird mit Hilfe einer
tag-and-probe Methode in Z ! ee; Ereignissen gemessen, während die Effizienz für fake
Leptonen in einem Datensatz mit zwei gleich geladenen Leptonen bestimmt wird, welcher durch
40
47. Herbstschule für Hochenergiephysik Maria Laach 2015
Ereignissen der Multijet-Produktion dominiert ist. Mit Hilfe der Matrix Methode können somit
Untergrundbeiträge durch Prozesse mit mindestens einem fake Lepton abgeschätzt werden.
In meinem Vortrag stelle ich die H ! Analyse im voll-leptonischen Endzustand vor und
gehe hier besonders auf die Abschätzung
des fake Untergrundes ein. Im Anschluss werden ersp
te Ergebnisse der Analyse bei s D 13 Te mit einer integrierten Luminosität von mindestens
8.3 fb 1 aus den Jahren 2015 und 2016 mit dem ATLAS-Detektor vorgestellt.
Œ1 ATLAS Collaboration, Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC, Phys. Lett. B716 (2012), arXiv:1207.7214
Œhep-ex.
Œ2 CMS Collaboration, Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC, Phys. Lett. B716 (2012), arXiv:1207.7235 Œhep-ex.
Œ3 ATLAS Collaboration, Evidence for the Higgs-boson Yukawa coupling to tau leptons with
the ATLAS detector, JHEP 04 (2015), arXiv:1501.04943 Œhep-ex
E. Experimentelle Analysen
41
E-10 (A) Suche nach schweren Top-Squarks im hadronischen
Endzustand mit dem ATLAS Detektor
P HILIPP M OGG
Albert-Ludwigs-Universität
Da das Standardmodell der Teilchenphysik nicht alle offenen Fragen vollständig beantworten
kann, ist eins der primären Ziele des Large Hadron Colliders die Suche nach Physik jenseits
des Standardmodells. Ein Modell, das Erklärungen zu vielen offenen Fragen des Standardmodells anbietet, ist Supersymmetrie. Durch eine zusätzliche Symmetrie zwischen Bosonen und
Fermionen ergibt sich als Konsequenz zu jedem Standardmodell-Teilchen mit Spin S ein supersymmetrischer Partner mit Spin S 12 . Die Entdeckung eines solchen Teilchens könnte den
Beweis für Supersymmetrie erbringen, bisher wurde aber keine signifikante Abweichung vom
Standardmodell gemessen und große Bereiche des Parameterraums, vor allem bei niedrigen
Teilchen-Massen, konnten bereits ausgeschlossen werden. Der supersymmetrische Partner des
Top-Quarks t, das sogenannte Top-Squark tQ, könnte einen der leichtesten Massen-Eigenzustände
unter den messbaren supersymmetrischen Teilchen haben. Am LHC könnte dieses dann in Paarproduktion erzeugt werden.
Top-Squarks zerfallen, falls kinematisch erlaubt, in Top-Quarks und Neutralinos Q 01 – die leichtesten supersymmetrischen Teilchen, die als stabil angenommen werden und den Detektor ohne
Wechselwirkung verlassen, wodurch fehlender Transversalimpuls erzeugt wird. Die vorgestellte
Analyse befasst sich mit dem vollständig hadronischen Zerfallskanal. Standardmodell-Prozesse,
die Jets und fehlenden Transversalimpuls erzeugen, kommen als Untergrundprozesse in Frage,
ebenso wie Prozesse, die zusätzlich ein Lepton erzeugen, das fälschlicherweise nicht als solches
identifiziert wird. Die wichtigsten dieser Prozesse sind Z C Jet, W C Jet, sowie Top- und Top/Antitop-Paar-Produktion. Zur Abschätzung dieser Prozesse wurden Kontrollregionen definiert,
deren Methodik vorgestellt wird.
Da der Wirkungsquerschnitt des zu findenden Signals sehr klein ist im Vergleich zu denen
der Untergrundprozesse, ist eine sehr harte Selektion mit sinnvollen Variablen notwendig, um
brauchbare Signalregionen zu erhalten. Eine besondere Rolle spielen dabei die Identifizierung
von b-Jets und die Rekonstruktion von Top-Kandidaten. Mehrere Signalregionen wurden definiert, um verschiedene Bereiche der .tQ; Q 01 /-Massen-Ebene sowie auch andere Prozesse mit
ähnlichem Endzustand abzudecken (Gluino-Paarproduktion, t tN C
pDunkle Materie). Diese werden vorgestellt und Ergebnisse mit den neusten Messdaten bei s D 13 TeV präsentiert und
interpretiert.
42
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-11 (B) Suche nach schweren langlebigen geladenen Teilchen
mit dem ATLAS-Detektor
M ICHAEL A DERSBERGER
Ludwig-Maximilians Universität München
Eine vielverspechende Suche nach neuer Physik mit dem ATLAS-Detektor stellt die Suche nach
schweren langlebigen geladenen Teilchen dar. Solche langlebigen Teilchen werden in vielen
Theorien außerhalb des Standardmodells der Teilchenphysik vorhergesagt. In unserer Analyse
betrachten wir Teilchen deren Lebenszeit ausreicht, den Detektor zu durchqueren. Aufgrund der
hohen Masse der Teilchen durchqueren sie den Detektor mit Geschwindigkeiten signifikant kleiner als die für Standardmodell-Teilchen erwartete Lichgeschwindigkeit. Daraus ergeben sich die
zwei wichtigsten Observablen für die Suche nach stabilen massiven Teilchen: Flugzeit und spezifischer Energieverlust.
Der spezifische Energieverlust und die Flugzeiten der Teilchen können in verschiedenen Subdetektoren gemessen werden. In meinem Vortrag gehe ich im speziellen auf die Flugzeitmessung
im hadronischen Kalorimeter des ATLAS-Detektors und deren Kalibration ein. Die Flugzeitmessung im hadronischen Kalorimeter und die Messung des spezifischen
Energieverlustes mit
p
dem Pixeldetektor wurden verwendet, um in den ersten Daten bei s D 13 TeV nach stabilen
langlebigen Teilchen zu suchen. Auch die Ergebnisse dieser Analyse und die daraus gezogenen
Erkenntnisse für zukünftige Suchen werden Teil meines Vortrags sein.
E. Experimentelle Analysen
43
E-12 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton und vielen Jets am ATLAS Experiment
N IKOLAI H ARTMANN
LMU München
Viele supersymmetrische Modelle sagen die Produktion von schweren Teilchen durch die starke
Wechselwirkung in Proton-Proton Kollisionen vorher. Je nach Massenhierarchie können diese
Teilchen über mehrere Schritte zerfallen. Dies führt zu Endzuständen mit hochenergetischen
Jets. In Ereignissen, die zusätzlich noch ein Lepton (Muon oder Elektron) enthalten ergeben
sich Möglichkeiten Untergründe stark zu reduzieren. Signalereignisse erzeugen diese Leptonen
beispielsweise aus dem Zerfall von Eichbosonen die wiederum aus dem Zerfall von in supersymmetrischen Modellen vorhergesagten Neutralinos oder Charginos kommen. Sowohl der Zerfall
von W-Bosonen in ein Lepton und ein Neutrino, als auch ein stabiles “lightest supersymmetric particle” (LSP) führen zu hoher fehlender transversaler Energie (ETmiss ). Letzteres ist eine
zwangsläufige Konsequenz in R-Parität-erhaltenden Szenarien.
Zu Beginn des zweiten LHC Runs 2015 lag der Fokus der ATLAS Suche in diesem Kanal auf
einem vereinfachten Modell eines Gluinozerfalls über eine Zwischenstufe. Mit Hilfe von Signalregionen, die mindestens 2-6 Jets verlangen, konnten in diesem Modell mit den 2015 aufgenommenen ATLAS Daten Gluinomassen bis zu 1.6 TeV ausgeschlossen werden, je nach Massenspektrum des vereinfachten Modells.
Eine mögliche Erweiterung der Suche bieten Szenarien mit höherer Jet Multiplizität. Benchmarkmodelle hierfür sind vereinfachte Modelle mit Gluinozerfällen über mehr als eine Zwischenstufe und Modelle aus dem Parameterraum des phänomenologischen minimalen supersymmetrischen Standardmodells (pMSSM). Eine Suche in Ereignissen mit mindestens 8 Jets bietet
hier gute Sensitivität.
Im Vortrag wird die Optimierung dieser Signalregion und die Methoden zur Untergrundabschätzung präsentiert. Wie auch in den 2-6 Jet Signalregionen mit einem Lepton kann hier der
Hauptuntergrund durch top-quark Paarproduktion (in semi-leptonischem Zerfall) und W+jets
durch einen Schnitt auf die “transverse Masse” von Lepton und ETmiss stark reduziert werden.
Diese Größe hat eine vergleichbare Verteilung in Ereignissen mit unterschiedlicher Anzahl Jets,
was eine Abschätzung des Untergrunds unter Zuhilfenahme von Daten in Ereignissen mit weniger Jets erlaubt. Dadurch kann die Abhängigkeit von simulierten Ereignissen, die in diesem
Regime sehr approximativ sind, minimiert werden.
44
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-13 (A) Analyse des B ! .0/` Zerfalls mit dem BelleDetektor ohne Rekonstruktion des zweiten B-Mesons
U WE G EBAUER
II. Physikalisches Institut, Universität Göttingen
Das Belle-Experiment am japanischen Forschungszentrum KEK in Tsukuba wurde genutzt,
um einen großen Datensatz an Ereignissen auf der (4S)-Resonanz aufzunehmen. Das (4S)
zerfällt fast ausschließlich in Paare von B-Mesonen, wodurch es ideal geeignet ist, um Zerfälle
von b-Quarks zu untersuchen. Durch die hohe Anzahl gemessener Ereignisse kann nicht nur
der dominierende Übergang b ! c, sondern auch der CKM-unterdrückte Übergang b ! u
untersucht werden, wie er auch in den semileptonischen Zerfällen B ! ` und B ! 0 `
vorkommt.
Diese beiden Zerfälle zu rekonstruieren ist das Ziel dieser Analyse. Das auftretende -Meson
wird in seinerseits in zwei Zerfallskanälen rekonstruiert, ! und ! C 0 . Für das
0 werden ebenfalls zwei Zerfälle berücksichtigt, 0 ! C und 0 ! 0 . Für das dabei
auftretende werden beide oben genannten Zerfälle berücksichtigt.
Zusätzlich zum hier rekonstruierten B-Meson entsteht im Zerfall des (4S) immer noch ein weiteres, zufällig zerfallendes. Würde auch dieses rekonstruiert, so könnte das nicht direkt messbare
Neutrino aus dem im Vergleich zwischen Strahlenergie und rekonstruierten Teilchen fehlenden
geschlossen werden. Damit wäre der Zerfall vollständig rekonstruiert und eine genaue Bestimmung seiner Parameter möglich. Durch die Anzahl der dafür verfügbaren Zerfallskanäle des
zweiten B-Mesons verringert dies allerdings die Gesamtrekonstruktionseffizienz um einen Faktor 1000.
In dieser Analyse wird deshalb auf die Rekonstruktion des Zerfalls des zweiten B-Mesons verzichtet, die Rekonstruktion des Neutrinos erfolgt über Aufsummieren aller im Detektor gemessener Teilchen anstelle von explizit rekonstruierten Zerfallsbäumen. Da eine Vielzahl von Teilchen
des Endzustands hierbei nicht zugewiesen wird, ist insbesondere der kombinatorische Untergrund sehr hoch.
Um diesen zu verringern werden Boosted Decision Trees (BDTs) eingesetzt. Für jeden rekonstruierten Zerfallskanal werden zwei dieser BDTs eingesetzt, einer zur Verringerung von über
ein (4S) entstehenden, dem Signal topologisch ähnlichen Untergrundzerfällen, und ein weiterer gegen Ereignisse, in denen direkt ein Paar von leichteren Quarks entstand. Aus beiden
BDTs wird zweidimensional der kombinierte Schnittwert mit dem besten resultierenden Signalzu-Untergrund Verhältnis gewählt.
Aus den nach dem BDT-Einsatz noch vorhandenen Ereignissen wird mit einem zweidimensionalem Fit an die Monte Carlo-Verteilungen von Signal und Untergrundkomponenten die Anzahl
an vorhandenen Signalereignissen, und daraus das Verzweigungsverhältnis bestimmt. Abschließend werden die erwarteten statistischen und systematischen Fehler abgeschätzt.
E. Experimentelle Analysen
45
E-14 (B) Bestimmung der Strahlpolarisation am International
Linear Collider
ROBERT K ARL
DESY
Der International Linear Collider (ILC) ist ein zukünfiger Elektron-Positron-Linearbeschleuniger mit einer Schwerpunktsenergie bis zu 500 GeV, erweiterbar bis 1 TeV. Am ILC wird der
Elektronenstrahl zu 80% und der Positronenstrahl zu mindestens 30% polarisiert sein. Das Vorzeichen der Polarisation lässt sich für beiden Strahlen unabhänig voneinander frei wählen, um
somit Messungen bei verschiedenen Spinkonfigurationen durchführen zu können. Dies erlaubt
einzigartige Untersuchungen der chiralen Kopplungen von Standardmodell-Teilchen (z.B. von
Top-Quarks) und auch von potentiellen, noch unentdeckten Teilchen. Um das Potential des ILC
voll auszuschöpfen, muss die Genauigkeit der Strahlpolarisation im Promillebereich liegen. Dies
bedeutet ungefähr einen Faktor 2 bis 5 genauer als bisher bei hochenergietischen Teilchenbeschleunigern erreicht wurde. Um diese Genauigkeit am ILC zu erreichen, müssen zwei komplementäre Methoden der Strahlpolarisationsmessung kombiniert werden.
Die Erste ist eine zeitaufgelöste Messung der Strahlpolarisation mit Hilfe von Laser-ComptonPolarimetern. Dabei werden einige wenige Teilchen pro Teilchenpaket mit einem polarisierten
Laser Compton-gestreut und die Strahlpolarisation aus dem Energiespektrum der gestreuten Teilchen bestimmt. Bei beiden Strahlen befinden sich die Polarimeter 1.65 km vor und 150 m hinter
dem e C e -Wechselwirkungspunkt. Deswegen muss die gemessene Strahlpolarisation noch mittels Spintransport zum Wechselwirkungspunkt extrapoliert werden. Dies erlaubt eine statistische
Genauigkeit von 0:25% bereits nach einigen Teilchenpaketen.
Die zweite Methode der Strahlpolarisationsmessung ist die Bestimmung aus Kollisionsdaten. Sie
liefert ein Langzeitmittel der Strahlpolarisation gewichtet mit der Luminosität direkt am Wechselwirkungspunkt. Durch Messung der relativen Häufigkeit eines Standardmodellprozesses bei
den verschiedenen Spinkonfigurationen lässt sich die Strahlpolarisation mit Hilfe der chrialen
Struktur des Prozesses bestimmen. Dabei müssen die verwendeten Prozesse genau bekannt sein,
um die theoretische Unsicherheit zu minimieren. Außerdem sollten die verwendeten Prozesse
eine hohe Rate bzw. große Recht-Links-Asymmetrie besitzen, um den statistischen bzw. systematischen Fehler zu minimieren. Des Weiteren ist darauf zu achten, dass Ereignisse der einzelnen Prozesse entweder für die Bestimmung der Strahlpolarisation oder für eine andere Analyse
verwendet werden.
Das Ziel dieser Studie ist eine globale Analyse der Polarisationsbestimmung aus allen geeigneten
Kollisionsprozessen und den Polarimetermessungen unter Berücksichtigung sämtlicher statistischer und systematischer Unsicherheiten einschließlich möglicher Korrelationen. Dies beinhaltet
sowohl die theoretischen Unsicherheiten der einzelnen Prozesse, als auch experimenteller Unsicherheiten des Detektors, bis hin zu Unsicherheiten aufgrund der Polarimetermessung und deren
Extrapolation zum Wechselwirkungspunkt.
46
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-15 (C) Suche nach paarproduzierten vektorartigen Quarks
in Endzuständen mit Leptonen und hochenergetischen Higgsp
Bosonen bei s = 13 TeV mit dem CMS Experiment
D OMINIK N OWATSCHIN
Universität Hamburg
Die Entdeckung des Higgs-Bosons im Jahre 2012 am LHC warf erneut die Frage nach der
Natürlichkeit des Standardmodells auf. Um Schleifenkorrekturen zu dessen Masse aufzuheben
und dabei gleichzeitig ein erhebliches Feintuning der entsprechenden Parameter zu vermeiden
sind neue Teilchen mit Massen im TeV Bereich erforderlich. Während diese Aufgabe in supersymmetrischen Theorien von bosonischen “Top Squarks” übernommen wird, sagen viele andere
Theorien, wie beispielsweise “Little Higgs” und “Composite Higgs” Modelle, fermionische Parter für Standardmodell Quarks voraus. Man erwartet, dass bei diesen Teilchen Mischterme mit
Quarks der dritten Generation dominieren. Desweiteren besitzen sie eine vektorartige Struktur
im elektroschwachen Interaktionsterm des dazugehörigen Lagrangians. Dies ist erforderlich, da
chirale Erweiterungen des Quarksektors des Standardmodells durch Präzisionsmessungen elektroschwacher Interaktionen in Elektron-Positron Kollisionen und durch direkte Messungen von
Wirkungsquerschnitten des Higgs-Bosons experimentell ausgeschlossen wurden.
Die hier vorgestellte Suche beschäftigt sich mit vektorartigen Top-Quark-Partnern (“T”) in ProtonProton Kollisionen bei einer Schwerpunktsenergie von 13 TeV, wobei mindestens ein Elektron
oder Muon im Endzustand gefordert wird, um Untergründe durch QCD Multi-Jet Produktion zu
unterdrücken. Die Analyse basiert auf Daten, die 2015 mit dem CMS Detektor aufgenommen
wurden und einer integrierten Luminosität von 2,7 fb 1 entsprechen. Die Masse dieser T-Quarks
ist ein freier Parameter und wurde durch vorangegangene Messungen mit 8 TeV Daten sowohl
bei ATLAS als auch bei CMS auf Werte oberhalb von etwa 700 GeV eingeschränkt. Da in diesem
Massenbereich die Paarproduktion mittels der starken Wechselwirkung gegenüber der Einzelproduktion dominiert, konzentriert sich diese Analyse auf diesen Produktionsprozess. Erlaubte
Zerfallskanäle des T-Quarks sind die nach einem Top-Quark und einem Higgs-Boson, einem
Top-Quark und einem Z-Boson und nach einem Bottom-Quark und einem W-Boson, wobei die
individuellen Zerfallsbreiten sehr von dem zugrundeliegenden Modell abhängen und stark variieren können. Aus diesem Grund werden diese in experimentellen Suchen üblicherweise als
freie Parameter angenommen und alle möglichen Kombinationen von Verzweigungsverhältnissen werden untersucht.
Diese Suche konzentriert sich vor allem auf den Zerfall nach Top-Quarks und Higgs-Bosonen,
da andere Zerfallskanäle und die entsprechenden Endzustände durch andere Suchen in CMS
abgedeckt werden. Durch die bereits sehr hohe Masse der T-Quarks in dem untersuchten Massenbereich erhalten die Teilchen aus dessen Zerfall - wie etwa Top-Quarks und Vektorbosonen
- einen sehr hohen Transversalimpuls, was dazu führt, dass deren Zerfallsprodukte wiederum
sehr stark gebündelt sein können und räumlich nur gering voneinander getrennt sind. Dadurch
wird die Rekonstruktion der entsprechenden Endzustände erschwert, so können beispielsweise
zwei aus einem Higgs Zerfall resultierende Bottom-Quarks in diesem Fall nicht mehr als separate Jets rekonstruiert werden, sondern nur noch als ein einziger Jet mit einem größeren Jet
Radius. In dieser Suche wird dieser Umstand jedoch vorteilhaft ausgenutzt, indem die sogenannte Substruktur dieser größeren Jets durch spezielle Algorithmen aufgelöst wird. Damit wird
konkret versucht, den bereits erwähnte Zerfall eines Higgs-Bosons nach zwei Bottom-Quarks
E. Experimentelle Analysen
47
zu rekonstruieren, da hierbei Substrukturalgorithmen zusammen mit Algorithmen kombiniert
werden können, die die charakteristische Signatur von Bottom-Quark Zerfällen auflösen. Diese
Vorgehensweise ermöglicht eine sehr gute Trennung von Untergrund und Signal und trägt zu
einer signifikanten Verbesserung der Sensitivität der Suche bei.
In meinem Vortrag werde ich weitere Details über die verwendete Selektion und die statistische
Auswertung in dieser Suche vorstellen. Anschließend werde ich die ersten Resultate präsentieren und einen Ausblick auf die weitere Datennahmeperiode mit möglichen Verbesserungen der
Analyse geben.
48
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-16 (A) Suche nach dem Higgs-Boson in H ! Z -Zerfällen
mit dem ATLAS-Detektor
DANIEL R AUCH
Deutsches Elektronen-Synchrotron (DESY)
Im Jahr 2012 wurde von ATLAS und CMS die Entdeckung eines Bosons mit einer Masse von
etwa 125 GeV bekannt gegeben, das im Zuge der Suche nach dem Higgs-Teilchen gefunden
wurde. Die ersten Entdeckungskanäle waren die Zerfälle in Paare von Photonen sowie W - und
Z-Bosonen.
Neben dem Endzustand mit 2 Photonen kann das Higgs-Teilchen auch in ein Photon und ein ZBoson zerfallen. Der Zerfall in Z erfolgt dabei mit ähnlicher Häufigkeit wie in , bei Selektion
der Z-Boson-Zerfälle in Paare von Elektronen und Myonen sinkt das Zerfallsverhältnis jedoch
auf etwa 5% im Vergleich zu dem von H ! . Deutlich häufiger tritt der Zerfall in Hadronen
auf, der jedoch kompliziertere Untergründe aufweist. Die Kopplung des Higgs-Bosons an Z und
ist sensitiv auf Beiträge durch mögliche zusätzlich zum Standardmodell auftretende geladene
Skalare, Leptonen oder Vektorbosonen in der HZ-Schleife sowie auf eine mögliche andere
Beschaffenheit des Higgs-Teilchens (compositeness).
Auf Grundlage der Daten aus Run 1 veröffentlichte ATLAS Ergebnisse der Suche nach dem
Zerfall des Higgs-Bosons in Z. Zur Erhöhung der Sensitivität der Suche wurden die selektierten
Ereignisse in verschiedene Kategorien aufgeteilt, basierend auf verschiedenen kinematischen
Eigenschaften. Als Ergebnis wurde eine obere Grenze auf die Signalstärke im Vergleich zur
Standardmodell-Erwartung gesetzt.
Im Endzustand mit einem leptonisch zerfallenden Z-Boson und einem Photon lässt sich darüberhinaus nach weiteren Resonanzen mit höheren Massen suchen. Nachdem Ende des Jahres 2015
von ATLAS und CMS ein leichter Überschuss an Ereignissen in der invarianten Massenverteilung von Photonpaaren bei etwa 750 GeV berichtet wurde, konzentrieren sich die ersten ZAnalysen bei 13 TeV zunächst auf die Suche nach Resonanzen in der Massenregion oberhalb
der Higgs-Masse.
In diesem Vortrag wird die Konzeption der Suche nach H=X ! Z in ATLAS dargestellt und
es werden Ergebnisse aus Run 1, einige Studien zu systematischen theoretischen Unsicherheiten
in Zusammenhang mit der Kategorisierung der Events sowie Resultate der Suche in der Region
mit großer invarianter Masse bei 13 TeV vorgestellt.
E. Experimentelle Analysen
49
E-17 (B) Suche nach Einzelproduktion von schweren vektorartigen T-Quarks mit Zerfall in ein Higgs-Boson und ein TopQuark
H EINER T HOLEN
Universität Hamburg
Über die letzten Jahrzehnte wurden mehrere Nicht-SUSY-Theorien formuliert, die nach neuen
Erkenntnissen über die elektroschwache Symmetriebrechung und die Stabilisierung der HiggsBoson Masse suchen. Einige dieser Theorien sagen die Existenz von vektorartigen Quarks voraus, beispielsweise “Little Higgs”, “Composite Higgs” und Theorien mit Extradimensionen.
Vektorartige Quarks haben ein gleichartiges Transformationsverhalten ihrer links- und rechtshändigen Komponenten unter der elektroschwachen Symmetriegruppe SU.2/L U.1/Y des Stanerhalten, im Gegendardmodells. Daraus folgt, dass sie direkte Massenterme in der Form m
satz zu den chiralen Quarks des Standardmodells, welche ihre Masse aus einer Yukawa Interaktion beziehen.
Mit der Entdeckung des Higgs-Bosons durch die ATLAS und CMS Kollaborationen wurde die
Existenz einer vierten Generation chiraler Fermionen ausgeschlossen. Da vektorartige Quarks
jedoch nur einen schwachen Einfluss auf die Eigenschaften des Standardmodell Higgs-Bosons
hätten, sind diese durch die Entdeckung des Higgs-Bosons nur schwach eingeschränkt.
Ich präsentiere die Suche nach vektorartigen Top-Quark Partnern mit der elektrischen Ladung
2=3 e (T) inp
Einzelproduktion. Die Einzelproduktion dieser Teilchen bei einer Schwerpunktsenergie von s D 13 TeV ist von besonderem Interesse, da ihre Produktionsrate mit steigender
Teilchenmasse über die der Paarproduktion steigt. Die oben genannten Modelle präferieren den
Zerfall des T-Quarks in Standardmodell Quarks der dritten Generation assoziiert mit Bosonen,
was in den Zerfallskanälen tH, tZ und bW resultiert. Durch direkte Suchen der CMS und ATLAS Kollaborationen wurde das T-Quark unterhalb einer Masse von 715 bis 950 GeV bereits
ausgeschlossen, abhängig von den angenommenen Zerfallsbreiten.
Die Analyse wird mit Daten durchgeführt,
p die 2015 mit dem CMS Experiment am CERN LHC
bei einer Schwerpunktsenergie von s D 13 TeV aufgezeichnet wurden. Die Suche ist für
den Zerfall des T-Quarks in ein Higgs-Boson und ein Top-Quark optimiert, wobei der Zerfall
des Top-Quarks ein Elektron oder Myon aufweist und der Zerfall des Higgs-Bosons in Bottom
Quarks verlangt wird. Beide Zerfallsprodukte, das Higgs-Boson sowie das Top-Quark, erhalten
bei T-Quark Massen im TeV Bereich eine hohe kinetische Energie, was zur Bündelung von ansonsten isolierten Jets der Teilchen im Endzustand führt. Auch Leptonen sind im Endzustand
wenig isoliert und überlappen häufig mit einem benachbarten Jet. Eine sogenannte “Substruktur Analyse” in Kombination mit Algorithmen zur Identifikation von Bottom Quark Zerfällen
(b Tagging) wird angewendet um eine effiziente Identifizierung von hochenergetischen HiggsBosonen zu ermöglichen.
Für jedes Ereignis wird eine Massenhypothese des T-Quarks aufgestellt. Diese Variable wird als
finale diskriminierende Größe in einem kombinierten Signal plus Untergrund Fit an die Daten
verwendet, wobei die Form des Untergrunds vollständig aus den Daten selbst bestimmt wird.
Die dominierenden Untergrundprozesse stammen von Top-Quark Paar Produktion bei hohen
transversalen Impulsen der Top-Quarks, gefolgt von W+Jets und QCD Multijet Prozessen.
Keine signifikante Abweichung der Daten vom erwarteten Standardmodell Untergrund wird beobachtet. Es werden Ausschlussgrenzen auf den Produktionswirkungsquerschnitt mal Zerfalls-
50
47. Herbstschule für Hochenergiephysik Maria Laach 2015
breite sowie auf die elektroschwache Kopplungsstärke des T-Quarks im Massenbereich von
700 GeV bis 1800 GeV berechnet. Für eine Masse von 1000 GeV wird einen Wirkungsquerschnitt in der Einzelproduktion von über 0,9 und 0,6 pb für links- und rechtshändige Kopplung
an Standardmodell Teilchen ausgeschlossen.
E. Experimentelle Analysen
51
E-18 (C) Nicht-lineare Energiekalibration für Jets im Level-1
Kalorimeter Trigger bei ATLAS
T HOMAS S PIEKER
Kirchhoff-Institut für Physik
Der Large Hadron Collider (LHC) am CERN liefert Teilchenkollisionen an den Interaktionspunkten mit einer Rate von 40 MHz. Das Trigger System in ATLAS wird benötigt um diese
Rate auf einen Bruchteil zu reduzieren und somit nur Kollisionen zu speichern, die für die verschiedenen Analysen wichtig sind. Das Speichern aller Kollisionen wäre aufgrund der riesigen
Datenmenge schlicht unmöglich.
Der Level-1 Trigger von ATLAS ist der erste von zwei Trigger-Stufen (die zweite Stufe ist der
High-Level-Trigger (HLT)). Hier wird innerhalb von 2.5 s entschieden ob eine Kollision wichtig ist oder nicht. Damit wird die Datenrate auf etwa 75 kHz reduziert.
L1Calo ist ein Teil des Level-1 Triggers und nutzt Energie Depositionen in den Kalorimetern
um verschiedene hoch-energetische Objekte herauszufiltern und Energiesummen zu bilden, um
nach fehlender transverser Energie zu suchen. Aufgrund der kurzen Latenzzeit für die Trigger
Entscheidung werden die Kalorimeter nicht in der vollen Granularität ausgelesen, sondern gruppiert in etwa 7200 Trigger Towern.
Die in den Trigger Towern gemessenen analogen Impulse, werden für jede Kollision digitalisiert, durch Filter verstärkt und mit Hilfe einer Tabelle (LookUp Table - LUT) in eine Energie
konvertiert.
Die Energiekalibration für elektromagnetische und hadronische Objekte ist bislang die gleiche,
wobei die LUT mit einer linearen Funktion gefüllt wird. Eine Rauschschwelle schneidet Trigger Tower mit niedriger Energie (die nur Hintergrundrauschen darstellen) heraus und setzt ihre
Energie 0. Seit der Weiterentwicklung der L1Calo Hardware, die 2014 installiert wurde, ist es
möglich eine zweite LUT zu laden. Um die Energieverteilung der hadronischen Objekte besser
zu modellieren, wird eine nicht-lineare Energiekalibration untersucht. Ziel der Analyse ist es die
Auflösung der Energie von Jets in L1Calo im Vergleich zur Jet Energie mit voller Granularität
zu verkleinern.
Gewählt wurde hierfür ein die folgende Funktion E D a C b x C c exp. d x/. In einer
Analyse mit Daten die 2012 aufgenommen wurden, konnte gezeigt werden, dass die Auflösung
dadurch verbessert werden kann. Die Wahl der Parameter a, b, c, d , sowie das Anpassen der
Rauschschwelle stammt aus einer Optimierung der Auflösung.
Die Auflösung der Energie ist hauptverantwortlich für das Ansprechverhalten des Triggers. In
Analysen werden in der Regel Trigger benutzt, die eine mindestens 99% Effizienz haben. Alle
getriggerten Events unterhalb des 99% Punktes wurden daher unnötigerweise gespeichert. Ist die
Energie-Auflösung von Jets besser, so wird auch das Ansprechverhalten der Jet Trigger steiler,
was einer kleinere fake-Rate zur Folge hat.
Da sich 2015 und erneut in 2016 die Verhältnisse am LHC und die Einstellungen des Detektors
verändert haben, wird nun untersucht, wie stabil eine solche Verbesserung ist. Außerdem muss
die Verbesserung groß genug sein, um die zusätzliche Komplexität der neuen LUT in Kauf zu
nehmen.
52
47. Herbstschule für Hochenergiephysik Maria Laach 2015
0
E-19 (A) Erste Beobachtung des Zerfalls 0b ! C
c D K und
Messung des relativen Verzweigunsverhältnisses
mit dem LHCb-Experiment
0
B.0b !C
c D K /
B.0b !C
c Ds /
M ARIAN S TAHL
Physikalisches Institut, Universität Heidelberg
Eines der Alleinstellungsmerkmale des LHCb-Experiments ist die hohe Produktionsrate von bBaryonen und die Möglichkeit deren Zerfälle mithilfe exzellenter Teilchenidentifikation und Impulsauflösung exklusiv zu rekonstruieren. Vor kurzem veröffentlichte LHCb eine Analyse des
Zerfalls 0b ! J= pK die zur ersten Beobachtung zweier mit Pentaquark-Zuständen kompatiblen Resonanzen im J= p Subsystem (ccuud) führte [1, 2]. Um die Natur dieser exotischen Baryonen besser zu verstehen werden Messungen weiterer moeglicher Zerfallskanaele benoetigt.
0
C
0
Der Prozess 0b ! C
c D K erlaubt die Untersuchung von Resonanzen im c .cud/D .cu/System, in dem Pentaquark-Zustände in einigen phenomenologischen Modellannahmen erlaubt,
in anderen verboten sind.
C Die experimentellen Herausforderungen des Zerfalls 0b ! pK C C
K D0 K liec
gen in der Multiplizität der hadronischen Endzustände. Trotz effizienter Rekonstrokutionsalgorithmen muss die Analyse auf deutlich kleineren Datenmengen ausgeführt werden als 0b !
J= pK . Des weiteren erfordert eine zukünftige Amplitudenanalyse Kenntnis über die C
c HeC
C
lizität, welche wiederum eine Amplitudenanalyse des c ! pK Zerfalls benötigt.
Die Bestimmung des relativen Verzweigunsverhältnisses
0
0
N.0b ! C
".0b ! C
B.Ds ! KC K /
B.0b ! C
c D K /
c Ds /
c D K /
D
0
B.0b ! C
N.0b ! C
".0b ! C
B.D0 ! KC /
c Ds /
c Ds /
c D K /
erfordert Messungen der Signalausbeute beider Kanäle und der relativen Effizienzen für Selektion, Rekonstruktion und Generation von Monte Carlo Ereignissen.
Aufgrund der sechs hadronischen Spuren sind kombinatorische Untergründe ein Problem, welches mit Methoden maschinellen Lernens in einem zweistufigen Selektionsverfahren bewältigt
0
wird. Zunächst werden die direkten Zerfallsprodukte C
c , D und K mittels dedizierter Klassifizierungsalgorithmen selektiert. Eine weitere multivariate Analysemethode wird zur finalen
Signalselektion verwendet, welche auf der Rückmeldung der Klassifizierer der ersten Ebene und
weiteren kinematischen Variablen aufbaut.
Neben kombinatorischen Untergründen fallen verschiedene partiell rekonstriuerte Zerfälle in das
untersuchte Massenfenster. Bis auf
0 0b ! C
N .2007/0 K
c D D
0 0
0b ! C
N .2007/0 K
c D D
E. Experimentelle Analysen
53
0
0
0b ! C
c D K K .892/
C
0b ! C
D0 K
c c .2595/C
C
und 0b ! C
D0 K ,
c c .2625/C
welche allesamt in die Region unterhalb der 0b Masse fallen, wurden weitere partiell rekonstruierte Zerfälle mit vernachlässigbaren Raten abgeschätzt.
0
Die Analyse stellt die erste Beobachtung von 0b ! C
c D K und den genannten partiell rekonstruierten Zerfällen vor und misst deren Verzweigungsverhältnisse im Verhältnis zum Referenzkanal 0b ! C
c Ds .
Referenzen
[1] R. Aaij et al. (LHCb Collaboration), Observation of J = p Resonances Consistent with
Pentaquark States in 0b ! J = K p Decays, Phys. Rev. Lett. 115, 072001 (2015),
[10.1103/PhysRevLett.115.072001]
[2] R. Aaij et al. (LHCb Collaboration), Model-independent evidence for J = p contributions
to 0b ! J = pK decays, arXiv:1604.05708[hep-ex], (2016)
54
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-20 (B) Suche nach Higgs-Boson-Produktion in Assoziation
mit Einzel-Top-Quarks am CMS-Detektor
N ILS FALTERMANN
Institut für Experimentelle Kernphysik KIT
Mit der Beobachtung des Higgs-Bosons mit einer Masse von 125 GeV durch die Kollaborationen
ATLAS und CMS im Jahr 2012 wurde das letzte noch verbleibende Teilchen des Standardmodells experimentell nachgewiesen und damit der Higgs-Mechanismus als Theorie zur Erzeugung
der Teilchenmassen bestätigt. Die Kopplung des Higgs-Bosons an Fermionen ist dabei direkt
proportional zur Masse der Teilchen. Hierbei spielt das Top-Quark als schwerstes Elementarteilchen eine besondere Rolle.
Eine Möglichkeit die Kopplung zwischen dem Top-Quark und dem Higgs-Boson zu untersuchen,
ist die Suche nach assoziierter Produktion beider Teilchen. Eine erhöhte Kopplung zwischen
beiden Teilchen äussert sich in einem höheren Produktionswirkungsquerschnitt des Prozesses.
Das Higgs-Boson kann dabei zusammen mit einem Top-Quark-Paar oder mit einem Einzel-TopQuark produziert werden. Letzterer Produktionsmechanismus ist nicht nur auf den absoluten Betrag der Kopplung, sondern auch auf das Vorzeichen sensitiv. Zusätzlich kann eine Aussage über
die Kopplung des Higgs-Bosons an Vektorbosonen gemacht werden. Möglich wird dies durch
die Interferenz von zwei Feynman-Diagrammen, bei denen das Higgs-Boson entweder vom einem Top-Quark oder einem W-Boson abgestrahlt wird. Im Falle eines invertierten Vorzeichens
der Top-Higgs-Kopplung erhöht sich der Produktionswirkungsquerschnitt um einen Faktor 10
bei einer Schwerpunktsenergie von 13 TeV.
In meinem Vortrag stelle ich die Analyse der CMS-Kollaboration zur Suche nach assoziierter
Higgs-Boson-Produktion mit Einzel-Top-Quarks bei einer Schwerpunktsenergie von 13 TeV vor.
Hierbei werden der t-Kanal und die tW assoziierte Produktion von Einzel-Top-Quarks berücksichtigt. Es werden Ereignisse selektiert bei denen das Higgs-Boson in ein Bottom-Quark-Paar
zerfällt. Darüber hinaus wird ein leptonischer Top-Quark-Zerfall vorrausgesetzt. Der dominierende Untergrund aus Top-Quark-Paar-Ereignissen und die hohe Jet-Multiplizität erfordern den
Einsatz multivariater Analysemethoden zur Rekonstruktion und Klassifikation von Ereignissen.
Es werden Ausschlussgrenzen für verschiedene Kopplungsszenarien bestimmt.
E. Experimentelle Analysen
55
E-21 (C) ZZ Produktion beim ATLAS-Experiment - Wirkungsquerschnittsmessung und Suche nach anomalen Kopplungen
M AURICE B ECKER
Institut für Physik - Universität Mainz
Das bisher erfolgreichste Modell zur Beschreibung des Aufbaus der Materie stellt bisher das
Standardmodell der Teilchenphysik dar. In dem Modell ist die Materie aus drei Generationen
von Fermionen aufgebaut, welche durch Austausch von Eichbosonen miteinander wechselwirken können. Die Eichbosonen, die die schwache Kraft vermitteln, sind die Z- und W-Bosonen,
wobei das Z-Boson elektrisch neutral ist und das W-Boson negativ oder positiv auftreten kann.
Ein Beispiel der schwachen Wechselwirkung ist der ˇ-Zerfall. Es ist aber auch möglich, diese Teilchen direkt zu erzeugen. Dazu benötigt es sehr hohe Energien, wie sie am LHC unter
Laborbedingungen auftreten. So werden am ATLAS-Detektor in Genf (Schweiz) beschleunigte
Protonen des LHCs zur Kollision gebracht. Bei den hohen Energien sind es dann nicht mehr die
Protonen, die miteinander Wechselwirken, sondern die Quarks, die Bestandteile der Protonen.
Ein Prozess der mit sehr niedriger Rate auftreten kann, ist die direkte Produktion von einem ZBoson Paar. Da nicht nur die direkte Produktion, sondern auch die Produktion über ein Higgs
Boson, welches in zwei Z-Bosonen zerfällt, möglich ist, stellt die direkte Z-Paarproduktion den
dominanten Untergrund für die Untersuchung des Higgszerfalls in zwei Z-Bosonen dar und ein
genaues Verständnis ist von Nöten.
Zusätzlich bietet die Z-Paarproduktion eine Möglichkeit um nach Kopplungen von drei Z-Bosonen aneinander zu suchen, welche im Standardmodell verboten sind. Eine Abweichung zwischen der Standardmodellerwartung und den aufgenommenen Daten des ATLAS-Experiments
wären ein direkter Hinweis auf Physik jenseits des Standardmodells.
In diesem Vortrag wird eine Messung des Gesamtwirkungsquerschnitts der ZZ-Produktion, in
dem Zerfallskanal nach 4 Elektronen (Positronen) oder (Anti-)Myonen, vorgestellt. Die verwendeten 3.2 fb 1 Daten für diese Messung wurden im
p Jahre 2015 bei dem ATLAS Experiment
aufgenommen mit einer Schwerpunktsenergie von s D 13 TeV. Die Untersuchung des Zerfallskanals in 4 Leptonen ist dabei nicht der Prozess mit dem höchsten Wirkungsquerschnitt,
aber wegen der klaren Signatur von Elektronen (Positronen) und (Anti-)Myonen ein sehr reiner
Prozess mit Untergrunderwartungen im wenigen Prozentbereich. Es wird dargestellt wie man
von der Selektion von Ereignissen zu der Bestimmung des Wirkungsquerschnitttes kommt. Der
Schwerpunkt wird dabei auf die Bestimmung des Untergrundes durch fehl-identifizierte Leptonen gelegt.
Da die Anzahl an selektierten ZZ-Ereignissen aus dem Jahre 2015 sehr begrenzt ist wird durch
Hinzunahme von Daten aus dem Jahr 2016 vorgestellt wie man Wirkungsquerschnitte in differentieller Form, in Abhängigkeit einer kinematischen Variable, bestimmt. Außerdem wird gezeigt wie man mit diesen Daten nach anomalen Kopplungen sucht und Ausschlussgrenzen bestimmt.
56
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-22 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton, Jets und fehlender Transversalenergie mit dem
ATLAS Detektor
M ANUEL L ORNATUS
Uni Mainz
Das Standardmodell der Teilchenphysik ist in der Lage, alle bisher beobachteten Elementarteilchen und Wechselwirkungen mit Ausnahme der Gravitation mit hoher Präzision zu beschreiben.
Zu den Erfolgen der Theorie zählen die Vorhersagen des W-Bosons, des Top Quarks und des
Higgsbosons als letzten fehlenden Baustein.
Astrophysikalische Beobachtungen suggerieren aber die Existenz weiterer Kräfte (“dunkle Energie”) und weiterer Teilchen (“dunkle Materie”), die vom Standardmodell nicht beschrieben werden können. Zudem besitzt die Theorie einen Schönheitsfehler, der als Hierarchieproblem bezeichnet wird. Es kann allerdings durch Einführung einer neuen Symmetrie zwischen Fermionen und Bosonen auf elegante Weise gelöst werden. Das auf diesem Konzept der so genannten
Supersymmetrie (SUSY) aufbauende “Minimale Supersymmetrische Standardmodell” (MSSM)
postuliert dabei einige neue und bisher unbeobachtete Teilchen und liefert auch potentielle Kandidaten für dunkle Materie.
Der Large Hadron Collider (LHC) am CERN bietet seit seiner Inbetriebnahme im November
2009 die weltweit besten Voraussetzungen für die Suche nach Supersymmetrie, denn die Masse
potentiell erzeugbarer neuer Teilchen ist von der Schwerpunktsenergie der Kollisionen abhängig
und eine hohe Luminosität liefert Zugang zu sehr seltenen Prozessen. Der LHC hält in beiden
Disziplinen den aktuellen Weltrekord. In den Jahren 2012 bis 2015 wurde am ATLAS-Detektor
eine integrierte Luminosität von 24,5 fb 1 bei einer Schwerpunktsenergie der Proton-ProtonKollisionen von 8 bzw. 13 TeV aufgenommen und in der aktuellen Datennahme im Jahr 2016
werden in etwa weitere 30 fb 1 erwartet. Dieser Vielzweckdetektor ist eines von vier großen
Experimenten an dem ringförmigen Beschleuniger.
In diesem Vortrag wird eine Datenanalyse der Kollisionsereignisse am ATLAS-Detektor mit einem einzigen Lepton, Jets und fehlender Transversalenergie im Endzustand vorgestellt. Parallel
untersuchen andere Analysegruppen komplementäre Suchkanäle. Der hier vorgestellte Kanal
gehört zu den inklusiven Suchen und bietet somit schon bei einer geringen Luminosität eine
vergleichsweise hohe Sensitivität auf Physik jenseits des Standardmodells. Die Analyse wurde basierend auf vereinfachten Modellen der Paarproduktion von Squarks und Gluinos (SUSYTeilchen) optimiert. Am LHC werden diese dominant über die starke Wechselwirkung produziert
und zerfallen dann über Kaskaden weiter in leichtere SUSY-Teilchen und Teilchen des Standardmodells.
Der Fokus des Vortrags liegt auf den aktuellsten Ergebnissen der Analyse bei einer Schwerpunktsenergie von 13 TeV.
E. Experimentelle Analysen
57
E-23 (B) Suche nach neuer Physik mit zwei Elektronen im Endzustand bei ATLAS
S IMON S CHMITZ
Universität Mainz, Institut für Physik
Das Standardmodell der Teilchenphysik beschreibt alle bisher bekannten Elementarteilchen sowie die starke, elektromagnetische und schwache Wechselwirkung. Lediglich die Gravitation
kann nicht vom Standardmodell beschrieben werden.
Unzählige Experimente haben dies bestätigt und das Standardmodell zu einer sehr erfolgreichen
Theorie gemacht. Dennoch existieren Makel, die eine Erweiterung des Standardmodells fordern.
Dazu gehören die bereits erwähnte Gravitation, Dunkle Materie und Dunkle Energie, die nicht
masselosen Neutrinos sowie die Asymmetrie zwischen Materie und Antimaterie, um nur die wesentlichen Makel zu nennen.
Erweiterungen des Standardmodells, welche man gemeinhin als Physik jenseits des Standardmodells bezeichnet, sagen unter anderem neue Teilchen vorher. Eines dieser postulierten Teilchen
ist das Z 0 -Boson, welches eine massereiche Resonanz im Elektron-Elektron Spektrum hervorrufen könnte.
0
Der LHC am CERN bei Genf bietet für die Suche nach
p dem Z -Boson die weltweit besten
Voraussetzungen. Mit einer Schwerpunktsenergie von s D 13 TeV werden Proton-Proton Kollisionen durchgeführt. Hierbei enstehen unzählige neue Teilchen, die mithilfe des ATLAS Detektors detektiert werden können.
Dieser Vortrag befasst sich mit der Suche nach neuer Physik in Endzuständen mit zwei Elektronen. Hierbei wird gezielt nach dem Z 0 -Boson gesucht, welches von verschiedenen Erweiterungen des Standardmodells vorhergesagt wird. Die Suche erfordert eine möglichst exakte Kenntnis
der Untergründe im Spektrum des Elektron-Elektron Kanals, welches schließlich mittels statistischer Methoden nach Resonanzen abgesucht wird.
58
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-24 (C) Suche nach dunkler Materie im Mono-Higgs-Kanal
N mit dem ATLAS-Detektor am LHC
(H ! b b)
R AINER R ÖHRIG
Max-Planck-Institut für Physik
Astrophysikalischen Beobachtungen zufolge macht die gewöhnliche baryonische Materie nur
einen kleinen Bruchteil des Materieinhalts des Universums aus. Einen weitaus größeren Anteil,
ca. 75%, stellt die sogenannte dunkle Materie dar, die nicht Teil des Standardmodells ist. Die
Teilchennatur der dunklen Materie ist nicht klar, da sie bisher nur indirekt in gravitativen Wechselwirkungen, d.h. auf astronomischen Skalen, nachgewiesen werden konnte.
Eines der Hauptziele des Large Hadron Colliders (LHC) ist der direkte Nachweis der dunklen
Materie. Die Suche am LHC ist komplementär zu den Untergrundexperimenten und Experimenten in der Luft und im All, in denen die dunkle Materie durch ihre Streuung an den Materieteilchen oder durch die Annihilation in Elektron-Positron-Paare nachgewiesen werden kann.
In den Proton-Proton-Kollisionen am LHC bei einer Schwerpunktsenergie von bis zu 13 TeV
können massive dunkle Materieteilchen erzeugt werden. Da sie nur sehr schwach mit der Materie
wechselwirken, werden sie im ATLAS-Detektor nicht direkt beobachtet und manifestieren sich
stattdessen als fehlende transversale Energie wenn sie zusammen mit einem StandardmodellTeilchen erzeugt werden.
Im sogenannten Mono-Higgs-Zerfallskanal wird die Produktion der dunklen Materieteilchen in
assoziation mit dem entdeckten Higgs-Boson mit einer Masse von 125 GeV untersucht. Da das
Verzweigungsverhältnis für den Zerfall des Standardmodell-Higgs-Bosons in zwei 2 b-Quarks
am höchsten ist, betrachtet man den entsprechenden Endzustand. Aufgrund des Produktionsmechanismus kann das Higgs-Boson einen hohen Lorentz-Boost erfahren und fliegt in entgegengesetzte Richtung zur dunklen Materie. Durch den Lorentz-Boost können die beiden b-Quarks
stark kollimiert sein, wodurch es nicht mehr möglich ist zwei getrennte b-Jets aus der b-QuarkHadronisierung zu rekonstruieren. Um jedoch solche Ereignisse weiterhin zu berücksichtigen,
betrachtet man auch Topologien mit nur einem größeren Jet unter Berücksichtigung dessen Substruktur. Schließlich dient die invariante Masse von zwei kleinen b-Jets oder einem großen Jet
zur endgültigen Diskriminierung des Signal- von den Untergrundprozessen zur statistischen Interpretation der Daten.
N
In meinem Vortrag werde ich die Mono-Higgs (H ! b b)-Analyse
vorstellen und dabei die Ereignisselektion, die Methoden zur Untergrundabschätzung sowie die betrachteten Signalmodelle
diskutieren. Im Anschluss werde ich die Ergebnisse der Analyse mit den Daten aus dem Jahre
2015 präsentieren.
E. Experimentelle Analysen
59
E-25 (B) Bestimmung der Massen von ˙c Baryonen
N IS M EINERT
Universität Rostock
In dieser Analyse wird mit Hilfe der vom LHCb-Detektor (CERN) aufgezeichneten Daten aus
den Jahren 2011/12 die Massen von ˙c -Baryonen bestimmt. Über den Zerfallskanal ˙cCC=0 !
C=
C
C
, C
können am LHCb das ˙cCC und das ˙c0 rekonstruiert und somit
c c ! pK theoretische Vorhersagen diesbezüglicher QCD-Modellen verifiziert werden.
Zusätzlich zur Bestimmung der Masse wird die Isospinaufspaltung m.˙cCC ˙c0 / bestimmt. Die
Isopin-Aufspaltung beträgt in etwa 0:2 MeV und verlangt damit eine experimentelle Auflösung
in mindestens dieser Größenordnung. Erste Ergebnisse zeigen, dass für Messungen mit dieser Präzision verschieden Detektoreinflüsse, wie der Fehljustierung der absoluten Impulsskala,
berücksichtigt und korrigiert werden müssen. Die Impulsskala wird mit Hilfe der c Töchter
bestimmt und durch die Massendifferenz m.D C D 0 / verifiziert.
0
C
C
C
Untergrundkanäle wie c0 ! C
! C
c K , c ! c oder c
c werden ebenfalls
untersucht und ihr Einfluss auf die Massenmessung bestimmt.
Das Ergebnis dieser Analyse ist systematisch limitiert. Dennoch wird ein Ergebnis vergleichbar
mit dem Weltmittelwert erwartet.
60
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-26 (B) Messung des Wirkungsquerschnitts der Einzel-TopQuark-Erzeugung
G UNNAR J ÄKEL
Bergische Universität Wuppertal
Ein Ziel des LHC ist es, die bereits bekannten Teilchen des Standardmodells möglichst genau zu
vermessen. Zu diesen Teilchen gehört auch das Top-Quark, das sich vor allem durch seine große
Masse von den übrigen Fermionen unterscheidet. Durch die sehr kurze Lebensdauer des TopQuarks, geht es, in Gegensatz zu den anderen Quarks, keine hadronischen Bindungen ein, bevor
es zefällt, sodass die Eigenschaften des Top-Quarks direkt aus den Zerfallsprodukten messen
kann.
In meinem Vortrag stelle ich eine Analyse zur Messung des Wirkungsquerschnittes der EinzelTop-Quark-Erzeugung im t-Kanal mit dem ATLAS-Detektor bei 13 TeV vor. Einzelne TopQuarks werden über die elektroschwache Wechselwirkung erzeugt. Diese wird am LHC vom
t-Kanal-Austausch dominiert. In diesem Kanal erzeugt ein virtuelles W-Boson, das von einem
leichten Quark aus der Proton-Proton-Kollision abgestrahlt wird, das einzelne Top-Quark. Untersucht wird der Prozess, bei dem das Top-Quark in ein Bottom-Quark und ein W-Boson zerfällt,
wobei das W-Boson weiter leptonisch zerfällt. Durch dieses Lepton im Endzustand ist dieser
Prozess gut vom großen Multijet Untergrund am LHC zu trennen. Trotz dieser Trennung besteht
der Endzustand nur zu ca. 10% aus Signalereignissen. Die beiden größten Untergrundprozesse bei dieser Analyse sind die Top-Quark-Paar-Produktion und die Erzeugung eines W-Bosons
mit zusätzlichem Jet. Um den Wirkungsquerschnitt dennoch präzise messen zu können, wird ein
Neuronales Netz verwendet, das Signalereignisse von Untergrundereignissen trennt.
Außerdem lassen sich bei der Einzel-Top-Quark-Erzeugung Top-Quark von Top-Antiquark Ereignissen unterscheiden, sodass die Wirkungsquerschnitte für diese beiden Prozesse getrennt
voneinander gemessen werden können. Das Verhältniss dieser beiden Wirkungsquerschnitte R t
liefert Informationen über die Zusammensetzung des Protons, sodass verschiedene Partonverteilungsfunktionen mit der Messung verglichen werden können. Des weiteren lässt sich mit dem
Ergbnis das CKM Matrix Element V t b direkt bestimmen, was bei vielen anderen Messungen nur
durch zusätzliche Annahmen möglich ist.
E. Experimentelle Analysen
61
E-27 (C) Bestimmung der Masse des W -Bosons mit dem
ATLAS-Experiment
V ERENA H ERGET
Universität Würzburg
Die Messung der Masse des W -Bosons ist ein zentraler Bestandteil von Präzisionstests des Standardmodells. Mögliche Abweichungen von den Erwartungen wären ein wichtiger indirekter Hinweis auf Physik jenseits des Standardmodells. Die freien Parameter des Standardmodells sind
mit der Bestimmung der Masse des Higgs-Bosons, des Z- und des W -Bosons und des TopQuarks überbestimmt, sodass die Konformität des Standardmodells mit diesen Messungen überprüft werden kann. Aus diesem Grund müssen bestmögliche Ergebnisse in der Unsicherheit der
Messung der Masse erzielt werden. Die Auswertung der Daten muss daher sehr sorgfältig erfolgen und setzt ein detailliertes Verständnis der Modellierung der Ereignis- und Hintergrundsignaturen in den Daten sowie in Monte Carlo Ereignissen voraus. Da sich bei einem Hadroncollider
wie dem LHC vor allem der Zerfallskanal in ein geladenes Lepton und ein Neutrino anbietet,
spielt die Messung und Kalibrierung der Leptonen eine wichtige Rolle. Zudem wird sich des hadronischen Rückstoßes bedient, der eine Messgröße des transversalen Impulses des W -Bosons
darstellt, welcher vom hadronischen System ausbalanciert wird. Für die Modellierung wird die
kinematisch sehr ähnliche Standardkerze des Z-Bosons, zerfallend in zwei Leptonen, benutzt.
Die Masse des W -Bosons wird aus verschiedenen transversalen kinematischen Verteilungen bestimmt, da die direkte Berechnung der invarianten Masse an einem Hadroncollider nicht möglich
ist. Dies sind die Spektren des transversalen Impulses des geladenen Leptons sowie der fehlenden transversalen Energie. Letzteres kann als Einzelmessung wegen der schlechten Auflösung
kaum zur Sensitiviät der Gesamtmessung beitragen. Die transversale Masse aus der Kombination aus Lepton und fehlender transversaler Energie kann hingegen wiederum einen guten Wert
liefern.
Der hadronische Rückstoß und die daraus bestimmbare fehlende Energie des Neutrinos stellt
demnach eine wichtige Komponente der W -Massenmessung dar. Die systematischen Unsicherheiten, die die Standardalgorithmen für die fehlende Energie bieten, ist für diese Präzisionsmessung nicht ausreichend. Es müssen daher eigene Algorithmen verwendet werden, die mit
Ereignissen aus Z-Zerfällen kalibriert werden. Aufgrund der leicht veränderten Kinematik und
des neutrinolosen Zerfallskanals des Z-Bosons muss die Extrapolation auf Ereignisse aus W Bosonen sehr sorgfältig passieren, um die dabei entstehenden systematischen Fehler zu minimieren.
In diesem Vortrag sollen einige Auswertestrategien der Messung der W -Masse kurz vorgestellt
werden und ein Einblick in mögliche Aspekte der Messung des hadronischen Rückstoßes bei
8 TeV gegeben werden.
62
47. Herbstschule für Hochenergiephysik Maria Laach 2015
E-28 (A) Untersuchung von anomalen Vektorbosonenkopplungen in W W Ereignissen mit dem ATLAS Detektor
E LIAS R ÜTTINGER
DESY Zeuthen
Das Standardmodell der Teilchenphysik (SM) ist eine Quantenfeldtheorie, die die bekannten
Teilchen und deren Wechselwirkung derzeit am besten beschreibt, teilweise mit einer Vorhersagegenauigkeit von bis zu eins zu einer Million. Mit der Entdeckung des Higgs Bosons an den
Experimenten ATLAS und CMS im Jahre 2012 wurde auch das letzte vorhergesagte Teilchen
experimentell bestätigt. Dennoch gibt es evidente Hinweise, dass das SM nicht vollständig, bzw.
keine fundamentale Theorie“ sein kann, da es zu viele freie Parameter hat.
”
Messungen des Wirkungsquerschnitts der W-Boson Paarproduktion mit dem ATLAS Detektor
am LHC mit dem Schwerpunkt auf anomale Kopplungen können die Konsistenz des SM testen
und werden im folgenden beschrieben.
In führender Ordnung kann am LHC ein W W Zustand auf zweierlei Art und Weise erzeugt
werden, wobei t tN-Produktion hier explizit nicht berücksichtigt wird. Beim t-Kanal Streuprozess
wechselwirken jeweils ein Quark q und ein Antiquark qN miteinander, indem unter Austausch
eines Quarks zwei W -Bosonen abgestrahlt werden. Der für die vorgestellte Analyse interessante
Prozess ist der s-Kanal Beitrag. Hierbei fusioniert das einlaufende q q-Paar
N
zu einem Z-Boson
oder , welches dann in einem TGC-Vertex an zwei W -Bosonen koppelt. Diese TGCs (Triple
Gauge Couplings) sind vom SM vorhergesagt und experimentell bestätigt. Sie sind auch notwendig um die Unitarität bei hohen Energien zu gewährleisten, denn sie dämpfen zunehmend den
Einfluss des sonst divergierenden t-Kanal Beitrags.
Neue Phänomene jenseits des SM können einen Einfluss auf den Wirkungsquerschnitt der W Boson Paarproduktion bei hohen Schwerpunktenergien haben und damit effektiv die TGCs modifizieren, so dass anomale, d.h. von der SM Vorhersage abweichende, TGCs ein Zeichen neuer
Physik wären. Vorgestellt wird ein Modell, bei welchem es fünf anomale Kopplungsparameter
gibt, welche sich durch Beschränkungen der SU.2/ U.1/ Eichinvarianz auf drei unabhängige
Parameter reduzieren lassen. Der LHC erreicht solch hohe Energien, deswegen lässt sich der
Einfluss bzw. die Existenz dieser anomalen Kopplungen hier testen. Ihre Präsenz würde dazu
führen, dass die W W -Produktionsrate bei hohen Energien höher ausfallen würde als vom SM
vorhergesagt.
Um die anomalen Kopplungen bzw. obere Grenzen auf diese zu bestimmen, ist es nötig die Produktionsprozesse genau zu verstehen. Dies wird durch Monte Carlo Simulation (MC) gewährleistet, welche sich dann mit den Daten vergleichen lassen. Theoretisch bräuchte man bestenfalls
unendlich viele solcher MCs, generiert mit jeweils einem anderen Satz von Kopplungsparametern, wobei die Produktion einer einzelnen MC sehr rechen- und zeitintensiv ist. Es ist jedoch
möglich eine MC umzugewichten und damit Vorhersagen auch für einen anderen Satz von Parametern, als demjenigen an dem die Simulation erstellt wurde, zu treffen. Es werden zwei Methoden dieser Umgewichtung vorgestellt, eine generatorspezifische und eine analytische, wobei
letztere entwickelt wurde um die erste zu testen.
T. Theorie
T-1 (A) Wiederverwendung von
Parameterscans mit CheckMATE
Monte-Carlo-Events
in
F REDERIC P ONCZA
Institut für Theoretische Teilchenphysik und Kosmologie, RWTH Aachen
Monte-Carlo-Eventgeneratoren stellen sowohl in der experimentellen als auch der theoretischen
Hochenergiephysik das wichtigste Werkzeug zum Vergleich von Vorhersagen und Daten dar.
In vielen Fällen ist die Generierung von Eventdateien jedoch sowohl sehr Speicher- als auch
Zeitaufwändig. Dies stellt besonders ein Hindernis für die Bestimmung von Ausschlussgrenzen
für Parameter neuer Modelle jenseits des Standardmodells“ (BSM) dar.
”
CheckMATE1 ist ein Open-Source Softwarepaket zur Untersuchung solcher Modelle. Zu diesem Zweck werden Analysen, die durch die Atlas- und CMS-Kollaborationen auf LHC Daten
angewendet wurden, auf die simulierten Events übertragen und die Ergebnisse statistisch abgeglichen. CheckMATE ermöglicht somit beispielsweise die einfache Überprüfung der Validität
bestimmter Massen- oder Kopplungswerte des Modells.
Ziel unserer Arbeit ist die Reduzierung des zur Durchführung von Parameterscans notwendigen
Rechenaufwands und der entsprechenden Dauer. Es wäre somit möglich bei gleich bleibender
Auflösung des Scans signifikant weniger Events zu generieren. Statt dies für jeden möglichen
Wert eines Parameters zu machen, werden ausgehend von einem Startpunkt und der dazugehörigen Eventdatei, alle relevanten Impulse transformiert und das Event neu gewichtet, um zu einem
weiteren nahegelegenen Punkt des Parameterraums zu kommen. Die Transformation der Impulse
wird dabei im Ruhesystem des harten Prozesses ausgeführt und von dort auf die übrigen relevanten Teilchen übertragen. Da Monte-Carlo-Generatoren Events entsprechend des zugehörigen
Matrixelementes erzeugen, ist das theoretisch korrekte neue Gewicht das Verhältnis der Matrixelemente von dem neuen und dem alten Parameterpunkt. Wir beschränken uns jedoch darauf
als Gewichte lediglich die Partondichtefunktionen zu benutzen. Die Gültigkeit dieser Näherung
ist keineswegs überall gerechtfertigt, hat aber in den bisherigen Test überzeugende Ergebnisse
geliefert.
Die ersten Tests unseres Verfahrens für mehrere Verteilungen der Teilchen des harten Prozesses
in pp ! Z 0 ! C haben vielversprechende Ergebnisse geliefert und ließen sich auf t tNProduktion übertragen. Die aktuelle Herausforderung ist die korrekte Beschreibung von finalstate jets und Zerfallsprodukten der final-state Teilchen des harten Prozesses.
1
https://checkmate.hepforge.org/
64
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-2 (B) Produktion einzelner Top-Quarks in Assoziation mit
zwei weiteren Jets in nächstführender Ordnung QCD
S TEFAN M ÖLBITZ
Institut fur Physik, Humboldt-Universität zu Berlin
Mit einer Masse von 173 GeV/c 2 ist das Top-Quark das schwerste bekannte Elementarteilchen.
Obwohl vergleichbar schwer wie ein Goldatom, ist das Top-Quark im Rahmen des Standardmodells als punktförmig anzusehen. Aufgrund der großen Masse spielt das Top-Quark in vielen
Erweiterungen des Standardmodells eine besondere Rolle. Das Top-Quark ist daher ein ideales
Labor für die Suche nach Neuer Physik. Seit der Inbetriebnahme des LHC wurde durch die Experimente ATLAS und CMS eine Vielzahl von Top-Quark-Ereignissen detektiert. Die in Run II
zu erwartende integrierte Luminosität erlaubt neben der Suche nach Neuer Physik auch hochpräzise Tests des Standardmodells.
Bei der Produktion von Top-Quarks können die Paarerzeugung (pp ! t tN C X ) und die Produktion einzelner Top-Quarks (pp ! t C j und pp ! t C W , j für Jet ist ein leichtes (Anti)Quark
oder ein Gluon) unterschieden werden. Während die Paarerzeugung die Flavourzahl erhält und
somit durch die starke Wechselwirkung (Kopplungskonstante ˛s ) erfolgen kann, muss die Produktion einzelner Top-Quarks die schwache Wechselwirkung (Kopplungskonstante ˛) involvieren. Die Untersuchung der Produktion einzelner Top-Quarks erlaubt daher detaillierte Untersuchungen der schwachen Wechselwirkung. Darüber hinaus sind die durch die schwache Wechselwirkung produzierten Top-Quarks polarisiert. Da das Top-Quark im Mittel zerfällt bevor es
hadronisieren kann, bietet das Studium der Polarisation eine weitere Möglichkeit für Präzisionstests der V-A Struktur der schwachen Wechselwirkung. Darüber hinaus erlaubt die Produktion
einzelner Top-Quarks eine direkte Messung des Cabbibo-Kobayashi-Maskawa Matrixelements
V t b . Im Rahmen der 5-Flavour-Theorie liefert der Prozess ferner Informationen zur Partonverteilungsfunktion des Bottom-Quarks.
Die t C j Produktion wurde inzwischen näherungsweise in nächst-zu-nächstführender Ordnung
(NNLO) QCD berechnet, dies entspricht der Ordnung ˛ 2 ˛s2 . Der Vortrag hat die Produktion
eines Top-Quarks in Assoziation mit zwei weiteren Jets (t C 2j ) in nächstführender Ordnung
(NLO) QCD zum Thema, dies entspricht ebenfalls der Ordnung ˛ 2 ˛s2 . Die NLO Korrekturen zur
t+2j Produktion stellen damit auch einen Beitrag zu den vollständigen NNLO Korrekturen zur
t+j Produktion dar.
Der Vortrag geht zunächst auf die Frage nach der genauen Definition der t+2j Produktion ein.
Dies erfordert eine Abgrenzung von tW C j Produktion und von t tN Produktion. Nach den
Zerfällen W ! ud
N und tN ! bN ud
N gleichen die Teilchen im Endzustand nämlich denen der
reellen Korrekturen von t C 2j .
Die Berechnung der nächstführenden Ordnung in der QCD erfordert die Berechnun sowohl der
virtuellen als auch der reellen Korrekturen. Beide Aspekte werden im Vortrag thematisiert. Die
Zerlegung der virtuellen Amplitude in einen Farbanteil, einen Spinanteil und einen von der Kinematik abhängigen Anteil mit Tensorintegralen mit bis zu 5 Propagatoren in der Schleife wird
beschrieben. Für die reellen Korrekturen wird der Dipol-Subtraktions-Formalismus von Catani
T. Theorie
65
und Seymour einschließlich der Erweiterung für massive Quarks verwendet. Dieser erlaubt die
getrennte Integration der virtuellen und der reellen Korrekturen über den Phasenraum. Auf die
in diesem Formalismus benötigten farb- und spinkorrelierten Matrixelemente wird eingegangen.
Schließlich werden erste Ergebnisse präsentiert.
66
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-3 (C) Helizitätsasymmetrie der sterilen Neutrinos in Leptogenese
D ENNIS S CHR ÖDER
Fakultät für Physik, Universität Bielefeld
Zu den ungelösten Problemen der modernen Physik gehören die Massen der linkshändigen Neutrinos und die Baryonasymmetrie des Universums, die sich nicht durch die erfolgreichen fundamentalen Theorien des Standardmodells und der Allgemeinen Relativitätstheorie erklären lassen.
In der Leptogenese wird das Standardmodell um sehr schwere (M 107 GeV) sterile rechtshändige Neutrinos erweitert, die unter der Eichgruppe des Standardmodells als Singlett transformieren. Ihre einzige Wechselwirkung ist die Yukawa-Kopplung mit den Higgs- und LeptonDubletts. Da sie als Eichsingletts auftreten, ist ein Majorana-Massenterm möglich, der über den
See-Saw-Mechanismus Massenterme für die linkshändigen Neutrinos generiert. Außerdem kann
die Baryonasymmetrie wie folgt erklärt werden: Im frühen Universum werden die sterilen Neutrinos vom elektroschwachen Plasma erzeugt. Durch eine CP-verletzende Phase in der Kopplungsmatrix entsteht eine Asymmetrie zwischen den darauf folgenden Zerfällen in Leptonen
und Antileptonen. Die Leptonasymmetrie wird dann durch Sphaleronprozesse in eine Baryonasymmetrie umgewandelt.
Da die Kopplungen mit dem Standardmodell klein sind, equilibrieren die sterilen Neutrinos langsam im Vergleich zu typischen Zeitskalen des Standardmodells, welches als ständig im Gleichgewicht angenommen wird. Um die Evolution des Systems während der Expansion zu untersuchen, kann man Ratengleichungen für langsam variierende Größen hinschreiben. Zu diesen
langsamen Größen werden typischerweise die Phasenraumdichte der sterilen Neutrinos fN .p/
und die Leptondichte nl gezählt. Mithilfe von thermischer Feldtheorie können Ausdrücke für
Equilibrierungs-, Produktions- und Umwandlungsraten zwischen den langsamen Größen hergeleitet werden.
Obwohl die sterilen Neutrinos sehr schwer sind, durchlaufen sie im frühen Universum Temperaturen, die vergleichbar und größer ihrer Masse sind, womit ihre typischen Impulse vergleichbar
ihrer Masse werden. Masselose Teilchen weisen eine Korrespondenz zwischen Chiralität und
Helizität auf, was nahelegt, dass bei hohen Temperaturen auch die Rechtshändigkeit der sterilen
Neutrinos eine positive Helizität impliziert. Es ist also konsequent, auch die Helizitätsasymmetrie fh .p/ als langsame Größe in die Ratengleichungen aufzunehmen. In meinem Vortrag zeige
ich, wie die neu eingeführten Raten aus der Feldtheorie bestimmt werden können. Außerdem
gehe ich auf die numerische Lösung der kinetischen Gleichungen ein, die oftmals durch die Annahme des kinetischen Gleichgewichts (also einer Gleichgewichtsimpulsverteilung) der sterilen
Neutrinos vereinfacht wird. Es zeigt sich, dass die Annahme des kinetischen Gleichgewichts,
obwohl sie für genügend kleine Kopplungen das voll impulsabhängige Resultat reproduziert,
gerade für die impulssensitive Helizitätsasymmetrie keine verlässliche Näherung ist.
Die nach dem Ausfrieren der Raten erhaltene Leptonasymmetrie wird durch den Mechanismus
über Helizitätsasymmetrie um bis zu 20% in dem Parameterbereich, der erfolgreiche Baryogenese erlaubt, korrigiert. Die Korrektur ist dabei nur schwach von der Majoranamasse, jedoch stark
von der Yukawakopplung abhängig.
T. Theorie
67
T-4 (A) Extradimensionaler Seesaw Mechanismus sowie dessen
Effekt auf Neutrinooszillationen
M ATHIAS B ECKER
Theoretische Physik III TU Dortmund
Um die Jahrtauswende gewannen Modelle mit räumlichen Extradimensionen an Popularität. Sie
wurden eingeführt, um das Hierachie Problem zu lösen, welches in der großen Hierarchie zwiEW
schen der elektroschwachen und der Planckskala M
10 17 besteht. Die Idee hinter extradiMP
mensionalen Modellen ist es, die fundamentale mehrdimensionale Energieskala der Gravitation
MF durch einen Volumenfaktor der Extradimensionen zu verringern. Der Grund dafür, dass nur
die Gravitation diese Unterdrückung erfährt, ist, dass die Austauschteilchen der Gravitation nicht
unter den Eichgruppen des Standardmodells (SM) geladen sind und es ihnen deswegen erlaubt
ist in den Extradimensionen zu propagieren.
Seit dem Nachweis von Neutrinooszillationen ist es bekannt, dass Neutrinos eine Masse besitzen,
was im SM nicht der Fall ist. Durch die Einführung rechtshändiger Neutrinos ist es möglich, dass
Neutrinos eine Masse erhalten. Allerdings wird dazu eine sehr kleine Yukawakopplung benötigt.
Da rechtshändige Neutrinos nicht unter den SM Eichgruppen geladen sind, ist es möglich, dass
sie eine Majoranamasse besitzen. Das ermöglicht mit entsprechend großer Majoranamasse, die
Erzeugung geringer Neutrinomassen mit Yukawakopplungen O .1/.
Kombiniert man nun die Einführung rechtshändiger Neutrinos mit der Einführung von Extradimensionen, können die rechtshändigen Neutrinos, im Gegensatz zu den SM Teilchen, in den
Extradimensionen propagieren. Das führt zum Einem zur Unterdrückung der Yukawakopplungen der Neutrinos und zum Anderen, nach der Ausintegration der Extradimensionen, zu einem
Tower von Kaluza-Klein Anregungen des rechtshändigen Neutrinos, die zusätzlichen zu einer
effektiven vierdimensionalen Majorana Masse M einen Beitrag zu ihrer Masse proportional zu
R 1 erhalten, wobei R der Radius der kompaktifizierten Extradimension ist. Das führt dazu, dass
die Massenskala M durch R 1 ersetzt wird.
Im Rahmen meines Vortrages werde ich darauf eingehen, ob es möglich ist durch die Einführung
eines rechtshändigen Neutrinofeldes, dem es erlaubt ist in einer Extradimension, die auf einem
S1 =Z2 -orbifold kompaktifiziert ist, zu propagieren, die beobachteten Neutrinomassen und Mischungswinkel zu erklären. Dazu muss die unendlichdimensionale Massenmatrix der Neutrinos
(linkshändige plus Kaluza Klein Anregungen) diagonalisiert werden und es wird versucht kompakte Ausdrücke für die Massen und Mischungswinkel zu finden, was Näherungen erfordert.
Ein wichtiger Punkt, um die Beobachtungen sinnvoll beschreiben zu können, ist, dass die Brane, auf der die SM Teilchen lokalisiert sind, nicht exakt bei den Fixpunkten der Extradimension
liegen darf. Dieser Brane Shift ist erforderlich, um zwei Massendifferenzen zwischen den drei
Neurinomasseneigenzuständen zu generieren.
Ein Effekt, der durch die Massenerzeugung mittels des Seesaw Mechanismus auftritt, ist, dass
die Mischungsmatrix der drei linkshändigen Neutrinos nicht mehr unitär ist. Das hat z.B. einen
Einfluss auf seltene leptonische Zerfälle, wie etwa ! e oder Zerfälle von W Bosonen in
ein l N l Paar. Deshalb wird der Einfluss des extradimensionalen Seesaw Mechanismus auf diese
Zerfälle untersucht.
68
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-5 (B) Squarkproduktion im Minimal R-Symmetrischen Supersymmetrischen Standardmodell
S EBASTIAN L IEBSCHNER
Institut für Kern- und Teilchenphysik, TU Dresden
Im Streben ein tieferes Verständnis von den fundamentalen Bausteinen der Natur zu erlangen, stellt die Entwicklung des Standardmodells der Teilchenphysik ein Meilenstein dar. Neben großen Erfolgen durch die experimentelle Bestätigung theoretisch sehr genau vorhergesagter Observablen ist allerdings bekannt, dass das Standardmodell unvollständig ist, weil es z.B.
keine Beschreibung dunkler Materie enthält. Es ist daher notwendig Erweiterungen des Standardmodells zu studieren. Eine mathematisch sehr ästhetische Erweiterung nutzt das Konzept
der Supersymmetrie.
Oft wird für Suchen am Large Hadron Collider (LHC) vom Minimal Supersymmetrischen Standardmodell (MSSM) ausgegangen. Auf Grundlage dieses Modells sind die Massengrenzen für
stark wechselwirkende supersymmetrische Teilchen, sollten sie existieren, mindestens im TeVBereich zu vermuten. Dadurch verliert Supersymmetrie an Attraktivität, da die Lösung des Hierarchieproblems an Attraktivität verliert.
Ich werde in meinem Vortrag eine supersymmetrische Erweiterung des Standardmodells, welche zusätzlich R-symmetrisch ist, vorstellen: das Minimal R-Symmetrische Supersymmetrische
Standardmodell (MRSSM). Dabei werde ich mich auf die Produktion stark wechselwirkender
supersymmetrischer Teilchen konzentrieren, weil innerhalb der Supersymmetrie die Produktion
ebendieser am wahrscheinlichsten am LHC ist. Es wird sich herausstellen, dass die Produktion
von Gluinos und Squarks (den Superpartnern von Gluonen und Quarks) im MRSSM signifikant
anders ist als im MSSM. Ich werde die Gründe dieser Unterschiede erklären und einen attraktiven
Parameterbereich für das MRSSM angegeben. Da die Produktion von Squarks die interessantesten Änderungen zum MSSM aufweist, wird die Produktion derselben auf Einschleifenkorrektur
betrachtet und mit dem MSSM verglichen.
T. Theorie
69
T-6 (C) A non-perturbative analysis of quantum frame dependence
M ATTHIJS VAN DER W ILD
Physikalisches Institut, Universität Freiburg
Most of the physical phenomena can be described by the standard model of particle physics and
general relativity. From a quantum field theoretical perspective both theories can be combined
into one effective theory whose applicability might even be extended up to the Planck scale. This
offers the possibility to combine two different physical sectors whose characteristic energy scales
are separated by many orders of magnitude–elementary particle physics at the electroweak scale
and the era of inflation in the early universe.
Recently, this unifiying aspect has been explicitly realized in the model of Higgs inflation, in
which the standard model Higgs field is identified with the cosmological inflaton. For this model
to be compatible with experimental data, a non-minimally coupling of the Higgs field to gravity
is required.
This model can be viewed as a particular representative of a more general class of scalar-tensor
theories used in cosmology to describe the phase of inflation. Field variables for which these
scalar-tensor theories feature a non-minimal coupling to gravity are denoted as “Jordan frame”.
In general, by a non-linear field redefinition of the metric and the scalar field, the non-minimal
coupling can be transformed away and all scalar-tensor theories can be brought into a form that
formally resembles the simple structure of a minimally coupled scalar field, denoted as “Einstein
frame”.
Classically, both frames are equivalent. However, it is an ongoing debate whether or not this
equivalence still holds at the quantum level. So far, the investigation of this problem has been carried out only within a perturbative framework. The main motivation of my reseach is to
analyze the question of quantum equivalence at the non-perturbative level.
The most natural non-perturbative framework of quantum gravity is provided by the canonical
quantization of the metric degrees of freedom–quantum geometrodynamics. The central equation
within this formalism is the Wheeler-DeWitt equation, which in turn serves as starting point for
a semiclassical expansion scheme that allows to systematically analyze the question of frame
dependence order by order.
In this talk, I will present the semiclassical expansion of the Wheeler-DeWitt equation evaluated
in the Einstein frame, and discuss the extension to the Jordan frame.
70
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-7 (A) Collider Reach
S TEPHAN M EIGHEN -B ERGER
TUM Physik T75
Bei der Planung und Konstruktion von Proton-Proton Collidern, ist die Frage ihres Entdeckungsvermögens relevant. Die korrekte Methode um die Eignung eines Colliders zu bestimmen ist
Signal und Hintergrund eines Modells mittels Monte Carlo Methoden zu generien, auf die resultierenden Daten eine Detektorsimulation anzuwenden und anschließend Massengrenzen zu
finden. Diese Methode ist aufwendig und kann viel Zeit kosten.
Um eine schnelle Abschätzung der Massengrenze zu erhalten, ist es nützlich, frühere Suchen
und deren Ergebnisse zu verwenden. Wenn man deren Resultate zu höheren Energien interpoliert, dominiert die Partonluminosität Lij die Änderung der Signalzahl. Unter Beachtung der
Massendimension gilt für die Signalzahl N folgende Proportionalität:
P
Cij Lij .M 2 ; s/
N.M; s/ / M12
ij
Die Summe läuft über die Streukanäle (q q;
N qg...) und Cij sind die zugehörigen Streukoeffizienten. s ist die Schwerpunktsenergie des Colliders und M die Masse des gesuchten Teilchens.
Unter der der Annahme, dass ein Kanal dominiert, lässt sich mittels Lösens der Gleichung:
Lij .Mh2 ;sh /
Lij .Ml2 ;sl /
lumih
lumil
D
Mh2
Ml2
das Entdeckungsvermögen eines Colliders bestimmen. Hier ist Mh die gesuchte Massengrenze,
Ml die Massengrenze einer früheren Suche, sh bzw. sl die Schwerpunktsenergien des neuen bzw.
des früheren Colliders und lumh;l sind die zugehörigen Luminositäten. Im Fall, dass N und der
Hintergrund B unterschiedliche Partonluminositäten haben, wird die Gleichung für ein konstantes Verhähltnis pNB gelöst. Ein Vorteil der Berechnung mittels des Bruches ist, dass Komplikationen, wie Kopplungskonstanten und Vorfaktoren, wegfallen. Diese Näherung wird derzeit in der
Web-App Collider-Reach-2 verwendet. Diese Methode gibt Ergebnisse von den LHC und Tevatron Suchen sehr gut wieder, wenn man die Abhängigkeiten von s und von der integrierten Luminosität bzw. auch die Massengrenzen mit den erwarteten von ATLAS/CMS/DO/CDF vergleicht.
Um die Genauigkeit der Approximation aufzuzeigen werden am Beispiel von Z 0 -Bosonen die
Ergebnisse von Collider-Reach mit denen von Monte-Carlo Simulationen verglichen. Im nächsten Schritt werden Prozesse ohne klare Massenschwelle (z.B. effektive Operatoren) untersucht.
2
http://collider-reach.web.cern.ch/collider-reach/ ; G. Salam, A. Weiler
T. Theorie
71
T-8 (B) SO(7)/SO(6) Composite Higgs und Dunkle Materie
M AXIMILIAN RUHDORFER
Physikdepartment (T75), TU München
Nach fast einem halben Jahrhundert andauernder Suche, konnte schließlich 2012 am Large Hadron Collider ein higgsartiges Teilchen mit einer Masse von rund 125 GeV gefunden werden.
Obwohl diese Entdeckung die Vorhersage des Standard Modells (SM) bestätigt und dessen Teilchengehalt komplettiert, werden auch viele weitere, tiefergehende Fragen aufgeworfen.
Aus einer theoretischen Sichtweise ist ein leichtes skalares Teilchen, wie das Higgs-Boson, unnatürlich, wenn seine Masse nicht vor großen Quantenkorrekturen geschützt ist. Symmetrien
sind eine elegante Möglichkeit die Masse des Higgs-Bosons zu schützen. Die wohl beliebteste
Realisierung hiervon sind supersymmetrische Modelle.
Alternativ, kann ein auf natürlicher Weise leichter Skalar als gebundener Zustand einer stark
wechselwirkenden fundamentalen Theorie verwirklicht werden. In Composite Higgs (CH) Modellen ist das Higgs-Boson, wie die Pionen in QCD, ein pseudo Nambu-Goldstone Boson (pNGB),
das durch die spontane Symmetriebrechung einer globalen Symmetrie im TeV Bereich auftritt.
Das minimale, phänomenologisch realistische Modell beruht auf dem Symmetriebrechungsschema SO.5/ ! SO.4/.
Im Folgenden betrachten wir ein Modell mit dem Symmetriebrechungsschema SO.7/ ! SO.6/.
Das Brechungsschema SO.7/=SO.6/ impliziert das Auftreten von zwei weiteren pNGB neben dem Higgs-Boson. Diese beiden zusätzlichen Skalare sind neutrale Teilchen unter der SM
Eichwechselwirkung. Ihre Wechselwirkung untereinander und mit dem Higgs-Boson ist vollkommen durch die Gruppenstruktur festgelegt. Die Wechselwirkung mit den SM Fermionen
hängt jedoch von deren Einbettung in SO.7/ Multipletts ab. Durch die explizite Brechung der
Goldstone-Symmetrie durch die Fermioneneinbettung wird radiativ eine Masse für das Higgs
und die zusätzlichen Skalare generiert und deren Symmetrieeigenschaften bestimmt.
In unserer Arbeit konzentrieren wir uns auf eine Fermioneneinbettung, die eine SO.2/ SO.6/
Untergruppe im Singlet Sektor ungebrochen lässt. Durch diese Wahl sind die zusätzlichen pNGB
degeneriert und stabil, was sie zu einem guten Dunkle Materie (DM) Kandidat macht. Im Gegensatz zu vielen DM Modellen in der Literatur entsteht die Symmetrie, die die DM vor Zerfall
schützt natürlich und muss nicht in Form einer Paritätssymmetrie postuliert werden.
72
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-9 (C) Die Suche nach dem Littlest Higgs Modell mit T-Parität
S TEFAN W EBER
Physikdepartment (T75), TU München
Das Standardmodell (SM) kann als eine effektive Theorie aufgefasst werden, welche mit beeindruckender Genauigkeit eine sehr gute, effektive Beschreibung zahlreicher Experimente in der
Teilchenphysik liefert. Die elektroschwache Symmetrie des Standardmodells wird bei O.MW /
spontan gebrochen, wobei diese Skala durch die Higgs Masse mH bestimmt ist. Zudem muss
man sich, wie bei allen effektiven Theorien, die Frage stellen bei welcher Skala diese Beschreibung zusammenbricht und somit mit neuer Physik zu rechnen ist. Damit physikalische Phänomene mit Hilfe des Standardmodells sinnvoll behandelt werden können, muss also das Verhältnis
2
mH
=2 klein sein. Da allerdings die Higgs Masse nicht durch eine Symmetrie geschützt ist,
2
erhält diese Quantenkorrekturen, sodass mH
=2 nicht notwendigerweise klein ist. Dies ist auch
als Hierarchieproblem bekannt. Die wohl bekanntesten Lösungen sind Supersymmetrie, Compositeness und nicht zuletzt Little Higgs.
Im Littlest Higgs Modell, dem einfachsten und minimalen Little Higgs Modell, ist das Higgs
als pseudo Nambu-Goldstone Boson (pNGB) realisiert und wird mit Hilfe eines nichtlinearen
Sigma Modells beschrieben. Dieses ist durch eine Zerfallskonstante f 1TeV charakterisiert.
Während f klein genug ist um die bekannte Higgs Masse natürlich zu reproduzieren ist der
Cutoff 4f hoch genug um das Hierarchieproblem zu lösen. Somit kann neue Physik im
TeV Bereich erwartet werden, welche die Higgs Masse stabil gegenüber Strahlungskorrekturen
macht.
Um die Theorie noch mit Bedingungen aus elektroschwachen Präzisionsmessungen zu vereinbaren muss eine zusätzliche diskrete Z2 Symmetrie, die T -Parität, eingeführt werden. Unter
dieser Symmetrie sind alle Teilchen des Standardmodells T -gerade und neue schwere Teilchen
T -ungerade. Eine direkte Konsequenz daraus ist, dass das leichteste T -ungerade Teilchen (LTP)
stabil sein muss. Falls dieses zudem neutral ist, stellt es einen Kandidaten für dunkle Materie dar.
Da die Top Quark Masse viel größer ist als die der restlichen Quarks, ist es in führender Ordnung ausreichend nur diesen Beitrag zur Higgs Masse zu korrigieren, dies geschieht durch den
schweren, T -ungeraden Partner des Top Quarks, welcher nur stark wechselwirkt. Dieser ist im
Gegensatz zu den supersymmetrischen Partnern fermionisch.
Ein Großteil der aktuellen Suche nach neuer Physik an Teilchenbeschleunigern beschränkt sich
auf skalare Top Partner oder Zerfallstopologien die durch T -Parität ausgeschlossen sind. Es
bleibt also zu klären, ob das Littlest Higgs Modell und dessen Vorhersagen durch die derzeitige
Suche abgedeckt ist und ob die Suche nach skalaren Partnern ohne weiteres auf fermionische
Partner übertragbar ist.
T. Theorie
73
T-10 (A) Über die expliziten Lösungen der laufenden QCDKopplung.
G USTAVO Á LVAREZ C OSQUE
II. Institut für Theoretische Physik, Universität Hamburg.
.nf /
Die laufenden QCD-Kopplung a.t/ D ˛s
mierungsgruppegleichung 3
d a.t/
D ˇ.a/ D
dt
.t/ D gs2 =.4/, definiert als die Lösung der Renor-
ˇ0 a2 .1 C c1 a C c2 a2 C : : :/ ;
(T.1)
hat die folgende Darstellung durch Rekursivformulierung
Z
ln t D
1
da
D
ˇ.a/
ˇ0
1
C c1 ln a C a
! a.t/ D
1
ˇ0 t
1
.c1 ln t/ C ;
.ˇ0 t/2
(T.2)
wobei der unbekannte Koeffizient bj die Reichweite dieser Formel begrenzt. Eine andere Möglichkeit ist es, die sogennante “explizite” Lösung zu benutzen. Zum Beispiel im Fall von zwei- und
dreiloop:4
aD
1
1
c1 Œ1 C W .z/
und
aD
1
c1 Œ1
1
!2 C W .z/
bzw ;
!2 c2
:
c12
(T.3)
Hier ist W .z/ die Lambert Funktion, definiert als Lösung der transzendenten Gleichung z D
W .z/e W .z/ . Man muss die Formel für a.W .z// und z.t/ finden, um unsere Originalkopplung
a.t / gut zu definieren. Man versteht z.t/ als eine explizite Formel, die man noch finden muss.
Einen Ansatz 5 gibt eine allgemeine Formel, um eine Darstellung für z.t/ zu finden. Unabhängig
davon kann man eine explizite Lösung für den Fall einloop durch die Anwendung der Eigenschaften der Lambertfunktion finden, die ist
8
ˆ
1
1
ˆ
für 0 < Q < exp
;
ˆ
.nf /
ˆ
W0 .z.Q//
ˆ
2 ˇ0
ˆ
<
1
für Q D exp
;
a.Q/ D 1
.nf /
ˆ
2
ˇ
0
ˆ
ˆ
ˆ
ˆ
1
1
ˆ
für Q > exp
:
: W 1 .z.Q//
.nf /
2 ˇ0
Sollte bj unbekannt sein, ist natürlich die Reichweite der Methode der explizten Lösungen begrenzt, aber trotzdem findet man dieser Lösungen numerisch übereinstimmend in der Literatur
im Vergleich zur früheren Rekursivformulierung.
Hier ist gs die starke QCD original Kopplung, nf Farbenummer, und t D lnfQ2 =Q02 g. Q und Q0 sind die
Renormierung- bzw. die Referenzskala. cj D ˇj =ˇ0 , mit j 1, wobei ˇ0 und ˇj D ˇ1 ; ˇ2 ; : : : die Originalkoeffizienten ˇ.a/ aus der Literatur sind.
4
E. Gardi, G. Grunberg and M. Karliner, “Can the QCD running coupling have a causal analyticity structure?,”
JHEP 9807 (1998) 007 [hep-ph/9806462].
5
G. Cvetic and I. Kondrashuk,“Explicit solutions for effective four- and five-loop QCD running coupling” JHEP
1112 (2011) 019 [arXiv:1110.2545 [hep-ph]].
3
74
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-11 (B) Ein zwei Higgs Doublette Dunkle Materie Modell
M ARTIN K LASSEN
ITP Heidelberg
Es gibt viele Moeglichkeiten dunkle Materie Teilchen durch Erweiterungen des Standradmodells in eine allgemeine Theorie einzuarbeiten. In diesem Vortrag wird ein zwei Higgs Doublette Modell vom Type II vorgestellt. Hierbei wird zu dem Standardmodell Higgs ein zusaetzliches Higgs hinzugefuegt, welches gewoehnlich massiver ist. Dieses Boson erscheint in hoeheren
Symmetrie Gruppen und hat seine eigene Energiebrechungsskala. Die beiden Higgs Bosons tragen neben der Standardmodell SU(3) SU(2) U(1) eine weitere U(1) Symmetrie, um an die
dunkle Materie zu koppeln. Es wird angenommen, dass diese skalar ist.
Das zwei Higgs Doublette Modell wird durch eine effektiven Feld Theorie beschrieben und
enthaelt neben den Standardmodell Fermionen, die beiden Higgs Bosons und ein weiteres reales
Skalar, die dunkle Materie. Diese koppelt dann direkt an die die beiden Higgs Bosons. Es gilt
nun zu ueberpruefen, ob fuer einen geeigneten Parameterraum die relikte Dichte des Universums
reproduziert werden kann.
Nach der elektroschwachen Symmetriebrechung bleiben noch 5 der 8 realen Freiheitsgrade der
beiden Higgs Bosons erhalten, welche zwei CP-gerade Skalare h und H , ein CP-ungerades Skalar A und ein Paar geladene Skalare H ˙ bilden. Der Mischungswinkel tan ˇ ist gegeben
als
p
der Verhaeltnis der beiden Vakuumserwartungswerte tan ˇ D vv12 wobei vE W D v12 C v22 .
Dann identifiziert man h als das am LHC gefundene Higgs und beschreibt den Winkel ueber
die Mischung der beiden Higgs Doublettes. Dies fuehrt dann zu einer Modifizierung von allen
Standardmodellkopplungen und liefert ebenfalls eine Massenskala auf der man Dunkle Materie
erwartet. Diese koennen dann mit Ausschlusslimits von verschiedenen Experimenten verglichen
werden oder geeignete Experimente konzipiert werden.
T. Theorie
75
T-12 (C) Ein meta-stabiles Soliton in S U.3/ Yang-Mills-HiggsTheorie
PASCAL NAGEL
Institut für Theoretische Physik (KIT)
Das Sphaleron S ist eine der wenigen Lösungen der klassischen elektroschwachen Feldgleichungen des Standardmodells und führt durch nicht-perturbative Prozesse im frühen Universum
zu Baryonenzahlverletzung. Ähnlich zu Solitonen (wie z.B. Kinks und Monopolen) kann man
sich bei der Suche nach Lösungen wie dem Sphaleron mit Methoden aus der Topologie helfen. Das Sphaleron S basiert beispielsweise auf einer topologisch nicht-trivialen Abbildung vom
2
Rand des Ortsraumes S1
und einer Schleife S 1 im Feldkonfigurationsraum in den Gruppenraum
S U.2/.
Mit der Absicht unser Verständnis von nicht-perturbativen QCD Prozessen zu vertiefen suchen
wir ähnliche Lösungen im SU.3/ Sektor. Neben der bereits eingehend behandelten S Lösung
2
^ S 3 ! SU.3/ zu einer
in S U.3/ führt nun eine relativ kürzlich gefundene Abbildung S1
neuartigen Lösung der SU.3/ Yang-Mills-Higgs Feldgleichungen.
Die Untersuchung der Energie von Feldkonfigurationen um die neue Lösung herum weist auf
eine Metastabilität derer hin. Hierdurch unterscheidet sich diese neue Lösung grundlegend vom
Sphaleron S , sowie von anderen Sphaleronlösungen, welche alle instabil sind.
76
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-13 (A) Dunkle Materie und E6 Grand Unification
JAKOB S CHWICHTENBERG
Institut für Theoretische Teilchenphysik KIT
In meinem Vortrage diskutiere ich fermionische Dunkle Materie im Kontext vereinheitlichter,
nicht-supersymmetrischer Theorien, basierend auf der Gruppe E6 . Diese Studie ist motiviert
durch das Revival nicht-supersymmetrischer GUTs in den letzten Jahren und natürlich durch die
Tatsache, dass die Natur der Dunklen Materie immer noch unbekannt ist.
Die exzeptionelle Rang 6 Gruppe E6 hat, was das Dunkle Materie Problem angeht, einen großen
Vorteil gegenüber den berühmten GUT-Gruppen SU.5/ und SO.10/: die fundamentale Darstellung von E6 beinhaltet, zusätzlich zu den Standardmodell-Fermionen, exotische Fermionen. Die
Grundidee meiner Arbeit ist, dass eines der exotischen Fermionen ein realistischer, interessanter
Dunkle Materie Kandidat ist. Außerdem istE6 eine gut motivierte GUT-Gruppe, beispielsweise aufgrund der automatischen Anomalie-Freiheit und der Tatsache, dass alle StandardmodellFermionen in der fundamentalen E6 Darstellung Platz finden.
Die Stabilität der dunklen Materie kann durch eine diskrete Symmetrie sichergestellt werden,
die übrig bleibt, nachdem E6 spontan gebrochen wurde. Um die Masse des Kandidaten abzuschätzen, berechnen wir mit Hilfe der Renormierungsgruppen-Gleichungen (RGEs) die verschiedenen Symmetriebrechnungs-Skalen. Die Yukawa-Kopplungen der exotischen und Standardmodell-Fermionen haben einen gemeinsamen Ursprung und werden durch ein Fit-Verfahren
berechnet. Wir schätzen ab, dass die Masse des leichtesten exotischen Fermions im Bereich
2:1 106 GeV < mD M < 7:3 1011 liegt. Diese Abschätzung führt zu der Vorhersage, dass
der E6 dunkle Materie Kandidat in naher Zukunft durch ein Experiment zum direkten Nachweis
Dunkler Materie entdeckt werden könnte. Außerdem diskutiere ich systematisch, inwieweit die
anderen exotischen Fermionen als Dunkle Materie Kandidaten in Frage kommen.
T. Theorie
77
T-14 (B) Resummierung logarithmischer Beiträge in MSSM
Higgsmassenberechnungen
H ENNING BAHL
Max-Planck-Institut für Physik, München
Mit der Entdeckung des Higgsbosons durch die Experimente ATLAS und CMS am CERN wurde
das Standardmodell der Teilchenphysik vervollständigt. Es liefert überaus erfolgreich präzise
Voraussagen für eine Vielzahl von Prozessen. Trotz dieses Erfolges gibt es einige Probleme,
sowohl experimenteller (z.B. fehlende Erklärung der dunklen Materie) als auch theoretischer
Natur (z.B. Hierarchieproblem). Um diese zu lösen, wurden zahlreiche Konzepte entwickelt.
Eines der prominentesten ist Supersymmetrie (SUSY).
SUSY ist eine Symmetrie, die Bosonen und Fermionen zueinander in Beziehung setzt. Das einfachste Modell, das dieses Konzept verwirklicht, ist die supersymmetrische Erweiterung des
Standardmodells, genannt Minimal Supersymmetric Standard Model (MSSM). Im MSSM wird
jedem Standardmodellteilchen ein Superpartner, dessen Spin sich um 1/2 vom Standardmodellteilchen unterscheidet, zugeordnet. Zudem wird der Higgssektor des Standardmodells erweitert.
Im MSSM besteht der Higgssektor aus zwei komplexen Higgs-Dubletts. Dies führt zu insgesamt
fünf physikalischen Higgsteilchen: zwei CP-geraden ungeladenen Bosonen (h und H ), einem
CP-ungeraden ungeladen Boson (A) und zwei geladenen Bosonen (H ˙ ).
Bis heute wurden noch keine SUSY-Teilchen direkt nachgewiesen. Dennoch lassen sich die Parameter des MSSM durch Präzisionsobservablen indirekt einschränken. Eine wichtige Präzisionobservable ist die Masse des h-Bosons, welches üblicherweise mit dem am CERN entdeckten
Higgsboson identifiziert wird. Es ist ein charakteristisches Merkmal des MSSM, dass die Masse
des h-Bosons in Abhängigkeit der Modellparameter berechnet werden kann. Auf Bornniveau
ergibt sich, dass Mh2 MZ2 cos2 2ˇ (tan ˇ ist das Verhältnis der Vakuumserwartungswerte der
beiden Higgs-Dubletts). Es kann also nicht schwerer als die Masse des Z-Eichbosons sein. Dies
steht im klaren Widerspruch zu der experimentell gefunden Masse von etwa 125 GeV.
Allerdings wird die Higgsmasse durch Schleifenkorrekturen stark erhöht. Die Ein-SchleifenBeiträge können zu Korrekturen von bis zu 100% führen. Für eine präzise Vorhersage von Mh
sind also Korrekturen höherer Ordnung von entscheidender Bedeutung. Inzwischen kennt man
die vollen Ein-Schleifen-Beiträge, die dominanten Zwei-Schleifen-Beiträge und sogar Teile der
Drei-Schleifen-Korrektur. Um eine Präzision, vergleichbar mit dem experimentellen Fehler, zu
erreichen, ist dies aber nicht ausreichend. Das Hauptproblem sind logarithmische Beiträge, die
umso größer werden, umso schwerer die Superpartner der Standardmodellteilchen sind. Sie verschlechtern die Konvergenz der Störungsrechnung, führen also dazu, dass auch Beiträge jenseits
des Zwei-Schleifen-Niveaus nicht vernachlässigbar sind. Mit diagrammatischen Methoden sind
solche Rechnungen heutzutage kaum machbar.
Das Konzept der effektiven Feldtheorie hingegen erlaubt es auf relativ einfache Weise genau
solche logarithmischen Beiträge bis zu beliebiger Ordnung zu resummieren. Die Kernidee ist
es, die Effekte der schweren SUSY-Teilchen von denen der Standardmodellteilchen zu separieren, indem alle SUSY-Teilchen an einer gemeinsamen Skala, der SUSY-Skala, aus der Theorie
entfernt werden. Die verbleibende Theorie unterhalb dieser Skala ist somit das Standardmodell, welches an der SUSY-Skala an das volle MSSM angepasst wird. Dies bedeutet, dass die
Higgs-Selbstkopplung, welche im Standardmodell ein freier Parameter ist, an der SUSY-Skala
durch die Anpassung an das MSSM berechnet werden kann. Renormierungsgruppengleichungen
78
47. Herbstschule für Hochenergiephysik Maria Laach 2015
ermöglichen, daraus die Higgs-Selbstkopplung zur elektroschwachen Skala zu erhalten. Dort
lässt sich dann aus ihr die Higgsmasse berechnen, ohne dass große logarithmische Beiträge
auftauchen. Diese werden durch das Laufen der Kopplung zwischen der SUSY-Skala und der
elektroschwachen Skala erzeugt und in die Kopplung absorbiert. Eine numerische Lösung der
Renormierungsgruppengleichungen korrespondiert zu einer Resummierung der Logarithmen bis
zu allen Ordnungen.
In effektiven Feldtheorien dieser Art werden aber üblicherweise Terme, die durch die SUSYSkala unterdrückt sind, vernachlässigt. Auch die Effekte von stark verschiedenen Massen der
Superpartner, wenn also keine einheitlich SUSY-Skala vorliegt, sind nur schwer zu fassen. In
einer diagrammatischen Rechnung ist es hingegen ohne Weiteres möglich unterdrückte Terme
und nicht einheitlichen Spektren zu berücksichtigen. Deswegen bietet es sich an beide Herangehensweisen zu kombinieren, um ein möglichst präzises Ergebnis zu erhalten. Im Computerprogramm FeynHiggs ist diese Idee verwirklicht. Es verbindet eine diagrammatische Ein- und
Zwei-Schleifen Rechnung mit der Resummierung logarithmischer Beiträge.
T. Theorie
79
T-15 (C) Der renormalon Effekt auf der Masse des Top-Quarks
M ARTHIJN S UNDER
Institut für Theoretische Physik Universität Münster
Das Top-Quark ist genug Massiv für die Anwendung der Störungstheorie, eine Expansion in
den Orden der Kopplungskonstante. Auf dieser Weise können experimentell beobachtbaren Wirkungsquerschnitte berechnet worden in puncto die Parameter der Theorie, z.B. die Masse des
Top-Quarks, die Kopplungskonstante, die Energie des Massenmittelpunkts und die Zerfallsbreite.
Experimentell beobachtbaren Wirkungsquerschnitte können berechnet worden in verschiedenen
Massenschemen, von denen jeder ist auf eine theoretisch definierten Parameter zu beziehen.
Um einigen Massenparameter zu benennen, es gibt: die Polmasse mpole , die modifizierte minimal subtrahierte Masse mM S , die potential-subtrahierte Masse mPS , die modifizierte potentialsubtrahierte Masse und die 1S Masse m1S . Diese theoretische Massenparameter sind nicht
alle mit der gleichen Genauigkeit ableitbar von Experimenten. Wir untersuchen, wie die sogenannten Infrarotrenormalonen die Genauigkeit beeinflussen, womit mpole , mPS und schließlich mM S gemessen worden können.
Renormalonen werden durch einen nŠ-wachsenden Expansionsreihe charakterisiert, die typisch
vorkommt in renormalisierbaren Feldtheorien wie QED und QCD. Renormalon Verhalten wurde
ursprünglich in der all-order Summierung von QED-diagramme gefunden mit einer beliebigen
Anzahl von Elektronenblasen, wenn man der Größe der höherer-ordnung Korrekturen schätzt.
In QCD ist es nicht mehr möglich, eine explizite Menge von Diagramme zu assoziieren an Renormalonen, aber mittels ’naive nonabelianisation’ ist es noch möglich Renormalon Verhalten
zu finden. Der gefunden nŠ-Wuchs werde schließlich dominieren und die all-order perturbative
Expansion außer Kraft setzen und kennzeichnen als nicht-konvergente asymptotische Menge.
Die bevorzugte Methode um mit nŠ-Wuchs und also Renormalonen umzugehen ist Borel Wiedersummierung. Eine Borel Wiedersummierung reguliert die perturbative Divergenz mittels einer
Transformation zum Borel Raum. Renormalonen erscheinen als Pole in der Borel Transformation, welchen wieder Divergenzen produzieren wann die inverse Fourier Transformation genommen wird.
Wir werden Renormalonen diskutieren, weil sie eine erhebliche theoretische Unklarheit im TopQuark Self-Energie induzieren und darum auch im Top-Quark Polmasse mpole . Jedoch, diese
Renormalon Unklarheit fallt weg in experimentellen Beobachtbaren und deshalb lohnt es sich
um eine Parametrisation zu betrachten mit einer Massenparameter, die nicht von der Renormalon
Unklarheit beeinflusst werden, wie die potential-subtrahierte Masse mPS .
Die Anwendung der potential-subtrahierten Masse mPS ist zu finden in künftige Schwellenscans.
Die theoretische Voraussage für die Wirkungsquerschnitte von Top Anti-Top events in puncto
mpole oder mPS 6 wird gezeigt in Abb: T.1 für aufeinander folgende Orden. Die Voraussage mit
mPS ist stabiler als das analoge Ergebnis mit mpole , aber die Korrekturen sind nog immer groß
für N 2 LO. Vor kurzem ist auch die QCD Voraussage für die N 3 LO Top Anti-Top Wirkungsquerschnitte mit mPS verfügbar gekommen, wie gezeigt in Abb: T.2, welche eine Konvergenz
des Ergebnis zeigt.
6
Die modifizierte potential-subtrahierte Masse mPS enthalt auch einige zusätzliche Korrekturen aber ist fast gleich
an der potential-subtrahierten Masse mM S .
80
47. Herbstschule für Hochenergiephysik Maria Laach 2015
Abbildung T.1.: Diese Grafiken
von Ref. [1] zeigen als Funktion der Energie des Massenmitp
telpunkts s die LO (punkt-gestreifte), NLO (gestreifte) und N 2 LO (durchgezogen) Schwellenverhalten
von e C e ! t t in puncto mpole (links) und mPS
(rechts) für mM S mM S D 160 GeV, 165 GeV and 170 GeV.
Abbildung T.2.: Diese Grafik von Ref. [2] zeigt aufeinander folgende Orden der Voraussage für die Wirkungsquerschnitte von t t-events nah Schwellewert für Elektronp
Positron Streuung als
Funktion der Energie des Massenmittelpunkts s mit
mPS f D 20 GeV D 171:5 GeV, CM D 1:33 GeV und ˛s .mZ / D
0:1185 ˙ 0:0006 als Eingabe.
[1] Yakovlev, O.I. et al. - On t tN threshold and top quark mass definition - 2000
[2] Beneke, M. et al. - Next-to-Next-to-Next-to-Leading Order QCD Prediction for the Top Antitop S -Wave Pair Production Cross Section Near Threshold in e C e Annihilation - Phys.
Rev. Lett. - 2015
T. Theorie
81
T-16 (A) Berechnung von soften Funktionen in SCET
T OBIAS M OHRMANN
Universität Siegen
Die theoretische Vorhersage von event shape Variablen an beispielsweise e C e - Beschleunigern
und der Vergleich mit Messwerten erlaubt die Bestimmung von Parametern des Standardmodells,
z.B. die Kopplung ˛s . Doch dabei treten in der perturbativen Entwicklung große Logarithmen
auf, sog. Sudakov-Logarithmen, wenn die Kollisionsprodukte in zwei Jets emittiert werden. Die
Sudakov-Logarithmen werden verursacht durch virtuelle und real emittierte Gluonen und können
bei Präzisionsrechnungen nicht vernachlässigt werden. Die Nutzung effektiver Theorien bietet
die Möglichkeit, solche Prozesse aufzuspalten, einzeln zu berechnen und anschließend zu resummieren. Dafür werden in der Soft-Collinear Effective Theory (SCET) zunächst die Impulse in
Lichtkegelkoordianten in vier Bereiche unterteilt (Einheitsvektor nE in Jetrichtung, n D .1; nE /,
nN D .1; nE /, 1 ):
hard: pH
D .np;
N np; pE? / / .1; 1; 1/ Q
collinear (in Richtung des ersten Jets): pc / .1; 2 ; / Q
anti-collinear (in Richtung des zweiten Jets): pcN / .2 ; 1; / Q
soft: ps / .2 ; 2 ; 2 / Q
SCET-Berechnungen ermöglichen die Entkoppelung dieser Bereiche, z.B. abhängig vom Thrust
:
Z
1 d
2
D H.Q / dr12 dr22 d k Jc .r12 /JcN .r22 /S.k/ı.Q r12 r22 Qk/
(T.4)
d
Die einzelnen Faktoren dieser Zerlegung lassen sich einfacher berechnen. Für jede Funktion der
Faktorisierung kann eine eigene Renormierungsgruppengleichung aufgestellt und gelöst werden. Die Berechnung der soften Dijet-Funktion S.k/ wird meistens für jede Observable einzeln
analytisch durchgeführt. Unsere Arbeitsgruppe verfolgt das Ziel, diese Berechnungen zu automatisieren und hat bereits präzise numerische Ergebnisse hervorgebracht.
82
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-17 (B) NLO-QCD-Korrekturen zur Higgspaarproduktion
am LHC
A NTON S TOYANOV
Institut für Theoretische Physik, Universität Tübingen
Die Entdeckung einer Resonanz am LHC bei ca. 125 GeV im Jahr 2012 deutet auf das postulierte Higgs-Boson des Standardmodells hin. Eines der zukünftigen Ziele des LHC besteht in
der Bestimmung der trilinearen sowie quadrilinearen Higgs- Selbstwechselwirkungen, um den
Higgsmechanismus zu ergründen und möglicherweise Abweichungen vom Standardmodell zu
finden. Die Schwerpunktsenergien von derzeit 13 TeV für Proton-Proton-Kollisionen am LHC
erlauben allerdings bestenfalls die Bestimmung von Schranken für Prozesse, die auf die trilineare Higgs-Kopplung sensitiv sind. Die trilineare Higgs-Kopplung tritt in Prozessen auf, in denen
ein Higgs-Boson in zwei Higgs-Bosonen zerfällt. Higgspaarproduktion ist sensitiv auf Physik
jenseits des Standardmodells mit zusätzlichen, schwereren Teilchen, die in zwei leichtere HiggsBosonen zerfallen können.
Der dominante Higgspaarproduktionsprozess an Hadronenbeschleunigern erfolgt über GluonFusion, gg ! HH . Des weiteren gibt es Higgspaarproduktion durch Vektorbosonfusion, qq !
HH qq, sowie Higgsstrahlung, qq ! VHH (V D Z; W ). Schließlich ist die Produktion mit
zusätzlich einem t tN-Paar, gg ! HH t tN, möglich.
In meinem Vortrag werde ich den Prozess gg ! HH , welcher den größten Wirkungsquerschnitt unter den oben genannten besitzt, näher betrachten. Seine Dominanz ist eine Folge der
über weite Energiebereiche hohen Emissionswahrscheinlichkeit des Protons für Gluonen. Da das
Higgs-Boson an massive Teilchen mit einer Stärke proportional zu deren Masse koppelt, erfolgt
der Prozess bevorzugt über eine (Top-)Quark-Schleife. Er ist also im Gegensatz zu den anderen Produktionsmechanismen bereits in führender Ordnung (LO: leading order) loopinduziert,
was die Berechnung stark erschwert. Ein wichtiger Ansatz sind deshalb effektive Feldtheorien (EFT), in denen die Top-Masse als unendlich schwer betrachtet und ausintegriert wird, was
zu effektiven ggH - und ggHH -Vertices führt. Mithilfe von EFT wurde auch die nächst-höhere Ordnung (NLO: next-to-leading order) von QCD-Korrekturen in der Störungsreihe berechnet.
Daraus ist ersichtlich, dass NLO-QCD-Korrekturen einen Anstieg des Wirkungsquerschnitts von
ca. 50% bewirken. Die Berücksichtigung der NLO-QCD-Korrekturen ist somit unumgänglich für
die präzise Bestimmung der trilinearen Higgs-Kopplung. Allerdings zeigen verschiedene Varianten der Näherung Unterschiede von etwa ˙10% bezüglich des Wirkungsquerschnitts auf NLOQCD-Niveau, was die Wichtigkeit von NLO-Korrekturen mit voller Top-Massenabhängigkeit
unterstreicht.
Für die NLO-QCD-Korrekturen mit voller Top-Massenabhängigkeit müssen Zwei-SchleifenIntegrale mit vier äußeren Beinen sowie verschiedenen internen und externen Massenskalen berechnet werden, was mit derzeit verfügbaren analytischen Rechenmethoden nicht möglich ist.
Deshalb sind numerische Integrationstechniken notwendig, welche aber nicht direkt anwendbar
sind. Die auftretenden Zwei-Schleifen-Feynman-Diagramme weisen Divergenzen auf, welche
vor der numerischen Integration mithilfe analytischer Methoden zu extrahieren sind. Zusätzlich
dazu treten (integrierbare) Schwellensingularitäten innerhalb des Loop-Integrationsbereichs auf,
die der Produktion von reellen Teilchen entsprechen. Oberhalb der Schwelle von 4m2top ist der
T. Theorie
83
Wirkungsquerschnitt signifikant erhöht, da in diesem Bereich zwei Top-Quarks auf der Massenschale produziert werden können.
Die volle NLO-Rechnung zeigt deutliche Unterschiede zur EFT. Das wird besonders deutlich
bei Betrachtung der invarianten Higgspaarmassenverteilung d=d mHH . Ab einer invarianten
Masse von mHH & 550 GeV beider Higgs-Bosonen kann die EFT-Näherung die volle NLORechnung nicht reproduzieren. Top-Quark Masseneffekte verringern den differentiellen Wirkungsquerschnitt d=d mHH um teilweise 20-30% im Vergleich zur EFT.
84
47. Herbstschule für Hochenergiephysik Maria Laach 2015
T-18 (C) Muon Zerfall
YANNICK U LRICH
Paul Scherrer Institut
Während die Suche nach Neuer Physik am LHC bisher erfolglos blieb, bieten Präzisionsmessungen des niederenergetischen Regimes eine Möglichkeit Neue Physik zu entdecken. Durch virtuelle Quantenkorrekturen wird eine Observable sensitiv auf sämtliche Neue Physik, die an Teilchen des Standardmodells koppelt. Die entsprechenden Diagramme und Verzweigungsverhältnisse sind jedoch O.m=NP / unterdrückt.
Ein prominentes Beispiel für derartige Messungen ist der Muonzerfall. Neben dem konventionellen Muonzerfall ! e
N gibt es den radiativen ( ! e
N C ) und den seltenen
( ! e
N C e C e ) Zerfall. Während im Standardmodell aufgrund der Erhaltung von Lepton Flavour fast ausschließlich immer das Neutrinopaar erzeugt, wird haben diverse Modelle
Neuer Physik einen gewissen Grad an Verletzung des Lepton Flavour (LFV), sodass eine direkte
Umwandlung ! e C bzw. ! e C e C e möglich wird. Experimente wie MEG oder
das sich im Bau befindende Mu3e am PSI suchen nach diesen LFV-Prozessen mit polarisierten
Muonstrahlen hoher Intensität. Dafür sind präzise Vorhersagen des Standardmodells essentiell.
Für den konventionellen Muonzerfall ! e
N sind seit über 10 Jahren NNLO Vorhersagen des
Elektronspektrums d =dEe verfügbar. Seit etwas mehr als einem Jahr gibt es polarisierte NLO
Analysen für den radiativen Zerfall auf Monte-Carlo-Basis. Bisher gibt es keine Vorhersagen für
den seltenen Zerfall jenseits der führenden Ordnung.
Neben diesen recht praktischen Überlegungen gibt es auch theoretisches Interesse den Muonzerfall zu höheren Ordnungen zu berechnen: So erlaubt die Einfachheit der “sauberen” QED
Detailanalysen von Regularisierungsverfahren, die in QCD schwieriger sind. Beispiele sind die
Behandlung des 5 oder die Abhängigkeit des Schema (HV, FDH, CDR, etc.).
In meinem Vortrag werde ich aktuelle Entwicklungen der theoretischen Seite zusammenfassen
und die Arbeiten, die meine Kollegen und ich bzgl. des seltenes Zerfalls leisten, näher erläutern.
T. Theorie
85
T-19 (A) Der Einfluss von schweren Quarks auf Heavy Jet
Mass-Verteilungen im Prozess e Ce ! Hadronen
C HRISTOPHER L EPENIK
Fakultät für Physik, Universität Wien
Die experimentellen Daten von Beschleuniger-Experimenten werden immer genauer. Um diese angemessen analysieren zu können und potentielle Abweichung vom Standardmodell der
Teilchenphysik zu entdecken, werden entsprechend präzise theoretische Vorhersagen benötigt.
In diesem Kontext ist die Theorie der starken Wechselwirkung, die Quantenchromodynamik
(QCD), besonders interessant.
Wenn in Hochenergieprozessen stark wechselwirkende Teilchen erzeugt werden, findet man
die Endzustandsteilchen oft in Jets, also Objekten aus stark geboosteten kollinearen Teilchen.
Folglich sind sogenannte Event Shapes, welche die geometrischen Eigenschaften des EnergieImpuls-Stromes des Endzustands parametrisieren, oft betrachtete Observablen. Die Untersuchung der Geometrie von Endzuständen mit Jets kann nicht nur wichtige Hinweise auf die grundlegenden Eigenschaften der QCD geben, sondern erlaubt wegen der hohen Sensibilität auf die
starke Kopplungskonstante ˛s auch sehr präzise Bestimmungen dieser fundamentalen Größe.
Ein bei der theoretischen Beschreibung vergleichsmäßig einfacher Prozess ist e C e ! Hadronen,
da hier keine stark wechselwirkenden Teilchen im Anfangszustand involviert sind. Ein in diesem
Bereich oft untersuchter Event Shape ist die Heavy Jet Mass.
In der Störungsreihe, welche die Heavy Jet Mass-Verteilung beschreibt, treten nahe der 2-Jet
Region, also bei Endzuständen die aus zwei sehr schmalen Jets bestehen, Logarithmen der Observable auf. Diese sind in dieser Region sehr groß und führen dazu, dass die störungstheoretische Entwicklung in ˛s keine guten Ergebnisse mehr liefert. Der Ursprung dieses Problems liegt
in der ausgeprägten Hierarchie der charakteristischen Energieskalen des Prozesses in der 2-Jet
Region.
Um dieses Problem zu lösen, müssen die Logarithmen in allen Ordnungen der Störungstheorie
resummiert werden. Ein äußerst praktischer Rahmen dies zu erreichen ist die effektive Feldtheorie Soft-Collinear Effective Theory (SCET). Diese ist konstruiert um die 2-Jet Region gut zu
beschreiben und macht die Relevanz der verschiedenen auftretenden Energieskalen schon auf
Ebene der Lagrangedichte deutlich. Es kann gezeigt werden, dass der von SCET beschriebene Teil des differenziellen Wirkungsquerschnitts faktorisiert werden kann, wobei jeder Faktor
die Dynamik an einer der auftretenden Skalen beschreibt. Es ist dann möglich für jede dieser
Funktionen eine Renormierungsgruppengleichung abzuleiten, mit deren Hilfe die entsprechenden Logarithmen resummiert werden können.
In der Vergangenheit wurden einige präzise ˛s -Bestimmungen mit Hilfe von Event Shape-Verteilungen bei e C e -Kollisionen durchgeführt, wobei die entstehenden Quarks als masselos angenommen wurden. Für Schwerpunktsenergien weit größer als die Masse der produzierten Quarks
ist dies eine gute Approximation, dennoch spielt in einigen phänomenologischen Studien die
volle Massenabhängigkeit eine wichtige Rolle und sollte auch im Hinblick auf immer genauere Vorhersagen und in Bezug auf Analysen bei niedrigeren Energien ausführlicher betrachtet
werden.
Aufgrund dieses Sachverhalts wurde in meiner Masterarbeit die Abhängigkeit der Heavy Jet
Mass-Verteilung von den Massen der primär erzeugten Quarks im Prozess e C e ! Hadronen
auf 1-Schleifen-Niveau abgeleitet. Es wurden analytische Ausdrücke für die Heavy Jet Mass-
86
47. Herbstschule für Hochenergiephysik Maria Laach 2015
Verteilung in QCD als auch für die Bestandteile der faktorisierten Verteilung in SCET erarbeitet. Für die Analyse der Ergebnisse wurden auch nicht-perturbative Effekte berücksichtigt und
Renormalon-Subtraktionen durchgeführt.
In meinem Vortag werde ich die Ursachen der großen Logarithmen und die verwendeten Methoden zu deren Resummierung beschreiben. Ich werde die Ergebnisse meiner Arbeit vorstellen
und interessante Fragestellungen motivieren, welche mit dieser in Zusammenhang stehen.
T. Theorie
87
T-20 (B) Bremsstrahlung selbst-wechselwirkender Dunkler
Materie
L UKAS S EMMELROCK
Institut für Hochenergiephysik, ÖAW
Lambda Cold Dark Matter (CDM) ist heutzutage das Standard Modell der Kosmologie um
die Entwicklung des Universums und Strukturbildung zu beschreiben. In diesem Modell wird
angenommen, dass das Universum nicht-relativistische Dunkle Materie und eine kosmologische
Konstante, die mit Dunkler Energie assoziiert wird, beinhaltet. Aus Messungen der kosmischen
Hintergrundstrahlung ist bekannt, dass die Energiedichte des Universums zu ca. 69% aus Dunkler Energie, zu 26% aus Dunkler Materie und nur zu 5% aus normaler Materie besteht [1]. Das
legt nahe, dass die Eigenschaften von Dunkler Materie einen großen Einfluss auf Strukturbildung
im Universum haben können.
Simulationen von Strukturbildung (wie [2] oder [3]) zeigen, dass sich die Materieverteilung im
Universum durch rein gravitativ wechselwirkende Dunkle Materie auf großen Skalen sehr gut
reproduzieren lässt. Auf kleinen Skalen kommt es jedoch zu Abweichungen zwischen Simulation und Beobachtung. So sagen Simulationen z.B. im Zentrum von Galaxien ein Dichteprofil
r 1 voraus, während in Realität ein flaches Dichteprofil const. beobachtet wird ( cusp
”
vs. core“-Problem [4]). Diese und weitere Diskrepanzen zwischen Simulation und Beobachtung
werden als Kleinstrukturprobleme im Universum bezeichnet. Zur Lösung dieser werden häufig
Selbst-Wechselwirkungen von Dunkler Materie verwendet [5], da eine Selbst-Wechselwirkung
mit geeignetem elastischen Wirkungsquerschnitt von el =m & 0:1 cm2 /g zu einem Wärmetransport von den äußeren Regionen der Galaxie ins Innere führen kann, um dort die Dichte so zu
verändern, dass sie den Beobachtungen gleichkommt. Wenn das Austauschteilchen der SelbstWechselwirkung leicht ist, kann dieses in Kollisionen abgestrahlt werden, was zu Wärmeverlust
führt, der dem Wärmetransport ins Zentrum entgegenwirkt.
In meinem Vortrag werde ich die Auswirkungen von Bremsstrahlung in Kollisionen von selbstwechselwirkender Dunkler Materie auf die Strukturbildung im Universum analysieren. Zu diesem Zweck werden vier Dunkle Materie Modelle störungstheoretisch im nicht-relativistischen
und nicht-entarteten Regime betrachtet (siehe Abb. T.3), wobei die nicht-relativistische Dunkle
Materie aus Fermionen oder aus Sakalarbosonen besteht, während das Austauschteilchen
entweder ein reelles Skalarboson ' oder Vektorboson V sein kann. Für alle Modelle wird die
Energieverlustrate P .T / berechnet, d.h. die Energie die in einem Gas mit Maxwell-Boltzmann
Verteilung bei einer Temperatur T pro Zeiteinheit verloren geht. Für verschwindende Masse des
Austauschteilchens werden analytische Lösungen angegeben, während für endliche Massen auf
numerische Lösungsverfahren zurückgegriffen wird. Es stellt sich heraus, dass Systeme mit verschwindendem Dipolmoment eine Temperaturabhängigkeit der Energieverlustrate von P / T 3=2
'
'
Vµ
Vµ
'
'
Vµ
Vµ
Abbildung T.3.: Beispielhafte Feynman Diagramme für die vier untersuchten Modelle von
selbst-wechselwirkender Dunkler Materie.
88
47. Herbstschule für Hochenergiephysik Maria Laach 2015
aufweisen, während sich Systeme mit nicht-verschwindendem Dipolmoment wie P / T 1=2 verhalten.
Um die Wirkung der Strahlungskühlung eines Dunkle-Materie-Gases auf die Strukturbildung
zu analysieren, wird die Abkühlzeit tcool D 3n T =P mit der Zeitskala elastischer Streuun1
1
gen
p tel D .n T vvir / , der Hubble-Zeit t0 D H0 und der gravitativen Zeitskala tgrav D
.3/=.8m n G/ verglichen. Es zeigt sich, dass für eine Referenzdichte von Dunkler Materie D 1 GeV/cm3 , was ungefähr der durchschnittlichen Dunkle-Materie-Dichte in unserer
Lokalen Gruppe von Galaxien entspricht, die Forderung tcool < t0 für bestimmte Parameterbereiche erfüllt werden kann und Strahlungskühlung in diesen Fällen daher einen Einfluss auf die
Strukturbildung im Universum hat. Astronomische Beobachtungen beschränken auf Größenskalen von Galaxienhaufen mit typischer Geschwindigkeit der Dunklen Materie von v 10 2
den elastischen Streuquerschnitt auf T =m . 1 cm2 =g. Unter Berücksichtigung dieser Beschränkung kann tcool < t0 erfüllt werden, wenn
)
˛ & 106 GeV/cm3 ;
verschwindendes Dipolmoment
10 GeV . m =˛ 2=3 . 100 GeV;
˛ & 102 GeV/cm3 ;
10 GeV . m =˛ 2=3 . 10 TeV;
)
nicht-verschwindendes Dipolmoment
wobei ˛ die Kopplungskonstante, die Dunkle-Materie-Dichte und m die Dunkle-MaterieMasse ist.
[1] PLANCK Collaboration arXiv.org, Feb. 2015.
[2] V. Springel et al. Nature, vol. 435, pp. 629–636, Apr. 2005.
[3] A. A. Klypin, S. Trujillo-Gomez, and J. Primack Astrophys. J., vol. 740, p. 102, Oct. 2011.
[4] W. J. G. de Blok Adv. Astron., vol. 2010, no. 1-2, pp. 1–14, 2010.
[5] D. N. Spergel and P. J. Steinhardt Phys. Rev. Lett., vol. 84, pp. 3760–3763, Apr. 2000.
T. Theorie
89
T-21 (C) Natürliche SUSY-Modelle und rechte Sneutrinos als
LSP
T HOMAS FABER
Julius-Maximilians-Universität Würzburg
Das bisher etablierte Standardmodell der Teilchenphysik (SM) wurde mit hoher Genauigkeit
experimentell bestätigt. Es birgt aber einige theoretische Aspekte, die von Physikern als äußerst
unbefriedigend wahrgenommen werden. Dazu zählen:
Das Hierarchieproblem
Fehlender Kandidat für dunkle Materie
Keine Vereinheitlichung der Eichkopplungen and der GUT-Skala
Gravitation nicht berücksichtigt
Einige dieser Aspekte werden durch die Einführung einer fermionischen Symmetrie gelöst, der
sog. Supersymmetrie.
Ein Beispiel: Die durch Schleifenkorrekturen induzierten großen Beiträge zur Higgsmasse werden nun durch weitere Beiträge wieder aufgehoben.
Ein weiteres Beispiel: Im MSSM, dem minimalen supersymmetrischen Standardmodell, ist das
leichteste supersymmetrische Teilchen, bei erhaltener R-Parität, ein natürlicher Kandidat für
Dunkle Materie. Diese Rolle fällt meistens dem leichtesten Neutralino zu. Neutralinos sind eine
Linearkombination aus den SUSY-Partnern der neutralen Eichbosonen B und W3 , sowie dem
Partnern der beiden Higgs-Teilchen, den Higgsinos.
Natürliche SUSY oder im Englischen als natural SUSY bezeichnet, steht für eine Klasse supersymmetrischer Modelle, die einen möglichst geringen Grad an Anpassung bestimmter Parameter aufweisen (sog. Fine-Tuning). Stops sind für den größten Teil der Strahlungskorrekturen
des Higgspotentials, v. a. des Higgsmassenparameters m2 verantwortlich. Um ein gewisses FineTuning zu vermeiden, sollten diese Beiträge von der selben Größenordnung sein, wie m2 selbst.
Damit ergeben sich Einschränkungen für die Stopmassen. Mit ähnlichen Argumentationen lässt
sich auch für die Gluinomasse eine obere Schranke angeben, aufgrund ihres Beitrags zu Korrekturen der Stopmassen. Higgsinos hingegen sollten leicht sein, da der -Parameter in m2 eingeht.
Wir haben rechte Neutrinosuperfelder zur MSSM-Lagrangedichte hinzugefügt, um einen weiteren geeigneten Kandidaten für Dunkle Materie zu haben. Somit ergeben sich weitere Einschränkungen an den zu untersuchenden Parameterraum durch Neutrinodaten. Die Neutrinomassen werden mit einen inversen Seesaw-Mechanismus erzeugt. Dies bietet die Möglichkeit,
dass die Massen der rechtshändigen Neutrinos in einem Energiebereich liegen, der vom LHC
erreichbar ist.
In unserem Projekt haben wir zwei Szenarien bearbeitet (Higgsino-LSP und Sneutrino-LSP) und
damit Beschleunigerstudien mit M ADGRAPH und W HIZARD durchgeführt.
In meinem Vortrag werde ich das allgemeine Vorgehen darstellen, sowie die Funktionen der
benutzen Softwares erläutern, als auch die schon erzielten Ergebnisse vorstellen.
Bildnachweis: Titel, S. 5 und S. 3: Maria Laach, Basis und Ostseite aus G. Dehio und G. Bezold,
“Die Kirchliche Baukunst des Abendlandes.” Verlag der J. G. Cotta’schen Buchhandlung, 1892,
mit freundlicher Genehmigung des Magnus Verlag, Essen.
Druck: UniPrint der Universität Siegen Hölderlinstraße 3 57068 Siegen, 2016
Herunterladen