48. Herbstschule für Hochenergiephysik Maria Laach 6.–16. September 2016 Zusammenfassungen der Kurzberichte der Teilnehmerinnen und Teilnehmer Die Abtei Maria Laach Die Abtei wurde als Abbatia ad Lacum – später auch Abbatia Lacensis – zwischen 1093 und 1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich II. von Laach und seiner Frau Adelheid von Weimar-Orlamünde, für sein und seiner Gemahlin Seelenheil und dazu als Grablege, zurück. Das Wort Laach ist eine verschliffene Form des althochdeutschen Wortes lacha – von lat. lacus, -us m – und ist als Name für den See, den Ort und das Kloster erhalten geblieben. Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten frühesten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen 819 und 829 im Kloster Reichenau. Die sechstürmige Abteikirche gehört zu den schönsten Denkmälern der romanischen Baukunst aus der Zeit der Salier in Deutschland. Dies liegt vor allem daran, dass die Klosterkirche von späteren Umbauten fast völlig verschont geblieben ist. In der Zeit der Gotik und des Barock kam es jedoch zu einigen Veränderungen, die allerdings während Renovierungsarbeiten im 20. Jahrhundert rückgängig gemacht wurden, so dass in beindruckender Weise die Form einer mittelalterlichen Klosteranlage bis heute bewundert werden kann: Der prachtvolle Westeingang mit seinem nördlich der Alpen einzigartigen Paradies (Narthex) findet sich stilisiert im Logo der Herbstschule wieder. Der Abteikirche, auch als Laacher Münster bezeichnet, einer doppelchörigen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica minor” durch Papst Pius XI. verliehen. Die Abtei blieb von der Säkularisierung in der Zeit der Napoleonischen Herrschaft nicht verschont. Im Jahre 1801 wurden ihre Güter enteignet und 1802 die Abtei durch das Säkularisationsedikt Napoleons durch die französische Verwaltung aufgehoben. Nach dem Wiener Kongress ging die Abtei 1815 in preußischen Staatsbesitz über. 1892 konnten einige Benediktinermönche unter Prior Willibrord Benzler die Abtei zunächst als Priorei wieder besiedeln, schließlich, 1893, 737 Jahre nach ihrer Gründung, wurde die Abtei zum zweiten Male konsekriert und erhielt den Namen Maria Laach“. 1093” Gründung durch Pfalzgraf Heinrich II. von Laach. 1095 1112 1138 1802 1820 1855 1863 1892 1924 2006 Tod des Pfalzgrafen, seine Frau Adelheid führt die Bauarbeiten fort. Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballenstadt, er schenkt das Kloster an die Abtei Affligem im Landgrafschaft Brabant. Laach wird selbständige Abtei. Aufhebung der Abtei in Folge der Säkularisation. Erwerb des Klosters als Rittergut durch Daniel Heinrich Delius für 24.900 “Thaler in preußischen Courant”. Zerstörung der Prälatur durch einen schweren Brand. Erwerb der Abteigebäude durch die deutsche Jesuitenprovinz und errichtet “Collegium Maximum”. Wiederbesiedelung durch Benediktiniermönche aus der Erzabtei Beuron. Übereignung der Klosterkirche an die Abtei durch den preußischen Staat. Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850. Weihetag. Laach Klosterkirche, Ostseite 48. Herbstschule für Hochenergiephysik Maria Laach 6.–16. September 2016 Die Herbstschule für Hochenergiephysik wird vom Bundesministerium für Bildung und Forschung (BMBF) finanziell unterstützt. Organisatoren Prof. Dr. S. Bethke MPI für Physik, München Prof. Dr. S. Dittmaier Universität Freiburg Prof. Dr. Th. Mannel Universität Siegen Kontaktperson für 2016 Prof. Dr. Th. Mannel Universität Siegen http://maria-laach.tp.nt.uni-siegen.de/ Inhaltsverzeichnis Programm . . . . . . . . . . . . . . . . . . . . . . . . 6 Zeitplan . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Teilnehmerinnen und Teilnehmer . . . . 9 Kurzdarstellungen . . . . . . . . . . . . . . . . 15 Laach Klosterkirche, Basis 5 Programm Vorlesungen QCD and the Standard Model R. Keith Ellis IPPP, Durham Experimentelle Resultate des LHC Alexander Schmidt Monte-Carlo-Simulationen für den LHC Frank Krauss Physik jenseits des Standardmodells Pedro Schwaller Suche nach Dunkler Materie Jochen Schieck HEPHY, Wien Neutrinophysik Susanne Mertens KIT, Karlsruhe Flavourphysik bei LHCb und Belle-II Jochen Dingfelder Universität Hamburg IPPP, Durham DESY, Hamburg Universität Bonn Abendvorträge Komplexität und Information - Karlheinz Meier Universität Heidelberg Ist unser Gehirn ein Computer? Neutrinos im Eis - Die Jagd auf Christian Spiering DESY, Hamburg kosmische Geisterteilchen am Südpol Geologie der Vulkaneifel Gottes Sprache in Naturwissenschaft und Glaube 6 Siegfried Bethke Bruder Simeon MPI für Physik, München Kloster Maria Laach Übungen Feynman-Diagramme für Anfänger Thorsten Ohl Strahlungskorrekturen und Renormierung Lars Hofer Univ. Würzburg Univ. Barcelona Koordinatoren der Gruppenberichte Gruppe Experiment A Susanne Kühn B C Theorie Univ. Freiburg Alexander Huss ETH Zürich Ilse Krätschmer HEPHY Wien Frank Siegert Univ. Dresden Tatjana Lenz Keri Vos Univ. Siegen Univ. Bonn 7 Zeitplan Dienstag Mittwoch Donnerstag Freitag Samstag 06.09. 07.09. 08.09. 09.09. 10.09. 08:30–09:25 Ellis Schmidt Schieck Ellis 09:40–10:35 Schieck Ellis Schmidt Schmidt 10:50–11:45 Schmidt Schieck Ellis Kirchenbesuch Übungen Gruppen 11:55 14:30–16:00 Mittagessen Anreise Übungen 16:05–16:25 Kaffeepause 16:30–18:00 Übungen 18:25 19:30 Übungen Gruppen Gruppen Abendessen Begrüßung 20:00 Meier Bethke Montag Dienstag Mittwoch Donnerstag Freitag 12.09. 13.09. 14.09. 15.09. 16.09. 08:30–09:25 Dingfelder Krauss Schwaller Mertens 09:40–10:35 Schwaller Dingfelder Krauss Schwaller Mertens 10:50–11:45 Krauss Schwaller Mertens Dingfelder Diskussion Übungen Abreise 11:55 14:30–16:00 Mittagessen Übungen Übungen 16:05–16:25 16:30–18:00 Kaffeepause Gruppen 18:25 20:00 8 Gruppen Gruppen Abendessen Simeon Spiering Teilnehmerinnen und Teilnehmer Detektor- und Beschleunigertechnologie Stadt Nr. (Gr.) Name Titel des Vortrags Institut Seite I. Physikalisches Institut B, RWTH Aachen University Martin Lipinski Charakterisierung von Pixelmodulen für das CMS Phase 1 Pixel Upgrade 15 Physikalisches Institut der Universität Bonn Bonn Botho Paschen D-2 (B) Der DEPFET Pixeldetektor für das Belle II Experiment - Charakterisierung 17 von Teststrukturen Physikalisches Institut Universität Bonn Bonn Tobias Schiffer D-3 (C) Entwicklung eines Auslesemoduls für die Zeitprojektionskammer des ILD 19 II. Physikalisches Institut, Universität Göttingen Göttingen Tobias Bisanz D-4 (A) Teststrahlmessungen für den ATLAS Pixeldetektor für das HL-LHC Upgrade 20 Physikalisches Institut Heidelberg Heidelberg Lennart Huth D-5 (B) Entwicklung eines Spurdetektors für die Suche nach dem Zerfall C ! 21 e C e e C mit dem Mu3e Experiment ETAP, Johannes Gutenberg-Universität Mainz Mainz Sebastian Artz D-6 (C) Firmwareentwicklung des topologischen Prozessors als Teil des ATLAS 23 Level-1 Triggerausbaus Max-Planck-Institut für Physik, München München Philipp Leitl D-7 (A) Qualitätssicherung und Charakterisierung der Module des Pixel Vertex De25 tektors für Belle II nach dem Anbringen der Kapton Kabel Aachen D-1 (A) 9 Experimentelle Analyse Stadt Nr. (Gr.) Name Titel des Vortrags Institut III. Physikalisches Institut A, RWTH-Aachen Philipp Millet Suche nach resonanter Sleptonproduktion in Endzuständen mit Myonen und Jets bei CMS III. Physikalisches Institut A, RWTH Aachen Aachen Tobias Pook E-2 (B) MUSiC - Modell Unspezifische Suchen in CMS Physikalisches Institut, Universität Bonn Bonn Stephan Duell E-3 (C) MC HAMMER: Programm zur Formfaktor-Umgewichtung von semileptonischen Zerfällen Physikalisches Institut, Universität Bonn Bonn Sebastian Heer E-4 (A) Analyse des t tNZ-Kanals im Endzustand mit 4 Leptonen mit dem ATLAS Detektor Physikalisches Institut, Universität Bonn Bonn Ruth Jacobs E-5 (B) Suche nach neuen massiven Resonanzen im Zerfallskanal V 0 ! VH ! l= l l= C b bN mit dem ATLAS Detektor Experimentelle Physik Dortmund Isabel Nitsche p IV, TU Dortmund E-6 (A) Suche nach tH -Produktion mit H ! bei s = 13 TeV mit dem ATLAS Experiment Dortmund Tobias Tekampe TU Dortmund E-7 (C) Suche nach Zerfällen neutraler B-Mesonen in vier Myonen beim LHCb Experiment Physikalisches Institut, Universität Freiburg Freiburg Matthias Gorzellik E-8 (B) Messung exklusiver Reaktionen mit dem COMPASS Experiment Albert-Ludwigs-Universität Freiburg Freiburg Alena Lösle E-9 (C) Messung der Kopplung des Higgs-Bosons an -Leptonen im Zerfall H ! ! 2l4 mit dem ATLAS Detektor Albert-Ludwigs-Universität Freiburg Philipp Mogg E-10 (A) Suche nach schweren Top-Squarks im hadronischen Endzustand mit dem ATLAS Detektor Ludwig-Maximilians Universität München Garching Michael Adersberger E-11 (B) Suche nach schweren langlebigen geladenen Teilchen mit dem ATLASDetektor Garching Nikolai Hartmann LMU München E-12 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton und vielen Jets am ATLAS Experiment II. Physikalisches Institut, Universität Göttingen Göttingen Uwe Gebauer .0/ E-13 (A) Analyse des B ! ` Zerfalls mit dem Belle-Detektor ohne Rekonstruktion des zweiten B-Mesons Hamburg Robert Karl DESY E-14 (B) Bestimmung der Strahlpolarisation am International Linear Collider Aachen E-1 (C) 10 Seite 27 29 30 32 33 34 35 37 39 41 42 43 44 45 Universität Hamburg Dominik Nowatschin Suche nach paarproduzierten vektorartigen Quarks pin Endzuständen mit Leptonen und hochenergetischen Higgs-Bosonen bei s = 13 TeV mit dem CMS Experiment Deutsches Elektronen-Synchrotron (DESY) Hamburg Daniel Rauch E-16 (A) Suche nach dem Higgs-Boson in H ! Z-Zerfällen mit dem ATLASDetektor Universität Hamburg Hamburg Heiner Tholen E-17 (B) Suche nach Einzelproduktion von schweren vektorartigen T-Quarks mit Zerfall in ein Higgs-Boson und ein Top-Quark Kirchhoff-Institut für Physik Heidelberg Thomas Spieker E-18 (C) Nicht-lineare Energiekalibration für Jets im Level-1 Kalorimeter Trigger bei ATLAS Physikalisches Institut, Universität Heidelberg Heidelberg Marian Stahl 0 E-19 (A) Erste Beobachtung des Zerfalls 0b ! C c D K und Messung des relativen Hamburg E-15 (C) Verzweigunsverhältnisses 0 B.0b !C c D K / B.0b !C c Ds / 46 48 49 51 52 mit dem LHCb-Experiment Institut für Experimentelle Kernphysik KIT Karlsruhe Nils Faltermann E-20 (B) Suche nach Higgs-Boson-Produktion in Assoziation mit Einzel-Top-Quarks am CMS-Detektor Institut für Physik - Universität Mainz Mainz Maurice Becker E-21 (C) ZZ Produktion beim ATLAS-Experiment - Wirkungsquerschnittsmessung und Suche nach anomalen Kopplungen Mainz Manuel Lornatus Uni Mainz E-22 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton, Jets und fehlender Transversalenergie mit dem ATLAS Detektor Universität Mainz, Institut für Physik Mainz Simon Schmitz E-23 (B) Suche nach neuer Physik mit zwei Elektronen im Endzustand bei ATLAS Max-Planck-Institut für Physik München Rainer Röhrig N mit dem E-24 (C) Suche nach dunkler Materie im Mono-Higgs-Kanal (H ! b b) ATLAS-Detektor am LHC Rostock Nis Meinert Universität Rostock E-25 (B) Bestimmung der Massen von ˙c Baryonen Bergische Universität Wuppertal Wuppertal Gunnar Jäkel E-26 (B) Messung des Wirkungsquerschnitts der Einzel-Top-Quark-Erzeugung Universität Würzburg Würzburg Verena Herget E-27 (C) Bestimmung der Masse des W -Bosons mit dem ATLAS-Experiment Zeuthen Elias Rüttinger DESY Zeuthen E-28 (A) Untersuchung von anomalen Vektorbosonenkopplungen in W W Ereignissen mit dem ATLAS Detektor 54 55 56 57 58 59 60 61 62 11 Theorie Stadt Nr. (Gr.) Name Titel des Vortrags Institut Seite Inst. f. Th. Teilchenph. und Kosmologie, RWTH Aachen Frederic Poncza Wiederverwendung von Monte-Carlo-Events in Parameterscans mit Check63 MATE Institut fur Physik, Humboldt-Universität zu Berlin Berlin Stefan Mölbitz T-2 (B) Produktion einzelner Top-Quarks in Assoziation mit zwei weiteren Jets in 64 nächstführender Ordnung QCD Fakultät für Physik, Universität Bielefeld Bielefeld Dennis Schröder T-3 (C) Helizitätsasymmetrie der sterilen Neutrinos in Leptogenese 66 Theoretische Physik III TU Dortmund Dortmund Mathias Becker T-4 (A) Extradimensionaler Seesaw Mechanismus sowie dessen Effekt auf Neutrino67 oszillationen Institut für Kern- und Teilchenphysik, TU Dresden Dresden Sebastian Liebschner T-5 (B) Squarkproduktion im Minimal R-Symmetrischen Supersymmetrischen Stan68 dardmodell Freiburg Matthijs van der Wild Physikalisches Institut, Universität Freiburg T-6 (C) A non-perturbative analysis of quantum frame dependence 69 Garching Stephan Meighen-Berger TUM Physik T75 T-7 (A) Collider Reach 70 Garching Maximilian Ruhdorfer Physikdepartment (T75), TU München T-8 (B) SO(7)/SO(6) Composite Higgs und Dunkle Materie 71 Physikdepartment (T75), TU München Garching Stefan Weber T-9 (C) Die Suche nach dem Littlest Higgs Modell mit T-Parität 72 Aachen T-1 (A) Gustavo Álvarez Cosque II. Institut für Theoretische Physik, Universität Hamburg. Über die expliziten Lösungen der laufenden QCD-Kopplung. 73 ITP Heidelberg Heidelberg Martin Klassen T-11 (B) Ein zwei Higgs Doublette Dunkle Materie Modell 74 Institut für Theoretische Physik (KIT) Karlsruhe Pascal Nagel T-12 (C) Ein meta-stabiles Soliton in SU.3/ Yang-Mills-Higgs-Theorie 75 Karlsruhe Jakob Schwichtenberg Institut für Theoretische Teilchenphysik KIT T-13 (A) Dunkle Materie und E6 Grand Unification 76 Max-Planck-Institut für Physik, München München Henning Bahl T-14 (B) Resummierung logarithmischer Beiträge in MSSM Higgsmassenberechnun77 gen Institut für Theoretische Physik Universität Münster Münster Marthijn Sunder T-15 (C) Der renormalon Effekt auf der Masse des Top-Quarks 79 Universität Siegen Siegen Tobias Mohrmann T-16 (A) Berechnung von soften Funktionen in SCET 81 Hamburg T-10 (A) 12 Institut für Theoretische Physik, Universität Tübingen Anton Stoyanov NLO-QCD-Korrekturen zur Higgspaarproduktion am LHC 82 Yannick Ulrich Paul Scherrer Institut Muon Zerfall 84 Fakultät für Physik, Universität Wien Christopher Lepenik Der Einfluss von schweren Quarks auf Heavy Jet Mass-Verteilungen im Pro85 C zess e e ! Hadronen Wien Lukas Semmelrock Institut für Hochenergiephysik, ÖAW T-20 (B) Bremsstrahlung selbst-wechselwirkender Dunkler Materie 87 Julius-Maximilians-Universität Würzburg Würzburg Thomas Faber T-21 (C) Natürliche SUSY-Modelle und rechte Sneutrinos als LSP 89 Tübingen T-17 (B) Villigen T-18 (C) Wien T-19 (A) 13 D. Detektor- und Beschleunigertechnologie D-1 (A) Charakterisierung von Pixelmodulen für das CMS Phase 1 Pixel Upgrade M ARTIN L IPINSKI I. Physikalisches Institut B, RWTH Aachen University Mit dem Large Hadron Collider (LHC) am europäischen Kernforschungszentrum werden Protonen oder Bleiionen bei Schwerpunktsenergien bis derzeit 13 TeV zur Kollision gebracht. Der CMS-Detektor ist einer von vier großen Detektoren, mit dem die Spuren und Energien der in diesen Kollisionen entstehenden Teilchen vermessen werden. Mit dem Silizium-Pixeldetektor, der die innerste Komponente des CMS-Detektors bildet und dem Wechselwirkungspunkt am nächsten ist, sollen mit einer hohen Ortsauflösung bei hohen Teilchenraten Spuren rekonstruiert werden. Der aktuelle Detektor ist für eine instantane Luminosität von 1 1034 cm 2 s 1 ausgelegt. Dieser Wert ist bereits heute überschritten. Durch Weiterentwicklungen am LHC soll die instantane Luminosität in den nächsten Jahren auf das Doppelte des genannten Designwertes steigen. Dies führt zu einer Erhöhung der Ineffizienz durch Datenverluste, zum Beispiel von 4 % auf 16 % in der innersten Lage. Aus diesem Grund wird derzeit im Rahmen des sogenannten Phase 1 Upgrades ein neuer Pixeldetektor gebaut und voraussichtlich in der Winterpause 2016/2017 installiert. Der Auslesechip wurde dafür weiterentwickelt, um bei höheren Raten noch effizient Daten nehmen zu können. Der Phase 1 Pixeldetektor besitzt im zylindrischen Zentralbereich (Barrel) eine zusätzliche vierte Lage und in den beiden Endkappen eine zusätzliche dritte Scheibe von Pixelmodulen. Die Pixelmodule für die äußerste Lage im Barrel wurden in Deutschland von zwei Konsortien, bestehend aus der RWTH Aachen und dem KIT Karlsruhe sowie der Universität Hamburg und dem DESY, gebaut. 385 in Karlsruhe produzierte Module wurden dabei in Aachen mit zwei Testaufbauten auf eine Verwendbarkeit im Detektor hin untersucht und charakterisiert. Der Pixeldetektor wird bei einer Temperatur von voraussichtlich 20 ı C betrieben. Im ersten Aufbau wird die Funktion jedes Moduls daher bei 20 ı C getestet. In einer durch Peltierelemente gekühlten Box können bis zu vier Pixelmodule gleichzeitig elektrisch getestet werden. Dabei wird unter anderem die Anzahl defekter oder nicht mit dem Sensor verbundener Pixel bestimmt und der Leckstrom des Siliziumsensors gemessen. Die Auslesechips besitzen mehrere Digital-Analog-Konverter, mit denen unter anderem Timings und Verstärkungen sowie Komparatorschwellen eingestellt werden. Die optimalen Betriebsparameter werden in den Tests ermittelt. Als mechanischer Stresstest werden 10 thermische Zyklen von 25 ı C bis C17 ı C durchfahren und anschließend erneut die Funktion bei 20 ı C und C17 ı C überprüft. Mit einem Röntgenteststand werden die Module anschließend energiekalibriert. Durch Bestrah- 16 47. Herbstschule für Hochenergiephysik Maria Laach 2015 lung verschiedener metallischer Targets werden diese zur Emission von K˛ -Photonen angeregt, deren Energie bekannt ist. Zusätzlich wird ein Hochratentest durchgeführt, um die Effizienz sowie die Gleichmäßigkeit der Datenauslese zu überprüfen. Die Pixelmodule werden dabei bis Raten von 150 MHz/cm2 betrieben, was in etwa der fünffachen für Lage 4 des Pixeldetektors zu erwartenden Rate entspricht. Die Serienproduktion und die Charakterisierung der Module des Konsortiums aus Aachen und Karlsruhe sind abgeschlossen. Es sind 343 für den Detektor verwendbare Module produziert worden. D. Detektor- und Beschleunigertechnologie 17 D-2 (B) Der DEPFET Pixeldetektor für das Belle II Experiment - Charakterisierung von Teststrukturen B OTHO PASCHEN Physikalisches Institut der Universität Bonn Das Belle II Experiment befindet sich in Tsukuba, Japan und ist eine verbesserte Version des Belle Experiments, mit welchem von 1999 bis 2010 Daten von Teilchenkollisionen genommen wurden. Für Belle II werden Teilchenkollisionen vom SuperKEKB Beschleuniger bereitgestellt, bei welchem es sich seinerseits um eine verbesserte Version des vorherigen KEKB Beschleunigers handelt. Der SuperKEKB Beschleuniger ist eine sogenannte B-Fabrik. Er erzeugt Elektron-Positron Kollisionen mit einer Schwerpunktsenergie von 10:58 GeV. Diese entspricht der Energie der .4S/ Resonanz, welche mit hoher Wahrscheinlichkeit in B-Mesonen Paare zerfällt. Belle II wird Präzisionsmessungen seltener Prozesse ermöglichen, um ein besseres Verständnis der fundamentalen Wechselwirkungen des Standardmodells der Teilchenphysik zu erlangen und möglicherweise “Neue Physik” zu entdecken. Die angestrebte Präzision wird mithilfe sehr vieler Einzelmessungen erreicht. Daher werden die Kollisionen bei Belle II mit höherer Luminosität als je zuvor von bis zu L D 8 1035 =cm2 =s erzeugt werden. Um die hohe Datenrate bewältigen zu können, müssen neue Detektorkonzepte umgesetzt werden. Der Belle II Detektor (Abb. D.1) besteht aus verschiedenen rotationssymmetrischen Subdetektoren, die schalenartig um den Interaktionspunkt der Teilchenkollisionen aufgebaut sind. Der Pixeldetektor (Abb. D.2) ist der innerste Teil dieser Struktur und ein Teil des sogenannten Vertexdetektors. Seine Aufgabe ist es, die Spuren geladener Teilchen aufzunehmen, um Impulse und Wechselwirkungspunkte genau rekonstruieren zu können. Teilchen müssen den Pixeldetektor durchqueren, bevor sie die äußeren Lagen des Belle II Detektors erreichen. Daher sollte er möglichst leicht gebaut werden, um Streuung und Energieverluste zu minimieren. Für die Senso- Abbildung D.1.: Der Belle II Detektor. Abbildung D.2.: Der Belle II Pixeldetektor. Sensoren sind grau, ASICs gelb und rot gefärbt. 18 47. Herbstschule für Hochenergiephysik Maria Laach 2015 ren wurden Depletierte P-Kanal FeldEffektTransistoren (DEPFETs) (Abb. D.3) ausgewählt, die extrem dünn (75 ¯m) gefertig werden können. Sie bestehen aus Silizium und Teilchen werden detektiert, indem die Ladung gemessen wird, welche sie beim Durchqueren im Sensorvolumen generieren. Zur Signalerfassung großer, in Pixel unterteilter, Matrixstrukturen solcher Sensoren bedarf es komplexer Elektronik, die direkt angeschlossen ist. Drei verschiedene AnwendungsSpezifische Integrierte Schaltkreise (ASICs) werden dafür verwendet. Einer steuert direkt die Spannungen zur Matrixauslese (Switcher) und ein anderer digitalisiert den Drainstrom der DEPFETs (Digitalisierer). Der dritte ASIC (Datenprozessor) steuert den Betrieb der ersten beiden und verarbeitet die digitalisierten Drainströme, bevor er die Daten zur Elektronik außerhalb des Detektors schickt. Um einzelne Aspekte der ASICs und DEPFET Matrizen zu testen und charakterisieren, werden Testhybride gebaut. Sie bestehen aus je einer Platine auf der ein Minimalsystem aus Elektronik und DEPFET Strukturen aufgebaut werden kann. Mit diesen Systemen werden die Eigenschaften der Chips verifiziert und optimale Arbeitspunkte für die Sensoren ermittelt. Unter anderem können die Kommunikationssignale der ASICs mit Taktraten von bis zu 320 MHz auf den Hybridsystemen gesondert untersucht werden. Auf den finalen Detektormodulen ist dies wegen des Layouts nicht mehr möglich. Außerdem müssen die optimalen Spannungen zwischen den verschiedenen Implantaten im Silizium des Sensors experimentell ermittelt werden. Abbildung D.3.: Querschnitt durch eine DEPFET Struktur. D. Detektor- und Beschleunigertechnologie 19 D-3 (C) Entwicklung eines Auslesemoduls für die Zeitprojektionskammer des ILD T OBIAS S CHIFFER Physikalisches Institut Universität Bonn Für zukünftige Projekte in der Teilchenphysik, wie dem International Linear Collider (ILC), werden neue hochauflösende Detektoren benötigt. Für den ILC werden derzeit zwei Detektoren entwickelt. Einer dieser Detektoren ist der International Large Detektor (ILD), welcher eine Zeitprojektionskammer (TPC) zur Spurrekonstruktion nutzen wird. Um hierbei eine möglichst gute Auflösung der einzelnen Spuren zu erhalten sind zurzeit verschiedene Auslesekonzepte in der Entwicklung. Eines dieser Konzepte ist die Auslese mithilfe von Pixelchips mit einer integrierten Gasverstärkungsstufe. In dieser werden die eintreffenden Elektronen derart vervielfacht, dass sie auf einzelnen Pixeln nachgewiesen werden können. Mittels photolithographischer Nachbearbeitung wird diese Micromegas Struktur auf den Chips aufgebracht. Es handelt sich dabei um ein dünnes Aluminiumgitter, welches auf kleinen Stützpfeilern ruht und so präzise erzeugt wird, dass jedes Loch exakt über einem Pixel positioniert ist. Dieses Verfahren wurde mit dem Timepix ASIC erprobt und liefert sehr vielversprechende Ergebnisse. Der Timepix ASIC besitzt wie sein Nachfolger der Timepix3 ASIC 256 256 Pixel mit einer Größe von 55 55 m2 . Somit lässt sich fast jedes im Ionisationsprozess entstehende Elektron einzeln nachweisen. Die Produktion dieser sogenannten GridPix wurde erfolgreich mit vollständigen Timepix 8’ Wafern durchgeführt und wird nun auch für den Timepix3 ASIC umgesetzt. Nachdem bereits Auslesemodule mit insgesamt 160 GridPixen auf Timepix Basis erfolgreich getestet wurden, soll nun der Nachfolger auf Basis des Timepix3 ASICs in Betrieb genommen werden. Hierzu wird zunächst überprüft ob die ASICs beim Aufbringen der Gitter Schaden nehmen. Danach wird die Datennahme mit einem einzelnen GridPix getestet. Nach erfolgreichen Tests soll dann ein Auslesemodul geplant und gebaut werden, welches zunächst aus 8 und später aus bis zu 100 ASICs besteht. Die Herausforderungen hierbei sind vor allem die Kühlung, die Spannungsversorgung, sowie die schnelle Auslese und Verarbeitung von ca. 7 Millionen Kanälen. Neben der Nutzung als Auslese für eine TPC lassen sich die GridPixe auch in anderen Experimenten nutzen. Zurzeit befinden sie sich beim CERN Axion Solar Telescope (CAST) im Einsatz. Hier wird der ASIC zur Detektion von Röntgenphotonen genutzt, welche durch Konvertierung von solaren Axionen in einem starken Magnetfeld entstehen. Im Vortrag werden die Anwendungen der GridPixe, die Herausforderungen bei Planung und Bau der Module, sowie die Anforderungen an die Auslesesysteme diskutiert. Auch werden die Unterschiede zwischen Timepix und Timepix3 ASIC dargestellt. 20 47. Herbstschule für Hochenergiephysik Maria Laach 2015 D-4 (A) Teststrahlmessungen für den ATLAS Pixeldetektor für das HL-LHC Upgrade T OBIAS B ISANZ II. Physikalisches Institut, Universität Göttingen Bedingt durch das Upgrade auf den High-Luminosity LHC Anfang der 2020er Jahre muss der ATLAS Pixeldetektor erneuert werden. Grund hierfür ist einerseits die erhöhte Fluenz und die damit einhergehenden höhereren Strahlenschäden, als auch die allgemein höhere Okkupanz und der somit gesteigerte Auslesebedarf, vorallem in den innersten Lagen des Detektors. Das ATLAS Experiment will im Rahmen des Upgrades den gesamten inneren Trackingdetektor (ITK) ersetzen. Dabei soll auch die aktive Fläche des Pixeldetektors von knapp einem Quadratmeter auf etwa zehn ansteigen. Neben strahlenhärteren und schnellerer Auslesechips sowie Sensoren ist deswegen auch ein Detektor, welcher günstig und in großem Umfang herstellbar ist, erforderlich. Aus diesem Grund arbeitet die Kollaboration gerade daran neue Sensoren und Auslesechips, welche diese Anforderungen erfüllen, zu entwickeln. Beispielsweise wird versucht existierende Sensorentwürfe mit planaren Elektroden in vierfacher Größe zu fertigen, sogenannte 4-Chip Module, welche die Herstellungskosten senken würden. Weiters wird auch intensiv an unterschiedlichen Kantendesigns, slim- und active-edge, geforscht. Andere Studien beschäftigen sich mit aktiven Sensorn auf CMOS-Technologie, unter Umständen auch in monolithischer Ausführung. Ebenso wird ein neuer Auslesechip, welcher jenen, der im vergangenen Upgrade für die neue, innerste Lage verwendet wurde, ersetzt, entwickelt. Solche neuen Detektoren müssen untersucht und charakterisiert werden. Teststrahlmessungen stellen neben Labormessungen ein hilfreiches Werkzeug dar um diverse Aspekte dieser zu studieren. Bei Teststrahlmessungen handelt es sich um Messungen mithilfe eines Strahlteleskops, welches verwendet wird um Spuren geladener Teilchen, welche auf den zu untersuchenden Detektor geschossen werden, zu rekonstruieren und extrapolieren. So können unter anderem Ladungssammlungseigenschaften oder Ineffizienzen untersucht werden. Um Teststrahlmessungen erfolgreich durchführen zu können, müssen diverse Aspekte eines Hochenergieexperiments verstanden und kontrolliert werden: mittels eines Triggersystems werden die Rohdaten aus dem zu untersuchenden Detektor ausgelesen und in den Datenstrom des Teleskops geschrieben, die Rohdaten müssen interpretiert und rekonstruiert werden und im letzten Schritt muss eine Analyse mit den gewonnenen Spuren durchgeführt werden. Der Fokus der vorgestellten Arbeit liegt auf der Datenrekonstruktion mithilfe eines generischen Rekonstruktionsframeworks. Die unterschiedlichen Schritte einer Teststrahlrekonstruktion sowie aktuelle ATLAS ITK Analyseresultate werden vorgestellt. D. Detektor- und Beschleunigertechnologie 21 D-5 (B) Entwicklung eines Spurdetektors für die Suche nach dem Zerfall C ! e C e e C mit dem Mu3e Experiment L ENNART H UTH Physikalisches Institut Heidelberg Die Suche nach neuer Physik jenseits des Standardmodells (SM) erfordert neue Experimente und Detektortechnologien, um die Sensitivität auf im SM verbotene und stark unterdrückte Prozesse weiter zu erhöhen. Insbesondere bei der Suche nach niederenergetischen, seltenen und im SM verbotenen Zerfällen werden hohe Ereignisraten benötigt, um in akzeptabler Messzeit neue Resultate zu generieren. Daher müssen die Detektoren und Datennahmesysteme immer schneller und effizienter werden Die Leptonzahlverletzung in geladenen Prozessen ist im SM zwar verboten, aber ein guter Kandidat für neue Physik jenseits des SM. Die relativ geringe Masse von Myonen erlaubt ausschlieslich leptonische Zerfälle und hat daher einen theoretisch gut verstandenen Untergrund. Das Mu3e Experiment sucht nach dem leptonzahlverletztenden Zerfall C ! e C e e C mit einer angestrebten Sensivität von einem in 1016 Zerfällen. Dazu werden bis zu 109 Myonen pro Sekunde auf einem dünnen hohlen Doppelkegel gestoppt, welcher die Zerfallspunkte räumlich trennt. Diese werden mit einem vierlagigen, pixelbasierten Spurdetektor vermessen, der eine exzellente Vertex und Impulsauflösung bieten muss, um Untergrundprozesse zu unterdrücken. Szintillierende Fasern und Kacheln sorgen für eine zusätzliche präzise Zeitmessung, die zur Unterdrückung von kombinatorischem Untergrund benötigt wird. Die hohe kontinuierliche Myonrate fordert ein Auslesesystem, welches kontinuierlich Daten der Subdetektoren empfängt und direkt interessante Ereignisse selektiert, indem es das gesamte Ereigniss rekonstruiert. Der Pixeldetektor basiert auf der neuen Technologie der hochspannungsbetriebenen monolitische aktive Pixelsensoren (kurz HV-MAPS), die auf 50 m gedünnt werden können. Die Hochspannung ermöglicht eine schnelle Ladungsammlung und damit geringe Totzeiten und eine hohe Rate.. Die Ausleseelektronik ist direkt im Pixel integriert und es wird kein separater Auslesechip benötigt. Der aktuelle Prototyp ist der MuPix 7, welcher in einem komerziellen HV-CMOS Prozess hergestellt wird, voll monolithisch ist und aus 32x40 Pixeln mit einer Größe von 103x80 m2 besteht. Die Auslese ist kontinuierlich, shutterfrei und null-unterdrückt. Jeder Pixel hat einen integrierten Verstärker und eine direkte Verbindung zu seiner digitalen Partnerzelle in der Peripherie des Sensors. In der digitalen Zelle wird das Signal erneut verstärkt, mit einer individuell angepassten Schwelle verglichen und ein 8bit Zeitstempel gespeichert. Eine integrierte finite state machine liest die digitalen Zellen aus. Die Trefferinformation wird 8bit/10bit encodiert, serialisiert und über einen 1.25 GBit/s LVDS Sender übertragen. Um den HV-MAPS in ein komplexes Spurrekonstruktionssystem zu integrieren, das Mu3e Auslesekonzept zu validieren und Sensoren auf Strahlzeiten zu charakterisieren wurde ein Strahlteleskop aus MuPix 7 Prototypen gebaut. Um möglichst Nahe am Mu3e Auslesekonzept zu bleiben wurden 8 Sensorlagen hintereinander plaziert, wobei jeweils 4 Lagen mit einem FPGA verbunden sind. Die beiden FPGAs empfangen die Daten der Sensoren und senden die Konfigurationssignale. Auf dem FPGA werden die Daten von 4 Sensoren decodiert und direkt nach den Zeitstempeln sortiert. Zusätzlich werden zwei szintillierende Kacheln verbaut um eine präzise Referenzzeitmessung zu erhalten. Die Daten werden am PC von einer grafischen Benutzeroberfläche in Empfang genommen und dort verarbeitet. Im ersten Schritt werden die Daten direkt auf die Festplatte geschrieben und an 22 47. Herbstschule für Hochenergiephysik Maria Laach 2015 ein Datenüberwachungsfenster weitergeleitet, in welchem die Datenqualität geprüft wird. Dabei werden die Korrelationen zwischen Sensoren dargestellt, erste Spuren rekonstruiert und eine Abschätzung der Sensoreffizienz gegeben. Zusätzlich wurde eine Option integriert, die es erlaubt die Spuren, analog zum Mu3e Auslesekonzept, direkt auf einer Grafikkarte zu rekonstruieren. Im Vortrag werde ich zuerst das Mu3e Experiment und dannach das Konzept, die Auslesestruktur und einige MuPix Ergebnisse die aus dem MuPix Teleskop hervorgehen sind vorstellen. Abschließend werde ich noch ein Ausblick auf weitere Integrationsschritte geben. D. Detektor- und Beschleunigertechnologie 23 D-6 (C) Firmwareentwicklung des topologischen Prozessors als Teil des ATLAS Level-1 Triggerausbaus S EBASTIAN A RTZ ETAP, Johannes Gutenberg-Universität Mainz Im ATLAS Detektor am Cern werden seit der letzten Upgradephase Proton-Proton Kollisionen mit einer Schwerpunktsenergie von 13 TeV durchgeführt. Bei einer instantanen Designluminosität von 1034 cm 2 s 1 kollidieren Protonenpakte in einem zeitlichen Abstand von 25 ns entsprechend einer Rate von 40 MHz. Aufgrund der hohen anfallenden Datenmengen müssen die Kollisionsereignisse auf mehreren Triggerebenen vorselektiert werden. Der Level-1 Trigger ist als erste Triggerstufe komplett in Hardware realisiert und reduziert die Rate auf etwa 100KHz. Darauf folgt der softwarebasierte High Level Trigger, welcher die Triggerrate weiter auf wenige hundert Hertz reduziert. Um die Triggerraten auch mit ansteigender Luminosität effizient stabil zu halten wurde der topologische Prozessor (L1Topo) als komplett neues Hardwareboard entwickelt und in den Level-1 Trigger integriert. 2014-2015 LHC collisions (40MHz, 6.5+6.5TeV, lumi>10 34) ~7200 digitized 0.1x0.1(ηxφ) calorimeter signals Level-1 Calo Jet/Energy Processor 32 modules (jets, MET) Level-1 Muon Cluster Processor 56 modules (e, γ,τ) upgraded merging (4 modules) TGC Endcap RPC Barrel upgraded merging (8 modules) Muon CTP Interface L1Topo ~1Tb/s opto input Upgraded Central Trigger Processor LHC Level-1 Accept Level-1 output rate: 100kHz Abbildung D.4.: Integration des L1Topo in das Level-1 Triggersystem Der Level-1 Trigger ist ein hardwarebasiertes, gepipelinetes, synchrones System mit einer festen Latenz. Er besteht aus drei verschiedenen Subsystemen: Level-1 Kalorimetertrigger, Level1 Myontrigger und Central Trigger Prozessor (CTP). Der neue topologische Prozessor erhält Transversalenergie- und Winkelinformationen von Kalorimeter- und Myontrigger und ist somit in der Lage auf eine Vielzahl von berechneten topologischen Größen zu triggern. Die Triggerentscheidungen werden anschließend an den CTP gesendet, der schließlich die finale Entscheidung trifft. Um die Hardwareanforderungen umsetzen zu können etwa 1Tb/s Inputdaten zu empfangen und ca. 100 topologsche Algorithmen auf diesen Daten auszuführen, wird modernste Technik eingesetzt. Es werden 2 Virtex 7 FPGAs pro Modul verwendet, welche die Daten über 160 optische Kabel bei einer Übertragungsgeschwindigkeit von 6.4 Gb/s empfangen. Um die große Anzahl der Algorithmen zu ermöglichen werden aktuell zwei identische Module eingesetzt. Der Input der FPGAs besteht aus ca. 330 potentiellen Teilchen (Em/Gamma, Tau, Jets, Myonen 24 47. Herbstschule für Hochenergiephysik Maria Laach 2015 120 Taus 1 BX 2 BX 120 Em/Gamma 32 Myonen 64 Jets Missing ET Parameter Sort / Select 6/10 Em/Gamma 6/10 Taus 6/10 Myonen Algorithmus 1 Algorithmus 2 Algorithmus 3 6/10 Jets Algorithmus N Overflow- & Ergebnisbits Abbildung D.5.: Struktur der Algorithmen im topologischen Prozessor und Energiesummen). Auf Grund der limitierten Ressourcen muss diese Zahl reduziert werden. Aktuell sind zweit Möglichkeiten implementiert: Das Sortieren nach dem Wert der Transversalenergie mit einer Liste von 6 Output Triggerobjekten (TOB) und das Selektieren von TOBs oberhalb einer minimalen Transversalenergie mit 10 Output TOBs. Anschließed können auf diesen reduzierten Listen verschiedenste topologische Algorithmen ausgeführt werden wie beispielsweise: Schnitte auf Winkeldifferenzen (, ), Berechnung von invarianten Massen, skalare Jetenergiesummen, Korrektur der fehlenden Energie oder Berechnung von Energiequotienten. Die Kombination verschiedener Teilchenarten in diesen Algorithmen kann flexibel im aktuellen Triggermenü definiert werden. Der Fokus soll auf der Implementation der Algorithmen, Konfiguration, Firmwareentwicklung des Echtzeitdatenpfades und Verifikation der Algorithmen liegen. D. Detektor- und Beschleunigertechnologie 25 D-7 (A) Qualitätssicherung und Charakterisierung der Module des Pixel Vertex Detektors für Belle II nach dem Anbringen der Kapton Kabel P HILIPP L EITL Max-Planck-Institut für Physik, München Um die zeit-abhängige CP-Verletzung und seltene Zerfälle im B-Mesonen System genauer vermessen zu können, wurde der Teilchenbeschleuniger KEKB zum sogenannten SuperKEKB verbessert. Das Ziel ist es, bei der Produktion von B-Mesonen Paaren eine Luminosität von 8 1035 cm 2 s 1 zu erreichen und damit schneller eine höhere Statistik zu erhalten, die es erlaubt, genauere Messungen zu machen und seltene Ereignisse zu untersuchen. Dazu wird auch die Asymmetrie in den Energien der Teilchenstrahlen verringert, sodass die Elektronen mit etwa 7 GeV und die Positronen mit etwa 4 GeV den Interaktionspunkt (IP) erreichen. Der resultierende Boost der entstandenen Teilchen, der die Lebenszeit-Bestimmung in eine Längenmessung überträgt, ist dadurch geringer als bei KEKB. Diese neuen Bedingungen machten ein Upgrade der Detektoren unumgänglich. Eine verbesserte Vertex Auflösung und geringere Okkupanz wird durch die Kombination eines Pixel- mit einem Streifen-Detektor erreicht. Der Pixel Vertex Detektor (PXD) besteht aus 40 Silizium Modulen, die zylindrisch in zwei Lagen mit Radien von nur 14 mm bzw. 22 mm angeordnet sind (Abb. D.6). Er wird durch einen StreifenDetektor, den Silizium Vertex Detektor (SVD), ergänzt, der ihn mit vier weiteren Lagen umgibt. Abbildung D.6.: Pixel Vertex Detektor für das Belle II Experiment Jedes Modul des PXD besitzt eine sensitive Fläche in Form einer Matrix von 192.000 DEPFET Pixeln. Auf dem selbem Wafer, auf dem die Pixel mit über 80 Schritten prozessiert werden, werden auch die Leiterbahnen für den elektrischen Schaltkreis des Moduls aufgebracht. Im Bereich der Matrix wird das Modul auf eine Dicke von nur 75 m herab geätzt. Danach werden die Module aus dem Wafer geschnitten und mit den aktiven Bauteilen, den Chips für die Steuerung und Auslese, und den passiven Bauteilen, Kondensatoren und Widerständen, bestückt. Danach wird 26 47. Herbstschule für Hochenergiephysik Maria Laach 2015 das Kapton Kabel angelötet und die Verbindungen zum Modul mit feinen Wire Bonds hergestellt. Mit dem Kapton Kabel wird die Verbindung der Module mit der externen Steuerungselektronik möglich und nach dem Zusammenkleben zweier Module zu einer Ladder können sie in den PXD eingebaut werden. Die letzte Entscheidung, ob ein Modul für den PXD verwendet wird, fällt nach den Tests zur Qualitätssicherung und Charakterisierung der Module nach dem Anbringen der Kapton Kabel. Zu diesem Zeitpunkt können die Eigenschaften des Moduls genau bestimmt werden. Dazu wird ein Testprogramm in Form von Mess- und Auslese-Skripten vorbereitet, die am PC automatisch ablaufen. Untersucht werden unter anderem die Anzahl funktionierender Pixel, die Transferkurven der Analog-Digital-Wandler, die Signale bei Bestrahlung mit einer Quelle und das Verhalten während des “gated mode”, einem bestimmten Operationsmodus, der den Detektor gegen periodischen Hintergrund des Beschleunigers immun machen soll. Die dabei gefundenen optimalen Einstellungen werden für jedes Modul in einer Datenbank gespeichert, damit sie bei einem Neustart des Moduls sofort zur Verfügung stehen. Die ersten Module, die dieses Testverfahren durchlaufen, werden im September 2016 erwartet. Daraus sollen die ersten beiden Ladders entstehen, die im Winter 2016/17 zusammen mit vier Modulen des SVD in einem kombinierten Testbeam am DESY getestet werden, bevor sie für erste Messungen am SuperKEKB nach Japan gebracht werden. Zeitgleich durchlaufen die weiteren Module der Serienproduktion das Testprogramm, so dass der PXD bis März 2017 zusammengesetzt werden kann. E. Experimentelle Analysen E-1 (C) Suche nach resonanter Sleptonproduktion in Endzuständen mit Myonen und Jets bei CMS P HILIPP M ILLET III. Physikalisches Institut A, RWTH-Aachen Das Standardmodell der Teilchenphysik (SM) ist eine enorm erfolgreiche Theorie, die über Jahrzehnte getestet wurde und eine große Bandbreite unterschiedlichster experimenteller Beobachtungen vereint. Ungeachtet des großen Erfolgs bleiben Fragen offen. Zur Beantwortung dieser Fragen existieren verschiedene Theorien, die versuchen es zu erweitern oder zu ersetzen. Theorien mit Supersymmetrie (SUSY) bieten eine elegante fundamentale Erweiterung des SM und sind aussichtsreiche Kandidaten um viele der ungelösten Fragen der Teilchenphysik zu erklären. SUSY-Modelle postulieren unter anderem die Existenz von Sleptonen. Diese bislang unendeckten Teilchen könnten in hochenergetischen Teilchenkollisionen am LHC produziert und mit dem CMS-Experiment nachgewiesen werden. Das Thema dieses Vortrages ist die Suche nach Sleptonen in SUSY-Szenarien mit Verletzung der R-Parität (RPV). In diesen können SUSY-Teilchen am LHC nicht nur paarweise wie in traditionellen SUSY-Modellen ohne RPV sondern einzeln erzeugt werden. Darüber hinaus kann das leichteste supersymmetrische Teilchen wieder in SM-Teilchen zerfallen, sodass alle Zerfallsprodukte im Detektor gemessen werden können. Dies ermöglicht eine Rekonstruktion der Massen der beteiligten SUSY-Teilchen, was in dieser Analyse zur Definition der Signalregionen und Abgrenzung vom SM-Untergrund genutzt wird. µ− d χ̃ 0 1 ′ λ211 µ̃ µ̃ ′ λ211 u d µ− u Abbildung E.1.: Resonante Smyonproduktion mit zwei Myonen und zwei Jets im Endzustand. Der Parameter 0211 bestimmt hier die Stärke der R-Paritäts verletzenden Kopplung von zwei Quarks der ersten Generation (u-Quark, d-Quark) zu einem Slepton aus der zweiten Generation (Smuon, Sneutrino). Ein für diese Analyse typisches Signal ist in Abbildung E.1 gezeigt. Hier wird zunächst ein Smyon resonant aus zwei Quarks erzeugt, welches dann in zwei Myonen gleicher Ladung und 28 47. Herbstschule für Hochenergiephysik Maria Laach 2015 mindestens zwei Jets zerfällt. Diese Signatur eignet sich sehr gut für die Suche nach neuer Physik, da die Produktion von genau zwei gleichgeladenen Myonen und Jets im SM nur sehr selten vorkommt. E. Experimentelle Analysen 29 E-2 (B) MUSiC - Modell Unspezifische Suchen in CMS T OBIAS P OOK III. Physikalisches Institut A, RWTH Aachen Die p aktuelle Datennahme am Large Hadron Collider (LHC) mit einer Schwerpunktsenergie von s D 13 TeV bietet eine nie dagewesene Gelegenheit für die Suche nach Physik jenseits des Standardmodells. Ein Großteil der derzeit durchgeführten Suchen ist dabei auf ein spezielles Modell optimiert. Trotz der großen Anzahl von Analysen beim Compact Muon Solenoid (CMS) Detektor wird nur ein Bruchteil aller gemessenen Endzustände untersucht. Die Modell unspezifische Suche in CMS (Model Unspecific Search in CMS - MUSiC) bietet eine einzigartige Prozedur, um die Zahl der untersuchten Endzustände deutlich zu erweitern und damit zu verhindern, dass neue Physik übersehen wird. Hierzu wird eine automatisierte Suche nach Abweichungen vom Standard Modell basierend auf Monte Carlo Simulationen und einer kompletten Detektorsimulation durchgeführt. Ein großer Teil aller gemessenen Ereignisse wird analysiert und physikalische Objekte (Leptonen, Jets oder auch fehlende Transversalenergie) werden möglichst generisch ausschließlich nach Qualitätskriterien für die Messung und Rekonstruktion selektiert, um eine höchstmögliche Modellunabhängikeit zu gewährleisten. Jedes analysierte Ereignis wird in eine Ereignisklasse sortiert, welche durch die vorhandenen Objekte definiert ist, z.B. werden alle Ereignisse mit einem Elektron und drei Jets in dieselbe Klasse sortiert. Für jede Ereignsisklasse werden drei kinematische Verteilungen evaluiert, die sich durch eine große Sensitivität für neue Physik auszeichnet: die invariante Masse aller selektierten Objekte, die Summe der Transversalimpulse aller selektierten Objekte und die fehlende Transversalenergie. Abweichungen zwischen Daten und der Standardmodell-Vorhersage werden in verschiedenen Regionen der jeweiligen Verteilung anhand ihres p-Wertes quantifiziert. Der MUSiC Algorithmus wird auf einen größeren Teil des CMS Datensatzs angewandt als in allen anderen Analyse bei CMS der Fall ist. Dadurch ergeben sich eine Vielzahl von Herausforderungen hinsichtlich der konsistenten Behandlung von Detektoreffekten und Messunsicherheiten innerhalb verschiedener Energiebereiche. Die MUSiC Analyse wurde bereits bei früheren Datennahmen bei CMS eingesetzt und das dabei aufgebaute Analyseframework wurde für die aktuelle Datennahme bei einer Schwerpunktsenergie von 13 TeV erweitert und modernisiert. Dadurch ist es aktuell möglich, neue Daten innerhalb weniger Tage auszuwerten und frühzeitig mögliche Probleme zu identifizieren, die in den enger gefassten Maßnahmen innerhalb von CMS zum Datenqualitätsmanagement unerkannt geblieben sind. Neue Physik kann grundsätzlich auf zwei Arten in der MUSiC Analyse entdeckt werden. Die erste Möglichkeit sind neue Resonanzen, die in einer oder wenigen Ereignisklassen zu einer signifikanten Abweichung führen, z.B. neue schwere Eichbosonen (W 0 ; Z 0 ), oder durch Substrukturen hervorgerufene Anregungszustände von bisher elementar angenommenen Teilchen. Die zweite Möglichkeit ist eine Vielzahl von weniger signifikanten Abweichungen, die deutlich über der Anzahl erwarteter statistischen Fluktuationen liegt. Solche Signaturen werden z.B. bei vielen supersymmetrischen Erweiterungen des Standardmodells erwartet. Insbesondere für die zweite Möglichkeit ist eine detailierte Betrachtung der Verteilung aller ermittelten Abweichung unter Beachtung von Korrelationen notwendig. Der präsentierte Vortrag gibt einen Überblick über die MUSiC Analyse, aktuelle Entwicklungen und bisherige Beiträge zu Suchen nach neuer Physik bei CMS. 30 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-3 (C) MC HAMMER: Programm zur Umgewichtung von semileptonischen Zerfällen Formfaktor- S TEPHAN D UELL Physikalisches Institut, Universität Bonn Das Belle–Experiment, das von 1999 – 2010 am KEK in Japan betrieben wurde, hat unter anderem wichtige Beiträge zur Messung von CP-Verletzung im B-Meson-System und der Extraktion der CKM–Matrixelemente jVcb j und jVub j aus semileptonischen Zerfällen geliefert. Das Belle– Experiment hat in der Zeit von 1999-2010 eine integrierte Luminosität von ca. 1 ab 1 aufgenommen. Die Datennahme des Nachfolgeexperiments Belle II soll im Jahr 2018 beginnen und bis zum Ende seiner Laufzeit eine integrierte Luminosität von 50 ab 1 aufzeichnen. Dies stellt die Kollaboration vor die Herausforderung mit sehr großen Datenmengen, insbesondere auch mit sehr großen, auf Monte Carlo Simulationen basierten, künstlichen Pseudodatensätzen, umgehen zu müssen. Die Implementation dieser Pseudodatensätze ist von den theoretischen Modellen, mit dem die Teilchenzerfälle modelliert werden, abhängig. Aufgrund der erforderlichen Größe der Datensätze wäre es sehr aufwändig, neue Pseudodatensätze zu erzeugen, wenn sich theoretische Parameter des Modells ändern oder wenn neue Modelle entwickelt werden. Aufgrund dessen wird in Zusammenarbeit mit dem Lawrence Berkeley National Laboratory an dem Programm MC HAMMER (“Monte Carlo Helicity Amplitude Module for Matrix Element Reweighting”) zur Umgewichtung von Datensätzen von semileptonischen B–Meson–Zerfällen gearbeitet. Unser Ziel ist es, das Programm später auch in das Analyseframework von Belle II, basf2, zu implementieren. Zur Umgewichtung werden die differentiellen Zerfallsraten verwendet. Bei der Berechnung der Zerfallsraten wird ein auf Helizitätsamplituden basierender Formalismus verwendet, der von den hadronischen Formfaktoren der Modelle abhängt. In vereinfachter Form ergibt sich: 2 m2` /2 jpX j GF2 d .B ! X`` / 2 .q D jV j ij dq 2 .2/3 12mB2 q 2 m2` 3 m2` 2 2 2 2 2 2 2 2 .HC .q / C H .q / C H0 .q // 1 C 2 C H .q / : 2q 2 q2 s (E.1) Die integrierte Zerfallsrate ergibt sich aus dem Integral über q 2 : Z .B ! X`` / D 2 qmax m2` dq 2 d .B ! X`` /=dq 2 : (E.2) Das Ereignisgewicht wird schließlich über das Verhältnis der differentiellen Zerfallsraten bestimmt: d wi D new d old 2 new .q / : 2 old .q / (E.3) Zusätzlich liefert das Programm auch die Unsicherheiten der verwendeten Modelle zur Verwendung als systematische Fehler für Analysen. Die Anwendung dieser Gewichte bietet eine E. Experimentelle Analysen 31 schnelle und einfache Möglichkeit, Datensätze gezielt für bestimmte Analysen zu manipulieren, ohne die komplette Ereignisgenerierung und Detektorsimulation erneut laufen zu lassen. 32 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-4 (A) Analyse des t tNZ-Kanals im Endzustand mit 4 Leptonen mit dem ATLAS Detektor S EBASTIAN H EER Physikalisches Institut, Universität Bonn Mit der Wiederaufnahme von Daten am Large Hardon Collider (LHC) im Frühjahr 2015 hat sich die Schwerpunktenergie mit denen die Protonenstrahlen kollidieren deutlich erhöht (von 8 auf 13 TeV). Dadurch ist die Produktion vieler seltener Prozesse wahrscheinlicher geworden und diese können präziser gemessen werden. Mit dem t tNZ-Prozess kann die Kopplung des Z-Bosons an ein Top Quark bestimmt und somit das Standardmodell direkt getestet werden. Der Zerfall des t tNZ-Systems in 4 Leptonen (und 2 b-Jets) bietet das deutlichste Signal im Vergleich zu den anderen möglichen Zerfällen, ist aber gleichzeitig auch der Kanal mit dem kleinsten Wirkungsquerschnitts. Daher ist die Zahl der erwarteten Ereignisse gering. In der Analyse mit 8 TeV Daten wurden in diesem Kanal 4 Ereignisse selektiert. Mit den 13 TeV Daten werden mehr Ereignisse erwartet, da der Wirkungsquerschnitt von t tNZ um den Faktor 3,5 ansteigt. Die Selektion der Ereignisse ist ein Kompromiss aus Unterdrückung von Untergrundprozessen und Maximierung der selektierten Ereignisse. Im 4-Leptonen Kanal werden 4 verschiedene Selektionen genutzt, abhängig von der Anzahl der b-Jets und der Art der Leptonen. Diese 4 Signalregionen werde ich im Vortrag genauer diskutieren. Beim 4-Leptonen-Kanal ist der ZZ-Prozess der dominanteste Untergrund. Daher ist ein genaues Verständnis dieses Untergrunds erforderlich. Im Rahmen meiner Doktorarbeit habe ich die Unsicherheit der Monte-Carlo-Simulation des ZZ-Prozesses in Verbindung mit schweren Quarks bestimmt. Diese Unsicherheit ist ein großer Teil der systematischen Unsicherheit in der t tNZ-Analyse. Im Vortrag stelle ich zwei Methoden zur Bestimmung der Unsicherheit der MonteCarlo-Simulation des ZZ-Prozesses in Verbindung mit schweren Quarks vor. E. Experimentelle Analysen 33 E-5 (B) Suche nach neuen massiven Resonanzen im Zerfallskanal V 0 ! VH ! l= l l= C b bN mit dem ATLAS Detektor RUTH JACOBS Physikalisches Institut, Universität Bonn Eines der Hauptziele in der zweiten Datennahmeperiode des Large Hadron Collider (LHC) ist die Suche nach Physik jenseits des Standardmodells. In einigen theoretischen Modellen, die mögliche neue Physik beschreiben, werden Resonanzen vorhergesagt, deren Massen im Bereich von mehreren TeV liegen. In meiner Doktorarbeit befasse ich mich mit der Suche nach Resonanzen V’ , die in ein schweres elektroschwaches Vektor-Boson V (W- oder Z-Boson) und ein Standardmodell-Higgs-Boson H zerfallen. Im Detektor weist man dann die Zerfallsprodukte des W- oder Z- und die des Higgs-Bosons nach und rekonstruiert aus diesen die invariante Masse des VH-Systems. Die Suche nach einer möglichen Resonanz wird durchgeführt, indem das Spektrum der invarianten Masse auf einen lokalen Exzess in den gemessenen Daten relativ zum vorhergesagten Standardmodell-Untergrund untersucht wird. Da der häufigste Zerfallskanal des Standardmodell-Higgs-Bosons der Zerfall in zwei b-Quarks ist, betrachtet man bei der Suche nach der VH-Resonanz diesen Endzustand. Bei ResonanzMassen im TeV-Bereich erfährt das Higgs-Boson aus dem Zerfall einen hohen Lorentz-Boost. Beim Zerfall des Higgs-Bosons sind die dabei entstehenden b-Quarks und ihre Fragmentierungsprodukte deswegen stark kollimiert. Man kann sie deswegen nicht mehr mit zwei Jets vom Radius R=0.4 auflösen. Stattdessen verwendet man einen Jet mit großem Radius R=1.0, um die Zerfallsprodukte beider b-Quarks, also des gesamten Higgs-Boson-Zerfalls, zu rekonstruieren. Mithilfe weiterer experimenteller Techniken, wie der Anwendung von b-Jet-Identifikationsalgorithmen (“b-tagging“) und der Betrachtung der rekonstruierten Jet-Masse kann man schrittweise das Signal vom Standardmodell-Untergrund trennen. Das W- oder Z-Boson, das mit dem Higgs-Boson gemeinsam im Resonanzzerfall produziert wird, zerfällt in Leptonen und Neutrinos. Das Auftreten von Leptonen mit hohem Transversalimpuls oder von großer fehlender transversalen Energie im Signalprozess ermöglichen es, auf effiziente Weise interessante Ereignisse aus dem hauptsächlich durch Prozesse der starken Wechselwirkung dominierten Untergrund in den Daten zu selektieren (”triggern”). In meinem Vortrag werde ich die VH-Resonanz-Analyse vorstellen, die Selektion und die verwendeten statistische Methoden diskutieren. Im Anschluss werde ich die Ergebnisse der Suche diskutieren und einen Ausblick auf weitere Möglichkeiten zur Verbesserung der Analyse geben. 34 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-6 (A) Suche nach tH -Produktion mit H ! bei TeV mit dem ATLAS Experiment p s = 13 I SABEL N ITSCHE Experimentelle Physik IV, TU Dortmund Nach der Entdeckung des Higgs-Bosons am LHC im Jahr 2012 ist es von großer Bedeutung die Eigenschaften dieses neuen Teilchens zu untersuchen um seine Konsistenz mit dem im Standardmodell (SM) vorhergesagten Teilchen zu überprüfen. Eine wichtige Eigenschaft des HiggsBosons ist die Yukawa-Kopplung Y t an das top-Quark. Da die Stärke der Yukawa-Kopplung im SM proportional zur Fermionmasse ist, wird für das top-Quark eine starke Kopplung an das Higgs-Boson vorhergesagt. Die elektroschwache Produktion eines einzelnen top-Quarks in Verbindung mit einem abgestrahlten Higgs-Boson (tH -Produktion) bietet neben t tNH -Produktion die Möglichkeit Y t direkt zu messen. Abbildung E.2.: Die beiden interferierenden Feynman-Diagramme in der t-Kanal-Produktion von tH . Die t-Kanal-Produktion von tH ist in Abbildung E.2 beispielhaft dargestellt. Das Higgs-Boson kann bei der tH -Produktion sowohl vom top-Quark als auch vom W -Boson abgestrahlt werden. Im SM interferieren diese beiden Prozesse destruktiv, was in einem sehr kleinen Wirkungsquerschnitt für tH -Produktion resultiert. Diese destruktive Interferenz führt jedoch auch dazu, dass eine Messung von tH -Produktion sensitiv auf das relative Vorzeichen zwischen Y t und der Kopplung des Higgs-Bosons an das W-Boson gH W W ist. Es lässt sich ein Skalierungsfaktor t mit Y t D t Y tSM einführen, welcher Abweichungen von dem im SM vorhergesagten Wert Y tSM parametrisiert. Der Wirkungsquerschnitt tH . t / hat bei t = 1 ein Minimum und steigt für kleine Abweichungen von diesem Wert stark an. Somit ist tH -Produktion sehr sensitiv auf Abweichungen von Y tSM und damit auf Physik jenseits des SM. Der H ! -Zerfallskanal, welcher hier betrachtet wird, ist sowohl vielversprechend aufgrund seiner klaren Signatur, als auch herausfordernd, da er mit Br.H ! / = 2.28 10 3 ein sehr kleines Verzweigungsverhältnis besitzt. Es wird eine Analysestrategie zur Messung von tH -Produktion mit dem ATLAS-Experiment vorgestellt und die erwartete Sensitivität diskutiert. E. Experimentelle Analysen 35 E-7 (C) Suche nach Zerfällen neutraler B-Mesonen in vier Myonen beim LHCb Experiment T OBIAS T EKAMPE TU Dortmund Seltene Zerfälle von B-Mesonen bieten eine vielversprechende Möglichkeit des Nachweises Neuer Physik. Im Rahmen des Standardmodells der Teilchenphysik können neutrale B-Mesonen in einem Schleifenprozess über den Austausch zweier W -Bosonen in ein Paar von Myonen zerfallen. Ein weiteres Myonpaar kann durch ein abgestrahltes Photon erzeugt werden. Das Standardmodell sagt für Zerfälle der Art B 0 ! C ein Verzweigungsverhältnis in der Ordnung von 10 10 voraus. In Erweiterungen des Standardmodells werden neue Teilchen und damit auch neue Zerfallsamplituden eingeführt. So können B 0 - und Bs0 -Mesonen im Rahmen eines minimal supersymmetrischen Modells in ein skalares und ein pseudoskalares sGoldstino zerfallen, die ihrerseits jeweils in ein Paar von Myonen zerfallen. Die Existenz von Teilchen jenseits des Standardmodells könnte somit das Verzweigungsverhältnis signifikant erhöhen. Um das Verzweigungsverhältnis des gesuchten Zerfalls zu vermessen, werden die vom LHCbDetektor aufgezeichneten Daten nach Ereignissen durchsucht, in denen vier Myonenspuren von einem gemeinsamen Vertex ausgehen. Zusätzlich werden Ansprüche an die Spur- und Vertexqualität gestellt. Die so selektierten Daten enthalten noch eine Vielzahl unterschiedlicher Untergrundereignisse, die mit verschiedenen Methoden noch weiter unterdrückt werden. Eine bedeutende Klasse von Untergründen sind resonante Zerfälle, bei denen Myonen aus Zerfällen von J= -, .2S/- oder -Resonanzen stammen. Um diese zu unterdrücken, werden entsprechende Vetos auf die invarianten Massenverteilungen der Zweimyonsysteme angewendet. Ferner tragen Zerfälle mit fehlidentifizierten Teilchen, sowie zufällige Kombinationen von vier Myonen zum Untergrund bei. Erstere werden durch Schnitte auf Teilchenidentifikationvariablen unterdrückt und zweitere durch einen multivariaten Klassifizierer. Jedes Selektionskriterium, das auf die Daten angewendet wird, entfernt nicht nur Untergrund-, sondern auch Signalereignisse. Um die Verzweigungsverhältnisse zu bestimmen, 0 müssen die Signaleffizienzen der gesamten Detektion, Rekonstruktion und Selektion von Bd;s ! C C Ereignissen bekannt sein. Diese werden auf simulierten Signalereignissen bestimmt. Die direkte Messung eines Verzweigungsverhältnisses basiert auf der Kenntnis der integrierten N Luminosität und des b b-Wirkungsquerschnittes. Vor allem letzterer ist nur mit einer sehr großen Unsicherheit bekannt. Um eine resultierende systematische Unsicherheiten zu vermeiden, wird die Messung relativ zu dem präzise vermessenen Zerfall B C ! J= .C /K C durchgeführt, der zusätzlich eine hohe Anzahl an Signalkandidaten aufweist. Die Verzweigungshältnisse der Zerfälle B 0 ! C C und Bs0 ! C C können nun gemäß 0 B.Bd;s ! C C / D D NB 0 d;s ! NB C !J= C C .C /K C NB 0 d;s ! C C Lint b bN 2 fq "B 0 ; C C d;s ! "B C !J= .C /K C fu B.B C ! J= .C /K C /; "B 0 !C C fq d;s bestimmt werden. Hierbei ist N die gemessenen Anzahl an Signalereignissen und " die Signaleffizienz des Signal- und Normierungskanals. Die Hadronisierungswahrscheinlichkeit fq gibt an, 36 47. Herbstschule für Hochenergiephysik Maria Laach 2015 zu welchem Bruchteil b-quarks mit einem q D u; d; s Quark hadronisieren. Man sieht, dass durch die Verwendung eines Normierungskanals das Verzweigungsverhältnis nicht länger von N der integrierten Luminosität L und des b b-Wirkungsquerschnittes, b bN , abhängt. Sollte das durch das Standardmodell vorhergesagte Verzweigungsverhältnis korrekt sein, wird es kein messbares Signal geben. In diesem Fall wird die CLs Methode herangezogen, um obere Schranken für die Verzweigungsverhältnisse zu bestimmen. Bis zum jetzigen Zeitpunkt wurden die Daten ausschließlich mit entferntem Signalbereich in der B-Massenverteilung betrachtet. Dies soll sicherstellen, das die Analyse komplett unvoreingenommen durchgeführt wird. Aus diesem Grund wurden bisher nur erwartete obere Grenzen auf die Verzweiungsverhältnisse gemessen. Diese basieren auf der Annahme, dass keine Signalkandidaten beobachtet werden, während die Anzahl an Untergrundereignissen durch die Anpassung einer Exponentialfunktion an die Ereignisse unterhalb und oberhalb des Signalbereiches in der B-Massenverteilung gemessen wird. Die erwarteten oberen Ausschlussgrenzen belaufen sich auf B.Bs0 ! C C / < 2:3 10 9 ; und B.Bd0 ! C C / < 6:1 10 10 : Die weltbeste Grenze wurde von der LHCb-Kollaboration auf einem Drittel der hier analysieren Daten gemessen. Vergleicht man die aktuellen erwarteten oberen Grenzen mit denen der vorangegangenen Messung, sieht man eine Verbesserung um einen Faktor 6,9 im Falle von Bs0 ! p C C und 7,0 im Falle von B 0 ! C C . Eine Verbesserung um einen Faktor 3 1:7 ist auf den dreimal größeren Datensatz zurückzuführen. Weitere Verbesserungen sind eine bessere Wahl des Normierungskanals und die Verwendung eines multivariaten Klassifizierers. Die Analyse befindet sich dezeit in LHCb interner Begutachtung und wird Zeitnah veröffentlicht. E. Experimentelle Analysen 37 E-8 (B) Messung exklusiver Reaktionen mit dem COMPASS Experiment M ATTHIAS G ORZELLIK Physikalisches Institut, Universität Freiburg Die Beschreibung der Hadronen als Zustand aus Valenz Quarks eingebettet in einem See aus Quarks, Antiquarks und Gluonen und zusammengehalten durch die starke Wechselwirkung ist seit den 60er Jahren anerkannt. Die grundlegende Beschreibung der inneren Dynamik der Hadronen ist jedoch auch heute noch weitgehend unbekannt. Ein offenes Rätsel ist weiterhin die Zusammensetzung des Spins der Hadronen, im spezielleren des Protons. Frühe Experimente um 1985 stellten fest, dass die Beiträge durch die Helizitäten der Quarks und Antiquarks den Spin des Nukleons lediglich zu ca. 30% erklären können. Vor kurzem konnte das C OMPASS Experiment zeigen, dass entgegen vieler theoretischer Vermutungen auch eine Berücksichtigung der Gluonen nicht ausreicht, um den Spin des Nukleons aus den Beiträgen seiner Konstituenten zu erklären. Offen ist der Beitrag durch die Bahndrehimpulse der Quarks und Antiquarks. Dieser ist jedoch experimentell schwer zugänglich. Ein Zugang zu diesem Problem können Generalisierte Partonverteilungen (GPDs) bieten. Über eine von Ji eingeführte Summenregel können aus den GPDs letztendlich die Gesamtdrehimpulse der Partonen abgeleitet werden. Um diese experimentell zu bestimmen misst man in harten exklusiven Streuprozessen sogenannte Compton Formfaktoren, aus denen mit einem globalen Fitverfahren die Generalisierten Parton Verteilungen bestimmt werden. Diese Untersuchungen können am Fixed-Target Experiment C OMPASS am CERN/SPS durchgeführt werden. Dort werden tiefinelastische virtuelle Comptonstreuung (DVCS) und harte exklusive Mesonproduktion (HEMP) untersucht. Als Strahl dient ein hoch intensiver, polarisierter tertiärer C bzw. Strahl mit einem Impuls von 160 GeV. Das gestreute Myon sowie die weiteren Teilchen im Endzustand werden im C OMPASS Spektrometer nachgewiesen das durch seine zwei Stufen eine große Winkel- und Impuls Akzeptanz bietet. Die Teilchenidentifikation erfolgt durch einen ringabbildenden Tscherenkow Detektor und dem Myonsystem. Des Weiteren besitzt jede Spektrometerstufe elektromagnetische sowie hadronische Kalorimeter. Mit der Installation eines zusätzlichen elektormagnetischen Kalorimeters direkt hinter dem Target wurde die Akzeptanz für Photonen noch weiter erhöht. Eine zentrale Rolle bei den exklusiven Messungen spielt der 2012 neu installierte Detektor C AMERA welcher radial um das 2,5 m-lange unpolarisierte Flüssig-Wasserstoff Target angebracht ist. Erst durch den Nachweis des rückgestoßenen Protons wird die exklusive Messung ermöglicht. Die Auslese Elektronik des Detektors wurde von unserer Gruppe speziell entwickelt um den Anforderungen zur Identifikation des Protons anhand einer Flugzeitmessung gerecht zu werden. Zum Einsatz kommen hierbei 12 bit tiefe Analog zu Digitalwandler mit 1 GHz Samplingrate die in Echtzeit eine Pulse Feature Extraction vornehmen. Das System wird ergänzt durch einen digitalen Trigger, der seine Entscheidung basierend auf den Pulse Features mit einer Latenz von nur 1 Mikrosekunde trifft. Bei einem fünf wöchigen Testlauf Ende 2012 wurden mit diesem Aufbau erstmals Daten aufgezeichnet. Die Analyse der Daten setzt eine detaillierte Studie der Eigenschaften des C AMERA Detektors und im Besonderen der Digitalisierungselektronik voraus. Eine Möglichkeit den Detektor zu charakterisieren besteht in der Messung von harten exklusiven Streuprozessen. Als besonders spannend hat sich in diesem Zusammenhang die Bestimmung des Wirkungsquerschnitts 38 47. Herbstschule für Hochenergiephysik Maria Laach 2015 zur exklusiven 0 Erzeugung herausgestellt. Die Datenselektion bei der Messung des Wirkungsquerschnitts der exklusiven 0 Erzeugung besteht aus drei wesentlichen Schritten. Zuerst müssen Vertizes mit ihren ein- und auslaufenden Myonen gefunden werden, die gewissen Qualitätsansprüchen genügen. Dann werden Paare aus Clustern in den elektromagnetischen Kalorimetern gebildet, die zusammen mit den Vertizes zu Photonspuren bzw. zu der Spur des 0 führen. Im nächsten Schritt der Rekonstruktion werden die Spektrometer Informationen mit den Spuren der potentiellen Protonen im C AMERA Detektor vereinigt. Zusätzliche Schnitte auf die Erfüllung kinematischer Bedingungen stellen sicher, dass beim vorliegenden Ereignis keine weiteren Teilchen produziert wurden. Als weiterer Indikator für die Exklusivität des Prozesses wird ein kinematischer Fit hinzugezogen. Der verbleibende nicht abtrennbare Untergrundanteil und die experimentelle Akzeptanz wurden mit umfangreichen Monte Carlo Methoden untersucht. Gefördert vom BMBF und dem DFG Research Training Group Programme GRK 2044. E. Experimentelle Analysen 39 E-9 (C) Messung der Kopplung des Higgs-Bosons an Leptonen im Zerfall H ! ! 2l4 mit dem ATLAS Detektor A LENA L ÖSLE Albert-Ludwigs-Universität Freiburg Eine der wichtigsten Aufgaben der Experimente am Large Hadron Collider (LHC) ist es, zu überprüfen, ob das im Juli 2012 entdeckte Higgs-Boson [1,2] in seinen Eigenschaften den Vorhersagen des Standardmodels (SM) entspricht. Hierbei ist unter anderem von Bedeutung, wie sich die Kopplung des Higgs-Bosons an andere Teilchen verhält. Der Zerfall in zwei -Leptonen H ! ermöglicht es, die Kopplung des Higgs-Boson an Fermionen p zu untersuchen. p Basierend auf Daten, die in Run 1 bei Schwerpunktsenergien von s D 7 TeV und s D 8 TeV mit integrierten Luminositäten von jeweils 4.5 fb 1 und 20.3 fb 1 aufgenommen wurden, konnte die Kopplung des Higgs-Bosons an -Leptonen mit einer beobachteten (erwarteten) Signifikanz von 4.5 (3.4) Sigma mit dem ATLAS-Detektor gemessen werden [3]. Die gemessene Signalstärke von D 1:43C0:43 0:37 , definiert als das Verhältnis von gemessenem Wirkungsquerschnitt zu SM Wirkungsquerschnitt D M es =SM , stimmt hierbei mit den Vorhersagen des SM überein. p Die aktuelle Datennahme in Run 2 bei einer Schwerpunktsenergie von s D 13 TeV ermöglicht es, den Prozess H ! noch genauer zu untersuchen. Ein -Lepton kann sowohl leptonisch, in Elektronen oder Myonen, als auch hadronisch zerfallen. Somit können im Zerfallskanal H ! drei Endzustände klassifiziert werden: der vollleptonische, der semi-leptonische und der voll-hadronische Endzustand. In meiner Doktorarbeit beschäftige ich mich mit der Analyse des voll-leptonischen Endzustandes H ! ! 2l4. Obwohl dieser Kanal die geringste Zerfallswahrscheinlichkeit aufweist, profitiert er von hohen Effizienzen der Lepton-Trigger und geringere Untergrundbeiträge durch Multijet-Produktion im Vergleich zu den semi-leptonischen und voll-hadronischen Endzuständen. In der Analyse des voll-leptonischen Kanals wird nach einem Endzustand mit zwei Leptonen und fehlender transversaler Energie durch die beteiligen Neutrinos gesucht. Hierbei ist ein wichtiger Untergrundbeitrag durch Prozesse mit fehlidentifizierten oder nicht-prompten Leptonen, so genannte fake Leptonen, gegeben. Da für diese Prozesse Simulationen keine ausreichend präzise Beschreibung liefern, muss der fake Untergrund mit Hilfe von datenbasierten Methoden abgeschätzt werden. Ich beschäftige mich mit der Abschätzung des fake Untergrundes mithilfe der Matrix Methode, die auf der Messung von Effizienzen für reale und fake Leptonen in Daten basiert. Hierbei werden Unterschiede in der Identifikation von realen und fake Leptonen genutzt, indem zwei Kategorien mit unterschiedlichen Selektionsanforderungen an die Leptonen betrachtet werden: Die erste Kategorie, genannt harte Kategorie, entspricht der nominellen Lepton-Selektion, während die zweite Kategorie, die sogenannte lose Kategorie, schwächere Anforderungen an die Selektion der Leptonen stellt. Die harte Kategorie enthält hauptsächlich Ereignisse mit realen Leptonen, während die lose Kategorie einen erhöhten Beitrag von Ereignissen mit fake Leptonen aufweist. Die Effizienz für reale (fake) Leptonen ist dann definiert als der Bruchteil von Ereignissen mit realen (fake) Leptonen der losen Kategorie, die zusätzlich den Anforderungen der harten Kategorie genügen. Die Effizienz für reale Leptonen wird mit Hilfe einer tag-and-probe Methode in Z ! ee; Ereignissen gemessen, während die Effizienz für fake Leptonen in einem Datensatz mit zwei gleich geladenen Leptonen bestimmt wird, welcher durch 40 47. Herbstschule für Hochenergiephysik Maria Laach 2015 Ereignissen der Multijet-Produktion dominiert ist. Mit Hilfe der Matrix Methode können somit Untergrundbeiträge durch Prozesse mit mindestens einem fake Lepton abgeschätzt werden. In meinem Vortrag stelle ich die H ! Analyse im voll-leptonischen Endzustand vor und gehe hier besonders auf die Abschätzung des fake Untergrundes ein. Im Anschluss werden ersp te Ergebnisse der Analyse bei s D 13 Te mit einer integrierten Luminosität von mindestens 8.3 fb 1 aus den Jahren 2015 und 2016 mit dem ATLAS-Detektor vorgestellt. Œ1 ATLAS Collaboration, Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC, Phys. Lett. B716 (2012), arXiv:1207.7214 Œhep-ex. Œ2 CMS Collaboration, Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC, Phys. Lett. B716 (2012), arXiv:1207.7235 Œhep-ex. Œ3 ATLAS Collaboration, Evidence for the Higgs-boson Yukawa coupling to tau leptons with the ATLAS detector, JHEP 04 (2015), arXiv:1501.04943 Œhep-ex E. Experimentelle Analysen 41 E-10 (A) Suche nach schweren Top-Squarks im hadronischen Endzustand mit dem ATLAS Detektor P HILIPP M OGG Albert-Ludwigs-Universität Da das Standardmodell der Teilchenphysik nicht alle offenen Fragen vollständig beantworten kann, ist eins der primären Ziele des Large Hadron Colliders die Suche nach Physik jenseits des Standardmodells. Ein Modell, das Erklärungen zu vielen offenen Fragen des Standardmodells anbietet, ist Supersymmetrie. Durch eine zusätzliche Symmetrie zwischen Bosonen und Fermionen ergibt sich als Konsequenz zu jedem Standardmodell-Teilchen mit Spin S ein supersymmetrischer Partner mit Spin S 12 . Die Entdeckung eines solchen Teilchens könnte den Beweis für Supersymmetrie erbringen, bisher wurde aber keine signifikante Abweichung vom Standardmodell gemessen und große Bereiche des Parameterraums, vor allem bei niedrigen Teilchen-Massen, konnten bereits ausgeschlossen werden. Der supersymmetrische Partner des Top-Quarks t, das sogenannte Top-Squark tQ, könnte einen der leichtesten Massen-Eigenzustände unter den messbaren supersymmetrischen Teilchen haben. Am LHC könnte dieses dann in Paarproduktion erzeugt werden. Top-Squarks zerfallen, falls kinematisch erlaubt, in Top-Quarks und Neutralinos Q 01 – die leichtesten supersymmetrischen Teilchen, die als stabil angenommen werden und den Detektor ohne Wechselwirkung verlassen, wodurch fehlender Transversalimpuls erzeugt wird. Die vorgestellte Analyse befasst sich mit dem vollständig hadronischen Zerfallskanal. Standardmodell-Prozesse, die Jets und fehlenden Transversalimpuls erzeugen, kommen als Untergrundprozesse in Frage, ebenso wie Prozesse, die zusätzlich ein Lepton erzeugen, das fälschlicherweise nicht als solches identifiziert wird. Die wichtigsten dieser Prozesse sind Z C Jet, W C Jet, sowie Top- und Top/Antitop-Paar-Produktion. Zur Abschätzung dieser Prozesse wurden Kontrollregionen definiert, deren Methodik vorgestellt wird. Da der Wirkungsquerschnitt des zu findenden Signals sehr klein ist im Vergleich zu denen der Untergrundprozesse, ist eine sehr harte Selektion mit sinnvollen Variablen notwendig, um brauchbare Signalregionen zu erhalten. Eine besondere Rolle spielen dabei die Identifizierung von b-Jets und die Rekonstruktion von Top-Kandidaten. Mehrere Signalregionen wurden definiert, um verschiedene Bereiche der .tQ; Q 01 /-Massen-Ebene sowie auch andere Prozesse mit ähnlichem Endzustand abzudecken (Gluino-Paarproduktion, t tN C pDunkle Materie). Diese werden vorgestellt und Ergebnisse mit den neusten Messdaten bei s D 13 TeV präsentiert und interpretiert. 42 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-11 (B) Suche nach schweren langlebigen geladenen Teilchen mit dem ATLAS-Detektor M ICHAEL A DERSBERGER Ludwig-Maximilians Universität München Eine vielverspechende Suche nach neuer Physik mit dem ATLAS-Detektor stellt die Suche nach schweren langlebigen geladenen Teilchen dar. Solche langlebigen Teilchen werden in vielen Theorien außerhalb des Standardmodells der Teilchenphysik vorhergesagt. In unserer Analyse betrachten wir Teilchen deren Lebenszeit ausreicht, den Detektor zu durchqueren. Aufgrund der hohen Masse der Teilchen durchqueren sie den Detektor mit Geschwindigkeiten signifikant kleiner als die für Standardmodell-Teilchen erwartete Lichgeschwindigkeit. Daraus ergeben sich die zwei wichtigsten Observablen für die Suche nach stabilen massiven Teilchen: Flugzeit und spezifischer Energieverlust. Der spezifische Energieverlust und die Flugzeiten der Teilchen können in verschiedenen Subdetektoren gemessen werden. In meinem Vortrag gehe ich im speziellen auf die Flugzeitmessung im hadronischen Kalorimeter des ATLAS-Detektors und deren Kalibration ein. Die Flugzeitmessung im hadronischen Kalorimeter und die Messung des spezifischen Energieverlustes mit p dem Pixeldetektor wurden verwendet, um in den ersten Daten bei s D 13 TeV nach stabilen langlebigen Teilchen zu suchen. Auch die Ergebnisse dieser Analyse und die daraus gezogenen Erkenntnisse für zukünftige Suchen werden Teil meines Vortrags sein. E. Experimentelle Analysen 43 E-12 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton und vielen Jets am ATLAS Experiment N IKOLAI H ARTMANN LMU München Viele supersymmetrische Modelle sagen die Produktion von schweren Teilchen durch die starke Wechselwirkung in Proton-Proton Kollisionen vorher. Je nach Massenhierarchie können diese Teilchen über mehrere Schritte zerfallen. Dies führt zu Endzuständen mit hochenergetischen Jets. In Ereignissen, die zusätzlich noch ein Lepton (Muon oder Elektron) enthalten ergeben sich Möglichkeiten Untergründe stark zu reduzieren. Signalereignisse erzeugen diese Leptonen beispielsweise aus dem Zerfall von Eichbosonen die wiederum aus dem Zerfall von in supersymmetrischen Modellen vorhergesagten Neutralinos oder Charginos kommen. Sowohl der Zerfall von W-Bosonen in ein Lepton und ein Neutrino, als auch ein stabiles “lightest supersymmetric particle” (LSP) führen zu hoher fehlender transversaler Energie (ETmiss ). Letzteres ist eine zwangsläufige Konsequenz in R-Parität-erhaltenden Szenarien. Zu Beginn des zweiten LHC Runs 2015 lag der Fokus der ATLAS Suche in diesem Kanal auf einem vereinfachten Modell eines Gluinozerfalls über eine Zwischenstufe. Mit Hilfe von Signalregionen, die mindestens 2-6 Jets verlangen, konnten in diesem Modell mit den 2015 aufgenommenen ATLAS Daten Gluinomassen bis zu 1.6 TeV ausgeschlossen werden, je nach Massenspektrum des vereinfachten Modells. Eine mögliche Erweiterung der Suche bieten Szenarien mit höherer Jet Multiplizität. Benchmarkmodelle hierfür sind vereinfachte Modelle mit Gluinozerfällen über mehr als eine Zwischenstufe und Modelle aus dem Parameterraum des phänomenologischen minimalen supersymmetrischen Standardmodells (pMSSM). Eine Suche in Ereignissen mit mindestens 8 Jets bietet hier gute Sensitivität. Im Vortrag wird die Optimierung dieser Signalregion und die Methoden zur Untergrundabschätzung präsentiert. Wie auch in den 2-6 Jet Signalregionen mit einem Lepton kann hier der Hauptuntergrund durch top-quark Paarproduktion (in semi-leptonischem Zerfall) und W+jets durch einen Schnitt auf die “transverse Masse” von Lepton und ETmiss stark reduziert werden. Diese Größe hat eine vergleichbare Verteilung in Ereignissen mit unterschiedlicher Anzahl Jets, was eine Abschätzung des Untergrunds unter Zuhilfenahme von Daten in Ereignissen mit weniger Jets erlaubt. Dadurch kann die Abhängigkeit von simulierten Ereignissen, die in diesem Regime sehr approximativ sind, minimiert werden. 44 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-13 (A) Analyse des B ! .0/` Zerfalls mit dem BelleDetektor ohne Rekonstruktion des zweiten B-Mesons U WE G EBAUER II. Physikalisches Institut, Universität Göttingen Das Belle-Experiment am japanischen Forschungszentrum KEK in Tsukuba wurde genutzt, um einen großen Datensatz an Ereignissen auf der (4S)-Resonanz aufzunehmen. Das (4S) zerfällt fast ausschließlich in Paare von B-Mesonen, wodurch es ideal geeignet ist, um Zerfälle von b-Quarks zu untersuchen. Durch die hohe Anzahl gemessener Ereignisse kann nicht nur der dominierende Übergang b ! c, sondern auch der CKM-unterdrückte Übergang b ! u untersucht werden, wie er auch in den semileptonischen Zerfällen B ! ` und B ! 0 ` vorkommt. Diese beiden Zerfälle zu rekonstruieren ist das Ziel dieser Analyse. Das auftretende -Meson wird in seinerseits in zwei Zerfallskanälen rekonstruiert, ! und ! C 0 . Für das 0 werden ebenfalls zwei Zerfälle berücksichtigt, 0 ! C und 0 ! 0 . Für das dabei auftretende werden beide oben genannten Zerfälle berücksichtigt. Zusätzlich zum hier rekonstruierten B-Meson entsteht im Zerfall des (4S) immer noch ein weiteres, zufällig zerfallendes. Würde auch dieses rekonstruiert, so könnte das nicht direkt messbare Neutrino aus dem im Vergleich zwischen Strahlenergie und rekonstruierten Teilchen fehlenden geschlossen werden. Damit wäre der Zerfall vollständig rekonstruiert und eine genaue Bestimmung seiner Parameter möglich. Durch die Anzahl der dafür verfügbaren Zerfallskanäle des zweiten B-Mesons verringert dies allerdings die Gesamtrekonstruktionseffizienz um einen Faktor 1000. In dieser Analyse wird deshalb auf die Rekonstruktion des Zerfalls des zweiten B-Mesons verzichtet, die Rekonstruktion des Neutrinos erfolgt über Aufsummieren aller im Detektor gemessener Teilchen anstelle von explizit rekonstruierten Zerfallsbäumen. Da eine Vielzahl von Teilchen des Endzustands hierbei nicht zugewiesen wird, ist insbesondere der kombinatorische Untergrund sehr hoch. Um diesen zu verringern werden Boosted Decision Trees (BDTs) eingesetzt. Für jeden rekonstruierten Zerfallskanal werden zwei dieser BDTs eingesetzt, einer zur Verringerung von über ein (4S) entstehenden, dem Signal topologisch ähnlichen Untergrundzerfällen, und ein weiterer gegen Ereignisse, in denen direkt ein Paar von leichteren Quarks entstand. Aus beiden BDTs wird zweidimensional der kombinierte Schnittwert mit dem besten resultierenden Signalzu-Untergrund Verhältnis gewählt. Aus den nach dem BDT-Einsatz noch vorhandenen Ereignissen wird mit einem zweidimensionalem Fit an die Monte Carlo-Verteilungen von Signal und Untergrundkomponenten die Anzahl an vorhandenen Signalereignissen, und daraus das Verzweigungsverhältnis bestimmt. Abschließend werden die erwarteten statistischen und systematischen Fehler abgeschätzt. E. Experimentelle Analysen 45 E-14 (B) Bestimmung der Strahlpolarisation am International Linear Collider ROBERT K ARL DESY Der International Linear Collider (ILC) ist ein zukünfiger Elektron-Positron-Linearbeschleuniger mit einer Schwerpunktsenergie bis zu 500 GeV, erweiterbar bis 1 TeV. Am ILC wird der Elektronenstrahl zu 80% und der Positronenstrahl zu mindestens 30% polarisiert sein. Das Vorzeichen der Polarisation lässt sich für beiden Strahlen unabhänig voneinander frei wählen, um somit Messungen bei verschiedenen Spinkonfigurationen durchführen zu können. Dies erlaubt einzigartige Untersuchungen der chiralen Kopplungen von Standardmodell-Teilchen (z.B. von Top-Quarks) und auch von potentiellen, noch unentdeckten Teilchen. Um das Potential des ILC voll auszuschöpfen, muss die Genauigkeit der Strahlpolarisation im Promillebereich liegen. Dies bedeutet ungefähr einen Faktor 2 bis 5 genauer als bisher bei hochenergietischen Teilchenbeschleunigern erreicht wurde. Um diese Genauigkeit am ILC zu erreichen, müssen zwei komplementäre Methoden der Strahlpolarisationsmessung kombiniert werden. Die Erste ist eine zeitaufgelöste Messung der Strahlpolarisation mit Hilfe von Laser-ComptonPolarimetern. Dabei werden einige wenige Teilchen pro Teilchenpaket mit einem polarisierten Laser Compton-gestreut und die Strahlpolarisation aus dem Energiespektrum der gestreuten Teilchen bestimmt. Bei beiden Strahlen befinden sich die Polarimeter 1.65 km vor und 150 m hinter dem e C e -Wechselwirkungspunkt. Deswegen muss die gemessene Strahlpolarisation noch mittels Spintransport zum Wechselwirkungspunkt extrapoliert werden. Dies erlaubt eine statistische Genauigkeit von 0:25% bereits nach einigen Teilchenpaketen. Die zweite Methode der Strahlpolarisationsmessung ist die Bestimmung aus Kollisionsdaten. Sie liefert ein Langzeitmittel der Strahlpolarisation gewichtet mit der Luminosität direkt am Wechselwirkungspunkt. Durch Messung der relativen Häufigkeit eines Standardmodellprozesses bei den verschiedenen Spinkonfigurationen lässt sich die Strahlpolarisation mit Hilfe der chrialen Struktur des Prozesses bestimmen. Dabei müssen die verwendeten Prozesse genau bekannt sein, um die theoretische Unsicherheit zu minimieren. Außerdem sollten die verwendeten Prozesse eine hohe Rate bzw. große Recht-Links-Asymmetrie besitzen, um den statistischen bzw. systematischen Fehler zu minimieren. Des Weiteren ist darauf zu achten, dass Ereignisse der einzelnen Prozesse entweder für die Bestimmung der Strahlpolarisation oder für eine andere Analyse verwendet werden. Das Ziel dieser Studie ist eine globale Analyse der Polarisationsbestimmung aus allen geeigneten Kollisionsprozessen und den Polarimetermessungen unter Berücksichtigung sämtlicher statistischer und systematischer Unsicherheiten einschließlich möglicher Korrelationen. Dies beinhaltet sowohl die theoretischen Unsicherheiten der einzelnen Prozesse, als auch experimenteller Unsicherheiten des Detektors, bis hin zu Unsicherheiten aufgrund der Polarimetermessung und deren Extrapolation zum Wechselwirkungspunkt. 46 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-15 (C) Suche nach paarproduzierten vektorartigen Quarks in Endzuständen mit Leptonen und hochenergetischen Higgsp Bosonen bei s = 13 TeV mit dem CMS Experiment D OMINIK N OWATSCHIN Universität Hamburg Die Entdeckung des Higgs-Bosons im Jahre 2012 am LHC warf erneut die Frage nach der Natürlichkeit des Standardmodells auf. Um Schleifenkorrekturen zu dessen Masse aufzuheben und dabei gleichzeitig ein erhebliches Feintuning der entsprechenden Parameter zu vermeiden sind neue Teilchen mit Massen im TeV Bereich erforderlich. Während diese Aufgabe in supersymmetrischen Theorien von bosonischen “Top Squarks” übernommen wird, sagen viele andere Theorien, wie beispielsweise “Little Higgs” und “Composite Higgs” Modelle, fermionische Parter für Standardmodell Quarks voraus. Man erwartet, dass bei diesen Teilchen Mischterme mit Quarks der dritten Generation dominieren. Desweiteren besitzen sie eine vektorartige Struktur im elektroschwachen Interaktionsterm des dazugehörigen Lagrangians. Dies ist erforderlich, da chirale Erweiterungen des Quarksektors des Standardmodells durch Präzisionsmessungen elektroschwacher Interaktionen in Elektron-Positron Kollisionen und durch direkte Messungen von Wirkungsquerschnitten des Higgs-Bosons experimentell ausgeschlossen wurden. Die hier vorgestellte Suche beschäftigt sich mit vektorartigen Top-Quark-Partnern (“T”) in ProtonProton Kollisionen bei einer Schwerpunktsenergie von 13 TeV, wobei mindestens ein Elektron oder Muon im Endzustand gefordert wird, um Untergründe durch QCD Multi-Jet Produktion zu unterdrücken. Die Analyse basiert auf Daten, die 2015 mit dem CMS Detektor aufgenommen wurden und einer integrierten Luminosität von 2,7 fb 1 entsprechen. Die Masse dieser T-Quarks ist ein freier Parameter und wurde durch vorangegangene Messungen mit 8 TeV Daten sowohl bei ATLAS als auch bei CMS auf Werte oberhalb von etwa 700 GeV eingeschränkt. Da in diesem Massenbereich die Paarproduktion mittels der starken Wechselwirkung gegenüber der Einzelproduktion dominiert, konzentriert sich diese Analyse auf diesen Produktionsprozess. Erlaubte Zerfallskanäle des T-Quarks sind die nach einem Top-Quark und einem Higgs-Boson, einem Top-Quark und einem Z-Boson und nach einem Bottom-Quark und einem W-Boson, wobei die individuellen Zerfallsbreiten sehr von dem zugrundeliegenden Modell abhängen und stark variieren können. Aus diesem Grund werden diese in experimentellen Suchen üblicherweise als freie Parameter angenommen und alle möglichen Kombinationen von Verzweigungsverhältnissen werden untersucht. Diese Suche konzentriert sich vor allem auf den Zerfall nach Top-Quarks und Higgs-Bosonen, da andere Zerfallskanäle und die entsprechenden Endzustände durch andere Suchen in CMS abgedeckt werden. Durch die bereits sehr hohe Masse der T-Quarks in dem untersuchten Massenbereich erhalten die Teilchen aus dessen Zerfall - wie etwa Top-Quarks und Vektorbosonen - einen sehr hohen Transversalimpuls, was dazu führt, dass deren Zerfallsprodukte wiederum sehr stark gebündelt sein können und räumlich nur gering voneinander getrennt sind. Dadurch wird die Rekonstruktion der entsprechenden Endzustände erschwert, so können beispielsweise zwei aus einem Higgs Zerfall resultierende Bottom-Quarks in diesem Fall nicht mehr als separate Jets rekonstruiert werden, sondern nur noch als ein einziger Jet mit einem größeren Jet Radius. In dieser Suche wird dieser Umstand jedoch vorteilhaft ausgenutzt, indem die sogenannte Substruktur dieser größeren Jets durch spezielle Algorithmen aufgelöst wird. Damit wird konkret versucht, den bereits erwähnte Zerfall eines Higgs-Bosons nach zwei Bottom-Quarks E. Experimentelle Analysen 47 zu rekonstruieren, da hierbei Substrukturalgorithmen zusammen mit Algorithmen kombiniert werden können, die die charakteristische Signatur von Bottom-Quark Zerfällen auflösen. Diese Vorgehensweise ermöglicht eine sehr gute Trennung von Untergrund und Signal und trägt zu einer signifikanten Verbesserung der Sensitivität der Suche bei. In meinem Vortrag werde ich weitere Details über die verwendete Selektion und die statistische Auswertung in dieser Suche vorstellen. Anschließend werde ich die ersten Resultate präsentieren und einen Ausblick auf die weitere Datennahmeperiode mit möglichen Verbesserungen der Analyse geben. 48 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-16 (A) Suche nach dem Higgs-Boson in H ! Z -Zerfällen mit dem ATLAS-Detektor DANIEL R AUCH Deutsches Elektronen-Synchrotron (DESY) Im Jahr 2012 wurde von ATLAS und CMS die Entdeckung eines Bosons mit einer Masse von etwa 125 GeV bekannt gegeben, das im Zuge der Suche nach dem Higgs-Teilchen gefunden wurde. Die ersten Entdeckungskanäle waren die Zerfälle in Paare von Photonen sowie W - und Z-Bosonen. Neben dem Endzustand mit 2 Photonen kann das Higgs-Teilchen auch in ein Photon und ein ZBoson zerfallen. Der Zerfall in Z erfolgt dabei mit ähnlicher Häufigkeit wie in , bei Selektion der Z-Boson-Zerfälle in Paare von Elektronen und Myonen sinkt das Zerfallsverhältnis jedoch auf etwa 5% im Vergleich zu dem von H ! . Deutlich häufiger tritt der Zerfall in Hadronen auf, der jedoch kompliziertere Untergründe aufweist. Die Kopplung des Higgs-Bosons an Z und ist sensitiv auf Beiträge durch mögliche zusätzlich zum Standardmodell auftretende geladene Skalare, Leptonen oder Vektorbosonen in der HZ-Schleife sowie auf eine mögliche andere Beschaffenheit des Higgs-Teilchens (compositeness). Auf Grundlage der Daten aus Run 1 veröffentlichte ATLAS Ergebnisse der Suche nach dem Zerfall des Higgs-Bosons in Z. Zur Erhöhung der Sensitivität der Suche wurden die selektierten Ereignisse in verschiedene Kategorien aufgeteilt, basierend auf verschiedenen kinematischen Eigenschaften. Als Ergebnis wurde eine obere Grenze auf die Signalstärke im Vergleich zur Standardmodell-Erwartung gesetzt. Im Endzustand mit einem leptonisch zerfallenden Z-Boson und einem Photon lässt sich darüberhinaus nach weiteren Resonanzen mit höheren Massen suchen. Nachdem Ende des Jahres 2015 von ATLAS und CMS ein leichter Überschuss an Ereignissen in der invarianten Massenverteilung von Photonpaaren bei etwa 750 GeV berichtet wurde, konzentrieren sich die ersten ZAnalysen bei 13 TeV zunächst auf die Suche nach Resonanzen in der Massenregion oberhalb der Higgs-Masse. In diesem Vortrag wird die Konzeption der Suche nach H=X ! Z in ATLAS dargestellt und es werden Ergebnisse aus Run 1, einige Studien zu systematischen theoretischen Unsicherheiten in Zusammenhang mit der Kategorisierung der Events sowie Resultate der Suche in der Region mit großer invarianter Masse bei 13 TeV vorgestellt. E. Experimentelle Analysen 49 E-17 (B) Suche nach Einzelproduktion von schweren vektorartigen T-Quarks mit Zerfall in ein Higgs-Boson und ein TopQuark H EINER T HOLEN Universität Hamburg Über die letzten Jahrzehnte wurden mehrere Nicht-SUSY-Theorien formuliert, die nach neuen Erkenntnissen über die elektroschwache Symmetriebrechung und die Stabilisierung der HiggsBoson Masse suchen. Einige dieser Theorien sagen die Existenz von vektorartigen Quarks voraus, beispielsweise “Little Higgs”, “Composite Higgs” und Theorien mit Extradimensionen. Vektorartige Quarks haben ein gleichartiges Transformationsverhalten ihrer links- und rechtshändigen Komponenten unter der elektroschwachen Symmetriegruppe SU.2/L U.1/Y des Stanerhalten, im Gegendardmodells. Daraus folgt, dass sie direkte Massenterme in der Form m satz zu den chiralen Quarks des Standardmodells, welche ihre Masse aus einer Yukawa Interaktion beziehen. Mit der Entdeckung des Higgs-Bosons durch die ATLAS und CMS Kollaborationen wurde die Existenz einer vierten Generation chiraler Fermionen ausgeschlossen. Da vektorartige Quarks jedoch nur einen schwachen Einfluss auf die Eigenschaften des Standardmodell Higgs-Bosons hätten, sind diese durch die Entdeckung des Higgs-Bosons nur schwach eingeschränkt. Ich präsentiere die Suche nach vektorartigen Top-Quark Partnern mit der elektrischen Ladung 2=3 e (T) inp Einzelproduktion. Die Einzelproduktion dieser Teilchen bei einer Schwerpunktsenergie von s D 13 TeV ist von besonderem Interesse, da ihre Produktionsrate mit steigender Teilchenmasse über die der Paarproduktion steigt. Die oben genannten Modelle präferieren den Zerfall des T-Quarks in Standardmodell Quarks der dritten Generation assoziiert mit Bosonen, was in den Zerfallskanälen tH, tZ und bW resultiert. Durch direkte Suchen der CMS und ATLAS Kollaborationen wurde das T-Quark unterhalb einer Masse von 715 bis 950 GeV bereits ausgeschlossen, abhängig von den angenommenen Zerfallsbreiten. Die Analyse wird mit Daten durchgeführt, p die 2015 mit dem CMS Experiment am CERN LHC bei einer Schwerpunktsenergie von s D 13 TeV aufgezeichnet wurden. Die Suche ist für den Zerfall des T-Quarks in ein Higgs-Boson und ein Top-Quark optimiert, wobei der Zerfall des Top-Quarks ein Elektron oder Myon aufweist und der Zerfall des Higgs-Bosons in Bottom Quarks verlangt wird. Beide Zerfallsprodukte, das Higgs-Boson sowie das Top-Quark, erhalten bei T-Quark Massen im TeV Bereich eine hohe kinetische Energie, was zur Bündelung von ansonsten isolierten Jets der Teilchen im Endzustand führt. Auch Leptonen sind im Endzustand wenig isoliert und überlappen häufig mit einem benachbarten Jet. Eine sogenannte “Substruktur Analyse” in Kombination mit Algorithmen zur Identifikation von Bottom Quark Zerfällen (b Tagging) wird angewendet um eine effiziente Identifizierung von hochenergetischen HiggsBosonen zu ermöglichen. Für jedes Ereignis wird eine Massenhypothese des T-Quarks aufgestellt. Diese Variable wird als finale diskriminierende Größe in einem kombinierten Signal plus Untergrund Fit an die Daten verwendet, wobei die Form des Untergrunds vollständig aus den Daten selbst bestimmt wird. Die dominierenden Untergrundprozesse stammen von Top-Quark Paar Produktion bei hohen transversalen Impulsen der Top-Quarks, gefolgt von W+Jets und QCD Multijet Prozessen. Keine signifikante Abweichung der Daten vom erwarteten Standardmodell Untergrund wird beobachtet. Es werden Ausschlussgrenzen auf den Produktionswirkungsquerschnitt mal Zerfalls- 50 47. Herbstschule für Hochenergiephysik Maria Laach 2015 breite sowie auf die elektroschwache Kopplungsstärke des T-Quarks im Massenbereich von 700 GeV bis 1800 GeV berechnet. Für eine Masse von 1000 GeV wird einen Wirkungsquerschnitt in der Einzelproduktion von über 0,9 und 0,6 pb für links- und rechtshändige Kopplung an Standardmodell Teilchen ausgeschlossen. E. Experimentelle Analysen 51 E-18 (C) Nicht-lineare Energiekalibration für Jets im Level-1 Kalorimeter Trigger bei ATLAS T HOMAS S PIEKER Kirchhoff-Institut für Physik Der Large Hadron Collider (LHC) am CERN liefert Teilchenkollisionen an den Interaktionspunkten mit einer Rate von 40 MHz. Das Trigger System in ATLAS wird benötigt um diese Rate auf einen Bruchteil zu reduzieren und somit nur Kollisionen zu speichern, die für die verschiedenen Analysen wichtig sind. Das Speichern aller Kollisionen wäre aufgrund der riesigen Datenmenge schlicht unmöglich. Der Level-1 Trigger von ATLAS ist der erste von zwei Trigger-Stufen (die zweite Stufe ist der High-Level-Trigger (HLT)). Hier wird innerhalb von 2.5 s entschieden ob eine Kollision wichtig ist oder nicht. Damit wird die Datenrate auf etwa 75 kHz reduziert. L1Calo ist ein Teil des Level-1 Triggers und nutzt Energie Depositionen in den Kalorimetern um verschiedene hoch-energetische Objekte herauszufiltern und Energiesummen zu bilden, um nach fehlender transverser Energie zu suchen. Aufgrund der kurzen Latenzzeit für die Trigger Entscheidung werden die Kalorimeter nicht in der vollen Granularität ausgelesen, sondern gruppiert in etwa 7200 Trigger Towern. Die in den Trigger Towern gemessenen analogen Impulse, werden für jede Kollision digitalisiert, durch Filter verstärkt und mit Hilfe einer Tabelle (LookUp Table - LUT) in eine Energie konvertiert. Die Energiekalibration für elektromagnetische und hadronische Objekte ist bislang die gleiche, wobei die LUT mit einer linearen Funktion gefüllt wird. Eine Rauschschwelle schneidet Trigger Tower mit niedriger Energie (die nur Hintergrundrauschen darstellen) heraus und setzt ihre Energie 0. Seit der Weiterentwicklung der L1Calo Hardware, die 2014 installiert wurde, ist es möglich eine zweite LUT zu laden. Um die Energieverteilung der hadronischen Objekte besser zu modellieren, wird eine nicht-lineare Energiekalibration untersucht. Ziel der Analyse ist es die Auflösung der Energie von Jets in L1Calo im Vergleich zur Jet Energie mit voller Granularität zu verkleinern. Gewählt wurde hierfür ein die folgende Funktion E D a C b x C c exp. d x/. In einer Analyse mit Daten die 2012 aufgenommen wurden, konnte gezeigt werden, dass die Auflösung dadurch verbessert werden kann. Die Wahl der Parameter a, b, c, d , sowie das Anpassen der Rauschschwelle stammt aus einer Optimierung der Auflösung. Die Auflösung der Energie ist hauptverantwortlich für das Ansprechverhalten des Triggers. In Analysen werden in der Regel Trigger benutzt, die eine mindestens 99% Effizienz haben. Alle getriggerten Events unterhalb des 99% Punktes wurden daher unnötigerweise gespeichert. Ist die Energie-Auflösung von Jets besser, so wird auch das Ansprechverhalten der Jet Trigger steiler, was einer kleinere fake-Rate zur Folge hat. Da sich 2015 und erneut in 2016 die Verhältnisse am LHC und die Einstellungen des Detektors verändert haben, wird nun untersucht, wie stabil eine solche Verbesserung ist. Außerdem muss die Verbesserung groß genug sein, um die zusätzliche Komplexität der neuen LUT in Kauf zu nehmen. 52 47. Herbstschule für Hochenergiephysik Maria Laach 2015 0 E-19 (A) Erste Beobachtung des Zerfalls 0b ! C c D K und Messung des relativen Verzweigunsverhältnisses mit dem LHCb-Experiment 0 B.0b !C c D K / B.0b !C c Ds / M ARIAN S TAHL Physikalisches Institut, Universität Heidelberg Eines der Alleinstellungsmerkmale des LHCb-Experiments ist die hohe Produktionsrate von bBaryonen und die Möglichkeit deren Zerfälle mithilfe exzellenter Teilchenidentifikation und Impulsauflösung exklusiv zu rekonstruieren. Vor kurzem veröffentlichte LHCb eine Analyse des Zerfalls 0b ! J= pK die zur ersten Beobachtung zweier mit Pentaquark-Zuständen kompatiblen Resonanzen im J= p Subsystem (ccuud) führte [1, 2]. Um die Natur dieser exotischen Baryonen besser zu verstehen werden Messungen weiterer moeglicher Zerfallskanaele benoetigt. 0 C 0 Der Prozess 0b ! C c D K erlaubt die Untersuchung von Resonanzen im c .cud/D .cu/System, in dem Pentaquark-Zustände in einigen phenomenologischen Modellannahmen erlaubt, in anderen verboten sind. C Die experimentellen Herausforderungen des Zerfalls 0b ! pK C C K D0 K liec gen in der Multiplizität der hadronischen Endzustände. Trotz effizienter Rekonstrokutionsalgorithmen muss die Analyse auf deutlich kleineren Datenmengen ausgeführt werden als 0b ! J= pK . Des weiteren erfordert eine zukünftige Amplitudenanalyse Kenntnis über die C c HeC C lizität, welche wiederum eine Amplitudenanalyse des c ! pK Zerfalls benötigt. Die Bestimmung des relativen Verzweigunsverhältnisses 0 0 N.0b ! C ".0b ! C B.Ds ! KC K / B.0b ! C c D K / c Ds / c D K / D 0 B.0b ! C N.0b ! C ".0b ! C B.D0 ! KC / c Ds / c Ds / c D K / erfordert Messungen der Signalausbeute beider Kanäle und der relativen Effizienzen für Selektion, Rekonstruktion und Generation von Monte Carlo Ereignissen. Aufgrund der sechs hadronischen Spuren sind kombinatorische Untergründe ein Problem, welches mit Methoden maschinellen Lernens in einem zweistufigen Selektionsverfahren bewältigt 0 wird. Zunächst werden die direkten Zerfallsprodukte C c , D und K mittels dedizierter Klassifizierungsalgorithmen selektiert. Eine weitere multivariate Analysemethode wird zur finalen Signalselektion verwendet, welche auf der Rückmeldung der Klassifizierer der ersten Ebene und weiteren kinematischen Variablen aufbaut. Neben kombinatorischen Untergründen fallen verschiedene partiell rekonstriuerte Zerfälle in das untersuchte Massenfenster. Bis auf 0 0b ! C N .2007/0 K c D D 0 0 0b ! C N .2007/0 K c D D E. Experimentelle Analysen 53 0 0 0b ! C c D K K .892/ C 0b ! C D0 K c c .2595/C C und 0b ! C D0 K , c c .2625/C welche allesamt in die Region unterhalb der 0b Masse fallen, wurden weitere partiell rekonstruierte Zerfälle mit vernachlässigbaren Raten abgeschätzt. 0 Die Analyse stellt die erste Beobachtung von 0b ! C c D K und den genannten partiell rekonstruierten Zerfällen vor und misst deren Verzweigungsverhältnisse im Verhältnis zum Referenzkanal 0b ! C c Ds . Referenzen [1] R. Aaij et al. (LHCb Collaboration), Observation of J = p Resonances Consistent with Pentaquark States in 0b ! J = K p Decays, Phys. Rev. Lett. 115, 072001 (2015), [10.1103/PhysRevLett.115.072001] [2] R. Aaij et al. (LHCb Collaboration), Model-independent evidence for J = p contributions to 0b ! J = pK decays, arXiv:1604.05708[hep-ex], (2016) 54 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-20 (B) Suche nach Higgs-Boson-Produktion in Assoziation mit Einzel-Top-Quarks am CMS-Detektor N ILS FALTERMANN Institut für Experimentelle Kernphysik KIT Mit der Beobachtung des Higgs-Bosons mit einer Masse von 125 GeV durch die Kollaborationen ATLAS und CMS im Jahr 2012 wurde das letzte noch verbleibende Teilchen des Standardmodells experimentell nachgewiesen und damit der Higgs-Mechanismus als Theorie zur Erzeugung der Teilchenmassen bestätigt. Die Kopplung des Higgs-Bosons an Fermionen ist dabei direkt proportional zur Masse der Teilchen. Hierbei spielt das Top-Quark als schwerstes Elementarteilchen eine besondere Rolle. Eine Möglichkeit die Kopplung zwischen dem Top-Quark und dem Higgs-Boson zu untersuchen, ist die Suche nach assoziierter Produktion beider Teilchen. Eine erhöhte Kopplung zwischen beiden Teilchen äussert sich in einem höheren Produktionswirkungsquerschnitt des Prozesses. Das Higgs-Boson kann dabei zusammen mit einem Top-Quark-Paar oder mit einem Einzel-TopQuark produziert werden. Letzterer Produktionsmechanismus ist nicht nur auf den absoluten Betrag der Kopplung, sondern auch auf das Vorzeichen sensitiv. Zusätzlich kann eine Aussage über die Kopplung des Higgs-Bosons an Vektorbosonen gemacht werden. Möglich wird dies durch die Interferenz von zwei Feynman-Diagrammen, bei denen das Higgs-Boson entweder vom einem Top-Quark oder einem W-Boson abgestrahlt wird. Im Falle eines invertierten Vorzeichens der Top-Higgs-Kopplung erhöht sich der Produktionswirkungsquerschnitt um einen Faktor 10 bei einer Schwerpunktsenergie von 13 TeV. In meinem Vortrag stelle ich die Analyse der CMS-Kollaboration zur Suche nach assoziierter Higgs-Boson-Produktion mit Einzel-Top-Quarks bei einer Schwerpunktsenergie von 13 TeV vor. Hierbei werden der t-Kanal und die tW assoziierte Produktion von Einzel-Top-Quarks berücksichtigt. Es werden Ereignisse selektiert bei denen das Higgs-Boson in ein Bottom-Quark-Paar zerfällt. Darüber hinaus wird ein leptonischer Top-Quark-Zerfall vorrausgesetzt. Der dominierende Untergrund aus Top-Quark-Paar-Ereignissen und die hohe Jet-Multiplizität erfordern den Einsatz multivariater Analysemethoden zur Rekonstruktion und Klassifikation von Ereignissen. Es werden Ausschlussgrenzen für verschiedene Kopplungsszenarien bestimmt. E. Experimentelle Analysen 55 E-21 (C) ZZ Produktion beim ATLAS-Experiment - Wirkungsquerschnittsmessung und Suche nach anomalen Kopplungen M AURICE B ECKER Institut für Physik - Universität Mainz Das bisher erfolgreichste Modell zur Beschreibung des Aufbaus der Materie stellt bisher das Standardmodell der Teilchenphysik dar. In dem Modell ist die Materie aus drei Generationen von Fermionen aufgebaut, welche durch Austausch von Eichbosonen miteinander wechselwirken können. Die Eichbosonen, die die schwache Kraft vermitteln, sind die Z- und W-Bosonen, wobei das Z-Boson elektrisch neutral ist und das W-Boson negativ oder positiv auftreten kann. Ein Beispiel der schwachen Wechselwirkung ist der ˇ-Zerfall. Es ist aber auch möglich, diese Teilchen direkt zu erzeugen. Dazu benötigt es sehr hohe Energien, wie sie am LHC unter Laborbedingungen auftreten. So werden am ATLAS-Detektor in Genf (Schweiz) beschleunigte Protonen des LHCs zur Kollision gebracht. Bei den hohen Energien sind es dann nicht mehr die Protonen, die miteinander Wechselwirken, sondern die Quarks, die Bestandteile der Protonen. Ein Prozess der mit sehr niedriger Rate auftreten kann, ist die direkte Produktion von einem ZBoson Paar. Da nicht nur die direkte Produktion, sondern auch die Produktion über ein Higgs Boson, welches in zwei Z-Bosonen zerfällt, möglich ist, stellt die direkte Z-Paarproduktion den dominanten Untergrund für die Untersuchung des Higgszerfalls in zwei Z-Bosonen dar und ein genaues Verständnis ist von Nöten. Zusätzlich bietet die Z-Paarproduktion eine Möglichkeit um nach Kopplungen von drei Z-Bosonen aneinander zu suchen, welche im Standardmodell verboten sind. Eine Abweichung zwischen der Standardmodellerwartung und den aufgenommenen Daten des ATLAS-Experiments wären ein direkter Hinweis auf Physik jenseits des Standardmodells. In diesem Vortrag wird eine Messung des Gesamtwirkungsquerschnitts der ZZ-Produktion, in dem Zerfallskanal nach 4 Elektronen (Positronen) oder (Anti-)Myonen, vorgestellt. Die verwendeten 3.2 fb 1 Daten für diese Messung wurden im p Jahre 2015 bei dem ATLAS Experiment aufgenommen mit einer Schwerpunktsenergie von s D 13 TeV. Die Untersuchung des Zerfallskanals in 4 Leptonen ist dabei nicht der Prozess mit dem höchsten Wirkungsquerschnitt, aber wegen der klaren Signatur von Elektronen (Positronen) und (Anti-)Myonen ein sehr reiner Prozess mit Untergrunderwartungen im wenigen Prozentbereich. Es wird dargestellt wie man von der Selektion von Ereignissen zu der Bestimmung des Wirkungsquerschnitttes kommt. Der Schwerpunkt wird dabei auf die Bestimmung des Untergrundes durch fehl-identifizierte Leptonen gelegt. Da die Anzahl an selektierten ZZ-Ereignissen aus dem Jahre 2015 sehr begrenzt ist wird durch Hinzunahme von Daten aus dem Jahr 2016 vorgestellt wie man Wirkungsquerschnitte in differentieller Form, in Abhängigkeit einer kinematischen Variable, bestimmt. Außerdem wird gezeigt wie man mit diesen Daten nach anomalen Kopplungen sucht und Ausschlussgrenzen bestimmt. 56 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-22 (A) Suche nach Supersymmetrie in Endzuständen mit einem Lepton, Jets und fehlender Transversalenergie mit dem ATLAS Detektor M ANUEL L ORNATUS Uni Mainz Das Standardmodell der Teilchenphysik ist in der Lage, alle bisher beobachteten Elementarteilchen und Wechselwirkungen mit Ausnahme der Gravitation mit hoher Präzision zu beschreiben. Zu den Erfolgen der Theorie zählen die Vorhersagen des W-Bosons, des Top Quarks und des Higgsbosons als letzten fehlenden Baustein. Astrophysikalische Beobachtungen suggerieren aber die Existenz weiterer Kräfte (“dunkle Energie”) und weiterer Teilchen (“dunkle Materie”), die vom Standardmodell nicht beschrieben werden können. Zudem besitzt die Theorie einen Schönheitsfehler, der als Hierarchieproblem bezeichnet wird. Es kann allerdings durch Einführung einer neuen Symmetrie zwischen Fermionen und Bosonen auf elegante Weise gelöst werden. Das auf diesem Konzept der so genannten Supersymmetrie (SUSY) aufbauende “Minimale Supersymmetrische Standardmodell” (MSSM) postuliert dabei einige neue und bisher unbeobachtete Teilchen und liefert auch potentielle Kandidaten für dunkle Materie. Der Large Hadron Collider (LHC) am CERN bietet seit seiner Inbetriebnahme im November 2009 die weltweit besten Voraussetzungen für die Suche nach Supersymmetrie, denn die Masse potentiell erzeugbarer neuer Teilchen ist von der Schwerpunktsenergie der Kollisionen abhängig und eine hohe Luminosität liefert Zugang zu sehr seltenen Prozessen. Der LHC hält in beiden Disziplinen den aktuellen Weltrekord. In den Jahren 2012 bis 2015 wurde am ATLAS-Detektor eine integrierte Luminosität von 24,5 fb 1 bei einer Schwerpunktsenergie der Proton-ProtonKollisionen von 8 bzw. 13 TeV aufgenommen und in der aktuellen Datennahme im Jahr 2016 werden in etwa weitere 30 fb 1 erwartet. Dieser Vielzweckdetektor ist eines von vier großen Experimenten an dem ringförmigen Beschleuniger. In diesem Vortrag wird eine Datenanalyse der Kollisionsereignisse am ATLAS-Detektor mit einem einzigen Lepton, Jets und fehlender Transversalenergie im Endzustand vorgestellt. Parallel untersuchen andere Analysegruppen komplementäre Suchkanäle. Der hier vorgestellte Kanal gehört zu den inklusiven Suchen und bietet somit schon bei einer geringen Luminosität eine vergleichsweise hohe Sensitivität auf Physik jenseits des Standardmodells. Die Analyse wurde basierend auf vereinfachten Modellen der Paarproduktion von Squarks und Gluinos (SUSYTeilchen) optimiert. Am LHC werden diese dominant über die starke Wechselwirkung produziert und zerfallen dann über Kaskaden weiter in leichtere SUSY-Teilchen und Teilchen des Standardmodells. Der Fokus des Vortrags liegt auf den aktuellsten Ergebnissen der Analyse bei einer Schwerpunktsenergie von 13 TeV. E. Experimentelle Analysen 57 E-23 (B) Suche nach neuer Physik mit zwei Elektronen im Endzustand bei ATLAS S IMON S CHMITZ Universität Mainz, Institut für Physik Das Standardmodell der Teilchenphysik beschreibt alle bisher bekannten Elementarteilchen sowie die starke, elektromagnetische und schwache Wechselwirkung. Lediglich die Gravitation kann nicht vom Standardmodell beschrieben werden. Unzählige Experimente haben dies bestätigt und das Standardmodell zu einer sehr erfolgreichen Theorie gemacht. Dennoch existieren Makel, die eine Erweiterung des Standardmodells fordern. Dazu gehören die bereits erwähnte Gravitation, Dunkle Materie und Dunkle Energie, die nicht masselosen Neutrinos sowie die Asymmetrie zwischen Materie und Antimaterie, um nur die wesentlichen Makel zu nennen. Erweiterungen des Standardmodells, welche man gemeinhin als Physik jenseits des Standardmodells bezeichnet, sagen unter anderem neue Teilchen vorher. Eines dieser postulierten Teilchen ist das Z 0 -Boson, welches eine massereiche Resonanz im Elektron-Elektron Spektrum hervorrufen könnte. 0 Der LHC am CERN bei Genf bietet für die Suche nach p dem Z -Boson die weltweit besten Voraussetzungen. Mit einer Schwerpunktsenergie von s D 13 TeV werden Proton-Proton Kollisionen durchgeführt. Hierbei enstehen unzählige neue Teilchen, die mithilfe des ATLAS Detektors detektiert werden können. Dieser Vortrag befasst sich mit der Suche nach neuer Physik in Endzuständen mit zwei Elektronen. Hierbei wird gezielt nach dem Z 0 -Boson gesucht, welches von verschiedenen Erweiterungen des Standardmodells vorhergesagt wird. Die Suche erfordert eine möglichst exakte Kenntnis der Untergründe im Spektrum des Elektron-Elektron Kanals, welches schließlich mittels statistischer Methoden nach Resonanzen abgesucht wird. 58 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-24 (C) Suche nach dunkler Materie im Mono-Higgs-Kanal N mit dem ATLAS-Detektor am LHC (H ! b b) R AINER R ÖHRIG Max-Planck-Institut für Physik Astrophysikalischen Beobachtungen zufolge macht die gewöhnliche baryonische Materie nur einen kleinen Bruchteil des Materieinhalts des Universums aus. Einen weitaus größeren Anteil, ca. 75%, stellt die sogenannte dunkle Materie dar, die nicht Teil des Standardmodells ist. Die Teilchennatur der dunklen Materie ist nicht klar, da sie bisher nur indirekt in gravitativen Wechselwirkungen, d.h. auf astronomischen Skalen, nachgewiesen werden konnte. Eines der Hauptziele des Large Hadron Colliders (LHC) ist der direkte Nachweis der dunklen Materie. Die Suche am LHC ist komplementär zu den Untergrundexperimenten und Experimenten in der Luft und im All, in denen die dunkle Materie durch ihre Streuung an den Materieteilchen oder durch die Annihilation in Elektron-Positron-Paare nachgewiesen werden kann. In den Proton-Proton-Kollisionen am LHC bei einer Schwerpunktsenergie von bis zu 13 TeV können massive dunkle Materieteilchen erzeugt werden. Da sie nur sehr schwach mit der Materie wechselwirken, werden sie im ATLAS-Detektor nicht direkt beobachtet und manifestieren sich stattdessen als fehlende transversale Energie wenn sie zusammen mit einem StandardmodellTeilchen erzeugt werden. Im sogenannten Mono-Higgs-Zerfallskanal wird die Produktion der dunklen Materieteilchen in assoziation mit dem entdeckten Higgs-Boson mit einer Masse von 125 GeV untersucht. Da das Verzweigungsverhältnis für den Zerfall des Standardmodell-Higgs-Bosons in zwei 2 b-Quarks am höchsten ist, betrachtet man den entsprechenden Endzustand. Aufgrund des Produktionsmechanismus kann das Higgs-Boson einen hohen Lorentz-Boost erfahren und fliegt in entgegengesetzte Richtung zur dunklen Materie. Durch den Lorentz-Boost können die beiden b-Quarks stark kollimiert sein, wodurch es nicht mehr möglich ist zwei getrennte b-Jets aus der b-QuarkHadronisierung zu rekonstruieren. Um jedoch solche Ereignisse weiterhin zu berücksichtigen, betrachtet man auch Topologien mit nur einem größeren Jet unter Berücksichtigung dessen Substruktur. Schließlich dient die invariante Masse von zwei kleinen b-Jets oder einem großen Jet zur endgültigen Diskriminierung des Signal- von den Untergrundprozessen zur statistischen Interpretation der Daten. N In meinem Vortrag werde ich die Mono-Higgs (H ! b b)-Analyse vorstellen und dabei die Ereignisselektion, die Methoden zur Untergrundabschätzung sowie die betrachteten Signalmodelle diskutieren. Im Anschluss werde ich die Ergebnisse der Analyse mit den Daten aus dem Jahre 2015 präsentieren. E. Experimentelle Analysen 59 E-25 (B) Bestimmung der Massen von ˙c Baryonen N IS M EINERT Universität Rostock In dieser Analyse wird mit Hilfe der vom LHCb-Detektor (CERN) aufgezeichneten Daten aus den Jahren 2011/12 die Massen von ˙c -Baryonen bestimmt. Über den Zerfallskanal ˙cCC=0 ! C= C C , C können am LHCb das ˙cCC und das ˙c0 rekonstruiert und somit c c ! pK theoretische Vorhersagen diesbezüglicher QCD-Modellen verifiziert werden. Zusätzlich zur Bestimmung der Masse wird die Isospinaufspaltung m.˙cCC ˙c0 / bestimmt. Die Isopin-Aufspaltung beträgt in etwa 0:2 MeV und verlangt damit eine experimentelle Auflösung in mindestens dieser Größenordnung. Erste Ergebnisse zeigen, dass für Messungen mit dieser Präzision verschieden Detektoreinflüsse, wie der Fehljustierung der absoluten Impulsskala, berücksichtigt und korrigiert werden müssen. Die Impulsskala wird mit Hilfe der c Töchter bestimmt und durch die Massendifferenz m.D C D 0 / verifiziert. 0 C C C Untergrundkanäle wie c0 ! C ! C c K , c ! c oder c c werden ebenfalls untersucht und ihr Einfluss auf die Massenmessung bestimmt. Das Ergebnis dieser Analyse ist systematisch limitiert. Dennoch wird ein Ergebnis vergleichbar mit dem Weltmittelwert erwartet. 60 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-26 (B) Messung des Wirkungsquerschnitts der Einzel-TopQuark-Erzeugung G UNNAR J ÄKEL Bergische Universität Wuppertal Ein Ziel des LHC ist es, die bereits bekannten Teilchen des Standardmodells möglichst genau zu vermessen. Zu diesen Teilchen gehört auch das Top-Quark, das sich vor allem durch seine große Masse von den übrigen Fermionen unterscheidet. Durch die sehr kurze Lebensdauer des TopQuarks, geht es, in Gegensatz zu den anderen Quarks, keine hadronischen Bindungen ein, bevor es zefällt, sodass die Eigenschaften des Top-Quarks direkt aus den Zerfallsprodukten messen kann. In meinem Vortrag stelle ich eine Analyse zur Messung des Wirkungsquerschnittes der EinzelTop-Quark-Erzeugung im t-Kanal mit dem ATLAS-Detektor bei 13 TeV vor. Einzelne TopQuarks werden über die elektroschwache Wechselwirkung erzeugt. Diese wird am LHC vom t-Kanal-Austausch dominiert. In diesem Kanal erzeugt ein virtuelles W-Boson, das von einem leichten Quark aus der Proton-Proton-Kollision abgestrahlt wird, das einzelne Top-Quark. Untersucht wird der Prozess, bei dem das Top-Quark in ein Bottom-Quark und ein W-Boson zerfällt, wobei das W-Boson weiter leptonisch zerfällt. Durch dieses Lepton im Endzustand ist dieser Prozess gut vom großen Multijet Untergrund am LHC zu trennen. Trotz dieser Trennung besteht der Endzustand nur zu ca. 10% aus Signalereignissen. Die beiden größten Untergrundprozesse bei dieser Analyse sind die Top-Quark-Paar-Produktion und die Erzeugung eines W-Bosons mit zusätzlichem Jet. Um den Wirkungsquerschnitt dennoch präzise messen zu können, wird ein Neuronales Netz verwendet, das Signalereignisse von Untergrundereignissen trennt. Außerdem lassen sich bei der Einzel-Top-Quark-Erzeugung Top-Quark von Top-Antiquark Ereignissen unterscheiden, sodass die Wirkungsquerschnitte für diese beiden Prozesse getrennt voneinander gemessen werden können. Das Verhältniss dieser beiden Wirkungsquerschnitte R t liefert Informationen über die Zusammensetzung des Protons, sodass verschiedene Partonverteilungsfunktionen mit der Messung verglichen werden können. Des weiteren lässt sich mit dem Ergbnis das CKM Matrix Element V t b direkt bestimmen, was bei vielen anderen Messungen nur durch zusätzliche Annahmen möglich ist. E. Experimentelle Analysen 61 E-27 (C) Bestimmung der Masse des W -Bosons mit dem ATLAS-Experiment V ERENA H ERGET Universität Würzburg Die Messung der Masse des W -Bosons ist ein zentraler Bestandteil von Präzisionstests des Standardmodells. Mögliche Abweichungen von den Erwartungen wären ein wichtiger indirekter Hinweis auf Physik jenseits des Standardmodells. Die freien Parameter des Standardmodells sind mit der Bestimmung der Masse des Higgs-Bosons, des Z- und des W -Bosons und des TopQuarks überbestimmt, sodass die Konformität des Standardmodells mit diesen Messungen überprüft werden kann. Aus diesem Grund müssen bestmögliche Ergebnisse in der Unsicherheit der Messung der Masse erzielt werden. Die Auswertung der Daten muss daher sehr sorgfältig erfolgen und setzt ein detailliertes Verständnis der Modellierung der Ereignis- und Hintergrundsignaturen in den Daten sowie in Monte Carlo Ereignissen voraus. Da sich bei einem Hadroncollider wie dem LHC vor allem der Zerfallskanal in ein geladenes Lepton und ein Neutrino anbietet, spielt die Messung und Kalibrierung der Leptonen eine wichtige Rolle. Zudem wird sich des hadronischen Rückstoßes bedient, der eine Messgröße des transversalen Impulses des W -Bosons darstellt, welcher vom hadronischen System ausbalanciert wird. Für die Modellierung wird die kinematisch sehr ähnliche Standardkerze des Z-Bosons, zerfallend in zwei Leptonen, benutzt. Die Masse des W -Bosons wird aus verschiedenen transversalen kinematischen Verteilungen bestimmt, da die direkte Berechnung der invarianten Masse an einem Hadroncollider nicht möglich ist. Dies sind die Spektren des transversalen Impulses des geladenen Leptons sowie der fehlenden transversalen Energie. Letzteres kann als Einzelmessung wegen der schlechten Auflösung kaum zur Sensitiviät der Gesamtmessung beitragen. Die transversale Masse aus der Kombination aus Lepton und fehlender transversaler Energie kann hingegen wiederum einen guten Wert liefern. Der hadronische Rückstoß und die daraus bestimmbare fehlende Energie des Neutrinos stellt demnach eine wichtige Komponente der W -Massenmessung dar. Die systematischen Unsicherheiten, die die Standardalgorithmen für die fehlende Energie bieten, ist für diese Präzisionsmessung nicht ausreichend. Es müssen daher eigene Algorithmen verwendet werden, die mit Ereignissen aus Z-Zerfällen kalibriert werden. Aufgrund der leicht veränderten Kinematik und des neutrinolosen Zerfallskanals des Z-Bosons muss die Extrapolation auf Ereignisse aus W Bosonen sehr sorgfältig passieren, um die dabei entstehenden systematischen Fehler zu minimieren. In diesem Vortrag sollen einige Auswertestrategien der Messung der W -Masse kurz vorgestellt werden und ein Einblick in mögliche Aspekte der Messung des hadronischen Rückstoßes bei 8 TeV gegeben werden. 62 47. Herbstschule für Hochenergiephysik Maria Laach 2015 E-28 (A) Untersuchung von anomalen Vektorbosonenkopplungen in W W Ereignissen mit dem ATLAS Detektor E LIAS R ÜTTINGER DESY Zeuthen Das Standardmodell der Teilchenphysik (SM) ist eine Quantenfeldtheorie, die die bekannten Teilchen und deren Wechselwirkung derzeit am besten beschreibt, teilweise mit einer Vorhersagegenauigkeit von bis zu eins zu einer Million. Mit der Entdeckung des Higgs Bosons an den Experimenten ATLAS und CMS im Jahre 2012 wurde auch das letzte vorhergesagte Teilchen experimentell bestätigt. Dennoch gibt es evidente Hinweise, dass das SM nicht vollständig, bzw. keine fundamentale Theorie“ sein kann, da es zu viele freie Parameter hat. ” Messungen des Wirkungsquerschnitts der W-Boson Paarproduktion mit dem ATLAS Detektor am LHC mit dem Schwerpunkt auf anomale Kopplungen können die Konsistenz des SM testen und werden im folgenden beschrieben. In führender Ordnung kann am LHC ein W W Zustand auf zweierlei Art und Weise erzeugt werden, wobei t tN-Produktion hier explizit nicht berücksichtigt wird. Beim t-Kanal Streuprozess wechselwirken jeweils ein Quark q und ein Antiquark qN miteinander, indem unter Austausch eines Quarks zwei W -Bosonen abgestrahlt werden. Der für die vorgestellte Analyse interessante Prozess ist der s-Kanal Beitrag. Hierbei fusioniert das einlaufende q q-Paar N zu einem Z-Boson oder , welches dann in einem TGC-Vertex an zwei W -Bosonen koppelt. Diese TGCs (Triple Gauge Couplings) sind vom SM vorhergesagt und experimentell bestätigt. Sie sind auch notwendig um die Unitarität bei hohen Energien zu gewährleisten, denn sie dämpfen zunehmend den Einfluss des sonst divergierenden t-Kanal Beitrags. Neue Phänomene jenseits des SM können einen Einfluss auf den Wirkungsquerschnitt der W Boson Paarproduktion bei hohen Schwerpunktenergien haben und damit effektiv die TGCs modifizieren, so dass anomale, d.h. von der SM Vorhersage abweichende, TGCs ein Zeichen neuer Physik wären. Vorgestellt wird ein Modell, bei welchem es fünf anomale Kopplungsparameter gibt, welche sich durch Beschränkungen der SU.2/ U.1/ Eichinvarianz auf drei unabhängige Parameter reduzieren lassen. Der LHC erreicht solch hohe Energien, deswegen lässt sich der Einfluss bzw. die Existenz dieser anomalen Kopplungen hier testen. Ihre Präsenz würde dazu führen, dass die W W -Produktionsrate bei hohen Energien höher ausfallen würde als vom SM vorhergesagt. Um die anomalen Kopplungen bzw. obere Grenzen auf diese zu bestimmen, ist es nötig die Produktionsprozesse genau zu verstehen. Dies wird durch Monte Carlo Simulation (MC) gewährleistet, welche sich dann mit den Daten vergleichen lassen. Theoretisch bräuchte man bestenfalls unendlich viele solcher MCs, generiert mit jeweils einem anderen Satz von Kopplungsparametern, wobei die Produktion einer einzelnen MC sehr rechen- und zeitintensiv ist. Es ist jedoch möglich eine MC umzugewichten und damit Vorhersagen auch für einen anderen Satz von Parametern, als demjenigen an dem die Simulation erstellt wurde, zu treffen. Es werden zwei Methoden dieser Umgewichtung vorgestellt, eine generatorspezifische und eine analytische, wobei letztere entwickelt wurde um die erste zu testen. T. Theorie T-1 (A) Wiederverwendung von Parameterscans mit CheckMATE Monte-Carlo-Events in F REDERIC P ONCZA Institut für Theoretische Teilchenphysik und Kosmologie, RWTH Aachen Monte-Carlo-Eventgeneratoren stellen sowohl in der experimentellen als auch der theoretischen Hochenergiephysik das wichtigste Werkzeug zum Vergleich von Vorhersagen und Daten dar. In vielen Fällen ist die Generierung von Eventdateien jedoch sowohl sehr Speicher- als auch Zeitaufwändig. Dies stellt besonders ein Hindernis für die Bestimmung von Ausschlussgrenzen für Parameter neuer Modelle jenseits des Standardmodells“ (BSM) dar. ” CheckMATE1 ist ein Open-Source Softwarepaket zur Untersuchung solcher Modelle. Zu diesem Zweck werden Analysen, die durch die Atlas- und CMS-Kollaborationen auf LHC Daten angewendet wurden, auf die simulierten Events übertragen und die Ergebnisse statistisch abgeglichen. CheckMATE ermöglicht somit beispielsweise die einfache Überprüfung der Validität bestimmter Massen- oder Kopplungswerte des Modells. Ziel unserer Arbeit ist die Reduzierung des zur Durchführung von Parameterscans notwendigen Rechenaufwands und der entsprechenden Dauer. Es wäre somit möglich bei gleich bleibender Auflösung des Scans signifikant weniger Events zu generieren. Statt dies für jeden möglichen Wert eines Parameters zu machen, werden ausgehend von einem Startpunkt und der dazugehörigen Eventdatei, alle relevanten Impulse transformiert und das Event neu gewichtet, um zu einem weiteren nahegelegenen Punkt des Parameterraums zu kommen. Die Transformation der Impulse wird dabei im Ruhesystem des harten Prozesses ausgeführt und von dort auf die übrigen relevanten Teilchen übertragen. Da Monte-Carlo-Generatoren Events entsprechend des zugehörigen Matrixelementes erzeugen, ist das theoretisch korrekte neue Gewicht das Verhältnis der Matrixelemente von dem neuen und dem alten Parameterpunkt. Wir beschränken uns jedoch darauf als Gewichte lediglich die Partondichtefunktionen zu benutzen. Die Gültigkeit dieser Näherung ist keineswegs überall gerechtfertigt, hat aber in den bisherigen Test überzeugende Ergebnisse geliefert. Die ersten Tests unseres Verfahrens für mehrere Verteilungen der Teilchen des harten Prozesses in pp ! Z 0 ! C haben vielversprechende Ergebnisse geliefert und ließen sich auf t tNProduktion übertragen. Die aktuelle Herausforderung ist die korrekte Beschreibung von finalstate jets und Zerfallsprodukten der final-state Teilchen des harten Prozesses. 1 https://checkmate.hepforge.org/ 64 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-2 (B) Produktion einzelner Top-Quarks in Assoziation mit zwei weiteren Jets in nächstführender Ordnung QCD S TEFAN M ÖLBITZ Institut fur Physik, Humboldt-Universität zu Berlin Mit einer Masse von 173 GeV/c 2 ist das Top-Quark das schwerste bekannte Elementarteilchen. Obwohl vergleichbar schwer wie ein Goldatom, ist das Top-Quark im Rahmen des Standardmodells als punktförmig anzusehen. Aufgrund der großen Masse spielt das Top-Quark in vielen Erweiterungen des Standardmodells eine besondere Rolle. Das Top-Quark ist daher ein ideales Labor für die Suche nach Neuer Physik. Seit der Inbetriebnahme des LHC wurde durch die Experimente ATLAS und CMS eine Vielzahl von Top-Quark-Ereignissen detektiert. Die in Run II zu erwartende integrierte Luminosität erlaubt neben der Suche nach Neuer Physik auch hochpräzise Tests des Standardmodells. Bei der Produktion von Top-Quarks können die Paarerzeugung (pp ! t tN C X ) und die Produktion einzelner Top-Quarks (pp ! t C j und pp ! t C W , j für Jet ist ein leichtes (Anti)Quark oder ein Gluon) unterschieden werden. Während die Paarerzeugung die Flavourzahl erhält und somit durch die starke Wechselwirkung (Kopplungskonstante ˛s ) erfolgen kann, muss die Produktion einzelner Top-Quarks die schwache Wechselwirkung (Kopplungskonstante ˛) involvieren. Die Untersuchung der Produktion einzelner Top-Quarks erlaubt daher detaillierte Untersuchungen der schwachen Wechselwirkung. Darüber hinaus sind die durch die schwache Wechselwirkung produzierten Top-Quarks polarisiert. Da das Top-Quark im Mittel zerfällt bevor es hadronisieren kann, bietet das Studium der Polarisation eine weitere Möglichkeit für Präzisionstests der V-A Struktur der schwachen Wechselwirkung. Darüber hinaus erlaubt die Produktion einzelner Top-Quarks eine direkte Messung des Cabbibo-Kobayashi-Maskawa Matrixelements V t b . Im Rahmen der 5-Flavour-Theorie liefert der Prozess ferner Informationen zur Partonverteilungsfunktion des Bottom-Quarks. Die t C j Produktion wurde inzwischen näherungsweise in nächst-zu-nächstführender Ordnung (NNLO) QCD berechnet, dies entspricht der Ordnung ˛ 2 ˛s2 . Der Vortrag hat die Produktion eines Top-Quarks in Assoziation mit zwei weiteren Jets (t C 2j ) in nächstführender Ordnung (NLO) QCD zum Thema, dies entspricht ebenfalls der Ordnung ˛ 2 ˛s2 . Die NLO Korrekturen zur t+2j Produktion stellen damit auch einen Beitrag zu den vollständigen NNLO Korrekturen zur t+j Produktion dar. Der Vortrag geht zunächst auf die Frage nach der genauen Definition der t+2j Produktion ein. Dies erfordert eine Abgrenzung von tW C j Produktion und von t tN Produktion. Nach den Zerfällen W ! ud N und tN ! bN ud N gleichen die Teilchen im Endzustand nämlich denen der reellen Korrekturen von t C 2j . Die Berechnung der nächstführenden Ordnung in der QCD erfordert die Berechnun sowohl der virtuellen als auch der reellen Korrekturen. Beide Aspekte werden im Vortrag thematisiert. Die Zerlegung der virtuellen Amplitude in einen Farbanteil, einen Spinanteil und einen von der Kinematik abhängigen Anteil mit Tensorintegralen mit bis zu 5 Propagatoren in der Schleife wird beschrieben. Für die reellen Korrekturen wird der Dipol-Subtraktions-Formalismus von Catani T. Theorie 65 und Seymour einschließlich der Erweiterung für massive Quarks verwendet. Dieser erlaubt die getrennte Integration der virtuellen und der reellen Korrekturen über den Phasenraum. Auf die in diesem Formalismus benötigten farb- und spinkorrelierten Matrixelemente wird eingegangen. Schließlich werden erste Ergebnisse präsentiert. 66 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-3 (C) Helizitätsasymmetrie der sterilen Neutrinos in Leptogenese D ENNIS S CHR ÖDER Fakultät für Physik, Universität Bielefeld Zu den ungelösten Problemen der modernen Physik gehören die Massen der linkshändigen Neutrinos und die Baryonasymmetrie des Universums, die sich nicht durch die erfolgreichen fundamentalen Theorien des Standardmodells und der Allgemeinen Relativitätstheorie erklären lassen. In der Leptogenese wird das Standardmodell um sehr schwere (M 107 GeV) sterile rechtshändige Neutrinos erweitert, die unter der Eichgruppe des Standardmodells als Singlett transformieren. Ihre einzige Wechselwirkung ist die Yukawa-Kopplung mit den Higgs- und LeptonDubletts. Da sie als Eichsingletts auftreten, ist ein Majorana-Massenterm möglich, der über den See-Saw-Mechanismus Massenterme für die linkshändigen Neutrinos generiert. Außerdem kann die Baryonasymmetrie wie folgt erklärt werden: Im frühen Universum werden die sterilen Neutrinos vom elektroschwachen Plasma erzeugt. Durch eine CP-verletzende Phase in der Kopplungsmatrix entsteht eine Asymmetrie zwischen den darauf folgenden Zerfällen in Leptonen und Antileptonen. Die Leptonasymmetrie wird dann durch Sphaleronprozesse in eine Baryonasymmetrie umgewandelt. Da die Kopplungen mit dem Standardmodell klein sind, equilibrieren die sterilen Neutrinos langsam im Vergleich zu typischen Zeitskalen des Standardmodells, welches als ständig im Gleichgewicht angenommen wird. Um die Evolution des Systems während der Expansion zu untersuchen, kann man Ratengleichungen für langsam variierende Größen hinschreiben. Zu diesen langsamen Größen werden typischerweise die Phasenraumdichte der sterilen Neutrinos fN .p/ und die Leptondichte nl gezählt. Mithilfe von thermischer Feldtheorie können Ausdrücke für Equilibrierungs-, Produktions- und Umwandlungsraten zwischen den langsamen Größen hergeleitet werden. Obwohl die sterilen Neutrinos sehr schwer sind, durchlaufen sie im frühen Universum Temperaturen, die vergleichbar und größer ihrer Masse sind, womit ihre typischen Impulse vergleichbar ihrer Masse werden. Masselose Teilchen weisen eine Korrespondenz zwischen Chiralität und Helizität auf, was nahelegt, dass bei hohen Temperaturen auch die Rechtshändigkeit der sterilen Neutrinos eine positive Helizität impliziert. Es ist also konsequent, auch die Helizitätsasymmetrie fh .p/ als langsame Größe in die Ratengleichungen aufzunehmen. In meinem Vortrag zeige ich, wie die neu eingeführten Raten aus der Feldtheorie bestimmt werden können. Außerdem gehe ich auf die numerische Lösung der kinetischen Gleichungen ein, die oftmals durch die Annahme des kinetischen Gleichgewichts (also einer Gleichgewichtsimpulsverteilung) der sterilen Neutrinos vereinfacht wird. Es zeigt sich, dass die Annahme des kinetischen Gleichgewichts, obwohl sie für genügend kleine Kopplungen das voll impulsabhängige Resultat reproduziert, gerade für die impulssensitive Helizitätsasymmetrie keine verlässliche Näherung ist. Die nach dem Ausfrieren der Raten erhaltene Leptonasymmetrie wird durch den Mechanismus über Helizitätsasymmetrie um bis zu 20% in dem Parameterbereich, der erfolgreiche Baryogenese erlaubt, korrigiert. Die Korrektur ist dabei nur schwach von der Majoranamasse, jedoch stark von der Yukawakopplung abhängig. T. Theorie 67 T-4 (A) Extradimensionaler Seesaw Mechanismus sowie dessen Effekt auf Neutrinooszillationen M ATHIAS B ECKER Theoretische Physik III TU Dortmund Um die Jahrtauswende gewannen Modelle mit räumlichen Extradimensionen an Popularität. Sie wurden eingeführt, um das Hierachie Problem zu lösen, welches in der großen Hierarchie zwiEW schen der elektroschwachen und der Planckskala M 10 17 besteht. Die Idee hinter extradiMP mensionalen Modellen ist es, die fundamentale mehrdimensionale Energieskala der Gravitation MF durch einen Volumenfaktor der Extradimensionen zu verringern. Der Grund dafür, dass nur die Gravitation diese Unterdrückung erfährt, ist, dass die Austauschteilchen der Gravitation nicht unter den Eichgruppen des Standardmodells (SM) geladen sind und es ihnen deswegen erlaubt ist in den Extradimensionen zu propagieren. Seit dem Nachweis von Neutrinooszillationen ist es bekannt, dass Neutrinos eine Masse besitzen, was im SM nicht der Fall ist. Durch die Einführung rechtshändiger Neutrinos ist es möglich, dass Neutrinos eine Masse erhalten. Allerdings wird dazu eine sehr kleine Yukawakopplung benötigt. Da rechtshändige Neutrinos nicht unter den SM Eichgruppen geladen sind, ist es möglich, dass sie eine Majoranamasse besitzen. Das ermöglicht mit entsprechend großer Majoranamasse, die Erzeugung geringer Neutrinomassen mit Yukawakopplungen O .1/. Kombiniert man nun die Einführung rechtshändiger Neutrinos mit der Einführung von Extradimensionen, können die rechtshändigen Neutrinos, im Gegensatz zu den SM Teilchen, in den Extradimensionen propagieren. Das führt zum Einem zur Unterdrückung der Yukawakopplungen der Neutrinos und zum Anderen, nach der Ausintegration der Extradimensionen, zu einem Tower von Kaluza-Klein Anregungen des rechtshändigen Neutrinos, die zusätzlichen zu einer effektiven vierdimensionalen Majorana Masse M einen Beitrag zu ihrer Masse proportional zu R 1 erhalten, wobei R der Radius der kompaktifizierten Extradimension ist. Das führt dazu, dass die Massenskala M durch R 1 ersetzt wird. Im Rahmen meines Vortrages werde ich darauf eingehen, ob es möglich ist durch die Einführung eines rechtshändigen Neutrinofeldes, dem es erlaubt ist in einer Extradimension, die auf einem S1 =Z2 -orbifold kompaktifiziert ist, zu propagieren, die beobachteten Neutrinomassen und Mischungswinkel zu erklären. Dazu muss die unendlichdimensionale Massenmatrix der Neutrinos (linkshändige plus Kaluza Klein Anregungen) diagonalisiert werden und es wird versucht kompakte Ausdrücke für die Massen und Mischungswinkel zu finden, was Näherungen erfordert. Ein wichtiger Punkt, um die Beobachtungen sinnvoll beschreiben zu können, ist, dass die Brane, auf der die SM Teilchen lokalisiert sind, nicht exakt bei den Fixpunkten der Extradimension liegen darf. Dieser Brane Shift ist erforderlich, um zwei Massendifferenzen zwischen den drei Neurinomasseneigenzuständen zu generieren. Ein Effekt, der durch die Massenerzeugung mittels des Seesaw Mechanismus auftritt, ist, dass die Mischungsmatrix der drei linkshändigen Neutrinos nicht mehr unitär ist. Das hat z.B. einen Einfluss auf seltene leptonische Zerfälle, wie etwa ! e oder Zerfälle von W Bosonen in ein l N l Paar. Deshalb wird der Einfluss des extradimensionalen Seesaw Mechanismus auf diese Zerfälle untersucht. 68 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-5 (B) Squarkproduktion im Minimal R-Symmetrischen Supersymmetrischen Standardmodell S EBASTIAN L IEBSCHNER Institut für Kern- und Teilchenphysik, TU Dresden Im Streben ein tieferes Verständnis von den fundamentalen Bausteinen der Natur zu erlangen, stellt die Entwicklung des Standardmodells der Teilchenphysik ein Meilenstein dar. Neben großen Erfolgen durch die experimentelle Bestätigung theoretisch sehr genau vorhergesagter Observablen ist allerdings bekannt, dass das Standardmodell unvollständig ist, weil es z.B. keine Beschreibung dunkler Materie enthält. Es ist daher notwendig Erweiterungen des Standardmodells zu studieren. Eine mathematisch sehr ästhetische Erweiterung nutzt das Konzept der Supersymmetrie. Oft wird für Suchen am Large Hadron Collider (LHC) vom Minimal Supersymmetrischen Standardmodell (MSSM) ausgegangen. Auf Grundlage dieses Modells sind die Massengrenzen für stark wechselwirkende supersymmetrische Teilchen, sollten sie existieren, mindestens im TeVBereich zu vermuten. Dadurch verliert Supersymmetrie an Attraktivität, da die Lösung des Hierarchieproblems an Attraktivität verliert. Ich werde in meinem Vortrag eine supersymmetrische Erweiterung des Standardmodells, welche zusätzlich R-symmetrisch ist, vorstellen: das Minimal R-Symmetrische Supersymmetrische Standardmodell (MRSSM). Dabei werde ich mich auf die Produktion stark wechselwirkender supersymmetrischer Teilchen konzentrieren, weil innerhalb der Supersymmetrie die Produktion ebendieser am wahrscheinlichsten am LHC ist. Es wird sich herausstellen, dass die Produktion von Gluinos und Squarks (den Superpartnern von Gluonen und Quarks) im MRSSM signifikant anders ist als im MSSM. Ich werde die Gründe dieser Unterschiede erklären und einen attraktiven Parameterbereich für das MRSSM angegeben. Da die Produktion von Squarks die interessantesten Änderungen zum MSSM aufweist, wird die Produktion derselben auf Einschleifenkorrektur betrachtet und mit dem MSSM verglichen. T. Theorie 69 T-6 (C) A non-perturbative analysis of quantum frame dependence M ATTHIJS VAN DER W ILD Physikalisches Institut, Universität Freiburg Most of the physical phenomena can be described by the standard model of particle physics and general relativity. From a quantum field theoretical perspective both theories can be combined into one effective theory whose applicability might even be extended up to the Planck scale. This offers the possibility to combine two different physical sectors whose characteristic energy scales are separated by many orders of magnitude–elementary particle physics at the electroweak scale and the era of inflation in the early universe. Recently, this unifiying aspect has been explicitly realized in the model of Higgs inflation, in which the standard model Higgs field is identified with the cosmological inflaton. For this model to be compatible with experimental data, a non-minimally coupling of the Higgs field to gravity is required. This model can be viewed as a particular representative of a more general class of scalar-tensor theories used in cosmology to describe the phase of inflation. Field variables for which these scalar-tensor theories feature a non-minimal coupling to gravity are denoted as “Jordan frame”. In general, by a non-linear field redefinition of the metric and the scalar field, the non-minimal coupling can be transformed away and all scalar-tensor theories can be brought into a form that formally resembles the simple structure of a minimally coupled scalar field, denoted as “Einstein frame”. Classically, both frames are equivalent. However, it is an ongoing debate whether or not this equivalence still holds at the quantum level. So far, the investigation of this problem has been carried out only within a perturbative framework. The main motivation of my reseach is to analyze the question of quantum equivalence at the non-perturbative level. The most natural non-perturbative framework of quantum gravity is provided by the canonical quantization of the metric degrees of freedom–quantum geometrodynamics. The central equation within this formalism is the Wheeler-DeWitt equation, which in turn serves as starting point for a semiclassical expansion scheme that allows to systematically analyze the question of frame dependence order by order. In this talk, I will present the semiclassical expansion of the Wheeler-DeWitt equation evaluated in the Einstein frame, and discuss the extension to the Jordan frame. 70 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-7 (A) Collider Reach S TEPHAN M EIGHEN -B ERGER TUM Physik T75 Bei der Planung und Konstruktion von Proton-Proton Collidern, ist die Frage ihres Entdeckungsvermögens relevant. Die korrekte Methode um die Eignung eines Colliders zu bestimmen ist Signal und Hintergrund eines Modells mittels Monte Carlo Methoden zu generien, auf die resultierenden Daten eine Detektorsimulation anzuwenden und anschließend Massengrenzen zu finden. Diese Methode ist aufwendig und kann viel Zeit kosten. Um eine schnelle Abschätzung der Massengrenze zu erhalten, ist es nützlich, frühere Suchen und deren Ergebnisse zu verwenden. Wenn man deren Resultate zu höheren Energien interpoliert, dominiert die Partonluminosität Lij die Änderung der Signalzahl. Unter Beachtung der Massendimension gilt für die Signalzahl N folgende Proportionalität: P Cij Lij .M 2 ; s/ N.M; s/ / M12 ij Die Summe läuft über die Streukanäle (q q; N qg...) und Cij sind die zugehörigen Streukoeffizienten. s ist die Schwerpunktsenergie des Colliders und M die Masse des gesuchten Teilchens. Unter der der Annahme, dass ein Kanal dominiert, lässt sich mittels Lösens der Gleichung: Lij .Mh2 ;sh / Lij .Ml2 ;sl / lumih lumil D Mh2 Ml2 das Entdeckungsvermögen eines Colliders bestimmen. Hier ist Mh die gesuchte Massengrenze, Ml die Massengrenze einer früheren Suche, sh bzw. sl die Schwerpunktsenergien des neuen bzw. des früheren Colliders und lumh;l sind die zugehörigen Luminositäten. Im Fall, dass N und der Hintergrund B unterschiedliche Partonluminositäten haben, wird die Gleichung für ein konstantes Verhähltnis pNB gelöst. Ein Vorteil der Berechnung mittels des Bruches ist, dass Komplikationen, wie Kopplungskonstanten und Vorfaktoren, wegfallen. Diese Näherung wird derzeit in der Web-App Collider-Reach-2 verwendet. Diese Methode gibt Ergebnisse von den LHC und Tevatron Suchen sehr gut wieder, wenn man die Abhängigkeiten von s und von der integrierten Luminosität bzw. auch die Massengrenzen mit den erwarteten von ATLAS/CMS/DO/CDF vergleicht. Um die Genauigkeit der Approximation aufzuzeigen werden am Beispiel von Z 0 -Bosonen die Ergebnisse von Collider-Reach mit denen von Monte-Carlo Simulationen verglichen. Im nächsten Schritt werden Prozesse ohne klare Massenschwelle (z.B. effektive Operatoren) untersucht. 2 http://collider-reach.web.cern.ch/collider-reach/ ; G. Salam, A. Weiler T. Theorie 71 T-8 (B) SO(7)/SO(6) Composite Higgs und Dunkle Materie M AXIMILIAN RUHDORFER Physikdepartment (T75), TU München Nach fast einem halben Jahrhundert andauernder Suche, konnte schließlich 2012 am Large Hadron Collider ein higgsartiges Teilchen mit einer Masse von rund 125 GeV gefunden werden. Obwohl diese Entdeckung die Vorhersage des Standard Modells (SM) bestätigt und dessen Teilchengehalt komplettiert, werden auch viele weitere, tiefergehende Fragen aufgeworfen. Aus einer theoretischen Sichtweise ist ein leichtes skalares Teilchen, wie das Higgs-Boson, unnatürlich, wenn seine Masse nicht vor großen Quantenkorrekturen geschützt ist. Symmetrien sind eine elegante Möglichkeit die Masse des Higgs-Bosons zu schützen. Die wohl beliebteste Realisierung hiervon sind supersymmetrische Modelle. Alternativ, kann ein auf natürlicher Weise leichter Skalar als gebundener Zustand einer stark wechselwirkenden fundamentalen Theorie verwirklicht werden. In Composite Higgs (CH) Modellen ist das Higgs-Boson, wie die Pionen in QCD, ein pseudo Nambu-Goldstone Boson (pNGB), das durch die spontane Symmetriebrechung einer globalen Symmetrie im TeV Bereich auftritt. Das minimale, phänomenologisch realistische Modell beruht auf dem Symmetriebrechungsschema SO.5/ ! SO.4/. Im Folgenden betrachten wir ein Modell mit dem Symmetriebrechungsschema SO.7/ ! SO.6/. Das Brechungsschema SO.7/=SO.6/ impliziert das Auftreten von zwei weiteren pNGB neben dem Higgs-Boson. Diese beiden zusätzlichen Skalare sind neutrale Teilchen unter der SM Eichwechselwirkung. Ihre Wechselwirkung untereinander und mit dem Higgs-Boson ist vollkommen durch die Gruppenstruktur festgelegt. Die Wechselwirkung mit den SM Fermionen hängt jedoch von deren Einbettung in SO.7/ Multipletts ab. Durch die explizite Brechung der Goldstone-Symmetrie durch die Fermioneneinbettung wird radiativ eine Masse für das Higgs und die zusätzlichen Skalare generiert und deren Symmetrieeigenschaften bestimmt. In unserer Arbeit konzentrieren wir uns auf eine Fermioneneinbettung, die eine SO.2/ SO.6/ Untergruppe im Singlet Sektor ungebrochen lässt. Durch diese Wahl sind die zusätzlichen pNGB degeneriert und stabil, was sie zu einem guten Dunkle Materie (DM) Kandidat macht. Im Gegensatz zu vielen DM Modellen in der Literatur entsteht die Symmetrie, die die DM vor Zerfall schützt natürlich und muss nicht in Form einer Paritätssymmetrie postuliert werden. 72 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-9 (C) Die Suche nach dem Littlest Higgs Modell mit T-Parität S TEFAN W EBER Physikdepartment (T75), TU München Das Standardmodell (SM) kann als eine effektive Theorie aufgefasst werden, welche mit beeindruckender Genauigkeit eine sehr gute, effektive Beschreibung zahlreicher Experimente in der Teilchenphysik liefert. Die elektroschwache Symmetrie des Standardmodells wird bei O.MW / spontan gebrochen, wobei diese Skala durch die Higgs Masse mH bestimmt ist. Zudem muss man sich, wie bei allen effektiven Theorien, die Frage stellen bei welcher Skala diese Beschreibung zusammenbricht und somit mit neuer Physik zu rechnen ist. Damit physikalische Phänomene mit Hilfe des Standardmodells sinnvoll behandelt werden können, muss also das Verhältnis 2 mH =2 klein sein. Da allerdings die Higgs Masse nicht durch eine Symmetrie geschützt ist, 2 erhält diese Quantenkorrekturen, sodass mH =2 nicht notwendigerweise klein ist. Dies ist auch als Hierarchieproblem bekannt. Die wohl bekanntesten Lösungen sind Supersymmetrie, Compositeness und nicht zuletzt Little Higgs. Im Littlest Higgs Modell, dem einfachsten und minimalen Little Higgs Modell, ist das Higgs als pseudo Nambu-Goldstone Boson (pNGB) realisiert und wird mit Hilfe eines nichtlinearen Sigma Modells beschrieben. Dieses ist durch eine Zerfallskonstante f 1TeV charakterisiert. Während f klein genug ist um die bekannte Higgs Masse natürlich zu reproduzieren ist der Cutoff 4f hoch genug um das Hierarchieproblem zu lösen. Somit kann neue Physik im TeV Bereich erwartet werden, welche die Higgs Masse stabil gegenüber Strahlungskorrekturen macht. Um die Theorie noch mit Bedingungen aus elektroschwachen Präzisionsmessungen zu vereinbaren muss eine zusätzliche diskrete Z2 Symmetrie, die T -Parität, eingeführt werden. Unter dieser Symmetrie sind alle Teilchen des Standardmodells T -gerade und neue schwere Teilchen T -ungerade. Eine direkte Konsequenz daraus ist, dass das leichteste T -ungerade Teilchen (LTP) stabil sein muss. Falls dieses zudem neutral ist, stellt es einen Kandidaten für dunkle Materie dar. Da die Top Quark Masse viel größer ist als die der restlichen Quarks, ist es in führender Ordnung ausreichend nur diesen Beitrag zur Higgs Masse zu korrigieren, dies geschieht durch den schweren, T -ungeraden Partner des Top Quarks, welcher nur stark wechselwirkt. Dieser ist im Gegensatz zu den supersymmetrischen Partnern fermionisch. Ein Großteil der aktuellen Suche nach neuer Physik an Teilchenbeschleunigern beschränkt sich auf skalare Top Partner oder Zerfallstopologien die durch T -Parität ausgeschlossen sind. Es bleibt also zu klären, ob das Littlest Higgs Modell und dessen Vorhersagen durch die derzeitige Suche abgedeckt ist und ob die Suche nach skalaren Partnern ohne weiteres auf fermionische Partner übertragbar ist. T. Theorie 73 T-10 (A) Über die expliziten Lösungen der laufenden QCDKopplung. G USTAVO Á LVAREZ C OSQUE II. Institut für Theoretische Physik, Universität Hamburg. .nf / Die laufenden QCD-Kopplung a.t/ D ˛s mierungsgruppegleichung 3 d a.t/ D ˇ.a/ D dt .t/ D gs2 =.4/, definiert als die Lösung der Renor- ˇ0 a2 .1 C c1 a C c2 a2 C : : :/ ; (T.1) hat die folgende Darstellung durch Rekursivformulierung Z ln t D 1 da D ˇ.a/ ˇ0 1 C c1 ln a C a ! a.t/ D 1 ˇ0 t 1 .c1 ln t/ C ; .ˇ0 t/2 (T.2) wobei der unbekannte Koeffizient bj die Reichweite dieser Formel begrenzt. Eine andere Möglichkeit ist es, die sogennante “explizite” Lösung zu benutzen. Zum Beispiel im Fall von zwei- und dreiloop:4 aD 1 1 c1 Œ1 C W .z/ und aD 1 c1 Œ1 1 !2 C W .z/ bzw ; !2 c2 : c12 (T.3) Hier ist W .z/ die Lambert Funktion, definiert als Lösung der transzendenten Gleichung z D W .z/e W .z/ . Man muss die Formel für a.W .z// und z.t/ finden, um unsere Originalkopplung a.t / gut zu definieren. Man versteht z.t/ als eine explizite Formel, die man noch finden muss. Einen Ansatz 5 gibt eine allgemeine Formel, um eine Darstellung für z.t/ zu finden. Unabhängig davon kann man eine explizite Lösung für den Fall einloop durch die Anwendung der Eigenschaften der Lambertfunktion finden, die ist 8 ˆ 1 1 ˆ für 0 < Q < exp ; ˆ .nf / ˆ W0 .z.Q// ˆ 2 ˇ0 ˆ < 1 für Q D exp ; a.Q/ D 1 .nf / ˆ 2 ˇ 0 ˆ ˆ ˆ ˆ 1 1 ˆ für Q > exp : : W 1 .z.Q// .nf / 2 ˇ0 Sollte bj unbekannt sein, ist natürlich die Reichweite der Methode der explizten Lösungen begrenzt, aber trotzdem findet man dieser Lösungen numerisch übereinstimmend in der Literatur im Vergleich zur früheren Rekursivformulierung. Hier ist gs die starke QCD original Kopplung, nf Farbenummer, und t D lnfQ2 =Q02 g. Q und Q0 sind die Renormierung- bzw. die Referenzskala. cj D ˇj =ˇ0 , mit j 1, wobei ˇ0 und ˇj D ˇ1 ; ˇ2 ; : : : die Originalkoeffizienten ˇ.a/ aus der Literatur sind. 4 E. Gardi, G. Grunberg and M. Karliner, “Can the QCD running coupling have a causal analyticity structure?,” JHEP 9807 (1998) 007 [hep-ph/9806462]. 5 G. Cvetic and I. Kondrashuk,“Explicit solutions for effective four- and five-loop QCD running coupling” JHEP 1112 (2011) 019 [arXiv:1110.2545 [hep-ph]]. 3 74 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-11 (B) Ein zwei Higgs Doublette Dunkle Materie Modell M ARTIN K LASSEN ITP Heidelberg Es gibt viele Moeglichkeiten dunkle Materie Teilchen durch Erweiterungen des Standradmodells in eine allgemeine Theorie einzuarbeiten. In diesem Vortrag wird ein zwei Higgs Doublette Modell vom Type II vorgestellt. Hierbei wird zu dem Standardmodell Higgs ein zusaetzliches Higgs hinzugefuegt, welches gewoehnlich massiver ist. Dieses Boson erscheint in hoeheren Symmetrie Gruppen und hat seine eigene Energiebrechungsskala. Die beiden Higgs Bosons tragen neben der Standardmodell SU(3) SU(2) U(1) eine weitere U(1) Symmetrie, um an die dunkle Materie zu koppeln. Es wird angenommen, dass diese skalar ist. Das zwei Higgs Doublette Modell wird durch eine effektiven Feld Theorie beschrieben und enthaelt neben den Standardmodell Fermionen, die beiden Higgs Bosons und ein weiteres reales Skalar, die dunkle Materie. Diese koppelt dann direkt an die die beiden Higgs Bosons. Es gilt nun zu ueberpruefen, ob fuer einen geeigneten Parameterraum die relikte Dichte des Universums reproduziert werden kann. Nach der elektroschwachen Symmetriebrechung bleiben noch 5 der 8 realen Freiheitsgrade der beiden Higgs Bosons erhalten, welche zwei CP-gerade Skalare h und H , ein CP-ungerades Skalar A und ein Paar geladene Skalare H ˙ bilden. Der Mischungswinkel tan ˇ ist gegeben als p der Verhaeltnis der beiden Vakuumserwartungswerte tan ˇ D vv12 wobei vE W D v12 C v22 . Dann identifiziert man h als das am LHC gefundene Higgs und beschreibt den Winkel ueber die Mischung der beiden Higgs Doublettes. Dies fuehrt dann zu einer Modifizierung von allen Standardmodellkopplungen und liefert ebenfalls eine Massenskala auf der man Dunkle Materie erwartet. Diese koennen dann mit Ausschlusslimits von verschiedenen Experimenten verglichen werden oder geeignete Experimente konzipiert werden. T. Theorie 75 T-12 (C) Ein meta-stabiles Soliton in S U.3/ Yang-Mills-HiggsTheorie PASCAL NAGEL Institut für Theoretische Physik (KIT) Das Sphaleron S ist eine der wenigen Lösungen der klassischen elektroschwachen Feldgleichungen des Standardmodells und führt durch nicht-perturbative Prozesse im frühen Universum zu Baryonenzahlverletzung. Ähnlich zu Solitonen (wie z.B. Kinks und Monopolen) kann man sich bei der Suche nach Lösungen wie dem Sphaleron mit Methoden aus der Topologie helfen. Das Sphaleron S basiert beispielsweise auf einer topologisch nicht-trivialen Abbildung vom 2 Rand des Ortsraumes S1 und einer Schleife S 1 im Feldkonfigurationsraum in den Gruppenraum S U.2/. Mit der Absicht unser Verständnis von nicht-perturbativen QCD Prozessen zu vertiefen suchen wir ähnliche Lösungen im SU.3/ Sektor. Neben der bereits eingehend behandelten S Lösung 2 ^ S 3 ! SU.3/ zu einer in S U.3/ führt nun eine relativ kürzlich gefundene Abbildung S1 neuartigen Lösung der SU.3/ Yang-Mills-Higgs Feldgleichungen. Die Untersuchung der Energie von Feldkonfigurationen um die neue Lösung herum weist auf eine Metastabilität derer hin. Hierdurch unterscheidet sich diese neue Lösung grundlegend vom Sphaleron S , sowie von anderen Sphaleronlösungen, welche alle instabil sind. 76 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-13 (A) Dunkle Materie und E6 Grand Unification JAKOB S CHWICHTENBERG Institut für Theoretische Teilchenphysik KIT In meinem Vortrage diskutiere ich fermionische Dunkle Materie im Kontext vereinheitlichter, nicht-supersymmetrischer Theorien, basierend auf der Gruppe E6 . Diese Studie ist motiviert durch das Revival nicht-supersymmetrischer GUTs in den letzten Jahren und natürlich durch die Tatsache, dass die Natur der Dunklen Materie immer noch unbekannt ist. Die exzeptionelle Rang 6 Gruppe E6 hat, was das Dunkle Materie Problem angeht, einen großen Vorteil gegenüber den berühmten GUT-Gruppen SU.5/ und SO.10/: die fundamentale Darstellung von E6 beinhaltet, zusätzlich zu den Standardmodell-Fermionen, exotische Fermionen. Die Grundidee meiner Arbeit ist, dass eines der exotischen Fermionen ein realistischer, interessanter Dunkle Materie Kandidat ist. Außerdem istE6 eine gut motivierte GUT-Gruppe, beispielsweise aufgrund der automatischen Anomalie-Freiheit und der Tatsache, dass alle StandardmodellFermionen in der fundamentalen E6 Darstellung Platz finden. Die Stabilität der dunklen Materie kann durch eine diskrete Symmetrie sichergestellt werden, die übrig bleibt, nachdem E6 spontan gebrochen wurde. Um die Masse des Kandidaten abzuschätzen, berechnen wir mit Hilfe der Renormierungsgruppen-Gleichungen (RGEs) die verschiedenen Symmetriebrechnungs-Skalen. Die Yukawa-Kopplungen der exotischen und Standardmodell-Fermionen haben einen gemeinsamen Ursprung und werden durch ein Fit-Verfahren berechnet. Wir schätzen ab, dass die Masse des leichtesten exotischen Fermions im Bereich 2:1 106 GeV < mD M < 7:3 1011 liegt. Diese Abschätzung führt zu der Vorhersage, dass der E6 dunkle Materie Kandidat in naher Zukunft durch ein Experiment zum direkten Nachweis Dunkler Materie entdeckt werden könnte. Außerdem diskutiere ich systematisch, inwieweit die anderen exotischen Fermionen als Dunkle Materie Kandidaten in Frage kommen. T. Theorie 77 T-14 (B) Resummierung logarithmischer Beiträge in MSSM Higgsmassenberechnungen H ENNING BAHL Max-Planck-Institut für Physik, München Mit der Entdeckung des Higgsbosons durch die Experimente ATLAS und CMS am CERN wurde das Standardmodell der Teilchenphysik vervollständigt. Es liefert überaus erfolgreich präzise Voraussagen für eine Vielzahl von Prozessen. Trotz dieses Erfolges gibt es einige Probleme, sowohl experimenteller (z.B. fehlende Erklärung der dunklen Materie) als auch theoretischer Natur (z.B. Hierarchieproblem). Um diese zu lösen, wurden zahlreiche Konzepte entwickelt. Eines der prominentesten ist Supersymmetrie (SUSY). SUSY ist eine Symmetrie, die Bosonen und Fermionen zueinander in Beziehung setzt. Das einfachste Modell, das dieses Konzept verwirklicht, ist die supersymmetrische Erweiterung des Standardmodells, genannt Minimal Supersymmetric Standard Model (MSSM). Im MSSM wird jedem Standardmodellteilchen ein Superpartner, dessen Spin sich um 1/2 vom Standardmodellteilchen unterscheidet, zugeordnet. Zudem wird der Higgssektor des Standardmodells erweitert. Im MSSM besteht der Higgssektor aus zwei komplexen Higgs-Dubletts. Dies führt zu insgesamt fünf physikalischen Higgsteilchen: zwei CP-geraden ungeladenen Bosonen (h und H ), einem CP-ungeraden ungeladen Boson (A) und zwei geladenen Bosonen (H ˙ ). Bis heute wurden noch keine SUSY-Teilchen direkt nachgewiesen. Dennoch lassen sich die Parameter des MSSM durch Präzisionsobservablen indirekt einschränken. Eine wichtige Präzisionobservable ist die Masse des h-Bosons, welches üblicherweise mit dem am CERN entdeckten Higgsboson identifiziert wird. Es ist ein charakteristisches Merkmal des MSSM, dass die Masse des h-Bosons in Abhängigkeit der Modellparameter berechnet werden kann. Auf Bornniveau ergibt sich, dass Mh2 MZ2 cos2 2ˇ (tan ˇ ist das Verhältnis der Vakuumserwartungswerte der beiden Higgs-Dubletts). Es kann also nicht schwerer als die Masse des Z-Eichbosons sein. Dies steht im klaren Widerspruch zu der experimentell gefunden Masse von etwa 125 GeV. Allerdings wird die Higgsmasse durch Schleifenkorrekturen stark erhöht. Die Ein-SchleifenBeiträge können zu Korrekturen von bis zu 100% führen. Für eine präzise Vorhersage von Mh sind also Korrekturen höherer Ordnung von entscheidender Bedeutung. Inzwischen kennt man die vollen Ein-Schleifen-Beiträge, die dominanten Zwei-Schleifen-Beiträge und sogar Teile der Drei-Schleifen-Korrektur. Um eine Präzision, vergleichbar mit dem experimentellen Fehler, zu erreichen, ist dies aber nicht ausreichend. Das Hauptproblem sind logarithmische Beiträge, die umso größer werden, umso schwerer die Superpartner der Standardmodellteilchen sind. Sie verschlechtern die Konvergenz der Störungsrechnung, führen also dazu, dass auch Beiträge jenseits des Zwei-Schleifen-Niveaus nicht vernachlässigbar sind. Mit diagrammatischen Methoden sind solche Rechnungen heutzutage kaum machbar. Das Konzept der effektiven Feldtheorie hingegen erlaubt es auf relativ einfache Weise genau solche logarithmischen Beiträge bis zu beliebiger Ordnung zu resummieren. Die Kernidee ist es, die Effekte der schweren SUSY-Teilchen von denen der Standardmodellteilchen zu separieren, indem alle SUSY-Teilchen an einer gemeinsamen Skala, der SUSY-Skala, aus der Theorie entfernt werden. Die verbleibende Theorie unterhalb dieser Skala ist somit das Standardmodell, welches an der SUSY-Skala an das volle MSSM angepasst wird. Dies bedeutet, dass die Higgs-Selbstkopplung, welche im Standardmodell ein freier Parameter ist, an der SUSY-Skala durch die Anpassung an das MSSM berechnet werden kann. Renormierungsgruppengleichungen 78 47. Herbstschule für Hochenergiephysik Maria Laach 2015 ermöglichen, daraus die Higgs-Selbstkopplung zur elektroschwachen Skala zu erhalten. Dort lässt sich dann aus ihr die Higgsmasse berechnen, ohne dass große logarithmische Beiträge auftauchen. Diese werden durch das Laufen der Kopplung zwischen der SUSY-Skala und der elektroschwachen Skala erzeugt und in die Kopplung absorbiert. Eine numerische Lösung der Renormierungsgruppengleichungen korrespondiert zu einer Resummierung der Logarithmen bis zu allen Ordnungen. In effektiven Feldtheorien dieser Art werden aber üblicherweise Terme, die durch die SUSYSkala unterdrückt sind, vernachlässigt. Auch die Effekte von stark verschiedenen Massen der Superpartner, wenn also keine einheitlich SUSY-Skala vorliegt, sind nur schwer zu fassen. In einer diagrammatischen Rechnung ist es hingegen ohne Weiteres möglich unterdrückte Terme und nicht einheitlichen Spektren zu berücksichtigen. Deswegen bietet es sich an beide Herangehensweisen zu kombinieren, um ein möglichst präzises Ergebnis zu erhalten. Im Computerprogramm FeynHiggs ist diese Idee verwirklicht. Es verbindet eine diagrammatische Ein- und Zwei-Schleifen Rechnung mit der Resummierung logarithmischer Beiträge. T. Theorie 79 T-15 (C) Der renormalon Effekt auf der Masse des Top-Quarks M ARTHIJN S UNDER Institut für Theoretische Physik Universität Münster Das Top-Quark ist genug Massiv für die Anwendung der Störungstheorie, eine Expansion in den Orden der Kopplungskonstante. Auf dieser Weise können experimentell beobachtbaren Wirkungsquerschnitte berechnet worden in puncto die Parameter der Theorie, z.B. die Masse des Top-Quarks, die Kopplungskonstante, die Energie des Massenmittelpunkts und die Zerfallsbreite. Experimentell beobachtbaren Wirkungsquerschnitte können berechnet worden in verschiedenen Massenschemen, von denen jeder ist auf eine theoretisch definierten Parameter zu beziehen. Um einigen Massenparameter zu benennen, es gibt: die Polmasse mpole , die modifizierte minimal subtrahierte Masse mM S , die potential-subtrahierte Masse mPS , die modifizierte potentialsubtrahierte Masse und die 1S Masse m1S . Diese theoretische Massenparameter sind nicht alle mit der gleichen Genauigkeit ableitbar von Experimenten. Wir untersuchen, wie die sogenannten Infrarotrenormalonen die Genauigkeit beeinflussen, womit mpole , mPS und schließlich mM S gemessen worden können. Renormalonen werden durch einen nŠ-wachsenden Expansionsreihe charakterisiert, die typisch vorkommt in renormalisierbaren Feldtheorien wie QED und QCD. Renormalon Verhalten wurde ursprünglich in der all-order Summierung von QED-diagramme gefunden mit einer beliebigen Anzahl von Elektronenblasen, wenn man der Größe der höherer-ordnung Korrekturen schätzt. In QCD ist es nicht mehr möglich, eine explizite Menge von Diagramme zu assoziieren an Renormalonen, aber mittels ’naive nonabelianisation’ ist es noch möglich Renormalon Verhalten zu finden. Der gefunden nŠ-Wuchs werde schließlich dominieren und die all-order perturbative Expansion außer Kraft setzen und kennzeichnen als nicht-konvergente asymptotische Menge. Die bevorzugte Methode um mit nŠ-Wuchs und also Renormalonen umzugehen ist Borel Wiedersummierung. Eine Borel Wiedersummierung reguliert die perturbative Divergenz mittels einer Transformation zum Borel Raum. Renormalonen erscheinen als Pole in der Borel Transformation, welchen wieder Divergenzen produzieren wann die inverse Fourier Transformation genommen wird. Wir werden Renormalonen diskutieren, weil sie eine erhebliche theoretische Unklarheit im TopQuark Self-Energie induzieren und darum auch im Top-Quark Polmasse mpole . Jedoch, diese Renormalon Unklarheit fallt weg in experimentellen Beobachtbaren und deshalb lohnt es sich um eine Parametrisation zu betrachten mit einer Massenparameter, die nicht von der Renormalon Unklarheit beeinflusst werden, wie die potential-subtrahierte Masse mPS . Die Anwendung der potential-subtrahierten Masse mPS ist zu finden in künftige Schwellenscans. Die theoretische Voraussage für die Wirkungsquerschnitte von Top Anti-Top events in puncto mpole oder mPS 6 wird gezeigt in Abb: T.1 für aufeinander folgende Orden. Die Voraussage mit mPS ist stabiler als das analoge Ergebnis mit mpole , aber die Korrekturen sind nog immer groß für N 2 LO. Vor kurzem ist auch die QCD Voraussage für die N 3 LO Top Anti-Top Wirkungsquerschnitte mit mPS verfügbar gekommen, wie gezeigt in Abb: T.2, welche eine Konvergenz des Ergebnis zeigt. 6 Die modifizierte potential-subtrahierte Masse mPS enthalt auch einige zusätzliche Korrekturen aber ist fast gleich an der potential-subtrahierten Masse mM S . 80 47. Herbstschule für Hochenergiephysik Maria Laach 2015 Abbildung T.1.: Diese Grafiken von Ref. [1] zeigen als Funktion der Energie des Massenmitp telpunkts s die LO (punkt-gestreifte), NLO (gestreifte) und N 2 LO (durchgezogen) Schwellenverhalten von e C e ! t t in puncto mpole (links) und mPS (rechts) für mM S mM S D 160 GeV, 165 GeV and 170 GeV. Abbildung T.2.: Diese Grafik von Ref. [2] zeigt aufeinander folgende Orden der Voraussage für die Wirkungsquerschnitte von t t-events nah Schwellewert für Elektronp Positron Streuung als Funktion der Energie des Massenmittelpunkts s mit mPS f D 20 GeV D 171:5 GeV, CM D 1:33 GeV und ˛s .mZ / D 0:1185 ˙ 0:0006 als Eingabe. [1] Yakovlev, O.I. et al. - On t tN threshold and top quark mass definition - 2000 [2] Beneke, M. et al. - Next-to-Next-to-Next-to-Leading Order QCD Prediction for the Top Antitop S -Wave Pair Production Cross Section Near Threshold in e C e Annihilation - Phys. Rev. Lett. - 2015 T. Theorie 81 T-16 (A) Berechnung von soften Funktionen in SCET T OBIAS M OHRMANN Universität Siegen Die theoretische Vorhersage von event shape Variablen an beispielsweise e C e - Beschleunigern und der Vergleich mit Messwerten erlaubt die Bestimmung von Parametern des Standardmodells, z.B. die Kopplung ˛s . Doch dabei treten in der perturbativen Entwicklung große Logarithmen auf, sog. Sudakov-Logarithmen, wenn die Kollisionsprodukte in zwei Jets emittiert werden. Die Sudakov-Logarithmen werden verursacht durch virtuelle und real emittierte Gluonen und können bei Präzisionsrechnungen nicht vernachlässigt werden. Die Nutzung effektiver Theorien bietet die Möglichkeit, solche Prozesse aufzuspalten, einzeln zu berechnen und anschließend zu resummieren. Dafür werden in der Soft-Collinear Effective Theory (SCET) zunächst die Impulse in Lichtkegelkoordianten in vier Bereiche unterteilt (Einheitsvektor nE in Jetrichtung, n D .1; nE /, nN D .1; nE /, 1 ): hard: pH D .np; N np; pE? / / .1; 1; 1/ Q collinear (in Richtung des ersten Jets): pc / .1; 2 ; / Q anti-collinear (in Richtung des zweiten Jets): pcN / .2 ; 1; / Q soft: ps / .2 ; 2 ; 2 / Q SCET-Berechnungen ermöglichen die Entkoppelung dieser Bereiche, z.B. abhängig vom Thrust : Z 1 d 2 D H.Q / dr12 dr22 d k Jc .r12 /JcN .r22 /S.k/ı.Q r12 r22 Qk/ (T.4) d Die einzelnen Faktoren dieser Zerlegung lassen sich einfacher berechnen. Für jede Funktion der Faktorisierung kann eine eigene Renormierungsgruppengleichung aufgestellt und gelöst werden. Die Berechnung der soften Dijet-Funktion S.k/ wird meistens für jede Observable einzeln analytisch durchgeführt. Unsere Arbeitsgruppe verfolgt das Ziel, diese Berechnungen zu automatisieren und hat bereits präzise numerische Ergebnisse hervorgebracht. 82 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-17 (B) NLO-QCD-Korrekturen zur Higgspaarproduktion am LHC A NTON S TOYANOV Institut für Theoretische Physik, Universität Tübingen Die Entdeckung einer Resonanz am LHC bei ca. 125 GeV im Jahr 2012 deutet auf das postulierte Higgs-Boson des Standardmodells hin. Eines der zukünftigen Ziele des LHC besteht in der Bestimmung der trilinearen sowie quadrilinearen Higgs- Selbstwechselwirkungen, um den Higgsmechanismus zu ergründen und möglicherweise Abweichungen vom Standardmodell zu finden. Die Schwerpunktsenergien von derzeit 13 TeV für Proton-Proton-Kollisionen am LHC erlauben allerdings bestenfalls die Bestimmung von Schranken für Prozesse, die auf die trilineare Higgs-Kopplung sensitiv sind. Die trilineare Higgs-Kopplung tritt in Prozessen auf, in denen ein Higgs-Boson in zwei Higgs-Bosonen zerfällt. Higgspaarproduktion ist sensitiv auf Physik jenseits des Standardmodells mit zusätzlichen, schwereren Teilchen, die in zwei leichtere HiggsBosonen zerfallen können. Der dominante Higgspaarproduktionsprozess an Hadronenbeschleunigern erfolgt über GluonFusion, gg ! HH . Des weiteren gibt es Higgspaarproduktion durch Vektorbosonfusion, qq ! HH qq, sowie Higgsstrahlung, qq ! VHH (V D Z; W ). Schließlich ist die Produktion mit zusätzlich einem t tN-Paar, gg ! HH t tN, möglich. In meinem Vortrag werde ich den Prozess gg ! HH , welcher den größten Wirkungsquerschnitt unter den oben genannten besitzt, näher betrachten. Seine Dominanz ist eine Folge der über weite Energiebereiche hohen Emissionswahrscheinlichkeit des Protons für Gluonen. Da das Higgs-Boson an massive Teilchen mit einer Stärke proportional zu deren Masse koppelt, erfolgt der Prozess bevorzugt über eine (Top-)Quark-Schleife. Er ist also im Gegensatz zu den anderen Produktionsmechanismen bereits in führender Ordnung (LO: leading order) loopinduziert, was die Berechnung stark erschwert. Ein wichtiger Ansatz sind deshalb effektive Feldtheorien (EFT), in denen die Top-Masse als unendlich schwer betrachtet und ausintegriert wird, was zu effektiven ggH - und ggHH -Vertices führt. Mithilfe von EFT wurde auch die nächst-höhere Ordnung (NLO: next-to-leading order) von QCD-Korrekturen in der Störungsreihe berechnet. Daraus ist ersichtlich, dass NLO-QCD-Korrekturen einen Anstieg des Wirkungsquerschnitts von ca. 50% bewirken. Die Berücksichtigung der NLO-QCD-Korrekturen ist somit unumgänglich für die präzise Bestimmung der trilinearen Higgs-Kopplung. Allerdings zeigen verschiedene Varianten der Näherung Unterschiede von etwa ˙10% bezüglich des Wirkungsquerschnitts auf NLOQCD-Niveau, was die Wichtigkeit von NLO-Korrekturen mit voller Top-Massenabhängigkeit unterstreicht. Für die NLO-QCD-Korrekturen mit voller Top-Massenabhängigkeit müssen Zwei-SchleifenIntegrale mit vier äußeren Beinen sowie verschiedenen internen und externen Massenskalen berechnet werden, was mit derzeit verfügbaren analytischen Rechenmethoden nicht möglich ist. Deshalb sind numerische Integrationstechniken notwendig, welche aber nicht direkt anwendbar sind. Die auftretenden Zwei-Schleifen-Feynman-Diagramme weisen Divergenzen auf, welche vor der numerischen Integration mithilfe analytischer Methoden zu extrahieren sind. Zusätzlich dazu treten (integrierbare) Schwellensingularitäten innerhalb des Loop-Integrationsbereichs auf, die der Produktion von reellen Teilchen entsprechen. Oberhalb der Schwelle von 4m2top ist der T. Theorie 83 Wirkungsquerschnitt signifikant erhöht, da in diesem Bereich zwei Top-Quarks auf der Massenschale produziert werden können. Die volle NLO-Rechnung zeigt deutliche Unterschiede zur EFT. Das wird besonders deutlich bei Betrachtung der invarianten Higgspaarmassenverteilung d=d mHH . Ab einer invarianten Masse von mHH & 550 GeV beider Higgs-Bosonen kann die EFT-Näherung die volle NLORechnung nicht reproduzieren. Top-Quark Masseneffekte verringern den differentiellen Wirkungsquerschnitt d=d mHH um teilweise 20-30% im Vergleich zur EFT. 84 47. Herbstschule für Hochenergiephysik Maria Laach 2015 T-18 (C) Muon Zerfall YANNICK U LRICH Paul Scherrer Institut Während die Suche nach Neuer Physik am LHC bisher erfolglos blieb, bieten Präzisionsmessungen des niederenergetischen Regimes eine Möglichkeit Neue Physik zu entdecken. Durch virtuelle Quantenkorrekturen wird eine Observable sensitiv auf sämtliche Neue Physik, die an Teilchen des Standardmodells koppelt. Die entsprechenden Diagramme und Verzweigungsverhältnisse sind jedoch O.m=NP / unterdrückt. Ein prominentes Beispiel für derartige Messungen ist der Muonzerfall. Neben dem konventionellen Muonzerfall ! e N gibt es den radiativen ( ! e N C ) und den seltenen ( ! e N C e C e ) Zerfall. Während im Standardmodell aufgrund der Erhaltung von Lepton Flavour fast ausschließlich immer das Neutrinopaar erzeugt, wird haben diverse Modelle Neuer Physik einen gewissen Grad an Verletzung des Lepton Flavour (LFV), sodass eine direkte Umwandlung ! e C bzw. ! e C e C e möglich wird. Experimente wie MEG oder das sich im Bau befindende Mu3e am PSI suchen nach diesen LFV-Prozessen mit polarisierten Muonstrahlen hoher Intensität. Dafür sind präzise Vorhersagen des Standardmodells essentiell. Für den konventionellen Muonzerfall ! e N sind seit über 10 Jahren NNLO Vorhersagen des Elektronspektrums d =dEe verfügbar. Seit etwas mehr als einem Jahr gibt es polarisierte NLO Analysen für den radiativen Zerfall auf Monte-Carlo-Basis. Bisher gibt es keine Vorhersagen für den seltenen Zerfall jenseits der führenden Ordnung. Neben diesen recht praktischen Überlegungen gibt es auch theoretisches Interesse den Muonzerfall zu höheren Ordnungen zu berechnen: So erlaubt die Einfachheit der “sauberen” QED Detailanalysen von Regularisierungsverfahren, die in QCD schwieriger sind. Beispiele sind die Behandlung des 5 oder die Abhängigkeit des Schema (HV, FDH, CDR, etc.). In meinem Vortrag werde ich aktuelle Entwicklungen der theoretischen Seite zusammenfassen und die Arbeiten, die meine Kollegen und ich bzgl. des seltenes Zerfalls leisten, näher erläutern. T. Theorie 85 T-19 (A) Der Einfluss von schweren Quarks auf Heavy Jet Mass-Verteilungen im Prozess e Ce ! Hadronen C HRISTOPHER L EPENIK Fakultät für Physik, Universität Wien Die experimentellen Daten von Beschleuniger-Experimenten werden immer genauer. Um diese angemessen analysieren zu können und potentielle Abweichung vom Standardmodell der Teilchenphysik zu entdecken, werden entsprechend präzise theoretische Vorhersagen benötigt. In diesem Kontext ist die Theorie der starken Wechselwirkung, die Quantenchromodynamik (QCD), besonders interessant. Wenn in Hochenergieprozessen stark wechselwirkende Teilchen erzeugt werden, findet man die Endzustandsteilchen oft in Jets, also Objekten aus stark geboosteten kollinearen Teilchen. Folglich sind sogenannte Event Shapes, welche die geometrischen Eigenschaften des EnergieImpuls-Stromes des Endzustands parametrisieren, oft betrachtete Observablen. Die Untersuchung der Geometrie von Endzuständen mit Jets kann nicht nur wichtige Hinweise auf die grundlegenden Eigenschaften der QCD geben, sondern erlaubt wegen der hohen Sensibilität auf die starke Kopplungskonstante ˛s auch sehr präzise Bestimmungen dieser fundamentalen Größe. Ein bei der theoretischen Beschreibung vergleichsmäßig einfacher Prozess ist e C e ! Hadronen, da hier keine stark wechselwirkenden Teilchen im Anfangszustand involviert sind. Ein in diesem Bereich oft untersuchter Event Shape ist die Heavy Jet Mass. In der Störungsreihe, welche die Heavy Jet Mass-Verteilung beschreibt, treten nahe der 2-Jet Region, also bei Endzuständen die aus zwei sehr schmalen Jets bestehen, Logarithmen der Observable auf. Diese sind in dieser Region sehr groß und führen dazu, dass die störungstheoretische Entwicklung in ˛s keine guten Ergebnisse mehr liefert. Der Ursprung dieses Problems liegt in der ausgeprägten Hierarchie der charakteristischen Energieskalen des Prozesses in der 2-Jet Region. Um dieses Problem zu lösen, müssen die Logarithmen in allen Ordnungen der Störungstheorie resummiert werden. Ein äußerst praktischer Rahmen dies zu erreichen ist die effektive Feldtheorie Soft-Collinear Effective Theory (SCET). Diese ist konstruiert um die 2-Jet Region gut zu beschreiben und macht die Relevanz der verschiedenen auftretenden Energieskalen schon auf Ebene der Lagrangedichte deutlich. Es kann gezeigt werden, dass der von SCET beschriebene Teil des differenziellen Wirkungsquerschnitts faktorisiert werden kann, wobei jeder Faktor die Dynamik an einer der auftretenden Skalen beschreibt. Es ist dann möglich für jede dieser Funktionen eine Renormierungsgruppengleichung abzuleiten, mit deren Hilfe die entsprechenden Logarithmen resummiert werden können. In der Vergangenheit wurden einige präzise ˛s -Bestimmungen mit Hilfe von Event Shape-Verteilungen bei e C e -Kollisionen durchgeführt, wobei die entstehenden Quarks als masselos angenommen wurden. Für Schwerpunktsenergien weit größer als die Masse der produzierten Quarks ist dies eine gute Approximation, dennoch spielt in einigen phänomenologischen Studien die volle Massenabhängigkeit eine wichtige Rolle und sollte auch im Hinblick auf immer genauere Vorhersagen und in Bezug auf Analysen bei niedrigeren Energien ausführlicher betrachtet werden. Aufgrund dieses Sachverhalts wurde in meiner Masterarbeit die Abhängigkeit der Heavy Jet Mass-Verteilung von den Massen der primär erzeugten Quarks im Prozess e C e ! Hadronen auf 1-Schleifen-Niveau abgeleitet. Es wurden analytische Ausdrücke für die Heavy Jet Mass- 86 47. Herbstschule für Hochenergiephysik Maria Laach 2015 Verteilung in QCD als auch für die Bestandteile der faktorisierten Verteilung in SCET erarbeitet. Für die Analyse der Ergebnisse wurden auch nicht-perturbative Effekte berücksichtigt und Renormalon-Subtraktionen durchgeführt. In meinem Vortag werde ich die Ursachen der großen Logarithmen und die verwendeten Methoden zu deren Resummierung beschreiben. Ich werde die Ergebnisse meiner Arbeit vorstellen und interessante Fragestellungen motivieren, welche mit dieser in Zusammenhang stehen. T. Theorie 87 T-20 (B) Bremsstrahlung selbst-wechselwirkender Dunkler Materie L UKAS S EMMELROCK Institut für Hochenergiephysik, ÖAW Lambda Cold Dark Matter (CDM) ist heutzutage das Standard Modell der Kosmologie um die Entwicklung des Universums und Strukturbildung zu beschreiben. In diesem Modell wird angenommen, dass das Universum nicht-relativistische Dunkle Materie und eine kosmologische Konstante, die mit Dunkler Energie assoziiert wird, beinhaltet. Aus Messungen der kosmischen Hintergrundstrahlung ist bekannt, dass die Energiedichte des Universums zu ca. 69% aus Dunkler Energie, zu 26% aus Dunkler Materie und nur zu 5% aus normaler Materie besteht [1]. Das legt nahe, dass die Eigenschaften von Dunkler Materie einen großen Einfluss auf Strukturbildung im Universum haben können. Simulationen von Strukturbildung (wie [2] oder [3]) zeigen, dass sich die Materieverteilung im Universum durch rein gravitativ wechselwirkende Dunkle Materie auf großen Skalen sehr gut reproduzieren lässt. Auf kleinen Skalen kommt es jedoch zu Abweichungen zwischen Simulation und Beobachtung. So sagen Simulationen z.B. im Zentrum von Galaxien ein Dichteprofil r 1 voraus, während in Realität ein flaches Dichteprofil const. beobachtet wird ( cusp ” vs. core“-Problem [4]). Diese und weitere Diskrepanzen zwischen Simulation und Beobachtung werden als Kleinstrukturprobleme im Universum bezeichnet. Zur Lösung dieser werden häufig Selbst-Wechselwirkungen von Dunkler Materie verwendet [5], da eine Selbst-Wechselwirkung mit geeignetem elastischen Wirkungsquerschnitt von el =m & 0:1 cm2 /g zu einem Wärmetransport von den äußeren Regionen der Galaxie ins Innere führen kann, um dort die Dichte so zu verändern, dass sie den Beobachtungen gleichkommt. Wenn das Austauschteilchen der SelbstWechselwirkung leicht ist, kann dieses in Kollisionen abgestrahlt werden, was zu Wärmeverlust führt, der dem Wärmetransport ins Zentrum entgegenwirkt. In meinem Vortrag werde ich die Auswirkungen von Bremsstrahlung in Kollisionen von selbstwechselwirkender Dunkler Materie auf die Strukturbildung im Universum analysieren. Zu diesem Zweck werden vier Dunkle Materie Modelle störungstheoretisch im nicht-relativistischen und nicht-entarteten Regime betrachtet (siehe Abb. T.3), wobei die nicht-relativistische Dunkle Materie aus Fermionen oder aus Sakalarbosonen besteht, während das Austauschteilchen entweder ein reelles Skalarboson ' oder Vektorboson V sein kann. Für alle Modelle wird die Energieverlustrate P .T / berechnet, d.h. die Energie die in einem Gas mit Maxwell-Boltzmann Verteilung bei einer Temperatur T pro Zeiteinheit verloren geht. Für verschwindende Masse des Austauschteilchens werden analytische Lösungen angegeben, während für endliche Massen auf numerische Lösungsverfahren zurückgegriffen wird. Es stellt sich heraus, dass Systeme mit verschwindendem Dipolmoment eine Temperaturabhängigkeit der Energieverlustrate von P / T 3=2 ' ' Vµ Vµ ' ' Vµ Vµ Abbildung T.3.: Beispielhafte Feynman Diagramme für die vier untersuchten Modelle von selbst-wechselwirkender Dunkler Materie. 88 47. Herbstschule für Hochenergiephysik Maria Laach 2015 aufweisen, während sich Systeme mit nicht-verschwindendem Dipolmoment wie P / T 1=2 verhalten. Um die Wirkung der Strahlungskühlung eines Dunkle-Materie-Gases auf die Strukturbildung zu analysieren, wird die Abkühlzeit tcool D 3n T =P mit der Zeitskala elastischer Streuun1 1 gen p tel D .n T vvir / , der Hubble-Zeit t0 D H0 und der gravitativen Zeitskala tgrav D .3/=.8m n G/ verglichen. Es zeigt sich, dass für eine Referenzdichte von Dunkler Materie D 1 GeV/cm3 , was ungefähr der durchschnittlichen Dunkle-Materie-Dichte in unserer Lokalen Gruppe von Galaxien entspricht, die Forderung tcool < t0 für bestimmte Parameterbereiche erfüllt werden kann und Strahlungskühlung in diesen Fällen daher einen Einfluss auf die Strukturbildung im Universum hat. Astronomische Beobachtungen beschränken auf Größenskalen von Galaxienhaufen mit typischer Geschwindigkeit der Dunklen Materie von v 10 2 den elastischen Streuquerschnitt auf T =m . 1 cm2 =g. Unter Berücksichtigung dieser Beschränkung kann tcool < t0 erfüllt werden, wenn ) ˛ & 106 GeV/cm3 ; verschwindendes Dipolmoment 10 GeV . m =˛ 2=3 . 100 GeV; ˛ & 102 GeV/cm3 ; 10 GeV . m =˛ 2=3 . 10 TeV; ) nicht-verschwindendes Dipolmoment wobei ˛ die Kopplungskonstante, die Dunkle-Materie-Dichte und m die Dunkle-MaterieMasse ist. [1] PLANCK Collaboration arXiv.org, Feb. 2015. [2] V. Springel et al. Nature, vol. 435, pp. 629–636, Apr. 2005. [3] A. A. Klypin, S. Trujillo-Gomez, and J. Primack Astrophys. J., vol. 740, p. 102, Oct. 2011. [4] W. J. G. de Blok Adv. Astron., vol. 2010, no. 1-2, pp. 1–14, 2010. [5] D. N. Spergel and P. J. Steinhardt Phys. Rev. Lett., vol. 84, pp. 3760–3763, Apr. 2000. T. Theorie 89 T-21 (C) Natürliche SUSY-Modelle und rechte Sneutrinos als LSP T HOMAS FABER Julius-Maximilians-Universität Würzburg Das bisher etablierte Standardmodell der Teilchenphysik (SM) wurde mit hoher Genauigkeit experimentell bestätigt. Es birgt aber einige theoretische Aspekte, die von Physikern als äußerst unbefriedigend wahrgenommen werden. Dazu zählen: Das Hierarchieproblem Fehlender Kandidat für dunkle Materie Keine Vereinheitlichung der Eichkopplungen and der GUT-Skala Gravitation nicht berücksichtigt Einige dieser Aspekte werden durch die Einführung einer fermionischen Symmetrie gelöst, der sog. Supersymmetrie. Ein Beispiel: Die durch Schleifenkorrekturen induzierten großen Beiträge zur Higgsmasse werden nun durch weitere Beiträge wieder aufgehoben. Ein weiteres Beispiel: Im MSSM, dem minimalen supersymmetrischen Standardmodell, ist das leichteste supersymmetrische Teilchen, bei erhaltener R-Parität, ein natürlicher Kandidat für Dunkle Materie. Diese Rolle fällt meistens dem leichtesten Neutralino zu. Neutralinos sind eine Linearkombination aus den SUSY-Partnern der neutralen Eichbosonen B und W3 , sowie dem Partnern der beiden Higgs-Teilchen, den Higgsinos. Natürliche SUSY oder im Englischen als natural SUSY bezeichnet, steht für eine Klasse supersymmetrischer Modelle, die einen möglichst geringen Grad an Anpassung bestimmter Parameter aufweisen (sog. Fine-Tuning). Stops sind für den größten Teil der Strahlungskorrekturen des Higgspotentials, v. a. des Higgsmassenparameters m2 verantwortlich. Um ein gewisses FineTuning zu vermeiden, sollten diese Beiträge von der selben Größenordnung sein, wie m2 selbst. Damit ergeben sich Einschränkungen für die Stopmassen. Mit ähnlichen Argumentationen lässt sich auch für die Gluinomasse eine obere Schranke angeben, aufgrund ihres Beitrags zu Korrekturen der Stopmassen. Higgsinos hingegen sollten leicht sein, da der -Parameter in m2 eingeht. Wir haben rechte Neutrinosuperfelder zur MSSM-Lagrangedichte hinzugefügt, um einen weiteren geeigneten Kandidaten für Dunkle Materie zu haben. Somit ergeben sich weitere Einschränkungen an den zu untersuchenden Parameterraum durch Neutrinodaten. Die Neutrinomassen werden mit einen inversen Seesaw-Mechanismus erzeugt. Dies bietet die Möglichkeit, dass die Massen der rechtshändigen Neutrinos in einem Energiebereich liegen, der vom LHC erreichbar ist. In unserem Projekt haben wir zwei Szenarien bearbeitet (Higgsino-LSP und Sneutrino-LSP) und damit Beschleunigerstudien mit M ADGRAPH und W HIZARD durchgeführt. In meinem Vortrag werde ich das allgemeine Vorgehen darstellen, sowie die Funktionen der benutzen Softwares erläutern, als auch die schon erzielten Ergebnisse vorstellen. Bildnachweis: Titel, S. 5 und S. 3: Maria Laach, Basis und Ostseite aus G. Dehio und G. Bezold, “Die Kirchliche Baukunst des Abendlandes.” Verlag der J. G. Cotta’schen Buchhandlung, 1892, mit freundlicher Genehmigung des Magnus Verlag, Essen. Druck: UniPrint der Universität Siegen Hölderlinstraße 3 57068 Siegen, 2016