44. Herbstschule für Hochenergiephysik Maria Laach 4.–14. September 2012 Zusammenfassungen der Kurzberichte der Teilnehmerinnen und Teilnehmer 44. Herbstschule für Hochenergiephysik Maria Laach 4.–14. September 2012 Die Herbstschule für Hochenergiephysik wird vom Bundesministerium für Bildung und Forschung (BMBF) finanziell unterstützt. Organisatoren Prof. Dr. S. Bethke MPI für Physik, München Prof. Dr. Th. Mannel Universität Siegen Prof. Dr. R. Rückl Universität Würzburg Kontaktperson für 2012 Prof. Dr. S. Bethke MPI für Physik, München http://www.maria-laach.tp1.physik.uni-siegen.de Inhaltsverzeichnis Programm . . . . . . . . . . . . . . . . . . . . . . . . 6 Zeitplan . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Teilnehmerinnen und Teilnehmer . . . . 9 Kurzdarstellungen . . . . . . . . . . . . . . . . 15 Laach Klosterkirche, Basis 5 Programm Vorlesungen Das Standardmodell Ansgar Denner Uni Würzburg Heavy Flavour Physics Clara Matteuzzi INFN Milano Neutrino Physics Boris Kayser Fermilab Physics beyond the Standard Model Georgi Dvali LMU und MPI München Physik am LHC Sandra Kortner MPI München Moderne Methoden der Datenanalyse Allan Caldwell MPI München Particle Cosmology INR RAS Moscow V. A. Rubakov Abendvorträge Mönchtum: Pater Athanasius Welt von gestern, Lebensmöglichkeit heute. Wolff Geologie der Vulkaneifel. Brigitte Bethke Bad Dürkheim Teller oder Tank: Robert Schlögl Fritz-Haber-Inst., Warum wir chemische Energiespeicherung benötigen. 6 Maria Laach Berlin Übungen Feynman-Diagramme für Anfänger Thorsten Ohl Uni Würzburg Renormierung und effektive Feldtheorie Peter Uwer HU Berlin Supersymmetrie RWTH Aachen Alexander Mück Koordinatoren der Gruppenberichte Gruppe Experiment A Giorgio Cortiana B C Theorie MPI Silja C. Thewes DESY Ringaile Placakyte DESY Peter Marquard KIT Markus Jüngst David Straub INFN Pisa CERN 7 Zeitplan Dienstag Mittwoch Donnerstag Freitag Samstag 4.9. 5.9. 6.9. 7.9. 8.9. 08:30–09:25 Kortner Denner Caldwell Caldwell 09:40–10:35 Denner Kortner Denner Caldwell 10:50–11:45 Denner Kortner Kortner Diskussion Übungen Gruppen 11:55 14:30–16:00 Mittagessen Anreise Übungen 16:05–16:25 Kaffeepause 16:30–18:00 Übungen 18:25 19:30 Übungen Gruppen Gruppen Abendessen Begrüßung 20:00 Wolff Bethke Montag Dienstag Mittwoch Donnerstag Freitag 10.9. 11.9. 12.9. 13.9. 14.9. 08:30–09:25 Rubakov Dvali Matteuzzi Kayser Kayser 09:40–10:35 Dvali Dvali Rubakov Matteuzzi Kayser 10:50–11:45 Kirchenbesuch Rubakov Dvali Matteuzzi Diskussion Übungen Abreise 11:55 14:30–16:00 Mittagessen Übungen Übungen 16:05–16:25 16:30–18:00 Kaffeepause Gruppen Gruppen 18:25 20:00 8 Gruppen Abendessen Schlögl Abschlußabend Teilnehmerinnen und Teilnehmer Detektor- und Beschleunigertechnologie Stadt Nr. (Gr.) Name Titel des Vortrags Bonn D-1 (A) Malte Backhaus Universität Bonn Charakterisierung neuer hybrider Pixeldetektor Modulkonzepte für das ATLAS Insertable B-Layer Upgrade Silke Altenheiner TU Dortmund C Strahlenhärte von n -in-n Pixelsensoren Mirco Deckenhoff TU Dortmund Untersuchung der Strahlenhärte von Silizium Photomultipliern für ein Upgrade des Spurdetektorsystems des LHCb-Experiments CERN und II. Physikalisches Institut, Uni Göttingen Andre Schorlemmer Messungen der effeketiven Depletionsspannung und Depletionstiefe im ATLAS Pixel Detektor Universität Hamburg Joachim Erfle Systematische Untersuchung verschiedener Siliziummaterialien auf Strahlenhärte für den CMS-Spurdetektor im HL-LHC Benjamin Hermberg DESY Realisierung und Überprüfung eines technischen Prototypen eines CALICE Hadronkalorimeters Universität Hamburg / DESY Klaus Zenker Charakterisierung und Optimierung von Gas-Elektronen-Vervielfachungsfolien für den ILD Detektor am ILC Max-Planck-Institut für Physik Christian Soldner Das T3B Experiment: Die Zeitauflösung hadronischer Schauer in hochgranularen Kalorimetern mit Wolfram oder Stahl Absorber Physikalisches Institut, Universität Würzburg Stefan Weber Detektorenentwicklung für das Upgrade des Myon-Spektrometers von ATLAS Dortmund D-2 (B) Dortmund D-3 (C) Göttingen D-4 (A) Hamburg D-5 (B) Hamburg D-6 (C) Hamburg D-7 (A) München D-8 (C) Würzburg D-9 (C) Institut Seite 15 16 16 17 19 20 20 22 24 9 Experimentelle Analyse Stadt Nr. (Gr.) Name Titel des Vortrags Aachen E-1 (A) III. Physikalisches Institut A, RWTH Aachen Robert Fischer Messung der W -assoziierten Produktion einzelner Top-Quarks mit dem CMS-Experiment III. Physikalisches Institut B, RWTH Aachen Bastian Kargoll Suche nach dem Higgs-Boson in Ereignissen mit zwei hadronisch zerfallenden Tau-Leptonen bei CMS III. Physikalisches Institut A, RWTH Aachen Klaas Padeken Suche nach Unparticles in Z C E 6 T Zerfallskanal mit dem CMS Detector Aachen E-2 (B) Aachen E-3 (C) Institut Seite Andreas Menzel Humboldt-Universität zu Berlin Einschränkungen der Eigenschaften einer 4. Fermionenfamilie durch Flavourphysik, elektroschwache Präzisionsmessungen und aktuelle Ergebnisse der Higgs-Suche Berlin Patrick Rieck Humboldt-Universität zu Berlin E-5 (B) Die Matrixelement-Methode in nächst-führender Ordnung und Single-TopProduktion in ATLAS Physikalisches Institut, Universität Bonn Bonn Jessica Liebal E-6 (C) Suche nach dem Standardmodel Higgsboson im Zerfallskanal H ! ! had `3 in ATLAS Physikalisches Institut, Universität Bonn Bonn Steffen Schaepe E-7 (C) Suche nach Supersymmetrie in Endzuständen mit zwei Tau Leptonen, Jets und fehlender Transversalenergie mit dem ATLAS Detektor. Physikalisches Institut, Universität Bonn Bonn Martin Schultens E-8 (B) Suche nach Supersymmetrie mit Tau-Leptonen und einem Elektron am ATLAS-Experiment Institut für experimentelle Physik IV, TU Dortmund Dortmund Ingo Burmeister E-9 (C) Trackjets in ATLAS Dortmund Maximilian Schlupp TU Dortmund E-10 (A) Messung des CKM-Winkels im Zerfall Bs0 ! Ds˙ K mit dem LHCbExperiment Physikalisches Institut, Universität Freiburg Freiburg Claudia Giuliani E-11 (C) Suche nach direkter Produktion von leichten supersymmetrischen TopSquarks mit einem Lepton und b-Jets im Endzustand bei einer Schwerpunktp senergie von s D 7 TeV im ATLAS Experiment Physikalisches Institut, Universität Freiburg Freiburg Christian Schillo E-12 (B) Suche nach neutralen Higgs-Bosonen im Zerfallskanal H ! ! e4 mit dem ATLAS-Detektor Berlin E-4 (A) 10 25 26 28 29 30 31 32 33 34 35 36 38 München E-13 (A) Göttingen E-14 (B) Göttingen E-15 (C) Hamburg E-16 (A) Hamburg E-17 (B) Heidelberg E-18 (C) Karlsruhe E-19 (A) Karlsruhe E-20 (B) Karlsruhe E-21 (C) Mainz E-22 (C) Mainz E-23 (B) Mainz E-24 (C) München E-25 (A) München E-26 (B) Rostock E-27 (C) Wien E-28 (A) Josephine Wittkowski Lehrstuhl für Elementarteilchenphysik, LMU München Optimierung der Triggerstrategie für die Suche nach elektroschwach produ40 zierten supersymmetrischen Teilchen II. Physikalisches Institut, Universität Göttingen Philipp Hamer Suche nach B ! bei Belle 41 II. Physikalisches Institut, Universität Göttingen Jason Mansour Suche nach Supersymmetrie im trileptonischen Endzustand mit dem DØ42 Experiment Insitut für Experimentalphysik, Universität Hamburg Kristin Heine Suche nach Supersymmetrie im voll-hadronischen Kanal mit dem CMS De43 tektor am LHC Jan Kieseler DESY Messung des Wirkungsquerschnittsverältnisses von t tN und Z 0 Produktion in 45 den dileptonischen Zerfallskanälen Physikalisches Institut, Universität Heidelberg Georg Krocker Bestimmung des Produktionsflavours von Bs -Mesonen beim LHCb Experi46 ment Institut für Experimentelle Kernphysik, KIT Matthias Huschle Vollständige Rekonstruktion von B-Mesonen in .5S/-Zerfällen bei Belle 47 Institut für Experimentelle Kernphysik, KIT Bastian Kronenbitter Analyse des Zerfalls B 0 ! D C D am Belle-Experiment 48 Institut für Experimentelle Kernphysik, KIT Steffen Röcker Messung des Single Top t-Kanal Wirkungsquerschnitts mit neuronalen Net49 zen am CMS-Detektor Institut für Physik, Universität Mainz Timo Müller Suche nach Supersymmetrie in Ereignissen mit einem Lepton, Jets und feh50 lender Transversalenergie mit dem ATLAS Experiment Institut für Physik, Universität Mainz Ruth Pöttgen ATLAS-Suche nach Dunkler Materie in Monojet-Ereignissen 51 Institut für Physik, Johannes-Gutenberg Universität Mainz Simon Wollstadt Messung des Drell-Yan Wirkungsquerschnittes mit Hilfe von Elektron52 Positron-Paaren bei ATLAS Max-Planck-Institut für Physik, München M. Goblirsch-Kolb Suche nach supersymmetrischen Teilchen in Endzuständen mit vier oder mehr 53 Leptonen mit dem ATLAS-Detektor Max-Planck-Institut für Physik, München Martin Ritter Zeitabhängige Analyse der CP -Verletzung im Kanal B 0 ! D C D KS0 bei 54 Belle Institut für Physik, Universität Rostock Miriam Heß Untersuchung des Zerfalls BN 0 ! C N K C mit dem BABAR Experiment 55 c pK Robin Glattauer Institut für Hochenergiephysik der ÖAW Spurrekonstruktion in der Vorwärtsrichtung des ILD 56 11 Theorie Stadt Nr. (Gr.) Name Titel des Vortrags Institut Seite Institut für Physik, HU Berlin Peter Galler Beiträge skalarer und pseudoskalarer Bosonen zur t tN-Produktion am LHC 58 Institut für Physik, HU Berlin Berlin Felix Stollenwerk T-2 (B) Modellunabhängiger Ansatz für ! C und 0 ! C 59 Institut für Theoretische Physik, Universität Bern Bern Stefanie Marti T-3 (C) W=Z= -Produktion bei grossem pT in SCET 61 Physikalisches Institut, Universität Bonn Bonn Daniel Schmeier T-4 (A) Effektive Modelle für Dunkle Materie am ILC 62 Physikalisches Institut, Universität Freiburg Freiburg Markus Hecht T-5 (B) NLO QCD Korrekturen zur Produktion von W C Endzuständen am LHC 63 Hamburg Elina Fuchs DESY T-6 (C) Interferenzeffekte im MSSM in einer verallgemeinerten Narrow-Width Ap64 proximation Institut für Theoretische Physik, KIT Karlsruhe Ramona Gröber T-7 (A) Higgspaarproduktion in Composite Higgs Modellen 65 Institut für Theoretische Teilchenphysik, KIT Karlsruhe Thomas Hermann N T-8 (B) B.B ! Xs / in 2-Higgs-Dublett-Modellen 66 Institut für Theoretische Physik, KIT Karlsruhe Christian Röhr T-9 (C) Colour-Reconnection im Ereignisgenerator H ERWIG ++ 67 Institut für Physik, Universität Mainz Mainz Stephan Thier T-10 (B) Phänomenologie am LHC mit P OWHEG 68 Institut für Physik (THEP), Universität Mainz Mainz Daniel Wilhelm T-11 (A) Produktion von massiven Bosonen bei kleinem Transversalimpuls qT 69 Physikdepartment IV (T31), TU München München Francesco Dighera T-12 (B) Radiative Corrections to Dark Matter Annihilation in the MSSM 70 Physikdepartment (T30), TU München München Andreas Trautner T-13 (A) Horizontale Diskrete R Symmetrien 72 Max-Planck-Institut für Physik, München München Hendrik Vogel T-14 (B) Dunkle Materie und Dunkle Strahlung mittels extra U.1/ 73 Institut für Theoretische Physik, Universität Münster Münster Florian König T-15 (A) Photon-Produktion in Proton-Proton- und Schwerionenkollisionen 74 Fakultät IV, Theoretische Physik I, Universität Siegen Siegen Denis Rosenthal T-16 (B) Zerfallskonstanten von schweren Mesonen in der QCD 75 Fakultät für Physik, Universität Wien Wien Piotr Pietrulewicz T-17 (A) Effektiver Feldtheorieansatz für Masseneffekte in inklusiven Prozessen 76 Berlin T-1 (A) 12 Inst. f. Theor. Physik und Astrophysik, Uni Würzburg Würzburg Christian Pasold T-18 (B) Elektroschwache NLO Korrekturen zur W und Z Produktion mit vollen 77 leptonischen Zerfällen Zeuthen Felix Bahr DESY Zeuthen T-19 (A) Formfaktoren für B ! ` Zerfälle in Gittereichtheorie 78 13 D. Detektor- und Beschleunigertechnologie D-1 (A) Charakterisierung neuer hybrider Pixeldetektor Modulkonzepte für das ATLAS Insertable B-Layer Upgrade M ALTE BACKHAUS Universität Bonn Für den ATLAS Pixeldetektor wird eine vierte, hybride Pixeldetektorlage entwickelt, der so genannte Insertable B-Layer (IBL). Diese wird in den bestehenden Pixeldetektor eingeschoben. Aufgrund des sehr kleinen Abstandes zum Wechselwirkungspunkt von ca. 3,4 cm wird der IBL die Trackrekonstruktionsleistung und Vertexauflösung des ATLAS Pixeldetektors verbessern. Um mit der extrem hohen Strahlungsbelastung in der Nähe des Wechselwirkungspunktes klarzukommen wurden neue Sensorkonzepte und ein neuer Auslesechip, FE-I4, entwickelt. Um die Pixelokkupanz zu reduzieren wurde die Pixelgröße von 50 400 m2 des momentanen ATLAS Pixeldetektor Auslesechips (FE-I3) auf 50 250 m2 reduziert. Die aktive Fläche des FE-I4 bedeckt 2 1; 7 cm2 und beinhaltet 26880 Pixel, eine ca. zehnfache Pixelanzahl im Verhältnis zu FE-I3. Das Verhältnis von aktiver zu inaktiver Fläche wurde von 75% im FE-I3 auf 90% im FE-I4 gesteigert. Dies ermöglicht die Entwicklung eines stark vereinfachten, integrierteren Modulkonzeptes, dass durch weniger Peripherie und mechanische Bauteile einen geringere Anteil der Strahlungslänge besitzt. Eine möglichst kleine Strahlungslänge verbessert die Trackrekonstruktionsfähigkeit und ist eine der Hauptanforderungen an das Design des Modulkonzeptes für IBL. FE-I4 wurde designed um die Anforderungen der verschiedenen neuen, strahlenharten Sensorkonzepte – planare Silizium Pixelsensoren, 3D Silizium Pixelsensoren und planare Diamantsensoren – zu erfüllen, welche momentan für den Einbau im IBL bzw. dem Diamond Beam Monitor (DBM) vorgesehen sind. Diese Sensorkonzepte sind verfügbar für die neue Auslesechipgeneration FE-I4 und wurden mit diesem detailiert in Labor und Teststrahlumgebung charakterisiert. Der Vortrag wird eine Einleitung in die verschiedenen Anwendungen und eine detailierte Beschreibung der Auslesearchitektur des FE-I4 beinhalten. Der Hauptfokus ist die Präsentation des Betriebs und der Leistungsfähigkeit von bestrahlten und unbestrahlten Prototypmodulen mit den verschiedenen Sensorkonzepten. 16 44. Herbstschule für Hochenergiephysik Maria Laach 2012 D-2 (B) Strahlenhärte von nC-in-n Pixelsensoren S ILKE A LTENHEINER TU Dortmund Für den ATLAS Pixeldetektor sind zwei große Upgrades auf dem Weg zum HL-LHC geplant. Als Erstes in 2013 der Einbau einer vierten Pixellage mit einem mittleren Radius von nur 33 mm, dem sogenannten Insertable B-Layer (IBL). Dabei muss der Tracker eine erhöhte Luminosität von etwa 31034 cm 2 s 1 bewältigen, was eine Strahlenhärte der Sensoren von 51015 neq cm 2 voraussetzt. Am Ende dieser Dekade ist ein kompletter Austausch des inneren Trackers vorgesehen, da bei HL-LHC eine Luminosität von 10 1035 cm 2 s 1 erwartet wird. Bei dieser Luminosität muss die innerste Pixellage Strahlenschäden bis zu einer Fluenz von 2 1016 neq cm 2 standhalten. Um sicherzustellen, dass die Pixelsensoren auch bei solch hohen Fluenzen noch eine gute Effizienz besitzen, wurden sowohl nC -in-n SingleChip Assemblies, basierend auf dem im jetzigen Pixel Detektor verbauten FE-I3 Auslesechip, als auch Sensoren mit dem neuen IBL Auslesechip FE-I4 bestrahlt. Die SingleChip Assemblies wurden in Karlsruhe mit 23 MeV und in Los Alamos (New Mexico, USA) mit 800 MeV Protonen bestrahlt. Eine Bestrahlung mit Neutronen hat in Ljubljana (Slowenien) stattgefunden. Um ihre Effizienz und ihr Verhalten nach verschieden hohen Fluenzen zu bestimmen, wurden und werden verschiedene Labormessungen als auch Messungen in Testbeams am CERN (Genf, Schweiz) und DESY durchgeführt. Erste Ergebnisse und Erfahrungen mit solch hoch bestrahlten Sensoren werden vorgestellt. D-3 (C) Untersuchung der Strahlenhärte von Silizium Photomultipliern für ein Upgrade des Spurdetektorsystems des LHCb-Experiments M IRCO D ECKENHOFF TU Dortmund Das am Large Hadron Collider (LHC) am Forschungszentrum CERN (Genf, Schweiz) beheimatete LHCb-Experiment hat als primäres Ziel die indirekte Suche nach Neuer Physik. Dazu werden – insbesondere CP -verletzende – Zerfälle und Prozesse untersucht, anhand derer es möglich ist, durch Präzisionsmessungen Abweichungen von den Vorhersagen des Standardmodells zu bestimmen. Der aktuelle Detektor des LHCb-Experiments ermöglicht eine Datennahme von etwa 1 fb 1 pro Jahr bei einer Luminosität von bis zu 5 1032 cm 2 s 1 . Um bei einer erhöhten Luminosität ab dem Jahr 2018 eine Datennahme von etwa 5 fb 1 pro Jahr zu ermöglichen, ist ein Upgrade mehrerer Detektorkomponenten notwendig. Ein wichtiger Teil des derzeitigen Spurdetektorsystems ist der Outer Tracker (OT). Dieser besteht aus Driftröhren von 5 mm Durchmesser und ermöglicht eine Ortsauflösung von 230 m. Die maximale Driftzeit in den Röhren dieses Subdetektors liegt bei 42 ns. Dem gegenüber ste- D. Detektor- und Beschleunigertechnologie 17 hen zukünftig 25 ns als Zeit zwischen zwei Proton-Bunch-Crossings am Wechselwirkungspunkt. Dies führt – vor allem im Bereich nahe des Strahlrohrs – zu einer derart erhöhten Detektorbelegung, dass mit einer deutlichen Abnahme der Effizienz der Spurrekonstruktion zu rechnen ist. Ein möglicher Kandidat für ein Upgrade dieser Detektorkomponente ist ein System aus szintillierenden Fasern mit Silizium-Photomultiplier-Auslese. Dabei erzeugen die nachzuweisenden Teilchen in einzelnen, zu Matten verarbeiteten, parallelen Fasern von 250 m Durchmesser Szintillationslicht, welches an deren Ende mit Hilfe von strukturierten Silizium-Photomultipliern (SiPM) detektiert wird. Die Anregungszeit des Szintillationslichts beträgt dabei etwa 2 ns. Ein derartiges Spurdetektorsystem wurde bereits für das PEBS-Experiment an der RWTH-Aachen entwickelt. Um dieses für das LHCb-Experiment adaptieren zu können, sind jedoch einige Hindernisse zu überwinden. Neben der Herausforderung der Produktion deutlich größerer Module als der für das PEBS-Experiment entwickelten spielt die Strahlenhärte der szintillierenden Fasern und der SiPMs eine wesentliche Rolle. Um die Verwendbarkeit der SiPMs zu testen, wurden Bestrahlungen dieser an Protonen-Beschleunigern in Nizza (Frankreich) und München sowie 2011 und aktuell in situ in der LHCbKaverne durchgeführt. Der Vortrag gibt eine Einführung in das Konzept und die Funktionsweise eines Spurdetektorsystems aus szintillierenden Fasern mit SiPM-Auslese. Es werden die durchgeführten Studien zur Bestimmung des Effekts von Strahlung auf die SiPMs und ihre bisherigen Ergebnisse präsentiert. D-4 (A) Messungen der effeketiven Depletionsspannung und Depletionstiefe im ATLAS Pixel Detektor A NDRE S CHORLEMMER CERN und II. Physikalisches Institut, Uni Göttingen Durch die hohe Luminsität im LHC haben Effekte aufgrund von Strahlenschäden im ATLAS Pixel Detektor einen zunehmenden Einfluss auf den Betrieb und die Leistung des Detektors. Daher ist es notwendig, diese Effekte im ATLAS Pixel Detektor regelmäßig zu überwachen. Eine entscheidende Observable ist die Depletionsspannung, sowie die Tiefe der depletierten Zone nach Typ-Inversion. Der Sensor im ATLAS Pixel Detektor is n-dotiert und die depletierte Zone wächst mit wachsender Spannung von der Rückseite aus. Die Strahlenbelastung durch den LHC hat eine Veränderung der effektiven Dotierungkonzentration der Halbleitersensoren zur Folge. Die Defekte bewirken eine Verringerung der n-Typ-Dotierungskonzentration im Sensor und führen nach einer gewissen Zeit zu einer effektiven p-Dotierung. Nach Typ-Inversion wächst die depletierte Zone auf der Pixelseite. Dieser Effekt ermöglicht es, den Detektor nur teilweise depletiert zu betreiben. Abbildung D.1 zeigt einen Querschnitt des Pixelsensors vor und nach Typ-Inversion. Für den ATLAS Pixel Detektor wurden zwei verschiedene Messungen entwickelt, um die Depletionspannung vor Typ-Inversion sowie die Depletionstiefe nach Typ-Inversion zu messen. Vor der Typ-Inversion wird die Depletionsspannung im Pixel Detektor durch das Übersprechen benachbarter Pixel gemessen (Crosstalk Messung). Die Messung nutzt die Veränderung der Leitfähigkeit zwischen einzelnen Pixeln. Ladungsträger können durch den Sensor zu einem benachbarten Pixel driften, solange der Sensor nicht vollständig depletiert ist. Sobald der Sensor 18 44. Herbstschule für Hochenergiephysik Maria Laach 2012 Abbildung D.1.: Querschnitt des ATLAS Pixel-Sensors. Vor (links) und nach Typ-Inversion (rechts). vollständig depletiert ist, sind die einzelnen Pixel voneinander isoliert. Die Crosstalk Messung nutzt den Ladungsträgerdrift, in dem ein Pixel in der Mitte ausgelesen wird, nachdem Ladung in zwei benachbarte Pixel injiziert wurde. Die Veränderung des Übersprechens wird in Abhängigkeit von der Hochspannung gemessen. Sobald der Sensor komplett depletiert ist, kann kein Signal am Auslesepixel mehr empfangen werden, da die Pixel isoliert sind. Vor Typ-Inversion nimmt in der Regel die Depletionspannung aufgrund der sinkenden Dotierungskonzentration mit der Zeit ab. Allerdings können Heilungseffekte eine Zunahme der Spannung zur Folge haben kann. Ausheilung der Defekte kann nach Unterbrechung der Kühlung im Detekor beobachtet werden. Nach Typ-Inversion nimmt die effektive p-Dotierung des Sensors wieder zu. Daher muss die Betriebsspannung mit der Zeit erhöht werden, um die 250 m dicken Sensoren vollständig zu depletieren. Da die maximale Spannung limitiert ist, wird die Depletionstiefe mit zunehmender Bestrahlung des Detektors abnehmen. Durch den Rückgang des sensitiven Volumens im Sensor wird die Effizienz des Detektors verringert. Je geringer die Depletionstiefe im Sensor ist, desto weniger Pixel werden ansprechen, wenn ein Teilchen den Sensor durchquert. Dieser Zusammenhang eröffnet die Möglichkeit, die Depletionstiefe mit Hilfe der Cluster-Größe und der rekonstruierten Spur des entsprechenden Teilchens zu messen. Da die Messung Teilchenspuren verwendet, kann sie kontinuierlich während der gesamten Betriebszeit des LHC durchgeführt werden. Dieser Vortrag erläutert die beschriebenen Messungen und stellt die erhaltenen Ergebnisse vor. D. Detektor- und Beschleunigertechnologie 19 D-5 (B) Systematische Untersuchung verschiedener Siliziummaterialien auf Strahlenhärte für den CMS-Spurdetektor im HL-LHC J OACHIM E RFLE Universität Hamburg Die geplante Hochluminositätserweiterung des LHC (HL-LHC) stellt extreme Anforderungen an die Strahlenhärte der Silizium-Sensoren. Durch die Erhöhung der Luminosität um Faktor 10 gegenüber dem LHC, nimmt die Schädigung des Siliziums durch die zu messenden Teilchen deutlich zu. Dies führt dazu, dass der aktuelle Spurdetektor nur ein Betriebsjahr funktionieren würde. Um das beste Material für die Erneuerung des CMS-Spurdetektors auszuwählen, wurden im Rahmen einer CMS-weiten Mess- und Bestrahlungskampagne verschiedene Teststrukturen und Sensoren mit verschiedenen Siliziummaterialien (Magnetic Czochralski, Float-Zone und epitaktisches Silizium) produziert. Diese verschiedenen Siliziummaterialien werden mit Protonen verschiedener Energie und mit Neutronen auf Fluenzen bestrahlt, die der integrierten Luminosität am Ende der geplanten HL-LHC Laufzeit von Lint D 3000 fb 1 an verschiedenen Positionen innerhalb des CMS-Spurdetektors entspricht. Die so geschädigten Teststrukturen werden dann auf verschiedene Kenngrößen untersucht. Die wichtigsten Kenngrößen sind der Leckstrom, die Kapazität und die Ladungssammlung. Leckstrom: Durch die Strahlenschäden wird der Leckstrom (unabhänig vom verwendeten Material) erhöht. Dieser hat zum einen den Effekt, dass das Rauschen zunimmt, zum Anderen, dass die Leistung, die in den Spurdetektor gebracht und damit wieder gekühlt werden muss, zunimmt. Um den thermischen Leckstrom zu verringern kann die Betriebstemperatur gesenkt werden. Verarmungsspannung: Die Schäden verändern zudem die für den Betrieb nötige Spannung. Aufgrund begrenzter Spannungsfestigkeit von Sensoren und anderen verwendeten Materialien ist es vermutlich nötig unterhalb einer Betriebsspannung von 1000 V zu bleiben. Ladungssammlung: Die wichtigste Eigenschaft der Sensoren ist die Ladungssammlung. Die gesammelte Ladung wird durch vermehrten Ladungseinfang in geschädigtem Material reduziert. Die Ladungssammlung sollte im Vergleich zum Rauschen groß genug sein, um eine möglichst hohe Effizienz zu erhalten. In diesem Vortrag wird auf die Problematiken ein Sensormateria für das HL-LHC upgrade des CMS Spurdetektors zu finden eingegangen sowie der aktuelle Stand der Messungen von verschiedenen Materialien bei verschiedenen Fluenzen vorgestellt. 20 44. Herbstschule für Hochenergiephysik Maria Laach 2012 D-6 (C) Realisierung und Überprüfung eines technischen Prototypen eines CALICE Hadronkalorimeters B ENJAMIN H ERMBERG DESY Für die nächste Generation von Teilchenbeschleunigern werden derzeit Entwürfe wie der International Linear Collider (ILC) oder der Compact Linear Collider (CLiC) entwickelt. Der ILC wird ein e C e Linearbeschleuniger werden und dementsprechend befinden sich verschiedene Detektorkonzepte für diesen Beschleuniger in der Entwicklung. Der International Large Detektor (ILD) ist ein solches Konzept. Ein Baustein des ILDs ist das Hadronkalorimeter. Hadronkalorimeter der nächsten Generation müssen in der Lage sein zwischen hadronischen W - und p . Z-Bosonzerfällen separieren zu können. Dafür bedarf es einer Energieauflösung von 30% E Die CALICE Kollaboration entwickelt mehrere mögliche Hadronkalorimetertechnologien, basierend auf dem Particle Flow Ansatz. Hierbei werden nur die neutralen Hadronen im Kalorimeter gemessen, während geladene Hadronen im Trackersystem des Detektors bestimmt werden. Um dies zu realisieren zeichnen sich die Kalorimeter durch eine hohe longitudinale und transversale Segmentierung aus. Im Rahmen dieser Forschung wird ein technischer Prototyp für ein hadronisches Stahl-Plastikszintillator Kalorimeter entwickelt. Der technische Prototyp wird um die 600 Kanäle haben, mit dem Messungen am Teststrahl gemacht werden können. Die hohe Granularität, die benötigt wird, um die geforderte Energieauflösung zu erhalten wird durch Segmentierung der Szintillatorlagen in quadratische Kacheln (330:3 cm3 ) erreicht. Die Messung des Szintillatorlichts aus den einzelnen Kacheln erfolgt durch Photodetektoren auf Siliziumbasis (so genannte SiPMs), die im Geiger Modus betrieben werden. Besondere Fragestellungen des technischen Prototypen gelten der Skalierbarkeit und Integration. Hierbei geht es um die Umsetzbarkeit eines Detektors mit voll integrierter Eingangselektronik. Das Konzept und der derzeitige Status des technischen Prototypen sollen hier vorgestellt werden. D-7 (A) Charakterisierung und Optimierung von GasElektronen-Vervielfachungsfolien für den ILD Detektor am ILC K LAUS Z ENKER Universität Hamburg / DESY Der International Linear Collider (ILC) ist ein in Planung befindlicher Linearbeschleuniger, welcher Elektronen und Positronen kollidieren soll und dabei eine Schwerpunktsenergie von bis zu 500 GeV erreicht. Dieser Beschleuniger wird Präzisionsmessungen ermöglichen, die mit aktuellen Experimenten nicht möglich sind. Der Grund hierfür ist der exakt bestimmte Ausgangszustand durch die Kollision von punktförmigen Elementarteilchen. Dadurch ermöglichte Messungen sind zum Beispiel die direkte Bestimmung der Higgsmasse oder die Charakterisierung des Higgspotentials. Aber auch bekannte Messungen der Physik des Standardmodells, wie die Bestimmung der top-Quark Masse, können mit einer höheren Präzision durchgeführt werden. D. Detektor- und Beschleunigertechnologie 21 Um diese anspruchsvollen Ziele zu erreichen, bedarf es hoch entwickelter Detektoren an den Experimenten des ILC. Eines von zwei Detektorkonzepten für den ILC ist das International Large Detector (ILD) Konzept. Die Spurkammer des ILD Detektors ist eine Zeit-Projektionskammer (TPC). Eine zentrale Aufgabe der Spurkammer ist die Impulsmessung von geladenen Teilchen. Die benötigte Impulsauflösung, die mit dieser Spurkammer erreicht werden soll, ist zehn mal besser als sie bei Experimenten am LEP Beschleuniger, dem bisher größten Elektron-Positron Beschleuniger, war. Für eine Impulsmessung von geladenen Teilchen werden deren Spuren in der TPC vermessen. Dazu ist das Volumen der TPC mit einem edelgasbasierten Gasgemisch gefüllt. Geladene Teilchen ionisieren das Gas beim Durchtritt und hinterlassen Ion-Elektron Paare. Durch ein magnetisches Feldes innerhalb der TPC bewegen sich geladene Teilchen auf Kreisbahnen. Ein zusätzliches elektrisches Feld, welches parallel zum magnetischen Feld ist, bewirkt eine Drift der erzeugten Ladungsträger zu den Enden der TPC. Da Elektronen eine größere Driftgeschwindigkeit besitzen, werden sie zur Signalauslese genutzt. Für eine direkte Detektion ist das Signal jedoch zu schwach. Eine etablierte Möglichkeit der Verstärkung basiert auf einer Reihe von Drähten mit denen lokal ein starkes elektrisches Feld erzeugt wird. Damit wird in diesen sogenannten Vieldraht-Proportional-Kammern (MWPC) durch Gasionisation eine Ladungslawine erzeugt und letztendlich die Messung des Signals ermöglicht. Durch das radiale Feld der Drähte entstehen jedoch unerwünschte Feldkomponenten des elektrischen Feldes, welche nicht parallel zum eigentlichen Feld der TPC sind. Dies minimiert die Einzelpunktlösung der TPC und resultiert in einer im Vergleich mit den gesetzten Zielen nicht ausreichenden Impulsauflösung. Damit scheidet diese etablierte Technologie der Signalverstärkung für die ILD TPC aus. Basierend auf der Forschung mit gasbasierten Detektoren wurde in den letzten Jahren jedoch eine weitere Möglichkeit der Gasverstärkung entwickelt – sogenannte Mikrostrukturierte Gasdetektoren (MPGD). Eine Realisierung solcher MPGDs ist der Gas-Elektron-Vervielfacher (GEM). Er ist im Wesentlichen ein perforierter Kondensator (s. Abb. D.2), wobei die isolierende Schicht Abbildung D.2.: Ausschnitt einer GEM-Folie. Quelle:[http://gdd.web.cern.ch/] 50 m dick ist und aus hochisolierendem Kaptonr besteht. Durch Anlegen einer Spannung an den Elektroden entsteht in den Löchern ein sehr starkes elektrisches Feld, welches zu einer La- 22 44. Herbstschule für Hochenergiephysik Maria Laach 2012 dungslawine beim Eintritt von Elektronen führt. Ein Teil der Elektronen und Ionen, die beim Ionisationsprozess entstehen, werden auf den Elektroden wieder absorbiert. Somit besitzt ein GEM eine intrinsische Ionenabsorption. Dies ist von Vorteil, da Ionen, die in das sensitive Volumen der TPC zurückdriften, zu Feldverzerrungen führen und die Einzelpunktauflösung verschlechtern. Zieht man die Länge der TPC, die Driftgeschwindigkeit der Ionen und die Paketstruktur der Teilchenpakete im ILC in Betracht, stellt man fest, dass sich immer drei Ionenscheiben gleichzeitig in der TPC befinden. Diese erzeugen radiale Feldverzerrungen. Analytische Rechnungen haben gezeigt, dass durch Ionen hervorgerufene Verzerrungen zu groß sind um die anvisierte Einzelpunktauflösung und damit verknüpft die angestrebte Impulsauflösung zu erreichen. Ziel ist es daher die fundamentalen Prozesse der Verstärkung und Ionenabsorption in dem GEM zu verstehen und einen Aufbau zu finden bei dem so wenig Ionen wie möglich in das sensitive Volumen der TPC gelangen. Um dieses Ziel zu erreichen, bedarf es optimaler Weise eines für Elektronen durchlässigen und für Ionen undurchlässigen GEMs. Eine Möglichkeit der gezielten Ionenabsorption bietet eine dahingehend optimierte GEM, welche keine Verstärkung aufweisst und vor den verstärkenden GEMs postioniert ist. Ob ein solcher Aufbau erfolgreich ist und welche Parameter des ionenabsorbierenden GEM gewählt werden müssen, wird im Rahmen der vorgestellten Studien untersucht. Dazu werden sowohl Simulationen als auch Experimente durchgeführt und hier vorgestellt. D-8 (C) Das T3B Experiment: Die Zeitauflösung hadronischer Schauer in hochgranularen Kalorimetern mit Wolfram oder Stahl Absorber C HRISTIAN S OLDNER Max-Planck-Institut für Physik Einführung Der Compact Linear Collider (CLIC) ist ein zukünftiger e C e -Beschleuniger mit einer Kollisionsenergie von bis zu 3 TeV und einer Kollisionsrate der Teilchenbündel von 2 GHz. Damit stellt CLIC besondere Anforderungen an ein Gesamtdetektorsystems. Zum Einen erfordert die hohe Kollisionsrate die Einbeziehung der Zeitentwicklung hadronischer Schauer. So können im Kalorimeter detektierte Teilchenschauer mit einem Zeitstempel versehen werden und später einer bestimmten Bündelkollision bestmöglich zugeordnet werden. So soll die Akkumulation von Hintergrundereignissen – wie zum Beispiel aus Beamstrahlung resultierende ! Hadronen Interaktionen – vermieden werden. Zum Anderen wird für CLIC die Verwendung von Wolfram als Absorbermaterial favorisiert. Mit seiner hohen Dichte vermag Wolfram Teilchenschauer auf engstem Raum zu stoppen. Dies hält den Gesamtdetektor kosteneffiezient, da die Kalorimeter innerhalb des Magnetsystems untergebracht werden müssen und die Kosten stark mit der Größe des Magnetsystems skalieren. Gleichzeitig wird eine zuverlässige Energiemessung hadronischer Schauer bei selbst hohen Energien ermöglicht. D. Detektor- und Beschleunigertechnologie 23 Abbildung D.3.: Links: Das CALICE Wolfram HCAL am Protonsynchrotron des CERN mit dem T3B Experiment installiert hinter der letzten Lage des Kalorimeters. Rechts: Layout der 15 Szintillatorkacheln des T3B Experiments. Das radiale Schauerprofil kann vom Zentrum bis zum Rand des Kalorimeters vermessen werden. Das Experiment Gegenwärtig ist die zeitaufgelöste Propagation hadronischer Schauer in Wolfram experimentell noch nicht hinreichend erforscht. Dies ist nötig um herauszufinden mit welcher Präzision Teilchenschauer mit einem Zeitstempel versehen werden können, wie groß der verspätete Anteil der Gesamtenergiedeposition eines Schauers ist und wie gut Monte-Carlo-Simulationen das Zeitverhalten reproduzieren können. Das Tungsten Timing TestBeam (T3B) Experiment wurde speziell dafür entwickelt. Es besteht aus einer Kette von 15 Plastikszintillatorkacheln, deren Lichtsignal durch kleine Photosensoren (SiPMs) detektiert und durch Oszilloskope mit einer Abtastrate von 1:25 GHz digitalisiert wird. Dieser Kachelstreifen wurde hinter zwei verschiedenen Prototypen für Hadronkalorimeter der CALICE Kollaboration montiert, die mit einer Stahl- bzw. Wolframabsorberstruktur ausgestattet waren (Abb. D.3). Stahl ist ein oft verwendetes und getestetes Absorbermaterial, das aufgrund seiner atomaren Zusammensetzung ein schnelleres Abklingen hadronischer Schauer als Wolfram aufweist. Ein Vergleich zwischen Wolfram- und Stahlabsorber ist daher unabdingbar. Das T3B Experiment hat während der CALICE Teststrahlphase 2010/2011 am PS und SPS des CERN (Genf, Schweiz) Hadronschauer in einem Energiebereich von 2 300 GeV zeitlich vermessen. Das Design von T3B ermöglicht es die Energiedepositionen hadronschauer Teilchenschauer lateral und longitudinal mit einer Zeitauflösung 1 ns zu untersuchen. Die longitudinale Information konnte durch eine offline Synchronisation der Daten von T3B und dem CALICE Wolframkalorimeter erreicht werden. Hierbei wird der longitudinale Startpunkt des Teilchenschauers aus den Daten des Kalorimeters und die Schauertiefe der T3B Lage relativ dazu ermittelt. Ergebnisse Es wurde eine umfassende Analyse der Testbeamdaten bemüht. Die Annahme einer erhöhten Verspätung hadronischer Schauer in Wolfram relativ zu Stahl konnte verifiziert werden. Ausserdem wurde das Zeitverhalten hadronischer Schauer relativ zu den quasi instantanen Energiedepositionen von Myonen verglichen. Auch in Stahl kann so eine signifikant verspätetes Zeitverhalten nachgewiesen werden. Die für Monte-Carlo-Simulationen für LHC (Large Hadron Colli- 24 44. Herbstschule für Hochenergiephysik Maria Laach 2012 der) standardmäßig verwendete Physikliste QGSP BERT reproduziert das Zeitverhalten hadronischer Schauer nur schlecht, wohingegen die Hochpräzisionserweiterung QGSP BERT HP und die neue Physikliste QBBC erheblich bessere Übereinstimmung mit den Daten aufzeigen. D-9 (C) Detektorenentwicklung für das Upgrade des MyonSpektrometers von ATLAS S TEFAN W EBER Physikalisches Institut, Universität Würzburg Die Arbeitsgruppe Experimentelle Teilchenphysik der Universität Würzburg arbeitet im ATLAS Experiment des LHC am CERN (Genf, Schweiz). Für den LHC ist für die kommenden Jahre ein Luminositäts-Upgrade vorgesehen. Die Detektoren der beteiligten Experimente müssen auf dieses Upgrade vorbereitet werden. Unsere Arbeitsgruppe ist diesbezüglich in der Weiterentwicklung des Myon-Spektrometers von ATLAS engagiert. Meine Tätigkeiten sind in meheren Teilaspekten dieses Engagements angesiedelt. Ein Aspekt sind wiederholte Beteiligungen an Testbeam-Messungen am CERN zur Untersuchung neuer Gasdetektoren für das Upgrade. Aber auch dezentral sollen Studien zu diesen neuen Detektortechnologien durchgeführt werden. Hierfür wird ein Messraum in Würzburg aufgebaut sowie die Konzeptionierung und Realisierung eines geeigneten Messstandes für Alterungs- und Gasstudien vorangetrieben. Dieser Messstand wird nach bisheriger Planung aus einem Hodoskop, einer Gasmischanlage und der entsprechenden Steuerungs- und Ausleseelektronik bestehen. Das Hodoskop soll nicht nur als Trigger für die zu testenden Kammern dienen, sondern auch zur Spurbestimmung kosmischer Myonen sowie zur Selektion von hochenergetischer Myonen, um die Vielfachstreuung innerhalb der Strukturen der Kammern zu minimieren. Deshalb wird das Hodoskop aus drei Ebenen segmentierter Szintillatoren aufgebaut sein, deren unterste Ebene durch Metall abgeschirmt ist, welches energiearme Myonen absorbiert. Die Gasmischanlage ermöglicht im Vergleich zu vorgemischten Gasen aus Flaschen eine hohe Flexibilität. Ein weiterer Aspekt zur Weiterentwicklung des Myonspektrometers ist die Simulation des Schildes für das New Small Wheel. Das Small Wheel, beziehungsweise das für das Upgrade geplante New Small Wheel, ist Teil des Myon-Spektrometers in Vorwärtsrichtung nahe der Strahlachse. In diesem Bereich gibt es einen relevanten Untergrund von Teilchen, die nicht bei der Kollision der Protonen im Kollisionspunkt entstehen, sondern durch Wechselwirkung von Protonen der Strahlen mit der Wand des jeweiligen Strahlrohres. Um diesen Untergrund zu minimieren, ist direkt vor dem Small Wheel ein mehrschichtiges Schild positioniert. Für den Einbau des New Small Wheels muss auch dieses Schild neu konzipiert werden. Die Simulation der Untergrundstrahlung und der Wechselwirkung dieser Strahlung mit dem Schild ist dabei der erste Schritt. E. Experimentelle Analysen E-1 (A) Messung der W -assoziierten Produktion einzelner TopQuarks mit dem CMS-Experiment ROBERT F ISCHER III. Physikalisches Institut A, RWTH Aachen Das Standardmodell der Teilchenphysik hat mehrere Teilchen bereits vor ihrer experimentellen Entdeckung vorhergesagt. Eines der zuletzt entdeckten Teilchen ist das Top-Quark, das zunächst 1995 in Form von Top-Antitop-Quark-Paaren von den Experimenten des TevatronTeilchenbeschleunigers am Fermilab beobachtet wurde. Diese Paarproduktion findet über die starke Wechselwirkung statt. 2009 gelang schließlich die Beobachtung einzelner Top-Quarks, deren Produktionsmechanismus über die elektroschwache Wechselwirkung abläuft. Insgesamt erlaubt das Standardmodell drei Kanäle aus denen einzelne Top-Quarks hervorgehen: den tKanal, den s-Kanal und die W -assoziierte Produktion, bei der zusammen mit dem Top-Quark ein reales W -Boson entsteht. In diesem Vortrag wird eine Messung des Produktionswirkungsquerschnitts einzelner Top-Quarks in der W -assozierten Produktion, auch tW -Kanal genannt, mit dem CMS-Experiment bei einer p Schwerpunktsenergie von s D 7 TeV vorgestellt. Das assoziierte W -Boson zerfällt bei diesem Vorgang weiter in Quark-Antiquark- oder Lepton-Antilepton-Paare. Das Top-Quark zerfällt nahezu immer in ein Bottom-Quark und ein weiteres W -Boson, das schließlich wieder in Quarkbzw. Lepton-Paare zerfällt. Für die vorgestellte Messung des Wirkungsquerschnitts werden Ereignisse mit Jets, die aus den Quark-Paaren entstehen, und Leptonen ausgewählt. Eines der beiden W -Bosonen zerfällt bei diesen Ereignissen also in Leptonen, während das andere hadronisch in Quarks zerfällt, weshalb man auch vom semi-leptonischen Kanal spricht. Die Datenanalyse erfolgt nach der Vorselektion in mehreren Schritten: der Ereigniskategorisierung, der Trennung von Signal und Untergrund sowie einer anschließenden statistischen Auswertung mittels eines Bayesschen Verfahrens. Die selektierten Ereignisse werden, basierend auf der Anzahl der enthaltenen Jets und b-Jets, in Kategorien eingeteilt. Dabei sind b-Jets diejenigen Jets, die mit Hilfe eines sogenannten bTagging-Algorithmus als von einem Bottom-Quark stammend identifiziert wurden. Derartige Algorithmen nutzen für die Identifizierung spezielle Eigenschaften von Bottom-Mesonen aus, etwa die hohe Masse und die lange Lebensdauer. Die beiden Hauptuntergründe in der Messung sind die Top-Quark-Paarproduktion sowie Ereignisse, bei denen W -Bosonen zusammen mit weiteren Jets entstehen. Um das tW -Signal von den Untergründen trennen zu können, kommt ein multivariates Klassifikationsverfahren, die sogenannte Boosted-Decision-Trees-Methode (BDT-Methode), zum Einsatz. In diesem Verfahren werden simulierte Signal- und Untergrundereignisse in einem Trainingsschritt verwendet, um mehrere hundert Entscheidungsbäume zu generieren. Diese lernen anhand ausgesuchter Varia- 26 44. Herbstschule für Hochenergiephysik Maria Laach 2012 blen Signal und Untergrund voneinander zu separieren. Für die eigentliche Analyse wird eine über alle Entscheidungsbäume gemittelte Ausgabevariable verwendet, der sogenannten BDTOutput. Dieser wird für alle, in die einzelnen Kategorien vorselektierten, Datenereignisse bestimmt und als Histogramm aufgetragen. Die so erhaltenen diskreten Verteilungen sind Gegenstand der folgenden statistischen Auswertung. In dieser Auswertung wird zunächst ein Modell erzeugt, das aus Templates zusammengesetzt ist. Jedes Template ist eine aus simulierten Ereignissen bestimmte Vorhersage, wie viele Ereignissen aus einem bestimmten physikalischen Prozess, an einem bestimmten Punkt der Verteilung beobachtet werden. Das Modell ergibt sich nun als Linearkombination aller Templates. Die zu den Templates gehörenden Koeffizienten hängen von diversen Modellparametern ab. Einer diese Parameter ist die gesuchte Signalstärke, die sich in den Produktionswirkungsquerschnitt umrechnen lässt. Weitere Parameter beschreiben, z. B. die einzelnen Untergrundanteile. Ziel der statistischen Auswertung ist es, den wahrscheinlichsten Wert aller Modellparameter und dazugehörige Unsicherheiten zu finden. Für alle Parameter werden A-priori-Wahrscheinlichkeitsfunktionen eingebracht und anschließend über alle Parameter außer der Signalstärke integriert. Hieraus ergibt sich eine A-posteriori-Wahrscheinlichkeitsverteilung für die Signalstärke. E-2 (B) Suche nach dem Higgs-Boson in Ereignissen mit zwei hadronisch zerfallenden Tau-Leptonen bei CMS BASTIAN K ARGOLL III. Physikalisches Institut B, RWTH Aachen Das CMS-Experiment ist einer der beiden Vielzweck-Teilchendetektoren am Beschleuniger LHC (Large Hadron Collider) bei Genf (Schweiz). In seinem Zentrum kollidieren Protonen mit Schwerpunktsenergien von momentan 8 TeV, die vom LHC bereitgestellt werden. Hauptaufgabe dieses Hadronbeschleunigers ist die Suche nach neuen Phänomenen in diesem zuvor nicht zugänglichen Bereich. Dazu gehört das letzte, bisher nicht nachgewiesene Teilchen des Standardmodells der Teilchenphysik, das Higgs-Boson. Die Existenz eines Higgs-Bosons ist ein notwendiger Baustein für die Konsistenz des Standardmodells. In vorherigen Beschleunigerexperimenten konnte die Existenz dieses Teilchens nicht nachgewiesen werden. Jedoch dienen ihre Ergebnisse dazu, die Higgs-Masse, ein freier Parameter im Standardmodell, vorherzusagen und einzuschränken. In Kombination mit den ersten Ergebnissen von ATLAS und CMS kann die Masse des Higgs-Bosons momentan auf einen Bereich zwischen etwa 115 und 130 GeV eingeschränkt werden. Eine endgültige Entdeckung – oder der Nachweis der Nichtexistenz – des Higgs-Bosons wird mit den im Jahr 2012 am LHC aufgenommenen Daten erwartet. Das Higgs-Boson des Standardmodells zerfällt, abhängig von seiner Masse, in verschiedene Endzustände. Bei einer Masse im oben genannten Bereich ist der Zerfall in zwei Tau-Leptonen mit einem Verzweigungsverhältnis von etwa 7% von großem Interesse für die experimentelle Suche. Das Tau-Lepton, als schwerstes Lepton des Standardmodells, zerfällt als einziges nicht nur leptonisch, sondern auch in Hadronen, insbesondere in Pionen und Kaonen. Bei der Suche nach dem Higgs in Ereignissen mit zwei Tau-Leptonen müssen daher verschiedene Endzustände berücksichtigt werden. Bislang veröffentlichte die CMS-Kollaboration eine entsprechende Analyse mit E. Experimentelle Analysen 27 drei betrachteten Endzuständen: H ! ! eh , H ! ! h sowie H ! ! e. Dabei bezeichnet h ein hadronisch zerfallendes Tau-Lepton. Die im Detektor nicht nachweisbaren, jedoch bei Tau-Zerfällen immer auftretenden Neutrinos werden bei dieser Notation vernachlässigt. Da Tau-Leptonen mit 65% Wahrscheinlichkeit hadronisch zerfallen, ist die Zerfallskaskade H ! ! h h von großer statistischer Bedeutung. Problematisch ist jedoch die Signatur dieses Prozesses im Detektor: Da an Hadronen-Collidern wie dem LHC eine Vielzahl von hadronischen Jets auftreten, die hadronischen Tau-Zerfällen sehr ähnlich sehen, ist die Abtrennung dieser Prozesse experimentell sehr schwierig. Bei CMS werden hadronisch zerfallende Taus mit dem HPS-Verfahren (Hadron Plus Strips) identifiziert. Dies erfordert eine exakte Rekonstruktion der einzelnen Bestandteile des Tau-Zerfalls, also der geladenen und neutralen Mesonen. Der damit verbundene große Rechenaufwand kann vom Trigger des CMS-Detektors nicht geleistet werden. Aufgabe dieses zweistufigen Triggersystems ist es, uninteressante Ereignisse sofort zu verwerfen, noch bevor sie abgespeichert werden. Nur mit Hilfe dieser Vorauswahl kann die Informationsmenge, die bei Kollisionsraten von 20 MHz aufgezeichnet wird, auf ein verwertbares Maß reduziert werden. Da das Triggersystem eine Entscheidung in kurzer Zeit treffen muss, sind komplizierte Algorithmen wie HPS nicht ausführbar, eine Abtrennung von Tau-Leptonen zu Quark- oder Gluon-Jets ist daher schwierig. Der erste Teil der vorgestellten Studien über Trigger für Ereignisse mit zwei Tau-Leptonen untersucht Möglichkeiten, die Firmware des Hardware-basierten Level-1-Triggers anzupassen. Eine Neuerung in der Firmware erlaubt es seit diesem Jahr, den Winkel zwischen zwei Objekten in die Level-1-Triggerentscheidung einfließen zu lassen. Tau-Leptonen aus Higgs-Zerfällen werden mit großen Winkeln zueinander erzeugt, während Quark- und Gluon-Jets unter beliebigen Winkeln auftreten können. Es zeigt sich jedoch, dass die Forderung nach hohen Transversalenergien der beiden Objekte zumeist mit einem großen Winkel zwischen ihnen einhergeht, so dass durch eine zusätzliche Winkelanforderung kein signifikanter Gewinn erzielt werden kann. Die zweite Stufe des CMS-Triggersystems ist der High Level Trigger (HLT). Hier sind prinzipiell alle Detektorinformationen verfügbar, jedoch ist die verfügbare Rechenzeit begrenzt. TauLeptonen werden mit vereinfachten Methoden identifiziert. Aufgrund der gestiegenen Luminosität und Schwerpunktsenergie des LHC im Jahr 2012 war es nicht möglich, den Doppel-TauTrigger aus dem Jahr 2011 identisch zu übernehmen. Durch die Einführung zusätzlicher Anforderungen an die Tau-Kandidaten, etwa an die Zahl assoziierter geladener Hadronen, konnte erreicht werden, den Trigger sogar mit geringeren Energie-Schwellenwerten von ET > 35 GeV weiterzuführen. Im so genannten Data Parking Stream werden die Daten dieses Triggers aufgezeichnet, jedoch nicht direkt analysiert. Sie werden abgespeichert und sollen im Verlauf des Jahres 2013, während des geplanten Stillstandes des LHCs, untersucht werden. Die experimentellen Daten, die vom CMS-Experiment nach Vorauswahl durch das Triggersystem aufgezeichnet wurden, werden genutzt, um nach dem Higgs-Zerfall in zwei Tau-Leptonen zu suchen. Zunächst werden Ereignisse selektiert, bei denen das Higgs-Boson in Assoziation mit einem hochenergetischen Jet entstanden ist. Eine derartige Signatur ist leichter vom QCDdominierten Untergrund abzutrennen. Der Einfluss des verwendeten Triggers auf die Ergebnisse einer derartigen Analyse wird untersucht und beurteilt. 28 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-3 (C) Suche nach Unparticles in Z C E 6 T Zerfallskanal mit dem CMS Detector K LAAS PADEKEN III. Physikalisches Institut A, RWTH Aachen Es gibt viele Erweiterungen des Standardmodells, die ein Hidden Valley bei hohen Energien vorhersagen. Ein Beispiel hierfür ist das von H. Georgi im Jahr 2007 [1, 2] vorgeschlagene Modell des Unparticles. Die Idee hinter diesem Modell ist ein skaleninvarianter (conformaler) Sektor, in dem bei hohen Energien ein skaleninvariantes Feld mit dem Standardmodell wechselwirkt. Konsequenzen einer solchen Skaleninvarianz wären entweder masselose Teilchen oder Teilchen, die eine kontinuierliche Massenverteilung haben. Da diese keine Teilchen im klassischen Sinne sind, wurde der Name Unparticle(s) geprägt. Eine der bestechenden Eigenschaften des Unparticle Modells ist, dass nicht wie bei vielen anderen Erweiterungen des Standardmodells eine Vielzahl neuer Teilchen vorhergesagt wird. Statt dessen wird nur ein einziges Teilchen postuliert, dessen Eigenschaften zum größten Teil aus der Annahme der Skaleninvarianz hergeleitet werden können. Die Wechselwirkung zwischen diesem “Unparticle Stuff” und dem Standardmodell bei den am LHC zugänglichen Energien kann durch eine effektive Theorie beschrieben werden. Die wichtigsten Parameter dieser effektiven Beschreibung sind die Dimension der Skaleninvarianz dU und die Energieskala U der effektiven Wechselwirkung. Da die Forderung nach Skaleninvarianz keine Einschränkung an die Spin-Konfiguration eines solchen Teilchens macht, sind bosonische und fermionische Unparticles denkbar. Ein am LHC bei 7 TeV Schwerpunktsenergie erzeugtes Unparticle wäre aus Sicht des Detektors sowohl stabil, als auch neutral und würde somit undetektiert bleiben. Einer der goldenen Kanäle um fehlende transversale Energie im Detektor nachzuweisen ist Z C E 6 T. Diese Analyse konzentriert sich auf die Suche nach einem skalaren Unparticle, welches zusammen mit einem Z-Boson erzeugt wird. Dabei konzentriert sich die Untersuchung auf den myonischen Zerfallskanal des Z-Bosons. Um ein klares Signal im Detektor zu erhalten und dieses von möglichen Untergrundereignissen abgrenzen zu können, werden Ereignisse mit zwei gut rekonstruierten Myonen selektiert, die eine invariante Masse in der Nähe der Z-Boson Resonanz haben. Die E 6 T wird als Diskriminator verwendet, damit das Signal von dem Z-Boson unterschieden werden kann. Der größte verbleibende Untergrund ist t tN, welches sich durch zusätzliche Jets und andere Kinematik vom Signal abhebt. Durch Schnitte auf diese Variablen kann das Verhältnis zwischen Signal und Untergrund entschieden angehoben werden. Durch den Vergleich der Daten mit dem vorhergesagten Modell ist es möglich eine Aussage über die Signalparameter zu treffen. [1] H. Georgi, “Unparticle physics,” Phys. Rev. Lett. 98 (2007) 221601 [hep-ph/0703260]. [2] A. Delgado and M. J. Strassler, Phys. Rev. D 81 (2010) 056003 [arXiv:0912.2348 [hepph]]. E. Experimentelle Analysen 29 E-4 (A) Einschränkungen der Eigenschaften einer 4. Fermionenfamilie durch Flavourphysik, elektroschwache Präzisionsmessungen und aktuelle Ergebnisse der Higgs-Suche A NDREAS M ENZEL Humboldt-Universität zu Berlin Bislang enthält das Standardmodell (SM) der Elementarteilchen 12 Arten von Fermionen, die in drei sogenannte Familien oder Generationen unterteilt sind. Jede davon enthält je ein up-artiges Quark, ein down-artiges Quark, ein geladenes Lepton und ein Neutrino und die Generationen unterscheiden sich untereinander nur durch die Massen ihrer Mitglieder. Schon seit längerer Zeit wird immer wieder mit verschiedener Motivation die Möglichkeit der Existenz einer 4. Generation in Erwägung gezogen, die dazu beitragen könnte, offene Probleme in der Elementarteilchenphysik zu lösen – beispielsweise diverse Unstimmigkeiten in der Flavourphysik und das Problem, dass im SM3 die CP -Verletzung nicht ausreicht, um die Baryogenese zu erklären. Da keine neuen Konzepte nötig sind, ist diese in der Literatur oft SM4 oder 4SM genannte Erweiterung des Standardmodells sehr einfach und daher attraktiv. In den vergangenen 15 Jahren wurde zwar immer wieder behauptet, das SM4 sei durch experimentelle Daten widerlegt. Die entsprechenden Untersuchungen gehen jedoch von Annahmen aus, die sich bei genauerer Untersuchung als fragwürdig erweisen: Die am LEP gemessene unsichtbare Zerfallsbreite des Z-Bosons legt die Zahl derjenigen Neutrino-Flavours auf drei fest, die leicht genug sind, dass das Z-Boson in ein solches -Paar N zerfallen kann. Schwerere Neutrinos wären von dieser Messung nicht betroffen. Im PDG stand in den vergangenen Jahren immer wieder in verschiedenen Formulierungen zu lesen, eine 4. Generation Quarks sei aufgrund der elektroschwachen Präzisionsmessungen ausgeschlossen. Den Aussagen liegen jedoch folgende Annahmen zugrunde, die nicht ungeprüft als richtig angenommen werden dürfen: Erstens seien die Quarks der 4. Familie miteinander massenentartet und mischten zweitens nicht mit den SM3-Quarks und drittens seien die Massen aller Teilchen der 4. Fermionfamilie sehr viel größer als die Masse des Z-Bosons. Direkte Suchen gehen meist davon aus, dass die Quarks der 4. Familie zu 100% in b- bzw. t -Quarks zerfallen. Da die Existenz einer 4. Familie derzeit auch durch aktuelle Ergebnisse von LHC und Tevatron strengenommen nicht ausgeschlossen werden kann, wird im Rahmen dieses Projekts an einem globalen Fit des SM4 gearbeitet, der dessen Parameter einschränken soll. Folgende Größen sollen berücksichtigt werden und sind zum großen Teil bereits implementiert: Bestimmung der Fermi-Konstante GF . Im SM4 ist hierbei ein kombinierter Fit erforderlich, der zu einer erheblich größeren Unsicherheit führt als die Extraktion aus dem MyonZerfall im SM3 Loop-Observablen der Flavour-Physik (z. B. Mesonoszillationen) Elektroschwache Präzisionsobservable 30 44. Herbstschule für Hochenergiephysik Maria Laach 2012 Direkte Suchen Single-Top-Analysen Higgs-Suchen am LHC Durch die gewonnenen Einschränkungen auf Eigenschaften wie Mischung mit anderen Fermionen und Teilchenmassen der 4. Familie streben wir an, definivere Aussagen über die Existenz der 4. Familie und Nachweismöglichkeiten abgeben zu können. Aufgrund der Unitaritätsgrenze der Störungstheorie ist zu erwarten, dass die Experimente am LHC ein endgültiges Urteil ermöglichen. E-5 (B) Die Matrixelement-Methode in nächst-führender Ordnung und Single-Top-Produktion in ATLAS PATRICK R IECK Humboldt-Universität zu Berlin Der Large Hadron Collider (LHC) am CERN (Genf, Schweiz) ist heute und auf absehbare Zeit der Teilchenbeschleuniger höchster Energie. Zur Zeit werden dort Protonen bei einer Schwerpunktsenergie von 7 TeV zur Kollision gebracht. Auch seine Luminosität ist deutlich höher als bei vergleichbaren Vorgängern. Er ermöglicht damit einzigartige Messungen, wie sie unter anderem beim Universalexperiment ATLAS durchgeführt werden. Eines der interessanten Phänomene ist das Top-Quark, welches am LHC in großer Anzahl produziert wird. Neben der Top-Paarproduktion findet auch die elektroschwache Produktion einzelner Top-Quarks statt. Hierzu tragen wiederum verschiedene Kanäle bei, die man einzeln untersuchen möchte. Bei diesen Messungen kommen verschiedene Analysemethoden zum Einsatz. Eine in der Vergangenheit sehr erfolgreiche Methode zur Extraktion von Single-Top-Signalen sowie zur Messung von Parametern ist die Matrixelement-Methode. Bei der Matrixelement-Methode wird für ein gemessenes Ereignis ein Wahrscheinlichkeitsmaß für eine bestimmte Hypothese definiert, die auf dem differentiellen Wirkungsquerschnitt für diesen Prozess basiert. Im Prinzip können alle gemessenen Objekte einbezogen werden. Es liegt keine Beschränkung auf bestimmte kinematische Größen vor, sodass die vorhandene Information optimal genutzt wird. Das resultierende Wahrscheinlichkeitsmaß kann verwendet werden, um ein bestimmtes Signal aus einem Datensatz zu extrahieren. Außerdem können Parameter der Matrixelemente wie z. B. Massen oder Kopplungskonstanten variiert werden. Durch einen statistischen Test der Verteilung der Wahrscheinlichkeitsmaße wird eine Messung der entsprechenden Parameter möglich. Es muss als Nachteil der Matrixelement-Methode in ihrer bisherigen Form gewertet werden, dass genau genommen nur solche Ereignisse korrekt ausgewertet werden können, bei denen der gemessene Endzustand mit dem vorausgesetzten Endzustand führender Ordnung übereinstimmt. Dies wird immer eine Näherung sein, und die Frage nach der Gültigkeit dieser Näherung ist dementsprechend zu stellen. Eine Verbesserung der Methode wäre zu erwarten, wenn es gelingt sie auf die nächst-führende Ordnung der Störungstheorie zu erweitern. Bisher ist es im Allgemeinen nicht bekannt wie eine solche Erweiterung durchzuführen ist. Das Problem hierbei besteht E. Experimentelle Analysen 31 darin, dass jenseits der führenden Ordnung sowohl virtuelle als auch reelle Korrekturen auftreten. Diese Korrekturen sind jeweils divergent. Erst die Summe der beiden ergibt eine endliche (und messbare) Korrektur. Die Phasenräume der Endzustände sind für virtuelle und reelle Korrekturen entsprechend unterschiedlich. Aus diesem Grund ist die Erweiterung der MatrixelementMethode ein nicht-triviales Problem. Im Rahmen des Vortrags wird diskutiert werden, welche Ansätze zur Lösung dieses Problems existieren und wie eine allgemeine Umsetzung der Matrixelement-Methode in nächst-führender Ordnung realisiert werden könnte. Abschließend werden mögliche Anwendungen für SingleTop-Messungen bei ATLAS diskutiert. E-6 (C) Suche nach dem Standardmodel Higgsboson im Zerfallskanal H ! ! had`3 in ATLAS J ESSICA L IEBAL Physikalisches Institut, Universität Bonn Im Jahr 2010 wurde der Large Hadron Collider (LHC) am CERN in der Nähe von Genf (Schweiz) in Betrieb genommen. Der LHC ist ein Ringbeschleuniger, in welchem zur Zeit Protonen mit einer Schwerpunktsenergie von 8 TeV zur Kollision gebracht werden. Von diesem internationalen Projekt werden signifikante Beiträge zur Grundlagenforschung der Physik erwartet. Eines der vier Experimente am LHC ist der ATLAS-Detektor. Er hat die Aufgabe, die Proton-Proton Kollisionen im LHC umfassend zu vermessen und auszuwerten. Seit der Inbetriebnahme des R ATLAS-Detektors im November 2009 wurde bereits eine Datenmenge von L D 5; 3 fb 1 aufgenommen. Bis zum Ende des Jahres 2012 wird mit einer Vervierfachung der bisherigen Datenmenge gerechnet. Eine wichtige Aufgabenstellung des LHCs ist die Verifizierung des Standardmodels (SM) der Teilchenphysik und damit verbunden die Suche nach dem Higgsboson, welches das einzige noch nicht nachgewiesene Elementarteilchen des SM ist. Das Higgsboson resultiert aus dem sogennanten Higgsmechanismus. Dieser Mechanismus erklärt im SM die spontane Symmetriebrechung der schwachen Wechselwirkung und damit, warum die Eichbosonen, das Z und die W ˙ -Bosonen, der schwachen Wechselwirkung eine Masse besitzen. Im SM verlangt der Higgsmechanismus die Existenz eines skalaren, elektrisch neutralen Teilchens, des Higgsbosons. Messungen an anderen Experimenten konnten bisher ein vergleichsweise schweres Higgsboson (mH > 150 GeV) ausschließen. So konzentriert sich die Suche in ATLAS auf ein leichtes Higgsboson im Massenbereich 115 140 GeV. Der dominante Prozess zur Erzeugung des Higgsboson am LHC ist die Gluon-Fusion (gg ! H ). In ihr fusionieren zwei Gluonen aus den kollidierenden Protonen zu einem Higgsboson. Problematisch für diesen Prozess ist, dass dieser für ein leichtes Higgsboson von einem großen Untergrund begleitet wird. Ein anderer Produktionsprozess ist die Vektor-Boson-Fusion VBF (qq ! H qq), welche den Vorteil einer klaren Signatur bietet. In diesem Prozess wechselwirken im Anfangszustand zwei Quarks schwach miteinander, wodurch zwei Bosonen (W ˙ oder Z 0 ) erzeugt werden. Diese fusionieren zu einem Higgsboson. Die klare Signatur äußert sich durch die beiden Quarks im Endzustand, welche hadronisieren, so dass zwei Jets im Detektor zu beobachten sind. Der theoretisch berechnete Produktionswirkungsquerschnitt für Higgsmassen um 32 44. Herbstschule für Hochenergiephysik Maria Laach 2012 100 GeV ist etwa drei Ordnung über dem Wirkungsquerschnitt des W -Bosons. Dieser kleine Produktionswirkungsquerschnitt erklärt, warum bis heute kein Higgsboson nachgewiesen werden konnte. Allerdings wird die bis Ende 2012 am LHC gesammelte Datenmenge ausreichen, um die Existenz eines Higgsbosons endgültig zu verifizieren oder aber zu widerlegen. Um das Higgsboson nachweisen zu können, werden verschiedene Zerfallskanäle des Higgsbosons untersucht. Zu einem der interessantesten Kanäle, welche noch nicht durch vorangegangene Studien ausgeschlossen wurden, gehört u. a. der Zerfall in zwei tau Leptonen (H ! ). Dieser ist für Higgsmassen zwischen 115 140 GeV neben H ! b bN und H ! von hoher Relevanz. Im Zerfallsprozess H ! unterscheidet man drei Endzustände: Beide -Leptonen zerfallen jeweils in ein leichteres, geladenes Lepton `, wobei ` für ein Elekron oder Muon steht (H ! ! ``4), oder beide zerfallen hadronisch (H ! ! had had 2). Eine dritte Möglichkeit ergibt sich, wenn ein -Lepton hadronisch zerfällt, während das Zweite in ein leichteres, geladenes Lepton zerfällt (H ! ! had `3). Im Fokus dieses Vortrags steht der Kanal H ! ! had `3. Es wird die aktuelle Analyse dieses Kanals erläutert. Des Weiteren werden datenbasierte Methoden zur Abschätzung des Untergrunds präsentiert. Durch die Verwendung von derartigen Methoden kann die Abhängigkeit der Ergebnisse von Monte-Carlo-Simulationen reduziert werden. Im Weiteren werden die Ergebnisse der Studie der Datenmenge aus 2011 sowie einem Teil der Daten aus 2012 diskutiert. E-7 (C) Suche nach Supersymmetrie in Endzuständen mit zwei Tau Leptonen, Jets und fehlender Transversalenergie mit dem ATLAS Detektor. S TEFFEN S CHAEPE Physikalisches Institut, Universität Bonn Unter dem Begriff Supersymmetrie“ (SUSY) versteht man eine Erweiterung des bekannten ” Standardmodell (SM) der Teilchenphysik, in der jedem SM Teilchen ein Partner zur Seite gestellt wird. Dabei unterscheiden sich SUSY und SM Teilchen a priori nur durch ihren Spin. Da jedoch noch keine gleich schweren Partnerteilchen gefunden wurden, muss SUSY gebrochen sein. Hier existieren viele unterschiedliche theoretische Ansätze, die diese Brechung erklären und zu sehr unterschiedlichen Voraussagen führen. Einer dieser Mechanismen basiert auf der Vermittlung der Brechung zu den SM Teilchen mittels der bekannten Wechselwirkungen des Standardmodells. Er wird daher als Gauge Mediated ” Symmetry Breaking“ (GMSB) bezeichnet. Allen GMSB Modellen ist gemeinsam, dass sie ein leichtes, stabiles und nur gravitativ wechselwirkendes Teilchen, das Gravitino, vorhersagen. Daher wird in diesen Modellen die Phänomenologie durch das zweit leichteste Teilchen (Next-toLightest SUSY Particle, NLSP) bestimmt. Für weite Parameterbereiche des Mechanismus ist das Stau, der SUSY-Partner des Tau Leptons das NLSP. Hat das Stau eine kurze Lebensdauer, so dass es im Detektor zerfällt, treten in jedem Ereignis mindestens zwei, häufig sogar vier Tau Leptonen im Endzustand auf. Außerdem ergibt sich durch die entkommenden Gravitinos ein Ungleichgewicht in der Summe der Energie, die im Kalorimeter gemessen wird (fehlende Transversalenergie). Da die Wirkungsquerschnitte für die Produktion von SUSY Teilchen über die Starke Wechselwirkung am LHC dominieren ist E. Experimentelle Analysen 33 außerdem eine zusätzliche Produktion von Quarks und Gluonen zu erwarten, die im Detektor als Jets detektiert werden. Dieser Endzustand wird vor allem dadurch interessant, dass es nur sehr wenig irreduziblen Untergrund durch Standardmodell Prozesse gibt. Einzig in Top-Antitop Zerfällen kann diese Signatur auftreten. Daneben spielen aber auch W und Z Ereignisse eine Rolle, bei denen die Signatur durch Fehler in der Rekonstruktion der Teilchen auftritt. Daher bietet dieser Suchkanal eine weite Aussicht auf die Physik jenseits des Standardmodells, insbesondere für GMSB SUSY Modelle. Neben einer allgemeinen Motivation und einem Überblick über die theoretischen Grundlagen wird die ATLAS Suche in diesem Endzustand im vollen 7 GeV Datensatz von 2011 vorgestellt. Hierbei spielen insbesondere Techniken, mit denen sich erwartete SM Untergründe mit Hilfe von Daten abschätzen lassen, eine Rolle. Die Anzahl der beobachteten Ereignisse wird in Form eine Ausschlussgrenze für Parameter im Rahmen von GMSB interpretiert. Außerdem wird ein erster Ausblick auf die Analyse und Interpretation des 8 TeV Datensatzes in diesem Suchkanal gegeben. E-8 (B) Suche nach Supersymmetrie mit Tau-Leptonen und einem Elektron am ATLAS-Experiment M ARTIN S CHULTENS Physikalisches Institut, Universität Bonn Zu einer der wichtigsten Aufgaben im Physikprogramm des ATLAS-Experiments am Large Hadron Collider (LHC), zählt die Suche nach supersymmetrischen Erweiterungen des Standardmodells der Teilchenphysik (SUSY). Dabei können Tau-Leptonen eine wichtige Signatur darstellen. Die Rekonstruktion von Ereignissen, an denen Tau-Leptonen beteiligt sind, ist jedoch aufgrund des Tau-Zerfalls keine leicht zu bewältigende Aufgabe. Rein hadronische Endzustände sind dabei, hinsichtlich der großen Untergrundbeiträge, komplizierter zu analysieren als Endzustände, in denen ein Tau in ein leichteres Lepton (in diesem Fall ein Elektron) zerfällt. Die Betrachtung solcher Ereignisse, bietet die Möglichkeit für gute Untergrundunterdrückung und zeichnet sich durch ein großes Entdeckungspotenzial für Tau-reiche SUSY-Szenarien aus. In dieser Präsentation werden die Analysetechniken und Ergebnisse der Suche nach Endzuständen mit Tau-Leptonen und einem Elektron vorgestellt. Die Abschätzung der Hintergrundereignisse aus dem Standardmodell spielt dabei eine wichtige Rolle. Für die Abschätzung der QCD-Hintergrundereignisse muss dabei auf eine datengetriebene Technik zurückgegriffen werden. Mithilfe der sogenannten Matrix-Methode kann der Anteil der QCD-Ereignisse aus den Daten abgeschätzt werden. Für die Anteile von Top- und W -Ereignissen müssen Skalierungsfaktoren errechnet werden um eine falsche Modellierung in den Monte-Carlos auszugleichen. Diese werden aus den Verhältnissen von Daten zu Monte-Carlo in drei definierten Kontrollregionen für Top und W -Ereignisse errechnet. Diese Skalierungen können dann in der Signalregion für die korrekte Abschätzung der Hintergrundereignisse benutzt werden, um die Ergebnisse der Suche nach einem Elektron-TauEndzustand in einem GMSB-SUSY-Modell korrekt zu interpretieren. 34 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-9 (C) Trackjets in ATLAS I NGO B URMEISTER Institut für experimentelle Physik IV, TU Dortmund Der ATLAS-Detektor besteht aus verschiedenen Teilen, die jeweils verschiedene Aufgaben erfüllen. So lässt sich der Detektor grob in vier Teile unterteilen. Der Innere Detektor besteht aus verschiedenen Komponenten, die dazu dienen die Spuren geladener Teilchen nachzuweisen. Damit lassen sich primär und sekundär Vertices bestimmen, sowie der Impuls der einzelnen Teilchen und ihre Zugehörigkeit zu den Vertices. Das elektromagnetische Kalorimeter dient dem Nachweis von Elektronen und Photonen, die im Detektor einen charakteristischen Schauer hinterlassen. Auch geladene Hadronen hinterlassen dort ihre Spuren, schauern aber meist erst im hadronischen Kalorimeter auf wo ihre gesammte Energie gemessen wird. Der äußerste Teil des Detektors sind die Myonen-Kammern, zum Nachweis von Myonen. Die Rekonstruktion von Calorimeter-Jets (Calojets) erfolgt anhand der Kalorimeterinformationen. Diese werden mit verschiedenen Clustering-Algorithmen zu Jets kombiniert. Der aktuell favorisierte Algorithmus ist Anti-k t , da er verschiene Vorteile hat. Unteranderem ist er kollinear und infrarot stabil und bildet kegelförmige Jets. Der Abstand dij zwischen zwei Objekten wird dabei definiert als 2ij ; dij D min k t i2 ; k tj2 R2 mit dem transversalen Impuls k t , dem Abstandsquadrat 2ij D .yi yj /2 C .i j /2 in der Rapiditäts-Phi-Ebene und dem Abstandsparameter R des Algorithmus. Dieser Abstandsparameter wird meist zu R D 0; 4 (oder R D 0; 6) gewählt. Der Anti-k t -Algorithmus clustert so lange Objekte i zu einem Jet, bis der Abstand dij größer wird als diB mit diB D k t i2 : Die Messungenauigkeit der Kalorimeter und die Unsicherheiten, die durch den Anti-k t -Algorithmus entstehen führen zu einer systematischen Unsicherheit auf die rekonstruierte Energie eines Jets. Diese Systematik wird als Jet-Energy-Scale (JES) bezeichnet und stellt in vielen Analysen eine der größten Unsicherheiten dar. Trackjets werden, anders als Calojets, anhand der Spuren im inneren Detektor ohne Kalorimeterinformationen rekonstruiert. Dabei werden die selben Clustering-Algorithmen benutzt, wie für Calojets. Somit sind sie weitestgehend unabhängig von den Unsicherheiten der JES. Um diesen Vorteil ausnutzen zu können, werden Trackjets systematisch auf ihre Eigenschaften untersucht. Dabei sind der Einfluss von Pileup und benachbarter Jets von besonderer Bedeutung. Um sie für weitere Analysen zu validieren, werden insbesondere die Unterschiede und die Performance der Trackjets im Vergleich zu Calojets bestimmt. In diesem Vortrag wird ein Status zu diesen Studien gezeigt und exemplarisch für die Zerfallslängenmethode dargestellt, wie Trackjets für die Bestimmung der Top-Masse verwendet werden können. E. Experimentelle Analysen 35 E-10 (A) Messung des CKM-Winkels im Zerfall Bs0 ! Ds˙K mit dem LHCb-Experiment M AXIMILIAN S CHLUPP TU Dortmund Das LHCb-Experiment ist eines der großen vier Experimente am Large Hadron Collider (LHC). Während das ATLAS- und CMS-Experiment verschiedenste Bereiche der Teilchenphysik untersuchen können, ist ein großer Teil des Forschungsprogramms des LHCb-Experiments darauf ausgelegt Präzisionsmessungen im b-Quark Sektor durchzuführen. Dabei liegt ein Hauptaugenmerk auf der genauen Bestimmung von Parametern des Standardmodells (SM), da viele weiterführende Theorien Abweichungen in einigen Observablen vorhersagen. Spezielles Interesse gilt dabei den Parametern der CP -Verletzung, welche im SM nicht ausreichend beschrieben ist. Zum Beispiel ist die Frage noch offen, ob die 3 3 Cabibbo-KobayashiMaskawa (CKM)-Matrix tatsächlich unitär ist, wie es das SM voraussetzt oder eventuell durch Beiträge von Neuer Physik“ nur fast unitär. Postuliert man Unitarität, lassen sich geschlossene ” Dreiecke definieren, deren Winkel und Seitenlängen man messen kann. Das am häufigsten genannte Dreieck entsteht aus der Bedingung C V t d V tb D 0 C Vcd Vcb Vud Vub und enthält die CKM-Winkel ˛, ˇ und . Eine der zentralen Messungen am LHCb-Experiment ist die Bestimmung des Winkels , der definiert ist als Vud Vub D arg Vcd Vcb und bisher am wenigsten präzise bekannt ist. Eine Möglichkeit zu erhalten, ist das Studium von zeitaufgelösten Bs0 ! Ds˙ K Zerfällen, welche exklusiv am LHCb-Experiment vermessen werden können. Das Bs0 - bzw. das BN s0 -Meson kann sowohl in DsC K als auch in Ds K C zerfallen. Abhängig davon, ob man bestimmen konnte aus welchem Mutterteilchen der Zustand Ds K hervorging, spricht man von tagged“ (erfolgreich) oder untagged“ (nicht erfolgreich). Somit lassen sich ” ” vier bzw. sechs Zerfallstypen Bs0 ! DsC K (tagged) Bs0 ! Ds K C (tagged) BN s0 ! DsC K (tagged) BN s0 ! Ds K C (tagged) Bs0 =BN s0 ! DsC K (untagged) Bs0 =BN s0 ! Ds K C (untagged) 36 44. Herbstschule für Hochenergiephysik Maria Laach 2012 analysieren. Aus Fits an die Massen- und Zeitverteilung dieser Datensätze lassen sich Parameter extrahieren, die Rückschlüsse auf den CKM-Winkel erlauben. Dieser Vortrag wird den Status der weltweit ersten -Messung aus Bs ! Ds K am LHCb-Experiment vorstellen. E-11 (C) Suche nach direkter Produktion von leichten supersymmetrischen Top-Squarks mit einem Lepton und b-Jets im p Endzustand bei einer Schwerpunktsenergie von s D 7 TeV im ATLAS Experiment C LAUDIA G IULIANI Physikalisches Institut, Universität Freiburg Supersymmetrie (SUSY) ist eine der vielversprechendsten Erweiterungen des Standardmodells (SM) der Teilchenphysik. Sie fürt eine neue Symmetrie zwischen Fermionen und Bosonen ein, sodass jedem SM Teilchen ein supersymmetrischer Partner zugeordnet wird. Durch Supersymmetrie lassen sich einige Probleme des SM lösen. SUSY liefert zum Beispiel einen guten Kandidaten für die dunkle Materie des Universums, das leichteste supersymmetrische Teilchen (LSP). Darüber hinaus kann das Hierarchie-Problem gelöst werden, wenn die Massen der SUSY-Teilchen in der Größenordnung von 1 TeV liegen. Dafür sind besonders die Teilchen der dritten Generation entscheidend, da sie das höchste Gewicht in den Strahlungskorrekturen der Higgs-Masse haben. Die veröffentlichten Analysen der Kollaborationen von ATLAS und CMS führen zu einem Ausschluss von Squark- (1. und 2. Generation) und Gluino-Massen über 1 TeV. Auf der anderen Seite sind die bestehenden Grenzen für Squarks der dritten Generation immer noch schwach und daher die Suche nach dem Partner des Top-Quarks, des Stop (tQ), nun von großem Interesse. p Die Daten von Proton-Proton Kollisionen mit einer Schwerpunktsenergie von s D 7 TeV gesammelt mit dem ATLAS-Detektor im Jahr 2011, wurden untersucht. Es wurde eine Analyse entwickelt, die besonders sensitiv auf die direkte Produktion von leichten Stop-Squarks ist. Der untersuchte Massenbereich liegt nahe der Top-Quark Masse, 130 GeV< mtQ < 230 GeV. Eine der wahrscheinlichsten Zerfälle von dem Stop in einem solchen Szenario ist tQ ! Q ˙ Q 01 W b, mit 1b ! Q ˙ Q 01 LSP. Wenn in der Paarproduktion von Stop-Paaren eines der W -Bosonen 1 Chargino und leptonisch und das zweite hadronisch zerfällt (s. Abb. E.1), entstehen Endzustände mit einem Lepton und fehlender transversaler Energie. In dem betrachteten Massenbereich ist die Stop-Kinematik fast identisch mit der Top-Zerfallskinematik, welches der wichtigste Untergrund der Analyse ist. Es wird ein Top-ähnliches System selektiert: 4-Jets, davon 2 b-Jets, ein Lepton und fehlende transversale Energie im Ereignis. Mit den ausgewählten Objekten ist es möglich, die Masse des Tops zu rekonstruieren, welches hadronisch zerfallen ist. Die rekonstruierte Masse ist eine starke diskriminierende Variable zwischen dem SM-Untergrund und dem SUSY Signal, da sie für SUSY-Ereignisse tendenziell niedrigere Werte als die Top Masse hat. Um darüber hinaus zwischen Signal und Untergrund zu unterschei- E. Experimentelle Analysen b Q C 1 Q 01 37 ` WC tQ `C q tQN bN Q 1 Q 01 W q0 Abbildung E.1.: Feynman-Graph zur Stop-Antistop-Produktion und semi-leptonischem Zerfall. q sub den, wird die smin Variable [1] verwendet. Diese stellt die minimale Schwerpunktsenergie, die mit dem untersuchten System kompatibel ist, dar und berücksichtigt sowohl die sichtbaren Teilchen als auch den fehlenden Transversalimpuls des Ereignisses. Während die Verteilung für den Top-Untergrund ein Maximum bei etwa 2mtop und einen Endpunkt bei rund 250 GeV aufweist, ist die Signal-Verteilung aufgrund der Präsenz des neutralen und massiven LSPs zu niedrigeren Werten verschoben. Um eine solide Untergrundsabschätzung zu erhalten, sollte ebenfalls die assoziierte Produktion von W -Bosonen mit 2 b-Jets untersucht werden, ein Prozess, der nicht gut in den Simulationen beschrieben ist. Es werden Bereiche des Phasenraums definiert, die jeweils dominiert sind von der Top-Paarproduktion und von der .W C b Jets/-Produktion. Dort werden die MonteCarlo-Vorhersagen anhand der gesammelten Daten normiert und der Beitrag in der Signalregion bestimmt. Für Stop-Massen im Bereich von 150 180 GeV mit einem Q 01 mit m D 60 GeV wird ein Ausschluss erwartet. p p [1] P. Konar, K. Kong, K. T. Matchev and M. Park, “RECO level s min and subsystem s min : Improved global inclusive variables for measuring the new physics mass scale in E 6 T events at hadron colliders,” JHEP 1106 (2011) 041, [arXiv:1006.0653 [hep-ph]]. 38 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-12 (B) Suche nach neutralen Higgs-Bosonen im Zerfallskanal H ! ! e4 mit dem ATLAS-Detektor C HRISTIAN S CHILLO Physikalisches Institut, Universität Freiburg Die Teilchenphysik beschäftigt sich mit den elementaren Bausteinen der Materie und deren Wechselwirkungen. Die rasche Entwicklung der Teilchenphysik zu Beginn der zweiten Hälfte des 20. Jahrhunderts mündete schließlich in den 1960er Jahren in der Formulierung des Standardmodells (SM) der Teilchenphysik. Die Vorhersagen des Standardmodells konnten in einer großen Anzahl von Experimenten mit hoher Genauigkeit bestätigt werden. Es beruht auf dem Konzept der lokalen Eichsymmetrie, in denen Massenterme für die Elementarteilchen zunächst nicht vorgesehen sind. Allerdings zeigt die Natur, dass die Massen der Elementarteilchen eine sehr große Bandbreite von nahezu masselosen Neutrinos bis hin zu sehr massiven Top-Quarks mit einer Masse von ca. m t D 172:9 GeV abdecken. Die Lösung dieses Problems liefert der Englert-Brout-Higgs-Guralnik-Hagen-Kibble-Mechanismus, der die Anwesenheit eines skalaren Higgs-Feldes voraussagt, dessen Vakuumerwartungswert von Null verschieden ist und somit durch spontane Symmetriebrechung der Eichinvarianz die Massenterme für die Teilchen des Standardmodells erzeugt. Die Folge dieser in den 1960er Jahren entwickelten Idee ist die Existenz eines neutralen Higgs-Bosons. Die Suche nach diesem Higgs-Teilchen, dessen Masse im Standardmodell eine unbekannte Größe ist, ist eine der Hauptaufgaben der heutigen Teilchenphysik. Bis zum Frühsommer 2012 konnte das Higgs-Boson noch nicht experimentell bestätigt werden. Das Standardmodell wirft trotz seiner weitreichenden Aussagekraft offene Fragen auf wie zum Beispiel das Problem der Dunklen Materie oder der Vereinigung der Kräfte, welche im Rahmen dieser Theorie nicht erklärt werden können. Zusätzliche Symmetrien, die das Standardmodell erweitern würden, könnten die Antwort auf diese Fragen sein. Eine mögliche Erweiterung ist die Theorie der Supersymmetrie (SUSY). Sie beschreibt die Symmetrie zwischen Fermionen mit halbzahligem Spin und Bosonen mit ganzzahligem Spin. Das Minimale Supersymmetrische Standardmodell (MSSM) beinhaltet dabei mehr als doppelt so viele Teilchen wie das Standardmodell, wobei sogar fünf Higgs-Bosonen vorausgesagt werden: drei neutrale (h, A und H ) und zwei geladene (H ˙ ) Higgs-Bosonen. Der Large Hadron Collider (LHC) am CERN (Genf, Schweiz) ermöglicht die Erschließung eines bisher noch nicht erreichten Energiebereiches der Hochenergiephysik, in dem unter anderem Neue Physik“ vermutet wird. Der Teilchenbeschleuniger LHC wurde konstruiert für Schwer” punktsenergien von bis zu 14 TeV, was derzeit kein anderer Beschleuniger erreichen kann. Er wurde im Jahre 2009 in Betrieb genommen. Eines der großen Experimente am LHC ist ATLAS. Dieser Vielzweckdetektor wurde für die Vermessung von Proton-Proton- und SchwerionSchwerion-Kollisionen ausgelegt. Die Hauptziele des ATLAS-Experiments sind Präzisionsmessungen innerhalb des Standardmodells sowie die Suche nach neuer Physik, die über das Standardmodell hinausgeht, wie z. B. SUSY, und welche das Design und den Aufbau von ATLAS maßgeblich beeinflußt hat. Die hohen Luminositäten und Schwerpunktsenergien des LHC und die Auslegung von ATLAS ermöglichen zudem die Messung von Higgs-Bosonen. Aufgrund der geringen Wirkungsquerschnitte der Produktionsprozesse dieser Teilchen sind Luminositäten in der Größenordnung von 1033 bis 1034 cm 2 s 1 notwendig, um ausreichend große Produktions- E. Experimentelle Analysen 39 raten zu erzielen. Mit Hilfe des ATLAS-Experiments können bereits jetzt schon weite Massenbereiche experimentell ausgeschlossen werden. Als Beispiel erreicht der Datensatz des Jahres R 2011 mit der integrierten Luminosität von Ldt 4:9 fb 1 bei einer Schwerpunktsenergie von p s D 7 TeV für ein Vertrauensniveau von 95% einen Ausschluß des Higgs-Bosons des Standardmodells in den Massenbereichen 110.0 bis 117.5 GeV, 118.5 GeV bis 122.5 GeV und 129 bis 539 GeV. Der Vortrag beschäftigt sich mit der Suche nach neutralen Higgs-Bosonen im Zerfallsmodus H ! ! e4. Der Zerfall des Higgs-Bosons in Paare von -Leptonen ist aufgrund des Verzweigungsverhältnisses vor allem für kleine Higgs-Boson-Massen von bis zu 150 GeV ein vielversprechender Kanal. In diesem Bereich sind auch im Standardmodell noch Massenbereiche nicht vollständig ausgeschloßen. Zudem können im Falle einer Entdeckung eines Higgs-Bosons in diesem Kanal Eigenschaften wie die Higgs CP Quantenzahlen untersucht werden. Der Zerfall der -Leptonen in ein Elektron und ein Myon mit entgegengesetzter elektrischer Ladung und fehlender transversaler Energie aufgrund der vier auftretenden Neutrinos ist dabei ein sehr klarer Signalprozess, dessen Endzustand im Detektor gut rekonstruiert werden kann. Es wird eine Datenanalyse des genannten Zerfallskanals vorgestellt werden, die neben einer Optimierung der Ereignisselektion auch Methoden zur Abschätzung von Untergründen aus den Daten sowie die Abschätzung systematischer Unsicherheiten enthält. Um das Signal bestmöglichst zu separieren, wird versucht, die Ereignisselektion den Topologien der verschiedenen HiggsBoson-Produktionsmechanismen Vektorboson-Fusion, Gluon-Gluon-Fusion und die assoziierte Produktion mit W - oder Z-Bosonen, bzw. den Produktionprozessen des MSSM, anzupassen. Dazu wird die Analyse aufgrund der unterschiedlichen Jet-Multiplizitäten in 2-Jet, 1-Jet und 0-Jet Kanäle unterteilt und Schnitte auf verschiedene kinematische Variablen angewendet. Im e-Endzustand liefert besonders der irreduzible Untergrund aus Z ! einen dominanten Beitrag und wird deshalb mit der speziellen Methode der Einbettung von simulierten -Leptonen in Z ! Ereignisse datenbasiert abgeschätzt. Die Herausforderung einer Analyse an dem Proton-Proton-Collider LHC ist vor allem die Reduzierung von QCD-Multijet-Prozessen, deren Produktionswirkungsquerschnitt sehr groß ist. Ein weiteres Problem am LHC ist der Einfluss von Teilchen in einem Ereignis, die aus der Kollision zweier Protonenpakete resultieren und keinem bestimmten physikalischen Untergrundprozess entsprechen, jedoch dennoch zusätzliche Energie in den Kalorimetern deponieren und somit die Messung der fehlenden transversalen Energie beeinflussen. Diesbezügliche systematische Unsicherheiten werden ebenfalls besprochen. Desweiteren wird die Massenrekonstruktion des Higgs-Bosons ein weiterer wichtiger Bestandteil der Präsentation sein. 40 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-13 (A) Optimierung der Triggerstrategie für die Suche nach elektroschwach produzierten supersymmetrischen Teilchen J OSEPHINE W ITTKOWSKI Lehrstuhl für Elementarteilchenphysik, LMU München Am Large Hadron Collider (LHC) am CERN (Genf, Schweiz) werden Protonen beschleunigt und derzeit, 2012, mit einer Schwerpunktenergie von 8 TeV kollidiert. Der ATLAS Detektor registriert etwa 40.000.000 Ereignisse pro Sekunde, gespeichert werden können aber nur 600 Hz (2012). Das Triggersystem entscheidet, welches der Ereignisse behalten werden soll. Aufgezeichnet werden auch Ereignisse, deren Analyse die Entdeckung neuer Physik jenseits des Standardmodells ermöglicht. Endzustände mit zwei geladenen Leptonen, Neutrinos und supersym- `; Q ˙ 1 Q 1 ; ` ; Q Q̀ Q 01 Q̀; Q Q 01 ; ` `; Abbildung E.2.: Zerfall von Charginos in einen Endzustand mit zwei Leptonen metrischen Neutralinos sind mögliche Resultate nach der Produktion von supersymmetrischen Bosinos über elektroschwache Wechselwirkung, siehe Abb. E.2. Der Wirkungsquerschnitt ist groß genug um die Entdeckung von Supersymmetrie in diesem Kanal möglich zu machen wenn supersymmetrische Gluinos und Squarks deutlich schwerer sind als nicht-farbgeladene supersymmetrische Bosinos und Sleptonen – beispielsweise in einem allgemeinen phänomenologischen minimal supersymmetrischen Standardmodell (pMSSM). Solche physikalische Prozesse mit relativ kleinem Wirkungsquerschnitt sollen durch entsprechende Triggerbedingungen effizient aus den Daten ausgewählt werden. Um die Signalakzeptanz zu erhöhen, sollten die Trigger vor allem die Aufzeichnung von Ereignissen mit Leptonen, die möglichst niedrigen Transversalimpuls haben, erlauben. Dem gegenüber steht jedoch für einen bestimmten Trigger eine maximale Bandbreite, die durch strengere Triggerbedingungen verringert werden kann. Die Analyse von Ereignissen mit zwei geladenen Leptonen und fehlender Transversalenergie von nicht detektierten, ungeladenen Teilchen im Endzustand wird durch eine geeignete Kombination von Triggerbedingungen optimiert. Wenn zwei Leptonen bestimmte Anforderungen an ihren Transversalimpuls erfüllen und eventuellen weiteren Kriterien wie Isolation entsprechen, wird der entsprechende Trigger ausgelöst. Dieser stellt niedrigere Anforderungen an den Transversalimpuls als ein Trigger, der schon bei einem Lepton ausgelöst wird. Es werden Trigger, die E. Experimentelle Analysen 41 mindestens ein oder zwei Leptonen mit verschiedenen Transversalimpulsschwellen verlangen (symmetrisch oder asymmetrisch), mit oder ohne Isolation, durch logisches oder“ kombiniert ” und der Phasenraum der zwei Leptonen wird dadurch optimal abgedeckt. Um die Messung der Triggereffizienzen möglichst einfach zu gestalten, werden die Effizienzen von zusammengesetzten Triggern, die erst für mindestens zwei Leptonen in einem Ereignis ausgelöst werden, durch die Effizienzen zweier Trigger, die jeweils schon bei einem der beiden Leptonen feuern, ersetzt. Die Gültigkeit dieser Faktorisierung durch nicht bedingte Wahrscheinlichkeiten, die einem logischen und“ gleich kommt, muss nachgewiesen werden. Die Effizien” zen der beiden Trigger werden durch die sogenannte Tag&Probe“-Methode berechnet. ” Bei der Analyse von Monte-Carlo simulierten Ereignissen verlässt man sich nicht auf die Triggersimulation um beispielsweise nicht einfach einen Großteil der generierten Statistik weg zuwerfen. Stattdessen wird in Daten die Wahrscheinlichkeit dafür berechnet, dass ein ausgewähltes Lepton mit spezieller Kinematik, in dem Fall ein Elektron oder ein Myon, den Trigger ausgelöst hat. Mit den Leptonen aus Z ! und Z ! ee Zerfällen erhält man Kartogramme ( maps“) ” für die Triggereffizienz. Bei der Gewichtung der Monte-Carlo-Ereignisse mit den kombinierten Effizienzen aus den maps wird die mehrfache Berücksichtigung des gleichen Leptons aus dem selben Ereignis vermieden. E-14 (B) Suche nach B ! bei Belle P HILIPP H AMER II. Physikalisches Institut, Universität Göttingen Das BELLE Experiment am asymmetrischen e C e Beschleuniger KEKB in Tsukuba (Japan) hat in den letzten 10 Jahren eine Datenmenge von 711 fb 1 auf der .4s/ Resonanz aufgenommen. Diese große Datenmenge erlaubt neben der genauen Vermessung physikalischer Parameter auch die Beobachtung seltener B-Meson Zerfälle, wie den bisher noch nicht beobachteten Zerfall B 0 ! C . Dieser Prozess beinhaltet das Cabibbo-Kobayashi-Maskawa (CKM) Matrixelement Vub , wobei jVub j D .3:89 ˙ 0:44/ 10 3 ist. Das erwartete Verzweigungsverhältnis liegt im Bereich um 1:0 10 4 . Desweiteren kann ein geladenes Higgs-Boson die Eigenschaften dieses Zerfalls verändern. B ! ermöglicht somit Aussagen über die Physik jenseits des Standard-Modells. Die Optimierung der Signalrekonstruktion und Trennung von Signal und Untergrund wird anhand von Monte-Carlo Daten durchgeführt. Vorgestellt werden die Rekonstruktionsstrategie sowie erste Ergebnisse auf Monte-Carlo Daten. 42 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-15 (C) Suche nach Supersymmetrie im trileptonischen Endzustand mit dem DØ-Experiment JASON M ANSOUR II. Physikalisches Institut, Universität Göttingen Ein viel versprechender Kandidat für eine Theorie jenseits des Standardmodells (SM) stellen Modelle mit Supersymmetrie (SUSY) dar. Die Motivationen für SUSY sind zahlreich. So bietet es möglicherweise eine Lösung für das Hierarchieproblem, und ermöglicht eine Vereinheitlichung der Kopplungskonstanten bei hohen Energien. Von theoretischer Seite ist SUSY interessant, da sie die maximal mögliche Erweiterung der raumzeitlichen Symmetrien darstellt. Außerdem bieten supersymmetrische Theorien mit R-Parität eine Lösung für das Rätsel der dunklen Materie (DM), indem sie ein neutrales, stabiles Teilchen als Kandidat für die DM vorhersagen. Im Allgemeinen gibt es zwei verschiedene Mechanismen, wie supersymmetrische Teilchen produziert werden können: über die starke Wechselwirkung (Produktion von Squarks und Gluinos) und über die elektroschwache Wechselwirkung. Während am LHC vor allem die starke Produktion relevant ist, ist bei Tevatron-Energien wahrscheinlich nur der elektroschwache Mechanismus verfügbar. Die Produktion von Chargino-Neutralino-Paaren findet bei 7 TeV entweder durch ein virtuelles W -Boson statt, oder durch den Austausch eines Squarks qQL (s. Abb. E.3). Q ˙ 1 qN 0 q W Q ˙ 1 Q 02 qN 0 qQL q Q 02 Abbildung E.3.: Koproduktion von Charginos und Neutralinos via W -Boson oder Squark qQL Q Das Chargino Q ˙ Q 01 , ein 1 kann leptonisch über ein W -Boson oder Slepton ` in ein Neutralino Lepton und ein Neutrino zerfallen. Hierbei ist das Neutralino als leichtestes supersymmetrisches Teilchen (LSP) stabil, und macht sich als fehlende Transversale Energie (MET) bemerkbar. Der leptonische Zerfall des zweiten Neutralinos Q 02 verläuft über ein Z-Boson oder Slepton in zwei Leptonen und ein LSP. Somit besteht der Endzustand aus drei Leptonen und MET. Dieser Endzustand ist sehr auffällig und hat nur sehr geringe Untergründe von SM-Prozessen, weswegen er gelegentlich als goldener Kanal“ bezeichnet wird. ” Nennenswerte Untergrundquellen sind Diboson-Prozesse (W W , W Z, ZZ), t tN-Paarproduktion, QCD-Multijetereignisse, sowie W /Z + Jets-Ereignisse, in denen ein Objekt fälschlicherweise als ein (promptes) Lepton identifiziert wird. Im Vortrag wird eine Suche in diesem Kanal mit dem DØ-Experiment am Tevatron vorgep stellt. Das Tevatron ist ein Proton-Antiproton-Collider mit einer Schwerpunktsenergie von s D 1:96 TeV, der von 1992 - 2011 am Fermilab (USA) in Betrieb war. Der Beschleuniger lieferte dabei insgesamt ca. 11 fb 1 an Kollisionen an jedes seiner beiden Experimente DØ und CDF. E. Experimentelle Analysen 43 DØ ist ein Vielzweck-Detektor in hermetischer 4-Bauweise. An innerster Stelle befindet sich das Spurerfassungssystem, bestehend aus einem Silizium-Mikrostreifen-Detektor (SMT) und einem Detektor aus szintillierenden Fasern, dem Central Fiber Tracker (CFT). Das Spursystem befindet sich in einem 2 T Magnetfeld. Außerhalb ist das Kalorimeter, welches in einer Zentral-, und zwei Vorderregionen segmentiert ist. Das Kalorimeter ist ferner in einen elektromagnetischen und einen hadronischen Teil aufgeteilt, welche beide in Sampling-Bauweise ausgeführt sind. Als aktives Material wird flüssiges Argon verwendet, zum Schauern Uran bzw. Eisen. Um das Kalorimeter ist ein toroidialer 2 T-Magnet angebracht. Ganz außen befinden sich noch Spurkammern zur Detektion von Myonen. Die Analysestrategie ist wie folgt: Zunächst wurde sichergestellt, dass die Untergründe sehr gut verstanden und modelliert sind. Dazu wurden eine Reihe von Korrekturen auf die Monte-CarloSamples bestimmt und angewendet. Anschließend werden mit einigen Schnitten die reduzierbaren Untergründe, vor allem Z+Jets, weitestgehend entfernt. Dann wird versucht, eine größtmögliche Trennung von Signal und Untergrund durch multivariate Methoden (boosted decision trees, BDT) zu erreichen. Dabei werden auch spezielle Variablen verwendet, wie pT -balance“ oder transversale Massen, die sich durch ” besondere Trennkraft auszeichnen. Wir untersuchen zwei verschiedene Modellannahmen, die Variationen des CMSSM sind: In dem 3l-max“-Szenario sind die Parameter so gewählt, dass das Verzweigungsverhältnis in den trilep” tonischen Endzustand maximiert wird. Alternativ betrachten wir das heavy Sleptons“-Szenario, ” indem die Sleptonen so schwer sind, dass sie als Zwischenzustand nicht in Frage kommen. Somit läuft der Zerfall der supersymmetrischen Teilchen nur über W - und Z-Bosonen. Dieses Szenario ist auch von den bisherigen negativen Ergebnissen in Suchen nach SUSY am Tevatron und LHC motiviert. Suchen z.B. im mSUGRA/CMSSM-Modell in leptonischen Endzuständen gehen von Sleptonen im Zwischenzustand aus. Ist dieser Kanal aber ausgeschlossen, sind die bisher ermittelten Grenzen auf Chargino- und Neutralinomassen nicht unbedingt anwendbar. Ergebnisse werden im Sinne der Modellunabhängigkeit auch als Grenzen auf die Charginomasse angegeben, statt nur auf Modellparameter. Abschließend wird versucht, einige Lehren aus den Ergebnissen zu ziehen. Es werden zudem Überlegungen für künftige Suchen in nicht-minimalen Varianten von mSUGRA/CMSSM angestellt. E-16 (A) Suche nach Supersymmetrie im voll-hadronischen Kanal mit dem CMS Detektor am LHC K RISTIN H EINE Insitut für Experimentalphysik, Universität Hamburg Der Large Hadron Collider (LHC) am CERN in Genf (Schweiz) ist ein Proton-Proton Beschleuniger, der seit 2010 erfolgreich Teilchenkollisionen bei einer Schwerpunktsenergie von 7 TeV durchführt. Am CMS Experiment wurden seitdem Daten aufgezeichnet, die einer integrierten Luminosität von ca. 5 fb 1 entsprechen. Neben Präzisionsmessungen von bekannten Prozessen, kann man diese Daten vor allem nutzen, um nach neuartiger Physik zu suchen, welche bisher nicht im Standardmodell (SM) der Teilchenphysik beschrieben wird. Eine solche Theorie, die über das SM hinausgeht, ist beispielsweise Supersymmetrie (SUSY). Hier wird jedem Standardmodellteilchen ein supersymmetrisches Partnerteilchen zugeordnet, 44 44. Herbstschule für Hochenergiephysik Maria Laach 2012 welches die gleichen Quantenzahlen besitzt und sich lediglich im Spin um einen Faktor 1=2 unterscheidet. Fordert man die Erhaltung einer weiteren Quantenzahl – die Erhaltung der sogenannten R-Parität (RD C1 für standardmodell Teilchen, RD 1 für SUSY Teilchen) – so ergibt sich, dass das leichteste supersymmetrische Teilchen (LSP) stabil ist. Da ein derartiges Teilchen bisher nicht entdeckt wurde, ist davon auszugehen, dass dieses Teilchen elektrisch neutral geladen ist und nur schwach wechselwirkt, sodass es den Detektor ohne eine sichtbare Signatur verlässt. Ein Bestandteil der experimentellen SUSY-Signatur ist somit ein hoher Anteil von fehlender Energie im Detektor. Des Weiteren wird erwartet, dass eine große Anzahl von Squarks und Gluinos – die SUSYPartnerteilchen der Quarks und Gluonen – produziert wird, da diese an der starken Wechselwirkung teilnehmen und einen hohen Produktionswirkungsquerschnitt aufweisen. Diese zerfallen weiter in Quarks, Gluonen und schließlich das LSP. Neben fehlender Energie erwartet man demnach mehrere Jets im Detektor. Quantifiziert wird dieser Prozess mit den sensitiven Variablen HT (skalare Summe der transversalen Jet-Impulse) und MHT (Betrag der negativen vektoriellen Summe der Jet-Impulse). In diesem Vortrag wird die inklusive Suche nach Supersymmetrie in Multijet-Ereignissen mit fehlender Energie am CMS-Experiment beschrieben. Neben der Selektion von Signalereignissen ist es besonders wichtig, die einzelnen Beiträge aus Standardmodell Untergrundprozessen zu verstehen und zu bestimmen. Bei dieser Suche tragen hauptsächlich Z. / N C Jet-, W C Jet- und t tN-, sowie QCD-Multijet-Ereignisse bei. W CJet- und t tN- Ereignisse führen zu einer Signatur von Jets und fehlender Energie, wenn ein W -Boson direkt oder über ein in ein Elektron oder Muon zerfällt, welches nicht rekonstruiert wird, oder wenn ein hadronisch zerfällt. In diesen Zerfällen entstehen Neutrinos, die eine echte Quelle für fehlende Energie sind. QCD-Multijet-Ereignisse weisen überwiegend dann fehlende Energie auf, wenn in Jets heavy-flavour-Hadronen leptonisch zerfallen oder die Energie des Jets falsch gemessen wird. Zu den verschiedenen Untergründen wurden datengetriebene Methoden entwickelt, um die einzelnen Beiträge abzuschätzen. Der Fokus des Vortrags liegt auf der Bestimmung des QCD-Multijet Untergrunds, für welchen die Re” balance and Smear“-Methode verwendet wird. Hier werden selektierte Multijet-Ereignisse durch einen kinematischen Fit rebalanciert, sodass die enthaltene Komponente von fehlender Energie gleich 0 ist. Anschließend werden die Ereignisse mit den entsprechenden Detektor-ResponseFunktionen verschmiert, um so den Beitrag von QCD Ereignissen zum HT- und MHT-Spektrum zu bestimmen. Neben der Selektion von Multijet-Ereignissen mit fehlender Energie und der Abschätzung des Untergrunds wird die Interpretation der Analyse in verschiedenen SUSY-Szenarien diskutiert. E. Experimentelle Analysen 45 E-17 (B) Messung des Wirkungsquerschnittsverältnisses von t tN und Z 0 Produktion in den dileptonischen Zerfallskanälen JAN K IESELER DESY Durch die große Menge der vom CMS Detektor 2011 bei einer Schwerpunktsenergie von 7 TeV gelieferten Daten, wird der Fehler des totalen t tN Wirkungsquerschnitts durch systematische Unsicherheiten dominiert. Diese können reduziert werden, indem ein Wirkungsquerschnittverhältnis betrachtet wird, bei dem sich beiden Prozessen gemeine Detektoreffekte und Effizienzen mit deren Unsicherheiten herauskürzen. Der Zerfall eines t tN Paares erfolgt nahezu ausschließlich in je ein W -Boson und ein b-Quark. Der weitere Zerfall des W -Bosons bestimmt den Zerfallskanal des t tN Zerfalls. Im dileptonischen Fall zerfallen beide W -Bosonen zu jeweils einem Lepton und einem entsprechenden Neutrino. Resultierend besteht die Signatur also aus zwei entgegengesetzt geladenen Leptonen, zwei b-Jets und fehlender Energie. Mit Ausnahme von Jets und fehlender Energie ähnelt damit die Signatur der des dileptonischen Z 0 Zerfalls, was beide Prozesse gegenseitig Hintergrund zueinander werden lässt, allerdings auch die Möglichkeit eröffnet, in einem Wirkungsquerschnittverhältnis viele Selektionsunsicherheiten zu reduzieren. Die Messung des Wirkungsquerschnittverhältnisses von t tN zu Z 0 Produktion erfolgt durch Selektion von entgegen gesetzt geladenen, isolierten hochenergetischen Leptonen. Konkret werden die Kombinationen ˙ und e ˙ e zur Signalselektion ausgewählt. Die Datensätze zur Untersuchung des Z 0 Zerfalls und des t tN Zerfalls werden durch einen Schnitt auf die invariante Masse des Leptonenpaares getrennt. Zur weiteren Selektion der t tN Ereignisse werden mindestens zwei hochenergetische Jets, wovon mindestens einer einem b-Jet zugeordnet werden kann, und ein hohes Maß an fehlender Transversalenergie gefordert. Die dominierenden Hintergründe sowohl zu dem Z 0 als auch dem t tN Signal werden mit auf Daten basierenden Methoden bestimmt, in denen das Fehlen des Z 0 Signals in der Leptonpaarkombination e ˙ ausgenutzt wird. Aus dem gewonnenen Wirkungsquerschnittverhältnis lässt sich mithilfe des theoretischen Z 0 Wirkungsquerschnitts der t tN Wirkungsquerschnitt berechnen. Dabei treten an die Stelle von gemeinsamen Selektions-, Effizienz- und Luminositätsunsicherheiten die Unsicherheit auf den theoretischen Z 0 Wirkungsquerschnitt und antikorrelierte Effekte. 46 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-18 (C) Bestimmung des Produktionsflavours von Bs -Mesonen beim LHCb Experiment G EORG K ROCKER Physikalisches Institut, Universität Heidelberg In den vergangenen Jahren konnte mit der präzisen Vermessung der Eigenschaften des B-Meson Systems bei den Experimenten Belle und BABAR an den B-Fabriken wichtige Erkenntnisse für ein detailliertes Verständnis des Flavoursektors im Standardmodell (SM) gewonnen werden. So wurde unter anderem der Cabibbo-Kobayashi-Maskawa (CKM) Mechanismus der Quarkmischung etabliert und die Parameter der CKM Matrix präzise bestimmt. Diese Studien beschränkten sich größtenteils auf Bd Mesonen die im Vergleich zum etwas schwereren Bs vorwiegend an den B-Fabriken produziert wurden. Das Tevatron ermöglichte erstmals Messungen im Bs System, wenn auch mit vergleichsweise geringer Statistik. Mit der Inbetriebnahme des Large Hadron Collider (LHC) am CERN (Genf, Schweiz) im Jahr 2010, der im nominellen Betrieb 1012 b bN Paare im Jahr erzeugt, steht nun erstmals ein großer Datensatz für Präzisionsmessungen im Bs System zur Verfügung. Das LHCb Experiment ist als dezidiertes B-Physik Experiment speziell darauf ausgelegt sich die hohe b bN Produktionsrate des LHC zunutze zu machen. Das Physikprogramm umfasst neben der genauen Vermessung der SM Parameter des B Systems auch die Suche nach möglichen Beiträgen von Neuer Physik“ in ” Quantenkorrekturen. Neutrale B-Mesonen können in ihre Antiteilchen oszillieren. Bei Messungen im B System, zum Beispiel der CP verletzenden Phase ˚s im Zerfall Bs ! J = , ist es daher nötig den Flavour des B-Mesons zum Zeitpunkt der Produktion zu kennen. Da ein direkter Zugriff auf den Produktionsflavour nicht möglich ist muss dieser mit sogenannten Tagging Algorithmen bestimmt werden. Im Bs System besteht dabei, neben anderen Methoden, die Möglichkeit, den Produktionsflavour durch ein bei der Bs Fragmentation erzeugtes Kaon zu bestimmen. Hierbei wird ausgenutzt, dass in Assoziation mit dem im Bs enthaltenen s (Ns ) Quark ein zweites sN (s) Quark erzeugt wird welches in etwa 35% der Fälle in ein geladenes Kaon hadronisiert. Aus der Ladung dieses Kaos lässt sich der Produktionsflavour des Bs bestimmen. In meinem Vortrag werde ich die Funktionsweise des Same Side Kaon Taggers bei LHCb beschreiben und vorstellen, welche Schritte nötig sind um den Tagger auf Daten zu optimieren und anzuwenden. E. Experimentelle Analysen 47 E-19 (A) Vollständige Rekonstruktion von B-Mesonen in .5S /-Zerfällen bei Belle M ATTHIAS H USCHLE Institut für Experimentelle Kernphysik, KIT Ein Vorteil der B-Fabriken BABAR und Belle gegenüber Hadronkollisionsexperimenten ist die Kontrolle über die in der Einzelkollision zur Verfügung stehende Energie. Sie erlaubt in erster Linie die gezielte Produktion von Resonanzen – bei Belle hauptsächlich .4S/ und in geringeren Mengen .5S/, beides angeregte Bottomoniumzustände. N Das Besondere an der .4S/-Resonanz ist, dass sie dank des b b-Quarkinhaltes und ihrer Energie C N knapp oberhalb der Bd;u BdN ;uN -Schwelle nahezu immer in entweder B B oder Bd0 BN d0 zerfällt, also ein Zwei-Körper-Zerfall in etwa gleich schwere B-Mesonen stattfindet. Kinematisch bedeutet dies (im Schwerpunktssystem), dass die B-Mesonen jeweils die Hälfte der ursprünglichen Strahlenergie besitzen und ihre Impulse antiparallel sind. Dies hat zwei besondere Vorteile für die Rekonstruktion von B-Mesonen: Die Konstruktion von Messgrößen in Abhängigkeit von der sehr genau bekannten Schwerpunktsenergie zur besseren Vermessung und Identifizierung der B-Mesonen, sowie die Untersuchung von nicht vollständig rekonstruierbaren B-Mesonen (z. B. mit Neutrinos in der Zerfallskette) nach vollständiger Rekonstruktion ihres Zerfallspartners. Die in der Belle-Kollaboration auf der .4S/ eingesetzte vollständige Rekonstruktion arbeitet hierarchisch mit insgesamt über 1000 Rekonstruktionskanälen und nutzt neuronale Netze in jeder Rekonstruktionsstufe, um weit bessere Effizienzen als schnittbasierte Selektionen zu erreichen. Ein vollständig rekonstruiertes B-Meson bietet dreierlei Möglichkeiten zur weiteren Verarbeitung: Direkte Analyse, Identifizierung der nicht zum rekonstruierten B gehörenden Spuren im Detektor, sowie Bestimmung des Viererimpulses des nicht rekonstruierten B-Mesons. Eine Erweiterung der Methode zur vollständigen Rekonstruktion auf die .5S/-Resonanz liegt nahe, da unter anderem Bs -Zerfälle Möglichkeiten zu Präzisionsmessungen bieten. Dies erfordert allerdings mehr als nur Parameteranpassungen, da die Schwerpunktsenergie auf der .5S/Resonanz im Zerfall sowohl Mehr-Körper-Zerfälle als auch angeregte B-Mesonen erlaubt. Ersteres hat zur Folge, dass sich das Spektrum der mit der Strahlenergie konstruierten Messgrößen verschiebt und somit nur zerfallsspezifisch zur B-Meson-Identifizierung genutzt werden kann. Im zweiten Fall lassen sich die Photonen aus abklingenden B-Mesonen nur sehr schwierig detektieren und stören so die vorherige, eindeutige Kinematik. Da Zerfälle des .5S/ in angeregte B-Mesonen dominieren, ist eine genaue Bestimmung des Viererimpulses seiner Kinder nur selten möglich. Die vollständige Rekonstruktion von B-Mesonen in Zerfällen des .5S/ ermöglicht damit die Untersuchung nicht direkt rekonstruierbarer B-Meson-Zerfälle, erfordert jedoch neue Techniken, um an die Stärken des Verfahrens auf der .4S/-Resonanz anzuschließen. 48 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-20 (B) Analyse des Zerfalls B 0 ! D CD Experiment am Belle- BASTIAN K RONENBITTER Institut für Experimentelle Kernphysik, KIT In diesem Vortrag wird die Messung des Verzweigungsverhältnisses, der Polarisation und der Parameter der zeitabhängigen CP -Verletzung von B 0 ! D C D Zerfällen beschrieben. Die zeitabhängige CP -Verletzung in Zerfällen von neutralen B-Mesonen wird im Standardmodell (SM) der Teilchenphysik durch eine komplexe Phase in der Cabibbo-Kobayashi-Maskawa (CKM)-Quarkmischungsmatrix beschrieben. Sie wurde in B 0 ! .c c/K N 0 Zerfällen mit sehr großer Präzision gemessen und sollte laut Standardmodell der in B 0 ! D C D Zerfällen entsprechen. Die Rekonstruktion und Analyse dieses Zerfalls wird mit Daten durchgeführt, die mit dem BelleDetektor am KEKB-Beschleuniger in Tsukuba (Japan) aufgezeichnet wurden. Dabei handelt es sich um einen asymmetrischen Elektron-Positron-Beschleuniger, der bei einer Schwerpunktsenergie von 10:58 GeV operiert. Dies entspricht der Ruhemasse der .4S/-Resonanz, welche N zu 98% in ein B B-Paar zerfällt. Die Asymmetrie der Strahlenergien führt zu einem Boost des Schwerpunktsystems im Laborsystem von ˇ D 0:425, was die Messung des Abstandes der Zerfallsvertices der beiden B-Mesonen und damit der Zerfallszeitdifferenz t ermöglicht. Zusammen mit der Information des Flavours eines der B-Mesonen kann die zeitabhängige Asymmetrie von B 0 - und BN 0 -Zerfällen und damit die Parameter der zeitabhängigen CP -Verletzung gemessen werden. Eines der beiden B-Mesonen in einem Kollisionsereignis wird aus den Informationen der gemessenen Spuren und Energiedepositionen vollständig rekonstruiert, wobei zuvor Zwischenzustände rekonstruiert werden. Auch diese können teilweise auf Grund ihrer kurzen Lebensdauer nicht direkt gemessen werden. Dabei kann es sich zum Beispiel um D-Mesonen oder ungeladene Pionen und Kaonen handeln. Die Zahl der rekonstruierten Signalereignisse wird mit einer Parameteranpassung bestimmt, wobei zwei Observablen verwendet werden, die häufig zu diesem Zweck bei Untersuchungen an B-Fabriken eingesetzt werden: Die Masse des rekonstruierten B-Mesons unter Einbeziehung der Kenntnis über die Strahlenergie Mbc und die Differenz zwischen rekonstruierter und nomineller Energie des B-Mesons E. Die Tatsache, dass es sich bei dem Zerfall B 0 ! D C D um den Zerfall eines pseudoskalaren in zwei Vektormesonen handelt, macht es notwendig für die Messung der CP -Verletzung eine Winkelanalyse durchzuführen und damit den Anteil der CP -ungeraden Komponente im Endzustand des Zerfalls zu bestimmen. Die Polarisation und die Parameter der CP -Verletzung werden gleichzeitig mit einer fünfdimensionalen Parameteranpassung in den Observablen Mbc , E, t und zwei der drei Winkel der Transversitybasis bestimmt. Die Wahrscheinlichkeitsverteilung, die der Beschreibung der Signalverteilung in t zu Grunde liegt, beinhaltet die zwei Parameter S und A, welche die zeitabhängige CP -Verletzung beschreiben, wobei S die mischungszinduzierte und A die direkte CP -Verletzung beschreibt. Der Zusammenhang zwischen S und dem Winkel '1 des Unitaritätsdreickes ist im Standardmodell gegeben durch S D sin 2'1 . E. Experimentelle Analysen 49 E-21 (C) Messung des Single Top t-Kanal Wirkungsquerschnitts mit neuronalen Netzen am CMS-Detektor S TEFFEN R ÖCKER Institut für Experimentelle Kernphysik, KIT Das Top-Quark ist das schwerste bekannte Quark im Standardmodell und wird hauptsächlich in Top-Antitop-Quarkpaaren über die starke Wechselwirkung erzeugt. Neben der Paar-Produktion können über die elektroschwache Wechselwirkung auch einzelne Top-Quarks erzeugt werden, sogenannte single tops“. Dabei unterscheidet man zwischen drei verschiedenen Produktionsme” chanismen in denen jeweils einen W t b-Vertex vorkommt. Die Produktion über die elektroschwache Wechselwirkung ermöglicht die direkte Bestimmung des Cabibbo-Kobayashi-Maskawa (CKM) -Matrixelements jV t b j. Ein von jV t b j 1 abweichender Wert wäre ein Hinweis auf Neue ” Physik“, wie etwa einer möglichen vierten Generation. Der Produktionsmechanismus mit dem größten Wirkungsquerschnitt am Large Hadron Collider (LHC) ist der t -Kanal, bei dem ein leichtes Quark mit einem W -Boson streut. Dieser Produktionsmechanismus wurde erstmals 2009 in Proton-Antiproton-Kollisionen am Tevatron-Beschleuniger bei einer Schwerpunktsenergie von 1.96 TeV nachgewiesen und konnte schon 2011 am LHC in Proton-Proton-Kollisionen mit einer Schwerpunktsenergie von 7 TeV von den Experimenten CMS und ATLAS bestätigt werden. Wegen dem günstigeren Verhältnis der Wirkungsquerschnitte von Signal und Untergrundprozessen am LHC kann nun eine detaillierte Studie elektroschwacher Top-Quark-Produktion unternommen werden. Aufgrund seiner hohen Masse und damit großen Zerfallsbreite zerfällt das Top-Quark bevor es gebundene Zustände eingehen kann. Es zerfällt dabei in nahezu 100% in ein W -Boson und ein b-Quark. Die Signatur des Zerfalls von t -Kanal Einzel-Top-Quarks besteht aus einem bJet aus dem Top-Zerfall, den Zerfallsprodukten des W -Bosons (hier werden nur leptonische Zerfälle in ein Myon oder Elektron und dem jeweiligen Neutrino betrachtet) und mindestens einem weiteren, häufig in Vorwärtsrichtung detektierten, leichten Jet. Des Weiteren kommt es durch das nicht im Detektor nachweisbare Neutrino zu fehlender Transversalenergie. In dieser Analyse wird eine auf einem neuronalen Netzwerk basierende Methode zur Trennung von t-Kanal Signalereignissen und Untergrundereignissen mit ähnlicher Signatur, wie etwa t tN und W +Jets, vorgestellt. Dazu werden mit dem CMS-Detektor aufgezeichnete Daten von Proton-Protonkollisionen bei einer Schwerpunktsenergie von 7 TeV untersucht. Der Anteil von QCD-Multijet-Ereignissen wird in einem Seitenband aus Daten abgeschätzt. Zur Bestimmung des Signalanteils wird eine Bayessche Methode eingesetzt, die die Ausgabe der Diskriminatorwerte des neuronalen Netzes verwendet. Dabei werden die meisten systematischen Einflüsse als Nuisance-Parameter ausmarginalisiert. Diese Methode ermöglicht eine präzise Messung des t -Kanal Wirkungsquerschnitts und somit des CKM-Matrixelements jV t b j. 50 44. Herbstschule für Hochenergiephysik Maria Laach 2012 E-22 (C) Suche nach Supersymmetrie in Ereignissen mit einem Lepton, Jets und fehlender Transversalenergie mit dem ATLAS Experiment T IMO M ÜLLER Institut für Physik, Universität Mainz Supersymmetrische Theorien (SUSY) stellen einen vielversprechenden Lösungsansatz für viele Probleme des Standardmodells, wie etwa der Existenz kalter dunkler Materie oder des Hierarchieproblems dar. Falls stark wechselwirkende supersymmetrische Teilchen (Squarks und Gluinos) nahe der TeV-Skala existieren, sollten diese in großer Zahl am LHC produziert werden. Squarks und Gluinos zerfallen sodann in Quarks und Gluonen sowie in die supersymmetrischen Partner der Eichbosonen des Standardmodells (Charginos und Neutralinos), woraus Ereignisse mit hochenergetischen Jets resultieren. In R-paritätserhaltender SUSY ist das leichteste supersymmetrische Teilchen (LSP) stabil und schwach wechselwirkend und kann den Detektor daher undetektiert verlassen, was zu einer Signatur mit signifikanter fehlender Transversalenergie führt. Aus den Zerfällen von Charginos und Neutralinos können hochenergetische Leptonen entstehen, welche eine ausgezeichnete Möglichkeit bieten, potentielle supersymmetrische Signale von Prozessen des Standardmodells zu trennen. Die dominanten Standardmodellprozesse, die eine Signatur mit einem Lepton, Jets und fehlender Transversalenergie erzeugen, sind Top-Antitop- und W +Jets-Produktion, was ein genaues Verständnis dieser Untergründe unabdingbar macht. Eine datenbasierte Bestimmung dieser Untergründe in der SUSY Signalregion ist aufgrund großer theoretischer Unsicherheiten bei hohen Jet Multiplizitäten und der damit verbundenen systematischen Fehler der Monte-Carlo Vorhersage vorzuziehen. Dabei spielen insbesondere Skalenunsicherheiten, welche in der Monte-CarloSimulation nicht berücksichtigte Korrekturen höherer Ordnung einbeziehen, eine entscheidende Rolle. Um die damit verbundenen systematischen Unsicherheiten besser kontrollieren zu können, wurde eine fitbasierte Methode entwickelt, welche die Sensitivität der Jet Multiplizität auf die Wahl der Skala des Prozesses ausnutzt und eine datenbasierte Korrektur der MonteCarlo Vorhersage liefert. Die Extrapolation dieser Messung aus einer mit Untergrundereignissen angereicherten Kontrollregion in die SUSY Signalregion liefert eine verbesserte Untergrundvorhersage. Vor der Untersuchung der Daten muss eine Signalregion definiert werden, die mit potentiellen SUSY Ereignissen angereichert ist. Dazu wurden Schnitte auf kinematische Variablen optimiert, die eine Trennung von SUSY Ereignissen und Prozessen des Standardmodells erlauben. Diese Optimierung wurde im mSUGRA (minimal supergravity) Szenario sowie unter Berücksichtigung von Simplified Models, welche einen bestimmten Produktions- und Zerfallsmodus isolieren, durchgeführt. Die vorgestellte Analyse basiert auf dem vollen im Jahr 2011 von ATLAS bei einer Schwerp werden auch Resultate punktenergie von s D 7 TeV aufgezeichneten Datensatz. Eventuell p basierend auf Daten aus 2012 mit einer Schwerpunktenergie von s D 8 TeV präsentiert. E. Experimentelle Analysen 51 E-23 (B) ATLAS-Suche nach Dunkler Materie in MonojetEreignissen RUTH P ÖTTGEN Institut für Physik, Universität Mainz Kosmologische Beobachtungen liefern starke Hinweise darauf, dass die Teilchen, die das Standardmodell beschreibt, nur etwa 4% des Materie- bzw. Energiegehaltes des Universums ausmachen. Die verbleibenden 96% werden als dunkle Materie (24%) und dunkle Energie (72%) bezeichnet. Es gibt viele Modelle, die dunkle Materie mit neuen Teilchen mit unterschiedlichen Eigenschaften erklären. Ein beliebter Kandidat sind schwach wechselwirkende, massive Teilchen – sogenannte WIMPs (Weakly Interacting Massive Particle) – im Folgenden auch mit bezeichnet. Unter bestimmten Voraussetzungen ist die Produktion solcher WIMPs an Teilchenbeschleunigern möglich. Nimmt man an, dass die Wechselwirkung zwischen Standardmodell und dunkler Materie über ein neues, schweres Teilchen (Mediator) vermittelt wird, dessen Masse außerhalb der Reichweite des Beschleunigers liegt, lässt sich der Prozess im Rahmen einer effektiven Feldtheorie beschreiben, in der über den Mediator integriert wird. Macht man weiterhin die Annahme, dass die WIMPs Dirac-Fermionen sind, ergeben sich 14 verschiedene Operatoren für eine sogenannte Kontaktwechselwirkung mit einem -Paar N im Endzustand. Der Wirkungsquerschnitt hängt dabei zum einen von der Masse des WIMPs (m ) und zum anderen von der sogenannten Unterdrückungsskala ab, die wiederum durch die Masse des schweren Mediators und dessen Kopplungsstärke an Standardmodellfermionen sowie die WIMPs bestimmt ist. Die WIMPs selbst hinterlassen – ähnlich wie Neutrinos – keine Signale im Detektor und werden nur als fehlende Transversalenergie (missing transverse energy, ETmiss ) sichtbar. Man sucht daher nach Ereignissen mit einem harten Jet und fehlender Transversalenergie, wobei der Jet von einem im Anfangszustand abgestrahlten Gluon stammt. Die wichtigsten Untergrundprozesse sind zusammen mit einem Jet erzeugte Z-Bosonen, die in ein Neutrino-Paar zerfallen, sowie W Bosonen, die zusammen mit einem Jet erzeugt werden, wobei das bei ihrem Zerfall entstehende Lepton nicht identifiziert wird. Ein vorhandenes Signal würde ein härteres Spektrum der fehlenden Transversalenergie aufweisen und daher vor allem in Ereignissen mit hoher transversaler Energie als Überschuss gegenüber der Standardmodellerwartung sichtbar werden. Beim ATLAS-Experiment am LHC (Large Hadron Collider) bei Genf (Schweiz) wird daher eine Suche nach Ereignissen mit einem Jet und ETmiss im Endzustand (sogenannte Monojet-Ereignisse) in mehreren Signalregionen, die sich durch die kinematischen Schnitte auf ETmiss und den Transversalimpuls des Jets unterscheiden, durchgeführt. Wird kein Über-schuss beobachtet, werden Ausschlussgrenzen auf die Unterdrückungsskala in Ab-hängigkeit von m gesetzt. ATLAS ist einer von zwei Allzweckdetektoren am LHC. Mit ihm werden Proton-Proton-Kollisionen, die am LHC mit einer Rate von bis zu 40 MHz auftreten, analysiert. Seit März diesen Jahres läuft der LHC bei einer Schwerpunktsenergie von 8 TeV, 2011 waren es noch 7 TeV. Dieser Beitrag wird zunächst die Annahmen, die in die Suche am Beschleuniger eingehen, erläutern. Darüber hinaus werden die wesentlichen Schritte der Analyse des gesamten im Jahr 2011 aufgezeichneten Datensatzes sowie Aspekte der Suche bei 8 TeV vorgestellt. Es wird zum einen auf die Selektion der Ereignisse in den Signalregionen, zum anderen auf die Definition von Kontrollregionen eingegangen, die zur teilweise datenbasierten Untergrundbestimmung die- 52 44. Herbstschule für Hochenergiephysik Maria Laach 2012 nen. In diesem Zusammenhang werden auch die wesentlichen experimentellen und theoretischen systematischen Unsicherheiten diskutiert. Die Simulation von Signalereignissen mit dem MadGraph-Generator und die relevanten zugehörigen Unsicherheiten werden ebenfalls besprochen. Schließlich werden die Ergebnisse im Hinblick auf die WIMP-Hypothese interpretiert und mit anderen Experimenten zur Suche nach dunkler Materie verglichen – separat sowohl für spin-abhängige als auch für spin-unabhängige Wechselwirkungen. E-24 (C) Messung des Drell-Yan Wirkungsquerschnittes mit Hilfe von Elektron-Positron-Paaren bei ATLAS S IMON W OLLSTADT Institut für Physik, Johannes-Gutenberg Universität Mainz Der Large Hadron Collider (LHC) am CERN (Genf, p Schweiz) lieferte im Jahr 2011 ProtonProton Kollisionen mit einer Schwerpunktsenergie von s D 7 TeV. Mit dem ATLAS-Detektor wurde eine Datenmenge von ungefähr 5 fb 1 aufgezeichnet. Mit Hilfe dieser Daten ist es erstmals möglich den Drell-Yan Prozess (pp ! Z= C X ) im invarianten Massenbereich des Zweielektronsystems von 116 GeV < Mee < 1500 GeV zu beobachten und den Wirkungsquerschnitt zu bestimmen. Beim Drell-Yan Prozess in Proton-Proton Kollisionen fusioniert ein Quark mit einem Antiquark zu einem Z0 -Boson oder einem virtuellen Photon ( ) und zerfällt anschließend in ein FermionAntifermion Paar. (s. Abb. E.4). Die leptonischen Zerfallskanäle in Elektron-Positron Paare und qN 0 q eC Z= e Abbildung E.4.: Der Drell-Yan Prozess mit dem Zerrfallskanal in ein Elektron-Positron Paar. Myon-Antimyon Paare liefern ein wesentlich einfacheres Signal im Detektor als die übrigen Zerfallskanäle. Die Analyse wurde mit Hilfe von Elektron-Positronpaaren durchgeführt. Neben einer wohl definierten Spur im inneren Detektor ist eine lokalisierte Energiedeposition im elektromagnetischen Kalorimeter erforderlich. Der Untergrund wird bei hoher Signaleffizienz gut unterdrückt. Der Drell-Yan Prozess ist ein wichtiger Prozess im Standardmodell (SM). Es ist wichtig, die theoretischen Vorhersagen, durch Messungen zu überprüfen und den Drell-Yan Prozess bei hohen invarianten Massen möglichst genau zu verstehen, da er bei der Suche nach neuer Physik häufig als irreversibler Untergrund auftritt. Die differentielle Messung kann als Grundlage für fits an Parton Verteilungsfunktionen (PDFs) dienen. Die Sensitivität wird sich durch eine doppeltdifferentielle Messung (invarianter Masse und Rapidität) noch verbessern. E. Experimentelle Analysen 53 Die Messung wurde differentiell bezüglich der invarianten Masse des Zwischenzustandes durchgeführt und der Wirkungsquerschnitt innerhalb der kinematischen Schnitte mit Hilfe der folgenden Formel berechnet: NSig d R : D d mee CDY Ldt Dabei ist NSig die Anzahl der untergrundbereinigten selektierten Ereignisse und CDY die Korrektur auf die Ineffizienzen des Detektors. Der Untergrund mit echten Elektronen (aus Zerfällen von t tN und Di-Boson Zwischenzuständen) wurde mit Hilfe von Monte-Carlo-Simulationen bestimmt und der Untergrund, bei dem ein oder zwei Jets als Elektronen fehlidentifiziert wurden (z. B. Zweijet Ereignisse oder ein Zerfall eines W -Boson in ein Elektron und Neutrino mit einem zusätzlichem Jet), wurde Datenbasiert abgeschätzt. Die Korrektur der Ineffizienz des Detektors wurde mit Hilfe von Monte-Carlo-Simulationen bestimmt. Darin enthalten sind sowohl die Effizienz des Triggers, als auch die Rekonstruktion und Identifizierung von Elektronen im Detektor. Außerdem wird auf die theoretische Extrapolation auf den totalen Wirkungsquerschnitts eingegangen und die Studien zur Abschätzung der systematischen Fehler vorgestellt. Als Ergebniss wird der Wirkungsquerschnitt innerhalb der kinematischen Schnitte, sowie nach der theoretischen Extrapolation der totale Wirkungsquerschnitt präsentiert. Die Ergebnisse werden mit verschiedenen Berechnungen leading order (LO), next-to-leading order (NLO) und nextto-next-to-leading order (NNLO) verglichen. E-25 (A) Suche nach supersymmetrischen Teilchen in Endzuständen mit vier oder mehr Leptonen mit dem ATLASDetektor M AXIMILIAN G OBLIRSCH -KOLB Max-Planck-Institut für Physik, München Eines der interessantesten Physikziele der Experimente am Large Hadron Collider (LHC) ist die Suche nach Anzeichen von Supersymmetrie. Entsprechende Theorien besitzen eine zusätzliche Symmetrietransformation, welche zwischen Bosonen und Fermionen wirkt, und den bekannten Teilchen des Standardmodells Superpartner“ mit um 12 abweichendem Spin zuordnet. So wird ” der Teilcheninhalt des Standardmodells mehr als verdoppelt. Da diese Partner bisher nicht beobachtet worden sind, muss es sich um eine gebrochene Symmetrie handeln. Nach Symmetriebrechung können die Superpartner höhere Massen als die Standardmodellteilchen besitzen. Werden derartige Teilchen an Collidern erzeugt, kommt es zu Zerfallskaskaden, die sich durch die Produktion von hochenergetischen Standarmodellteilchen auszeichnen. In zahlreichen Modellen ist das leichteste supersymmetrische Teilchen (LSP) stabil und kann den Detektor verlassen. Somit ist eine hohe fehlende transversale Energie typischer Bestandteil von Suchen nach Supersymmetrie. Endzustände mit vier oder mehr Leptonen treten besonders in Modellen mit instabilem LSP und bei Produktion der schweren Partner der Eichbosonen auf, häufig begleitet von Neutrinos. Suchen in derartigen Kanälen sind attraktiv, da hier die Untergründe durch bekannte Standardmodellprozesse sehr klein sind. Noch am bedeutendsten ist die Erzeugung von ZZ-Paaren und deren Zerfall in 4 hochenergetische Leptonen. Die Unterdrückung derartiger Ereignisse macht 54 44. Herbstschule für Hochenergiephysik Maria Laach 2012 sich die Tatsache zu Nutze, dass in diesem Fall Leptonenpaare im Endzustand vorliegen, deren invariante Masse an der Z-Resonanz liegt. Um gezielt Zerfälle supersymmetrischer Teichen zu selektieren und weiteren Untergrundausschluss zu erzielen werden zwei Signalregionen untersucht, die entweder eine hohe fehlende transversale Energie oder eine hohe effektive Masse fordern. Die verbleibenden Untergrundbeiträge in diesen hochselektiven Regionen abzuschätzen stellt eine Hauptherausforderung der Analyse dar. Im Vortrag wird die Analyse von 2011 mit dem ATLAS-Detektor aufgezeichneten Kollisionen mit einer integrierten Luminosität von 4.7 fb 1 präsentiert, mit besonderem Augenmerk auf die Untergrundabschätzung. E-26 (B) Zeitabhängige Analyse der CP-Verletzung im Kanal B 0 ! D CD KS0 bei Belle M ARTIN R ITTER Max-Planck-Institut für Physik, München Die Cabibbo-Kobayashi-Maskawa (CKM) Matrix beschreibt die CP -Verletzung im Standardmodell. Sie ist eine komplexe, unitäre 3 3 Matrix, welche die Mischung der Quarks beschreibt. Aus der Unitarität folgt, dass das Produkt zweier beliebiger Spalten verschwinden muss 0 1 0 10 1 0 jd i V Vus Vub jd i B C B ud CB C B 0 C B CB C B js i C D B Vcd Vcs Vcb C B jsi C ; @ A @ A@ A jb 0 i Vt d Vt s Vt b jbi „ ƒ‚ … CCKM X k Vi k Vjk D 0 : Die Bedingung kann durch Dreiecke in der komplexen Zahlenebene visualisiert werden. Alle drei Seiten und Winkel dieser Dreiecke können experimentell gemessen werden, wobei sich hier B-Mesonen besonders eignen, da im zugehörige Unitaritätsdreieck alle Seiten ähnlich groß sind. Für die Untersuchung der zeitabhängigen CP Asymmetrie ist es notwendig, die Zerfallszeit des B-Mesons zu bestimmen. Da die mittlere Lebenszeit des B-Mesons nur 1.5 ps beträgt, ist sie nicht direkt messbar, kann aber durch einen Boost in eine Flugstrecke übersetzt werden. Diese kann dann mit präzisen Vertexdetektoren gemessen werden kann. Der KEKB Beschleuniger in Japan ist ein asymmetrischer e C e Ringbeschleuniger der speziell für die Untersuchung der CP -Verletzung im System der B-Mesonen konzipiert wurde. Hierbei werden beim Zerfall der .4S/ Resonanz (10.58 GeV) kohärente B-Mesonen erzeugt. Von 1999 bis 2010 wurde so mit dem Belle Detektor eine integrierte Luminosität von 1 ab 1 (770 Millionen B BN Events) aufgezeichnet. Bis zum Jahr 2015 wird KEKB durch ein Upgrade (SuperKEKB) auf eine 40-fache instantane Luminosität (8 1035 cm 2 s 1 ) gesteigert werden. Entsprechend wird E. Experimentelle Analysen 55 0.6 0.5 η 0.4 excluded area has CL > 0.95 0.7 ∆md φ3 ∆md & ∆ms CKM εK fitter Winter 12 sin 2φ1 sol. w/ cos 2φ < 0 1 (excl. at CL > 0.95) φ 2 εK 0.3 φ 2 0.2 Vub 0.1 φ φ 0.0 -0.4 φ 3 1 2 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 ρ Abbildung E.5.: Unitaritätsdreieck im System der B-Mesonen der Belle-Detektor aufgerüstet (Belle II). Um möglichst präzise Messungen der Zerfalls-Vertizes für B-Mesonen bei den zu erwartenden Untergründen zu ermöglichen wird mit unserer Hilfe ein neuer Pixel Vertex Detektor für das Belle II Experiment entwickelt. Dieser Vortrag soll die Analyse des Zerfalles B 0 ! D C D KS0 vorstellen. Dieser Kanal erlaubt im Gegensatz zu vielen anderen Zerfällen nicht nur die Messung von sin 21 sondern auch von cos 21 , womit eine der Lösungen von 1 ausgeschlossen werden kann. Durch die hohe Anzahl an Zerfallskanälen und Endzuständen in diesem Kanal ist die Rekonstruktion allerdings sehr anspruchsvoll. N K C mit E-27 (C) Untersuchung des Zerfalls BN 0 ! C c pK dem BABAR Experiment M IRIAM H ESS Institut für Physik, Universität Rostock In dieser Analyse wurde der Zerfall BN 0 ! C N K C mit Hilfe des BABAR-Experiments unc pK tersucht. Das BABAR-Experiment stand am Stanford National Accelerator Center (Kalifornien, USA). Dort p wurden am PEP-II Speichering Elektronen und Positronen bei einer Schwerpunktsenergie von s 10:58 GeV zur Kollision gebracht. Hierbei entsteht die .4S/-Resonanz, die dominant in zwei B-Mesonen zerfällt. Während der Laufzeit des Experiments wurde mit dem BABAR-Detektor zwischen 2000 und 2007 eine integrierte Luminosität von 424 fb 1 aufgezeichN net. Dies entspricht der Erzeugung von 471 106 B B-Paaren. 0 C C C Der Zerfall BN ! c pK N K , wobei c ! pK C , wurde anhand seiner stabilen Zerfallsprodukte, der Protonen, Kaonen und einem Pion, rekonstruiert. Die Anzahl der zerfallenen neutralen B-Mesonen wurde mit Hilfe eines zweidimensionalen Fits in der Ebene der invarian- 56 44. Herbstschule für Hochenergiephysik Maria Laach 2012 ten B-Masse und einer zweiten unabhängigen Variablen mE S ermittelt. Hierdurch konnte der Zerfall BN 0 ! C N K C beobachtet werden. Es gibt einen nicht signifikanten Hinweis für c pK den resonanten Unterkanal BN 0 ! C N der über die ! K K C Resonanz zerfällt. c p, Dieser ist von besonderem Interesse, da viele Drei-Körper-Zerfälle eine Anreicherung für kleine Baryon-Antibaryon Massen nahe der Schwelle zeigen. Auch in Mehr-Körper-Zerfällen kann diese Anreicherung beobachtet werden. Das Auftreten solch einer Schwellenanreicherung kann nur durch phänomenologische Modelle erklärt werden. Daher ist es wichtig diese durch neue Untersuchungen verschiedener Zerfälle zu verifizieren. E-28 (A) Spurrekonstruktion in der Vorwärtsrichtung des ILD ROBIN G LATTAUER Institut für Hochenergiephysik der ÖAW Gegenwärtig ist der Large Hadron Collicer (LHC) am CERN (Genf, Schweiz) auf der Suche nach dem Higgs-Teilchen (oder einem alternativen symmetriebrechenden Mechanismus) sowie anderer neuer Physik. Um die betroffenen Energiebereiche genauer untersuchen zu können (z. B. mit geringerem Hintergrund und schärfer definierter Kinematik) wären Leptonenkollisionen von Vorteil. Diese sind am LHC aber nicht in der benötigten Energie durchführbar, da der Energieverlust durch Synchrotronstrahlung (invers proportional zur 4. Potenz der Masse) wesentlich zu hoch wäre. Aus diesem Grund bieten sich Linearbeschleuniger an um die TeV Physik näher zu beleuchten und Ergebnisse des LHC präziser vermessen zu können. Die zwei bedeutendsten Anwärter sind der ILC (International Linear Collider) und der CLIC (Compact Linear Collider). Beide Beschleuniger teilen sich gegenwärtig die Detektorkonzepte, so auch den so genannten International Large Detector (ILD). Zentraler Bestandteil bei der Rekonstruktion von Events im ILD ist die Suche nach den Teilchenspuren. Dies wird durch eine Kombination einer TPC (Time Projection Chamber) und mehrerer Silizium Detektoren realisiert. Die Spuren in der Vorwärtsrichtung (jene in der Gegend des Strahlrohrs) werden vom so genannten Forward Tracking Detector (FTD) abgedeckt. Die Abbildung E.6.: Schnitt durch den ILD. Schwierigkeit besteht nun darin, in den Hits auf den Sensoren des Detektors die wahren Teilchenspuren wiederzuerkennen. Die geringe Anzahl an möglichen Hits pro Spur und der Hintergrund E. Experimentelle Analysen 57 (e.g. Paarbildung durch Photonen) erschweren die Aufgabe wesentlich. Algorithmen zur Rekonstruktion von Spuren müssen schnell sein, dürfen nicht zu viele echte Spuren verlieren und sollten falsche Spuren weitestgehend ausschließen können. Dafür wird für den ILD eine Kombination aus drei Algorithmen angewandt: Der Zelluläre Automat: Dieser sehr vielseitige Basisalgorithmus kann spezialisiert und adaptiert werden, um Teilchenspuren aufzufinden und dabei möglichst viel Information möglichst früh einfließen zu lassen und so den kombinatorischen Hintergrund zu unterdrücken. Der Kalman Filter: Wird verwendet um die Spuren zu fitten. Durch die Nutzung der kompletten Information einer Spur und die Mitberücksichtigung von Vielfachstreuung und Energieverlust wird er zum optimalen Fitter für die Hochenergiephysik. Für das Suchen von Spuren liefert er einen wichtigen Indikator für Qualität: die 2 - Wahrscheinlichkeit. Das Hopfieldsche Neuronale Netz: Am Ende der Rekonstruktion von Spuren steht man oft vor dem Problem, dass man zu viel“ gefunden hat und es Inkompatibilitäten gibt, i.e. ” Spuren, die sich gegenseitig (höchstwahrscheinlich) ausschließen. Dann ist es nötig ein optimales Subset zu finden, das einerseits vollständig kompatibel ist, andererseits auch eine möglichst hohe Qualität aufweist. Dieses Problem kann durch eine Variante des Hopfieldschen Neuronalen Netzes gelöst werden. T. Theorie T-1 (A) Beiträge skalarer und pseudoskalarer Bosonen zur t tNProduktion am LHC P ETER G ALLER Institut für Physik, HU Berlin Eine wichtige Motivation für den Errichtung des Large Hadron Colliders (LHC) ist die Suche nach dem Mechanismus der elektroschwachen Symmetriebrechung, also dem Mechanismus, welcher den Wechselwirkungsteilchen der schwachen Wechselwirkung (W - und Z-Bosonen) ihre Massen gibt. Im Rahmen des Standardmodells (SM) der Elementarteilchen ist dieser Mechanismus mithilfe eines Skalars, des Higgsbosons, realisiert. Das Higgsboson ist jedoch das einzige vom SM vorhergesagte Elementarteilchen, welches bisher (Stand Juni 2012) noch nicht nachgewiesen werden konnte. Neben seinen symmetriebrechenden Eigenschaften ist das SM-Higgs, wie schon erwähnt, außerdem noch ein elementares Skalar und damit das einzige dieser Art im SM. Alle anderen Teilchen haben entweder die Spinquantenzahl s D 21 (Materieteilchen) oder s D 1 (Wechselwirkungsteilchen). Es entsteht also die Frage, ob diese Teilchenart überhaupt in der Natur realisiert ist. Im SM selbst gibt es außer der elektroschwachen Symmetriebrechung noch andere Hinweise, dass Skalare existieren könnten. So verhindert z. B. der Austausch von Skalaren bei der Streuung von W -Bosonen aneinander die Verletzung der Unitarität. Aber auch in Theorien jenseits des SM gibt es theoretisch sehr gut motivierte Kandidaten für Skalare. Es existieren z. B. Modelle, in denen die Isotropie des kosmischen Mikrowellenhintergrunds durch eine Phase beschleunigter Ausdehnung des Universums, der sogenannten Inflation, erklärt wird. Diese Inflation wird dabei durch ein skalares Feld, das Inflaton, getrieben. Auch die dunkle Energie, welche rund 70% der Energiedichte des Universums ausmacht, könnte durch Skalare erklärt werden. Die Suche nach elementaren Skalaren ist also sowohl phänomenologisch als auch konzeptionell spannend, denn einerseits sollen mit der experimentellen Suche nach Skalaren (dem Higgs) Lücken im SM geschlossen werden und anderseits stellen sie aus theoretischer Sicht sowohl im SM als auch in dessen Erweiterungen interessante Objekte dar. In diesem Vortrag geht es um die Untersuchung der phänomenologischen Auswirkungen eines schweren Skalars auf die t tN-Produktion in nächstführender Ordnung (NLO) der starken Kopplungskonstanten ˛s . Das untersuchte Spin-0-Boson soll eine Masse von m > 2m t (m t Topquarkmasse) besitzen und elektrisch neutral sein. Die Kopplung an Fermionen ist, wie beim SM-Higgs, proportional zur Fermionenmasse. Aus diesem Grund ist die Kopplung an Topquarks, die schwersten bekannten Elementarteilchen, besonders groß. Dadurch ist der Zerfall des Skalars in Topquarks stark bevorzugt (hohe braching ratio) und liefert deshalb den größten Beitrag und das stärkste Signal im Experiment. Außerdem ist das t tN-System theoretisch sehr gut verstanden und eignet sich u. a. deshalb auch zur Untersuchung Neuer Physik“ im skalaren Sektor. ” T. Theorie 59 Ein zentraler Punkt dieser phänomenologischen Studie ist die Untersuchung unterschiedlicher Kopplungsarten des Skalars. Dabei werden skalare und pseudoskalare Kopplung unterschieden und so parametrisiert, dass in der Berechnung von Observablen die volle Kontrolle über die jeweilige Kopplungsstärke beibehalten wird. Zur Untersuchung der Kopplungsart ist die Wahl geeigneter Observablen wichtig. So sind z. B. spinabhängige Observablen besonders sensitiv auf pseudoskalare Kopplung. Zur Berechung dieser Observablen wird die volle Spininformation des t tN-Paares benötigt, welche man mit Hilfe des Spindichtmatrixformalismus extrahieren kann. Das t tN-System ist besonders für diese Analyse prädestiniert, da das Topquark aufgrund seiner hohen Masse zerfällt, bevor es hadronisieren kann und damit seine Spininformation an die Zerfallsprodukte weitergibt. Diese Spininformationen, wie z. B. Polarisation oder Spinkorrelationen, lassen sich dann in Form von Winkelverteilungen der Zerfallsprodukte extrahieren. Higgsproduktion und -zerfall in Topquarks wurden bereits einzeln zu höheren Ordnungen in der QCD berechnet doch die Berechnung der spinabhängigen Observablen existiert nur zu führender Ordnung (LO). Eine Untersuchung der Skalenabhängigkeit des LO-Ergebnisses zeigt eine Unsicherheit von 20-30%, wenn man die Faktorisierungs- und Renormierungsskala zwischen D 2m t und D 0:5m t variiert. Diese Unsicherheit ist vor allem der starken -Abhängigkeit von ˛s anzurechnen. In nächstführender Ordnung wird diese Abhängigkeit teilweise kompensiert bzw. reduziert. Dadurch liefert das NLO-Ergebnis eine höhere Genauigkeit und damit eine bessere Aussagekraft. Der Vortrag beginnt zunächst mit einen kurzen Überblick über die Ergebnisse der führenden Ordnung. Danach werden wesentlichen Aspekte und Schritte der Rechnung zur nächstführenden Ordnung erläutert. Schließlich werden die Resultate präsentiert. T-2 (B) Modellunabhängiger Ansatz für ! C und 0 ! C F ELIX S TOLLENWERK Institut für Physik, HU Berlin Bei den Strahlungszerfällen ! C und 0 ! C gibt es eine signifikante Abweichung zwischen Messungen und den Vorhersagen der Chiralen Störungstheorie (ChPT). Der hauptsächliche Grund dafür ist die nichtperturbative Endzustandswechselwirkung, welche universell im Pion (Vektor-)Formfaktor FV .s / erfasst werden kann. Die analytischen Eigenschaften dieses Formfaktors lassen sich in einer Dispersionsrelation ausdrücken, deren Lösung FV .s / D exp 1 s hr 2 i 6 s2 C 1 ı11 .s/ ds 2 s .s s i/ 4m2 Z (T.1) lautet. Hierbei ist s die invariante Masse der Pionen zum Quadrat, während hr 2 i und ı11 .s/ den mittleren quadratischen Ladungsradius des Pions bzw. die elastische Streuphase im VektorIsovektor-Kanal bezeichnen. Einerseits fixiert Glg. (T.1) den Formfaktor nur bis auf eine multiplikative Funktion ohne rechtshändige Schnitte in der komplexen s -Ebene. Andererseits weist die Zerfallsamplitude (bis auf einen 44. Herbstschule für Hochenergiephysik Maria Laach 2012 |FV(sππ)| 2 60 10 1 -0,2 0 0,2 0,4 0,6 0,8 1 2 sππ [GeV ] Abbildung T.1.: Das rote Band zeigt den Formfaktor gemäß Glg. (T.1), die blaue gestrichene Linie das 1–loop ChPT Ergebnis. Der kurze (lange) schwarze Strich zeigt den kinematischen Bereich von s im Zerfall von (0 ) an. von crossed channels herrührenden linkshändigen Schnitt, der jedoch kinematisch und chiral unterdrückt ist) die gleiche analytische Struktur wie FV .s / auf. Daher können wir die Amplitude gemäß d jA P .s / FV .s /j2 (T.2) ds faktorisieren und P .s / in eine Taylorreihe um s D 0 entwickeln: P .s / D 1 C ˛ .0/ s C O s2 ; (T.3) wobei ˛ und ˛ 0 die zu den jeweiligen Zerfällen von bzw. 0 gehörigen Parameter sind. Wenn wir davon ausgehen, dass der universelle Teil FV .s / alle nichtperturbativen Effekte einschließt, sollte der reaktionsspezifische Teil A P .s / perturbativ betrachtet werden können. In der Tat zeigt sich, dass bereits ein lineares Polynom (T.3) mit ˛ D .1:96 ˙ 0:27 ˙ 0:02/ GeV 0 ˛ D .1:80 ˙ 0:49 ˙ 0:04/ GeV 2 2 I (T.4) ausreicht, um spektrale Zerfallsdaten zu beschreiben, siehe Abb. T.2. Die postulierte Zerfallsamplitude (T.2) kann – nach Ersetzung von FV .s / durch den 1–loop ChPT Formfaktor – mit der 1–loop ChPT Amplitude gleichgesetzt werden. Dann ist den Parametern ˛ .0/ jeweils die Niederenergiekonstante a2 in ChPT zugeordnet, und man erhält aus (T.4): a2 D 9:70 ˙ 0:7 I 0 a2 D 9:23 ˙ 1:4 (T.5) Die Verträglichkeit dieser beiden Werte bestätigt die Richtigkeit der Annahme, dass der Formfaktor den einzigen nichtperturbativen Teil der Amplitude ausmacht. Der modellunabhängige Ansatz aus Glg. (T.2) stellt damit einen kontrollierten Weg zur Entflechtung von perturbativen und nichtperturbativen Effekten da und erlaubt es, perturbative Rechnungen in die kinematische Resonanzregion auszuweiten. Er kann allgemein angewendet werden zur Analyse von Strahlungszerfällen von Mesonen in ein Vektor-Isovektor Pionenpaar, dessen invariante Masse unterhalb der ersten signifikanten Schwelle im Vektorkanal liegt. 8 7 6 5 4 3 2 1 0 61 20 dΓ/dEγ [arb. units] dΓ/dEγ [arb. units] T. Theorie 15 10 0 0.05 0.1 0.15 Eγ [GeV] 0.2 5 0 0 0.1 0.2 Eγ [GeV] 0.3 0.4 Abbildung T.2.: Experimentelle Daten und fehlergewichtete Fits für (links) und 0 (rechts) nach C unter Verwendung von Glg. (T.2) und (T.3) mit s D m.0/ .m.0/ 2E /. T-3 (C) W=Z=-Produktion bei grossem pT in SCET S TEFANIE M ARTI Institut für Theoretische Physik, Universität Bern Die Produktion eines elektroschwachen Bosons, gefolgt von dessen Zerfall in ein Leptonen-Paar, ist einer der häufigsten harten Streuprozesse in Hadronenbeschleunigern. Inzwischen wurden am Large Hadron Collider (LHC) bereits Millionen von W - und Z-Bosonzerfällen in LeptonenPaare aufgezeichnet. Diese Daten ermöglichen Präzisionsmessungen auch bei grossem transversalem Impuls pT des Bosons. Da elektroschwache Bosonen mit großem pT einerseits einen wichtigen Hintergrund bei der Suche nach Neuer Physik“ darstellen, und andererseits zum Ka” librieren von Jet-Energie-Skalen benutzt werden, ist es wichtig, eine gute theoretische Kontrolle über den Wirkungsquerschnitt in dieser Region zu haben. Die vollständigen O.˛s2 /-Korrekturen zur Vektorboson-Produktion sind bekannt. Da das pT Spektrum erst bei O.˛s / beginnt, liefern diese allerdings nur die NLO-Korrekturen für die Vektorboson-Produktion bei großem pT . Zwar sind die virtuellen Korrekturen für die Produktion von elektroschwachen Bosonen in Verbindung mit einem Jet seit einiger Zeit auch auf NNLO bekannt, aber die Korrekturen für die reellen Emissionen fehlen. Letztere sind zwar im Allgemeinen kompliziert, vereinfachen sich aber nahe der partonischen Schwelle. An dieser Schwelle ist der transversale Impuls pT des Bosons nahe der Hälfte der partonischen Schwerpunktsenergie und der hadronische Endzustand besteht aus einem einzigen Jet mit kleiner invarianter Masse. Sämtliche reellen Abstrahlungen sind somit entweder soft oder kollinear zum Jet oder den eingehenden Hadronen. Für große pT dominieren diese Korrekturen und auch ausserhalb dieser Region liefern diese Terme eine gute Näherung an den vollen Wirkungsquerschnitt. Aufgrund der soften und kollinearen Strahlung enthält der Wirkungsquerschnitt große Logarithmen, die zu allen Ordnungen in der Störungstheorie resummiert werden müssen. Diese Resummation kann man in einer effektiven Theorie, der Soft-Collinear Effective Theory (SCET), durchführen. Nahe der partonischen Schwelle faktorisiert der partonische Wirkungsquerschnitt für einen gegebenen partonischen Anfangszustand I in eine harte Funktion mal die Faltung einer Jet- und 62 44. Herbstschule für Hochenergiephysik Maria Laach 2012 einer soften Funktion: d O I D IB .Os ; tO/HI .Os ; tO; MV ; / d sO d tO Z d kJI .mX2 2EJ k/SI .k; / ; (T.6) wobei sO D .p1 C p2 /2 und tO D .p1 q/2 die partonischen Mandelstam-Variablen sind und q der Impuls des Vektorbosons mit q 2 D MV2 . Die partonischen Impulse p1 und p2 tragen die Impulsanteile x1 und x2 der hadronischen Impulse, p1 D x1 P1 und p2 D x2 P2 . An der partonischen Schwelle verschwindet die Masse des ausgehenden Jets mX2 D .p1 Cp2 q/2 D 0. Nahe dieser Schwelle ist kein Phasenraum mehr übrig für zusätzliche harte Strahlung und die einzigen Korrekturen des Wirkungsquerschnitts stammen aus virtuellen Korrekturen, welche in der harten Funktion HI .Os ; tO; MV ; / enthalten sind und den soften und kollinearen Emissionen, gegeben durch SI .k; / und JI .pJ2 /. In meinem Vortrag werde ich die SCET-Faktorisierungsformel (T.6) kurz herleiten und die Berechnung der soften Funktion auf NNLO skizzieren. Weiter werde ich die wichtigsten Punkte der Berechnung der Jet- und der harten Funktion erläutern und die Lösung der entsprechenden Renormierungsgruppen-Gleichungen vorstellen. Schließlich können alle Zutaten zu der resummierten Korrektur in NNNLL-Näherung (next-to-next-to-next-to leading log) zusammengefügt werden. T-4 (A) Effektive Modelle für Dunkle Materie am ILC DANIEL S CHMEIER Physikalisches Institut, Universität Bonn Viele astrophysikalische Beobachtungen könnten durch die Existenz massiver Teilchen mit nur schwacher Wechselwirkung, so genannter Dunkle Materie, zufriedenstellend erklärt werden. Da das Standardmodell (SM) keinen Kandidaten für ein solches Teilchen liefert, wird zur Zeit in verschiedenen Experimenten nach möglichen Erweiterungen des Standardmodells gesucht. Die üblicherweise hohe Anzahl an Freiheitsgraden in solchen fundamentalen Theorien erlaubt jedoch häufig nur Analysen in spezifischen Parameterbereichen. Die Verwendung effektiver Theorien ermöglicht es, mit einfachen Vertizes und wenigen Parametern die essentiellen Wechselwirkungsmechanismen zu beschreiben: Wir unterscheiden hierbei Spin, Masse und die Kopplung der Dunklen Materie an Standardmodell-Fermionen und leiten verschiedene effektive Vier-Teilchen-Vertizes zwischen je zwei Standardmodell- und zwei Dunkle-Materie-Teilchen her. Diese Vertizes hängen jeweils nur noch von einer Kopplungskonstante Geff sowie der Masse der Dunklen Materie ab. max Für diese Modelle bestimmen wir die maximale Kopplungsstärke Geff , die am International Linear Collider (ILC) durch Messung der Photonen im Prozess e C e ! N ausgeschlossen werden könnte. Die fehlenden QCD-Unsicherheiten eines Elektron-Positron-Kolliders, die gegenüber vorherigen Experimenten erhöhte Strahlenergie und die Polarisierbarkeit der einfallenden Leptonen lassen gute Resultate für eine Messung am ILC im Vergleich mit vorherigen Experimenten vermuten. Für den Signalprozess und die dominierenden Untergrundprozesse ./ N und e C e simup lieren wir Ereignisse bei einer Strahlenergie von s D 500 GeV und parametrisieren die Detektorantwort mit einer integrierten Luminosität von 500 fb 1 . Wir bestimmen statistische und T. Theorie 63 systematische Unsicherheiten in der Untergrunderwartung und schließen für jedes Modell Kopplungskonstanten aus, die zu einer höheren Signalstärke führen als diese Gesamtfluktuation. Dabei verwenden wir für jedes Modell die Eingangspolarisation mit dem bestzuerwartenden Ergebnis. Im Vortrag werden die einzelnen Modelle vorgestellt und Details über die Ereigniserzeugung und Detektorparametrisierungen erläutert. Der Einfluss der Eingangspolarisation und der systematischen Unsicherheiten auf das Ergebnis wird diskutiert und dieses schließ lich mit anderen Experimenten verglichen. T-5 (B) NLO QCD Korrekturen zur Produktion von W C Endzuständen am LHC M ARKUS H ECHT Physikalisches Institut, Universität Freiburg Die Produktion von W C Endzuständen am Large Hadron Collider (LHC) ist ein wichtiger Prozess für die Suche nach Neuer Physik“. Neue physikalische Effekte könnten sich in der ” Kopplung zwischen Photon und W -Boson in Form von sogenannten Annomalen Kopplungen zeigen. Des weiteren ist die Produktion von W C Paaren ein wichtiger Hintergrundprozess für die Suche nach Neuer Physik“. Schließlich erlaubt die Messung von Distributionen eine präzise ” Bestimmung der Eichboson-Kopplungen und der Eichboson-Massen. Um mit diesen Messungen das Standardmodell zu testen, werden ebenso präzise theoretische Vorhersagen benötigt. Zwar wurden bereits einige Korrekturen in NLO QCD berechnet, jedoch wurde in diesen Berechnungen das leptonisch zerfallende W Boson immer in der sogenannten narrow-width“ Approxima” tion behandelt. In diesem Vortrag wird die Berechnung der NLO QCD Korrekturen behandelt, wobei keine Näherungen verwendet werden. Das heißt, es werden auch jene Fälle berücksichtigt, in denen das W -Boson nicht auf seiner Massenschaale ist. Um dies konsistent zu beschreiben, wird das sogenannte complex-mass-scheme“ verwendet. ” Bei der Berechnung der reellen Korrekturen treten Infrarot (IR)-Divergenzen auf. Diese werden teilweise kompensiert durch IR Divergenzen, die in den virtuellen Korrekturen auftreten. Die übrigen divergenten Terme können durch eine Neudefinition der Partondichten kompensiert werden. Die Schwierigkeit besteht darin die Divergenzen aus den reellen Korrekturen zu extrahieren. Da die reellen und die virtuellen Korrekturen über unterschiedliche Phasenräume integriert werden, kann man die Kompensation der Divergenzen nicht einfach analytisch berechnen. Deshalb wird der Subtraktionsformalismus verwendet. Dabei wird eine Subtraktionsfunktion von den reellen Korrekturen abgezogen. Diese Funktion hat die Eigenschaft, dass sie die IR Divergenzen der reellen Korrekturen kompensiert. Gleichzeitig wird diese Funktion wieder addiert, wodurch man am Gesamtergebnis nichts ändert. Nun wird die zurück addierte Subtraktionsfunktion über den divergenten Einteilchenphasenraum analytisch integriert und die Divergenz aus der virtuellen Korrektur kann analytisch kompensiert werden. Wie oben bereits erwähnt, bleibt eine kollineare Divergenz übrig. Diese kommt von Partonen im Endzustand, die von einlaufenden Partonen kollinear abgestrahlt wurden. Eine Neudefinition der Partondichten kompensiert die übrig gebliebene Divergenz schließlich. Ein weiteres Problem tritt auf wenn das Photon und ein Jet kollinear abgestrahlt werden. Falls 64 44. Herbstschule für Hochenergiephysik Maria Laach 2012 der Jet aus einem Quark entstanden ist, tritt eine kollineare Divergenz auf. Würde man die kollineare Divergenz inklusiv behandeln, müsste die Kombination aus den beiden Prozessen W CJet und W C berechnet werden. Um dies zu vermeiden wird der Anteil der Photon Energie innerhalb des Jets verwendet, um zwischen den beiden Prozessen zu unterscheiden. Die kollineare Divergenz kann dann kompensiert werden durch eine Quark-Photon Fragmentationsfunktion. Als alternative zur Quark-Photon Fragmentationsfunktion kann man auch einen Frixione Schnitt verwenden. Es werden numerische Ergebnisse (totale Wirkungsqueerschnitte und verschiedene Distributionen) unter Verwendung beider Methoden präsentiert und verglichen. Desweiteren werden unsere numerischen Ergebnisse verglichen mit Ergebnissen, die mit dem Monte-CarloProgramm MCFM generiert wurden. T-6 (C) Interferenzeffekte im MSSM in einer verallgemeinerten Narrow-Width Approximation E LINA F UCHS DESY Sowohl theoretische Argumente als auch experimentelle Befunde deuten darauf hin, dass das Standardmodell (SM) der Teilchenphysik keine vollständige Theorie darstellen kann. Eine mögliche und vielversprechende Erweiterung ist Supersymmetrie (SUSY), die jedem SM-Teilchen ein im Spin verschiedenes supersymmetrisches Partnerteilchen zuordnet und mit einem zweiten Higgs-Dublett den Higgs-Sektor vergrößert. Aufgrund des erweiterten Teilchenspektrums im Minimalen Supersymmetrischen Standardmodell (MSSM) können typischerweise lange Zerfallsketten auftreten, deren volle Berechnung aufwendig oder sogar bisher unmöglich ist. Die Näherung schmaler Breiten (NWA, narrow-width approximation) erlaubt unter gewissen Voraussetzungen, einen komplizierteren Prozesses in die Produktion eines instabilen Teilchens auf seiner Massenschale und den anschließenden Zerfall mittels Multiplikation mit dem entsprechenden Verzweigungsverhältnis zu faktorisieren und damit mehrstufige Prozesse in einfachere Unterprozesse zu zerlegen. Dies basiert auf der Faktorisierung des Matrixelements und des Phasenraums in einen Produktions- und Zerfallsanteil. Wenn jedoch die Massendifferenz zweier instabiler Teilchen, die zum Prozess beitragen, eine der beiden totalen Zerfallsbreiten unterschreitet, ist der Überlapp der Breit-Wigner-Funktionen im Interferenzterm nicht vernachlässigbar. Daher verliert die gewöhnliche NWA ihre Gültigkeit im Fall von Interferenzen zwischen quasi massenentarteten Teilchen, da Interferenzterme im quadrierten Matrixelement ausgelassen werden. Beispielsweise können große Interferenzeffekte zwischen den Beiträgen der Higgs-Bosonen des MSSM auftreten, die im untersuchten Fall im Zerfall eines schweren Neutralinos entstehen und anschließend in -Leptonen zerfallen. Eine verallgemeinerte NWA wird untersucht, die die Berücksichtigung eines Interferenzterms – analog zur gewöhnlichen NWA – in einer onshell-Näherung ermöglicht. Während die gewöhnliche NWA stark von der exakten Zerfallsbreite abweicht, gelingt es, mit Hilfe der verallgemeinerten NWA inklusive Interferenzterm das volle Ergebnis mit einer Genauigkeit von wenigen Prozent anzunähern. T. Theorie 65 Zusätzlich werden Ein-Schleifen-Korrekturen berücksichtigt, wobei der Neutralino-Sektor in eiN nem on-shell-Schema und der Higgs-Sektor in einem kombinierten on-shell- und DR-Schema renormiert werden. Diese Methode erlaubt unter Ausnutzung der Vereinfachung durch Faktorisierung in Produktion und Zerfall, Korrekturen höherer Ordung in Teilprozessen mit einer konsistenten Vorhersage für den Interferenzterm zu verbinden und die Vorhersage in der verallgemeinerten NWA mit dem vollen Dreikörperzerfall auf dem Ein-Schleifen-Niveau zu vergleichen. Dieses Verfahren kann sich als nützlich erweisen in der Anwendung auf kompliziertere Prozesse, für die die Faktorisierung in verschiedene Unterprozesse essentiell ist, um die Berechnung von Beiträgen höherer Ordnung zu ermöglichen. T-7 (A) Higgspaarproduktion in Composite Higgs Modellen R AMONA G R ÖBER Institut für Theoretische Physik, KIT Eines der Hauptziele des Large Hadron Collider (LHC) ist es, den Mechanismus der elektroschwachen Symmetriebrechung zu enthüllen und damit den Ursprung der Eichbosonenmassen sowie der Fermionmassen zu ergründen. Im Standardmodell (SM) geschieht dies mithilfe eines einzigen komplexen Skalarfelds, welches unter der SU.2/-Symmetrie der SM Eichgruppe als Dublett transformiert. Dieses Feld hat vier Freiheitsgrade. Drei dieser Freiheitsgrade gehen über in longitudinale Polarisationszustände der massiven Eichbosonen, ein Freiheitsgrad bleibt übrig und zeigt sich als physikalisches Teilchen – das Higgsboson. An den Experimenten ATLAS und CMS wurde vor kurzem ein Überschuss an Daten beobachtet, der mit der Hypothese eines SM-artigen Higgsbosons bei 124 126 GeV vereinbar ist. Eine Entdeckung konnte jedoch noch nicht verkündet werden. Sollte das Higgsboson allerdings gefunden werden, so muss zunächst noch überprüft werden, ob dieses Higgsboson sich in der Tat so verhält wie vom SM vorhergesagt oder ob andere Modelle jenseits des SM sein Verhalten besser erklären können. Gerade im Higgssektor könnte es Hinweise für Physik jenseits des SM geben, da das SM Higgsboson als skalares fundamentales Teilchen, große Massenkorrekturen bekommt, die quadratisch im Abschneideparameter sind. Sollte das SM bis zur Planck-Skala gültig sein, würde dies ein großes Maß an Feinabstimmung benötigen, um die Higgsmasse auf einen Wert an der elektroschwachen Symmetriebrechungsskala festzulegen. Ein Beispiel für Modelle, die dieses Problem beheben, sind Composite Higgs Modelle, in denen das Higgsboson kein fundamentales Teilchen mehr ist sondern ein zusammengesetztes Teilchen eines stark wechselwirkenden Sektors. Analog zum Pion in der Quantenchromodynamik ist das Higgsboson ein Pseudo-Nambu-Goldstone-Boson, was bedeutet, dass das Higgsboson als Goldstoneboson des stark wechselwirkenden Sektors auftritt, das als solches masselos in alle Ordnungen Störungstheorie wäre. Die zugrunde liegende Symmetrie ist aber keine exakte Symmetrie, also explizit durch Terme in der Lagrangedichte gebrochen. Dadurch bekommt das Higgsboson durch Schleifen von SM Fermionen und Eichbosonen eine Masse. Terme, die die Symmetrie explizit brechen, sind in Composite Higgs Modellen lineare Kopplungen von SM Fermionen an den stark wechselwirkenden Sektor. Solche Modelle können auf einer fünfdimensionalen Antide-Sitter Raumzeit realisiert werden, jedoch ist eine effektive vierdimensionale Beschreibung einfacher. Um die große Top-Quark-Masse zu erklären, ist es natürlich, anzunehmen, dass das 66 44. Herbstschule für Hochenergiephysik Maria Laach 2012 Top-Quark eine Mischung zwischen einem masselosen fundamentalen Top-Quark ist und Topartigen Fermionen des stark wechselwirkenden Sektors. In realistischen Modellen sind diese Top-Partner relativ leicht und damit unterhalb des Abschneideparameters der effektiven Theorie. Um den Mechanismus der elektroschwachen Symmetriebrechung zu verstehen, reicht das Auffinden des Higgsbosons allein nicht aus. Es müssen außerdem sämtliche Kopplungen gemessen werden, im Besonderen auch die Higgs-Selbstkopplungen, mit deren Hilfe dann das Higgspotential rekonstruiert werden kann. Higgspaarproduktion erlaubt hierbei die Bestimmung der trilinearen Higgskopplung. Am LHC ist Higgspaarproduktion durch Gluonfusion der dominante Prozess. Er wird über Schleifen schwerer Fermionen vermittelt. Im SM sind das v. a. Top-Quarks; Bottom-Quarks liefern schon deutlich niedrigere Beiträge. In Composite Higgs Modellen kommen – erlaubt man Top-Partner unterhalb des Abschneideparameters – deren Beiträge noch dazu. Diese können in Higgspaarproduktion einen großen Einfluß auf den Wirkungsquerschnitt haben, wohingegen in der Produktion eines einzelnen Higgsbosons der Wirkungsquerschnitt nicht vom Spektrum dieser Partner abhängt. In meinem Vortrag werde ich Wirkungsquerschnitte für Higgspaarproduktion am LHC präsentieren und auf den Einfluss von Top-Partnern eingehen. T-8 (B) B.BN ! Xs / in 2-Higgs-Dublett-Modellen T HOMAS H ERMANN Institut für Theoretische Teilchenphysik, KIT Neben der direkten Suche nach Neuer Physik“ am Large Hadron Collider (LHC) ist es ebenso ” wichtig, durch Präzissionsmessungen in Kombination mit Präzissionsrechnungen nach Abweichungen vom Standardmodell zu suchen. Der inklusive Zerfall BN ! Xs eignet sich hierbei besonders gut, da der Zerfall schon im Standardmodell durch eine Schleife induziert wird und damit sehr sensitiv auf Physik jenseits des Standardmodells ist. Außerdem wurde der Zerfall durch mehrere Experimente sehr genau bestimmt, wobei der aktuelle experimentelle Messwert für das Verzweigungsverhältnis .B/ bei ˇ B.BN ! Xs /ˇ D .3:55 ˙ 0:24 ˙ 0:09/ 10 4 E >1:6 GeV liegt. Die Standardmodellvorhersage ist bis zur nächst-nächst-führenden Ordnung (NNLO) bekannt, ˇ B.BN ! Xs /ˇ D .3:15 ˙ 0:23/ 10 4 : E >1:6 GeV In den 2-Higgs-Dublett-Modellen gibt es im Vergleich zum Standardmodell ein weiteres HiggsDublett, welches zu weiteren skalaren Freiheitsgraden führt. Das hierbei auftretende geladene Higgs-Boson (H ˙ ) liefert durch die Kopplung zwischen up-artigen und down-artigen Quarks Beiträge zum Zerfall b ! s . Das besondere Interesse an BN ! Xs in Kombination mit 2-Higgs-Dublett-Modellen kommt daher, dass im Type II Modell diese Observable für moderate tan ˇ Werte die stärkste untere Grenze für die geladene Higgs-Masse mit MH C & 300 GeV (95% CL) liefert. Die Rechnungen für BN ! Xs werden innerhalb einer effektiver Theorie durchgeführt in der die schweren Teilchen (W ˙ , t , H ˙ ) ausintegriert werden und die Wechselwirkungen dieser Teilchen in Form von höherdimensionalen Operatoren auftreten. Dadurch ist es möglich die großen T. Theorie 67 Logarithmen konsistent aufzusummieren. In den Kopplungskonstanten der höherdimensionalen Operatoren, den sogenannten Wilson-Koeffizienten, steckt die gesamte Physik der schweren Teilchen. In Theorien jenseits des Standardmodells mit zusätzlichen schweren Teilchen ändern sich deswegen nur die Wilson-Koeffizienten. In diesem Vortrag werde ich die Berechnung der NNLO QCD-Korrekturen der Wilson-Koeffizienten für 2-Higgs-Dublett-Modelle beschreiben. Dazu war es nötig Drei-Schleifen Vakuum Diagramme mit zwei verschiedenen Massenskalen (M t und MH ˙ ) zu berechnen. Mit diesen Ergebnissen für die Wilson-Koeffizienten ist es nun möglich ein konsistentes NNLO Ergebnis für das Verzweigungsverhältnis anzugeben. Im Vergleich zu bisherigen Ergebnissen konnte die Unsicherheit der sogenannten Matchingskala reduziert werden, was zu einer Stabilisierung für die untere Grenze der Masse des geladenen Higgs-Bosons führt. T-9 (C) Colour-Reconnection im Ereignisgenerator H ER WIG ++ C HRISTIAN R ÖHR Institut für Theoretische Physik, KIT Monte-Carlo-Ereignisgeneratoren spielen eine bedeutende Rolle in der Collider-Physik. Sie werden benötigt, um, ausgehend von Feldtheorien, Teilchenkollisionen zu simulieren. So ist es möglich, Ergebnisse von Messungen an Teilchenbeschleunigern wie dem Large Hadron Collider (LHC) zu verstehen und die zugrundeliegenden Theorien zu überprüfen. Die Simulation von Hadron-Kollisionen in einem Ereignisgenerator findet in mehreren Schritten statt. In der Regel wird zunächst auf der Basis störungstheoretischer Berechnungen eine 2 ! 2– Wechselwirkung zweier Partonen, also (Anti-)Quarks oder Gluonen, erzeugt. Wichtige Beiträge höherer Ordnungen der Störungsentwicklung werden daraufhin im Parton-Schauer näherungsweise berücksichtigt. Typischerweise entstehen dadurch Bündel von Partonen (Jets). Aus diesen Parton-Jets werden mit Hilfe phänomenologischer Hadronisierungs-Modelle hadronische Endzustände erzeugt. Diese Simulationsschritte reichen aber nicht aus, um wichtige an Hadron-Collidern beobachtete Phänomene zu beschreiben. Beispielsweise enthalten Events mit harten (also transversalimpulsreichen) Jets immer zusätzliche weichere Jets, und zwar weitgehend unabhängig von Transversalimpuls und Richtung der harten Jets. Diese zusätzliche hadronische Aktivität wird Underlying Event genannt. Es stellt sich heraus, dass das Underlying Event auf zusätzliche Parton-PartonWechselwirkungen innerhalb derselben Hadron-Kollision zurückgeführt werden kann. Im Ereignisgenerator H ERWIG ++ werden diese Mehrfach-Parton-Wechselwirkungen als unabhängige Partonstreuungen erzeugt. Da die einzelnen Wechselwirkungen im Allgemeinen keine Farbsinglets bilden, sind sie durch Farblinien miteinander verbunden. Dadurch können PartonPaare (Cluster) großer invarianter Masse entstehen, deren Bestandteile sich also in stark unterschiedliche Richtungen bewegen. Diese schweren Cluster tauchen nicht in e C e ! q q– N Ereignissen auf. Dort erzeugt der Parton-Schauer nämlich farbverbundene Partonen mit Impulsen in ähnlichen Richtungen. Diese Eigenschaft des Parton-Schauers wird Preconfinement genannt. 68 44. Herbstschule für Hochenergiephysik Maria Laach 2012 Das Preconfinement legt den Schluss nahe, dass auch Jets aus verschiedenen Parton-Wechselwirkungen farbverbunden sein sollten, wenn sie sich im Impulsraum überlappen. Das wird mit einem Colour-Reconnection-Modell ermöglicht. Anschaulich werden in der nicht-perturbativen Hadronisierungsphase die Farblinien zwischen den Partonen neu verbunden, sodass überlappende Parton-Jets gemeinsam hadronisieren können. In diesem Vortrag wird die Implementierung eines Colour-Reconnection-Modells in H ERWIG ++ vorgestellt. Es wird außerdem gezeigt, dass Underlying-Event-Daten des LHC, sowie inklusive, sogenannte Minimum-Bias-Observablen mit Hilfe von Colour-Reconnection wesentlich besser beschrieben werden können. T-10 (B) Phänomenologie am LHC mit P OWHEG S TEPHAN T HIER Institut für Physik, Universität Mainz Der Large Hadron Collider (LHC) am CERN (Genf, Schweiz) stößt in bisher unerforschte Energiebereiche bei hohen Ereignisraten vor. An verschiedenen Experimenten werden diese Ereignisse mit hoher Genauigkeit gemessen, aufgezeichnet und analysiert. Die Suche nach neuen Teilchen oder Abweichungen vom Standardmodell setzt genaue Kenntnisse der Produktion der zu untersuchenden Teilchen und aller relevanten Hintergrundprozesse voraus. Faktorisierung erlaubt die Aufspaltung des Kollisionsvorgangs zweier Protonen in einen partonischen Subprozess und die Verteilung der entsprechenden Partonen in den kollidierenden Protonen. Nach der harten Wechselwirkung erfolgt eine Vielzahl von Abstrahlungsvorgängen, bei denen die Farbladung tragenden Teilchen zu farbneutralen Teilchen kombinieren, die im Detektor beobachtet werden können. Eine präzise theoretische Beschreibung dieses Vorgangs erfordert die Betrachtung des partonischen Subprozesses unter Berücksichtigung der Korrekturen aus Diagrammen höherer Ordnung in der starken Kopplung in Kombination mit der Simulation anschließender Schauer. Das Zusammenfügen störungstheoretisch bestimmter Matrixelemente mit Programmen zur Simulation partonischer Schauer erfordert große Sorgfalt. Insbesondere muss die Mehrfachberücksichtigung von Emissionsprozessen vermieden und eine korrekte Behandlung auftretender Divergenzen sichergestellt werden. Die P OWHEG-Methode erleichtert die Kombination störungstheoretischer Präzisionsrechnungen mit Schauerprogrammen ohne von einem speziellen Schauerprogramm abhängig zu sein. Mit der P OWHEG B OX existiert ein frei zugängliches Programm, welches auf Grundlage der Resultate einer störungstheoretischen Rechnung in der nächstführenden Ordnung die Umsetzung der P OWHEG-Methode übernimmt. Vom Benutzer müssen nur die Matrixelemente für den Bornprozess, virtuelle und reelle Korrekturen, der Phasenraum sowie Flavour-, Farb- und Spinstruktur bereitgestellt werden. Viele Prozesse wurden bereits mit Hilfe der P OWHEG B OX analysiert, darunter die Produktion von Vektorbosonen, Top-Quarks oder Higgs-Bosonen. Jeder kann durch die Implementierung T. Theorie 69 neuer Prozesse zur Weiterentwicklung der P OWHEG B OX beitragen. Die kontinuierlich anwachsende Zahl verfügbarer Prozesse in der P OWHEG B OX bietet eine breite Basis für phänomenologische Untersuchungen mit hoher Genauigkeit. T-11 (A) Produktion von massiven Bosonen bei kleinem Transversalimpuls qT DANIEL W ILHELM Institut für Physik (THEP), Universität Mainz Die Transversalimpuls-Verteilung des Drell-Yan (DY)-Prozesses [1] ist eine der grundlegendsten Observablen an Hadron-Collidern. Der DY-Prozess beschrieb ursprünglich die Erzeugung eines virtuellen Photons bei der Fusion eines Quark-Anti-Quark Paares aus den kollidierenden Hadronen und den anschließenden Zerfall in ein Leptonpaar. Der Begriff lässt sich jedoch einfach auf die Erzeugung von W - und Z-Bosonen erweitern. Selbst die Higgs-Produktion über GluonFusion kann analog beschrieben werden. Der differentielle Wirkungsquerschnitt ist für diese vier Prozesse mindestens auf zwei-SchleifenNiveau bekannt. Somit ist die Genauigkeit der theoretischen Vorhersagen im Bereich großer Transversalimpulse qT , das heißt in der Größenordnung der invarianten Masse M des produzierten Bosons, dominiert von experimentellen Fehlern der starken Kopplungskonstante ˛s und der Partonverteilungsfunktionen (PDF). Im Bereich kleiner Transversalimpulse qT M führt die große der zugrundeliegenden physikalischen Skalen jedoch zu großen Logarithmen 2Hierarchie M ln q 2 , welche die Störungsreihe zusammenbrechen lassen. Dieser Bereich ist allerdings von T größtem phänomenologischen Interesse, da er am meisten zum totalen Wirkungsquerschnitt beiträgt und somit z. B. zur Bestimmung der W -Boson Masse und Breite genutzt wird. Auch in der Higgs-Produktion ist der Bereich kleiner Transversalimpulse maßgebend für die Messungen, da hier das Signal-über-Hintergrund Verhältnis deutlich besser ist. Dementsprechend gilt es, diese Logarithmen für alle Ordnungen zu resummieren, um die Genauigkeit theoretischer Vorhersagen auf das Niveau aktueller Messungen zu heben. Die Resummation von großen Logarithmen für DY-Prozesse bei kleinem Transversalimpuls wurde bereits 1985 in [2] durchgeführt. Jedoch führen die herkömmlichen Methoden zu einigen technischen Schwierigkeiten, wie die Integration über Landau-Pol Singularitäten. In diesem Vortrag stelle ich einen modernen Ansatz vor, der auf der Benutzung von effektiven Feldtheorien (EFT) und Renormierungsgruppen (RG)-Methoden beruht und in [3] und [4] verfolgt wurde. Eine Besonderheit der DY-Prozesse ist das Auftauchen von Sudakov Doppellogarithmen [5] auf Ein-Schleifen Niveau. Dies führt zu einer komplexeren Struktur der zugrunde liegenden Skalen als die naiv zu erwartende einfache qT -Abhängigkeit. Deshalb reicht es nicht wie in der Fermi-Theorie einfach massive Teilchen auszuintegrieren. Die geeignete EFT zur Beschreibung dieser Prozesse ist die soft-collinear effective theory (SCET). SCET ist eine EFT der masselosen QCD und beschreibt im Allgemeinen eine beliebige Anzahl kollinearen Moden, das heißt hoch energetische Teilchen (oder Jets) mit lichtartigen Impulsen, die untereinander nur über weiche Moden interagieren können. Im DY-Fall betrachtet man zwei kollineare Moden, die durch die 70 44. Herbstschule für Hochenergiephysik Maria Laach 2012 entgegengesetzten Impulse der kollidierenden Hadronen definiert werden. Mit Hilfe von SCET lässt sich der differentielle Wirkungsquerschnitt in seine einzelnen Abhängigkeiten faktorisieren. Anschließend ist es möglich, große Logarithmen mit Hilfe der RG-Gleichungen zu resummieren. Ein weiterer Aspekt von SCET im DY-Fall ist die kollineare Anomalie (CA). Eine Anomalie im üblichen Sinne, dass eine klassische Symmetrie von Quanten Korrekturen gebrochen wird. Sie hat eine unerwartete Abhängigkeit der kollinearen Funktionen von der harten Skala zur Folge. Diese führt jedoch zur dynamischen Generierung einer neuen Skala q , welche den Wirkungsquerschnitt vor nicht-perturbativen Effekten schützt. Somit ist es möglich, den Wirkungsquerschnitt bis hinunter zu verschwindendem Transversalimpuls perturbativ zu berechnen. [1] S. D. Drell and T. -M. Yan, “Massive Lepton Pair Production in Hadron-Hadron Collisions at High-Energies,” Phys. Rev. Lett. 25 (1970) 316 [Erratum-ibid. 25 (1970) 902]. [2] J. C. Collins, D. E. Soper and G. F. Sterman, “Transverse Momentum Distribution in DrellYan Pair and W and Z Boson Production,” Nucl. Phys. B 250 (1985) 199. [3] T. Becher and M. Neubert, “Drell-Yan production at small q˙T, transverse parton distributions and the collinear anomaly,” Eur. Phys. J. C 71 (2011) 1665 [arXiv:1007.4005 [hep-ph]]. [4] T. Becher, M. Neubert and D. Wilhelm, “Electroweak Gauge-Boson Production at Small qT : Infrared Safety from the Collinear Anomaly,” JHEP 1202 (2012) 124 [arXiv:1109.6027 [hep-ph]]. [5] V. V. Sudakov, Sov. Phys. JETP 3 (1956) 65 [Zh. Eksp. Teor. Fiz. 30 (1956) 87]. T-12 (B) Radiative Corrections to Dark Matter Annihilation in the MSSM F RANCESCO D IGHERA Physikdepartment IV (T31), TU München The existence of cold Dark Matter (DM) is inferred from a large number of astrophysical observations and it is by now well estabilished. Among the various theoretical models that have been proposed, one of the most interesting class is the one in which the present amount of DM is the thermal relic of a Weakly Interacting Massive Particle (WIMP), and in particular its realization in the Minimal Supersymmetric extension of the Standard Model (MSSM). In this model, once the R-Symmetry conservation is imposed, the Lightest Supersymmetric Particle (LSP) is stable, this fact allowing for a thermal relic abundance today, and in many MSSM realizations the LSP is the lightest neutralino (the superpartner of neutral gauge and Higgs bosons), which is charged only under the weak interaction. The neutralino relic density today can be evaluated studying the cross-section for the annihilation of two neutralinos into Standard Model particles and the evolution governed by the Boltzmann equation. These calculations have been carried along by different authors in various realization of the MSSM and the comparison with the experimental value lead to strict constraints on the parameters space of the probed model. T. Theorie 71 The typical velocity of neutralinos during the decoupling is of order v 0:3c, which means that the annihilation process can be studied in the non-relativistic (NR) regime. This fact has been used in the calculations to expand the annihilation cross-section in a Taylor series in the relative velocity of the annihilating particles, 2 ann vrel a C bvrel : However, a threshold effect called Sommerfeld enhancement, associated with long-range potential interactions between the incoming NR particles, may spoil this perturbative expansion. Moreover, whenever the theory contains particle species with masses nearly degenerate with the LSP, a significant modification in ann vrel arise, due to the coannihilation among these species and the LSP before the freeze-out. In MSSM realization with heavy neutralinos (m O.TeV/), there is a natural degeneracy among the LSP neutralino and the lightest chargino and, in many interesting regions of the parameter-space, the next-to-LSP is the lightest stau (the supersimmetric partner of the lepton). We will provide a precise determination of the relic density abundance of the neutralino LSP, 2 with fully consistent treatment of the O.vrel / terms, including non-perturbative contributions and in presence of coannihilation among neutralinos, charginos and the stau. Moreover we keep the probed model as general as possible by considering a generic composition of the neutralinos. Previous investigations in less general contexts and with a lower level of accuracy were performed by different groups: the latest development of our collaboration, that will be discussed here, is the inclusion of coannihilation with sleptons and the effect of the Sommerfeld enhancement in the respective annihilation channels. 2 The NR regime results in a hierarchical separation of the involved energy scales, namely m vrel 2 m vrel m : As an important consequence, the separation among the NR kinetic energy m vrel ; that characterize the long-range interaction, and the LSP mass m , at which the annihilation takes place, allows the factorization of the two processes. The long-range interaction produces a modification of the perturbative result for ann vrel by an enhancement factor, evaluated with the resolution of a NR Schrödinger equation. This calculation 2 requires the projection of the Schrödinger equation on partial waves, and at the O.vrel / both the S - and P -wave terms (l D 0; 1) contribute. This effect can be expressed in terms of Feynman diagrams, the resolution of the Schrödinger equation being equivalent to the resummation of the ladder diagrams in which the two incoming particles exchange an arbitrary number of light bosons before the annihilation. Considering heavy neutralinos and staus, both gauge (; Z; W ˙ ) and Higgs (h0 ; H 0 ; A0 ; H ˙ ) bosons appear in the ladder exchanges. The exchange of a boson may change the nature of the incoming particles, which means that the factorization takes place at the amplitude level. For a given pair of incoming particles, the annihilation amplitude is written as a sum over the possible two-particle states produced in the long-range interaction, each term being the product of the enhancement factor and the tree-level amplitude for the annihilation of the considered two particles. When the amplitude is squared in order to get the cross-section, one obtains also off-diagonal contributions, in which the outgoing two-particle state is different from the incoming one. For the calculation of the annihilation processes we cannot take advantage of the existing numerical codes to extract the coefficients a and b; for two reasons: first we must keep the two 72 44. Herbstschule für Hochenergiephysik Maria Laach 2012 contributions b D b s wave C b p wave separate, second the off-diagonal reactions are not accessible anyway. The annihilation is then encoded into a non-relativistic effective field theory (NREFT): all the momenta over the scale m are integrated out, ensuring the incoming particles (with masses O.m /) being non-relativistic. The annihilation processes, in which the produced (light) SM particles would be relativistic, are accounted for by the introduction of effective four-particles vertices: their Wilson coefficients can be evaluated in matching the absorptive part of appropriate scattering amplitudes in the full MSSM theory with the EFT. In order to perform the NR expansion consistently one has to expand simoultaneously in the spatial tri-momenta of the incoming particles and their mass differences. Previous studies suggest that the Sommerfeld enhancement can be responsible for a non-negligible modification of the DM relic abundance: further development will include investigations of this effect for a generic MSSM parameter-space point. T-13 (A) Horizontale Diskrete R Symmetrien A NDREAS T RAUTNER Physikdepartment (T30), TU München Aufgrund der theoretisch ansprechenden, maximal möglichen Kombination von Raum-Zeit und internen Symmetrien, sowie dem Beheben mehrerer Probleme und Spannungen des Standardmodells (SM) der Kern- und Teilchenphysik, sind supersymmetrische (SUSY) Theorien seit langem eine wohlmotivierte und vieldiskutierte Erweiterung desselben. Neben einer Lösung des Hierarchieproblems sowie präziser Eichkopplungsvereinigung können SUSY Theorien auch ansprechende phänomenologische Eigenschaften wie beispielsweise Teilchenkandidaten für Dunkle Materie oder eine Lockerung der seit Jahren bestehenden Spannung zwischen Experiment und theoretischer Vorhersage des annomalen magnetischen Moments des Muons, haben. Die minimalste supersymmetrische Erweiterung des Standardmodells (MSSM) enthält ihrerseits aber selbst einige Erklärungsdefizite. Zwingend notwendig ist die Einführung eines zweiten Higgs-Doubletts, wobei die Kopplung der zwei Higgs-Teilchen untereinander einen neuen massebhafteten Paramter mit sich bringt. Phänomenologisch ist klar, dass einen Wert nahe der elektroschwachen Skala haben sollte. Eine Begründung, warum der -Term im Vergleich zu einer natürlichen cut-off Skala (z. B. MP ) so klein und genau so nahe bei der elektroschwachen Skala liegen sollte, gibt es aber nich (sog. Problem). Ausserdem treten in einer möglichen Lagrangedichte eichinvariante, renormierbare, B bzw. L verletzende Terme der Massendimension 4 auf, welche - wären sie vorhanden - zu einem schnellen Protonzerfall führen würden. Daher führt man ad-hoc eine Symmetrie (sog. R- oder Materie-Parität) ein, die diese Terme verbietet. Nimmt man die Vereinheitlichung der Eichkopplungen ernst und betrachtet Große Vereinheitlichte Theorien (GUTs), so stellt sich ausserdem die Frage nach der sog. doublett-triplett Aufspaltung, d.h. dem Massenunterschied von Higgs-Doubletts im Vergleich zu den, in GUTs notwendigerweise ebenfalls vorhandenen, farbgeladenen Higgs-Tripletts. Alle diese Probleme ließen sich auf natürliche Weise lösen, gäbe es eine Symmetrie, die den Parameter zunächst verbietet, durch eine Brechung aber bei niedrigen Energien wiederherstellt. Nimmt man an, dass diese Symmetrie kompatibel mit vereinheitlichten Eichsymmetrien sowie T. Theorie 73 anomalienfrei (bzw. anomalienfrei durch Green-Schwarz Mechanismus) ist, so stellt sich heraus, dass lediglich diskrete R Symmetrien (das sind Symmetrien, die nicht mit SUSY vertauschen, d.h. zwischen Teilchen und Superpartnern unterscheiden) den -Term kontrollieren können. Zusätzlich enthalten die so gefundenen Symmetrien R- bzw. Materie-Parität als Untergruppe, erlauben Yukawa Kopplungen und können Protonzerfall auch durch effektive Massendimension 5 Operatoren verbieten. Die diskrete R Symmetrie ist nicht-pertubativ gebrochen und so wird der -Term bei kleinen Skalen wiederhergestellt. Diese natürliche Lösung für das -Problem ist gleichzeitig wegweisend in anderer Hinsicht: Es gibt Argumente die zeigen, dass eine solche R Symmetrie neben einer GUT in 4-Dimensionen keinen Bestand haben kann, während sie in höherdimensionalen Modellen ganz natürlich als Remanenz der Lorentz-Symmetrie der kompaktifizierten Dimensionen auftreten kann. Die R Symmetrie ist kompatibel auch mit See-Saw Erweiterungen des MSSM oder könnte alternativ auch kleine Dirac-Neutrino Massen erklären. Weiter noch gibt es, wie explizit gezeigt wurde, orbifold Kompaktifizierungen in heterotischen String-Modellen (UV vollständig), die das exakte MSSM Spektrum mit ungebrochener Standardmodelleichgruppe sammt einer zusätzlichen diskreten R Symmetrie liefern. Bisher wurden nur Familienunabhängige diskrete R Symmetrien untersucht. Lässt man die Annahme der Familienunabhängigkeit fallen, ergeben sich interesannte Verbindungen zum SUSY Flavorproblem, wenn durch diskrete abelsche Symmetrien zunächst Null-Texturen bzw. bei Brechung auch Hierarchien in den Yukawa und Neutrino Massenmatrizen erzeugt werden können. Es wird untersucht ob die so gewonnene Flavor-Struktur im niederenergie Grenzwert zu phänomenologisch brauchbaren Ergebnissen führen kann. T-14 (B) Dunkle Materie und Dunkle Strahlung mittels extra U.1/ H ENDRIK VOGEL Max-Planck-Institut für Physik, München Aus astrophysikalischen Beobachtungen wissen wir, dass unser Universum zu einem großen Teil aus für uns nur schwer beobachtbarer nicht baryonischer Materie besteht, die nicht mit dem Standardmodell der Teilchenphysik (SM) erklärt werden kann. Diese Komponente, die aufgrund ihrer nur schwachen Wechselwirkung Dunkle Materie genannt wird, dominiert den Masseanteil des Universums und führt über ihre Gravitationskraft zu beobachteten Effekten wie Gravitationslinsen und veränderte Rotationskurven von Galaxien. Auch für die Strukturbildung im Rahmen des Standardmodells der Kosmologie (SMC) ist die Dunkle Materie essentiell. An diesem kaum wechselwirkenden Anteil des Universums wird seit mehreren Jahrzehnten intensiv geforscht und es gibt eine Vielzahl von Tests in direkten und indirekten Experimenten sowie an Teilchenbeschleunigern. Die Natur der Dunklen Materie bleibt bis zum heutigen Tag jedoch unbekannt. Zusätzliche Hinweise für Neue Physik“ resultieren aus der Diskrepanz zwischen den Vorhersa” gen des SMC und den Messungen der Wilkinson Microwave Anisotropy Probe (WMAP). Mit dem Teilcheninhalt des SM ergeben sich zusätzlich zum Photon drei relativistische Teilchenspezies (Neff 3) zur Zeit der Big Bang Nucleosynthese und der Entstehung des Cosmic Microwave Background. Diese drei Spezies sind die bekannten Neutrinos, weshalb Neff auch effektive Neutrinozahl genannt wird. Die neusten Messungen des WMAP Experiments bevorzugen allerdings ein weiteres relativistisches Teilchen, genauer Neff D 3:90C0:39 0:56 auf 95% CL [1]. 74 44. Herbstschule für Hochenergiephysik Maria Laach 2012 Auch im Standardmodell der Teilchenphysik bestehen noch offene Fragestellungen, wie zum Beispiel das Hierarchieproblem oder das starke CP -Problem. Lösungen dieser Probleme führen häufig zur Einführung neuer Teilchen, die jedoch noch nicht experimentell beobachtet wurden. Es liegt daher nahe, die Unzulänglichkeiten beider Standardmodelle gemeinsam zu lösen. Ein Ansatz hierfür ist zum Beispiel die supersymmetrische Erweiterung des SM, die in ihrer minimalen Form ein weiteres stabiles Teilchen, zum Beispiel das Neutralino, vorhersagt und somit einen Kandidaten für Dunkle Materie liefert. In diesem Vortrag stellen wir vor, wie ein supersymmetrischer Dunkler Sektor zur Lösung der oben beschriebenen Probleme beitragen kann. Wir diskutieren ein Modell, welches eine weitere abelsche lokale Eichgruppe neben den Eichgruppen des Standardmodells der Teilchenphysik enthält. Die Teilchen, die unter dieser versteckten U.1/ geladen sind, wechselwirken mit den Teilchen des sichtbaren Sektors nur über ein Mischen mit der elektromagnetischen U.1/. Ziel ist es, neben den theoretischen Implikationen auch Vorhersagen für laufende und zukünftige Experimente zu treffen. [1] J. Hamann, S. Hannestad, G. G. Raffelt and Y. Y. Y. Wong, JCAP 1109 (2011) 034 [arXiv:1108.4136 [astro-ph.CO]]. T-15 (A) Photon-Produktion in Proton-Proton- und Schwerionenkollisionen F LORIAN K ÖNIG Institut für Theoretische Physik, Universität Münster In Proton-Proton-Kollisionen erzeugte Photonen lassen sich in zwei Klassen einteilen: Direkte Photonen stammen aus harten Streuprozessen der Partonen des Protons. Die in führender Ordnung relevanten Prozesse sind qNq ! g und gq ! q; die Photonen treten dabei als isolierte Photonen auf, deren Transversalimpuls idealerweise durch einen Jet in entgegengesetzter Richtung kompensiert wird. Weiter zählt QCD-Bremsstrahlung zu den Erzeugungsmechanismen direkter Photonen; bei diesem Signal sollte das Photon von hadronischen Jets begleitet werden. Zerfallsphotonen entstehen durch hadronische Zerfälle, wie z. B. 0 ! . Die Messung von direkten Photonen aus harten Streuprozessen in pp-Kollisionen erlaubt z. B. eine Bestimmung der Gluonverteilung im Proton in O.˛˛s /-Prozessen. In tief inelastischer Streuung sind Gluon-PDFs hingegen erst in NLO-Prozessen zugänglich. In Schwerionenkollisionen hingegen stellen Photonen ein wichtiges Messsignal für die Entstehung eines Quark-Gluon-Plasmas dar. Das QGP ist ein Zustand extrem hoher Energiedichte, in dem die Streuung von freien Quarks und Gluonen zur Thermalisierung geführt hat. Nach der Entstehung breitet sich das QGP wie ein Feuerball aus und kühlt dabei ab, bis Quarks und Gluonen T. Theorie 75 wieder in Hadronen eingeschlossen sind. Während dieses Vorgangs werden thermische Photonen in Stößen von Quarks und Gluonen erzeugt. Ist das QGP abgekühlt, erzeugen hadronische Resonanzen durch Stöße weitere thermische Photonen. Da Photonen nur elektromagnetisch wechselwirken, werden sie als Sonde zur Messung des stark wechselwirkenden QGP benutzt: Thermische Photonen bilden die gesamte Raum-ZeitEntwicklung des Plasmas ab. Die oben beschriebenen Zerfalls- und harten Streuprozesse bilden dabei ein Untergrundsignal, dessen genaue Bestimmung die Identifizierung des QGPs bedingt. T-16 (B) Zerfallskonstanten von schweren Mesonen in der QCD D ENIS ROSENTHAL Fakultät IV, Theoretische Physik I, Universität Siegen Die Phänomenologie von schweren Mesonen stellt in der modernen Physik eine wichtige Quelle zur Überprüfung unserer theoretischen Konzepte dar. Zum einen können gebundene Quarkzuständen im Bereich nichtrelativischer Energien nicht perturbativ berechnet werden, zum anderen sind viele Zerfallskanäle von schweren Mesonen experimentell nur schwer zugänglich. In den letzten Jahren haben sich eine Reihe von Methoden etabliert, welche sich dem Problem von gebundenen Zuständen widmen: die Gittereichtheorie, effektive Theorien wie heavy quark effective theory (HQET) oder die QCD-Summenregeln (QCDSR). Die letzte Methode bietet eine flexiblen als auch zuverlässigen Zugang zur Berechnung von hadronischen Matrixelementen für Vorhersagen grundlegender Eigenschaften von Mesonen. So sind Abschätzungen von Quarkmassen, leptonischen Zerfallskonstanten, starken Kopplungen hadronischer Prozesse sowie Formfaktoren möglich. Im Zusammenspiel mit Messdaten aktueller Teilchenexperimente (LHCb, BABAR, Belle) können zudem Voraussagen der Cabibbo-KobayashiMaskawa (CKM)-Matrixelemente getroffen werden. Die QCDSR wurden in den späten siebziger Jahren von Shifman, Vainshtein und Zakharov eingeführt und für die Analyse von , , K -Mesonen verwendet. Im Speziellen betrachten wir Mesonen mit einem schweren bottom- oder charm-quark und einem leichten up-, down- oder strange-quark und werten deren Zerfallskonstanten fMeson aus. Startpunkt der Analyse ist die Operatorproduktentwicklung (OPE) von Zweipunkt-Korrelationsfunktionen, also die Vakuumerwartungswerte zweier zeitgeordneter intermediärer heavy-light Ströme an unterschiedlichen Raumzeitpunkten. Daraus ergibt sich eine Zerlegung der Korrelationsfunktion in eine Reihe von Koeffizienten, die lediglich kurzreichweitige Wechselwirkungen beinhalten und dementsprechend perturbativ berechenbar sind, und nichtperturbativen Vakuumerwartungswerten von lokalen Operatoren, sogenannte Kondensate. Sie beschreiben Wechselwirkungen mit dem QCD-Vakuum. Aufgrund der oben genannten Zusammensetzung der schweren Mesonen sind Ströme folgender Spin-Parität von Bedeutung: J P D 0 ; 1 . Diese entsprechen den pseudoskalaren Mesonen B, Bs , D und Ds sowie vektorieller Mesonen B , Bs , D und Ds . Die in den Korrelationsfunktionen auftretenen Quarkmassen werden im MS-Schema ausgedrückt. Die Korrelationsfunktion wird zum einen via OPE lokal entwickelt und zum anderen 76 44. Herbstschule für Hochenergiephysik Maria Laach 2012 über die hadronische Dispersionsrelation dargestellt, welche die benötigten Mesonen und dessen Zerfallskonstanten als Grundzustand vom Kontiunuum, aus (angeregten) Ein- und Vielteilchenzuständen, separiert. Beide Entwicklungsdarstellungen sind nun unter der Annahme der QuarkHadron-Dualität verknüpfbar. Die Präzision der so entstehende Abschätzung für gewünschte Zerfallskonstanten sind unter anderem über die Genauigkeit der Entwicklungskoeffizienten und der Anzahl der lokalen Operatoren in der OPE gegeben. Der rein perturbative Beitrag niedrigster dimensioneller Ordnung wird bis zur Ordnung ˛s2 der starken Kopplung sowie Kondensatbeiträge bis Massendimension d D 6 betrachtet. Neben einer Neuauswertung der Zerfallskonstanten für pseudoskalare Mesonen fügen wir für den Vektorfall neu berechnete Beiträge hinzu, die in der Literatur noch nicht berücksichtigt wurden. Erwähnenswert ist an dieser Stelle, dass die ermittelten Zerfallskonstanten beispielsweise für die Bestimmung des CKM-Matrixelement Vub oder der starken Kopplungen B B und D D notwendig sind. Aufgrund der Aktualität der genannten Parameter ist eine sehr präzise Auswertung der Zerfallskonstanten wünschenswert. T-17 (A) Effektiver Feldtheorieansatz für Masseneffekte in inklusiven Prozessen P IOTR P IETRULEWICZ Fakultät für Physik, Universität Wien Während meiner PhD-Arbeit untersuche ich die Effekte von Quarkmassen in Colliderprozessen mit Hilfe der Soft-Collinear Effective Theory (SCET). Für inklusive Prozesse in der Jetphysik bietet SCET einen konsistenten Rahmen, um Wirkungsquerschnitte in verschiedene Terme zu faktorisieren: Einen Wilson-Koeffizienten, der die harte Physik bei der Energie Q beschreibt, eine Jetfunktion für den kollinearen Sektor und eine softe Funktion für den ultrasoften Sektor, die die nichtperturbative Physik enthält. Jeder dieser Terme beschreibt Freiheitsgrade in verschiedenen Regionen des Phasenraums, die durch den Skalierungsparameter voneinander getrennt sind (in SCET I QCD =Q). Mit Renormalisierungsgruppengleichungen können große Logarithmen dieser Skalen resummiert werden. Für 1, d.h. stark kollimierte Jets, eignet sich SCET dazu, Präzisionsrechnungen durchzuführen. Bisher wurde SCET hauptsächlich für masselose Teilchen angewandt. Daher müssen wir zuerst ein Setup aufstellen, um massive Quarks einzuführen. Diese tauchen als zusätzliche kollineare und softe Moden ( Massenmoden“) auf, neben den gewöhnlichen kollinearen und ultrasoften ” Freiheitsgraden. Abhängig von der Beziehung zwischen m m=Q und tragen die Massenmoden zu verschiedenen Sektoren im Phasenraum bei und nehmen entweder eine masselose oder eine massive Skalierung an. Als erstes Beispiel berechnen wir die Beiträge von massiven virtuellen Quarks zum differentiellen Wirkungsquerschnitt für e C e ! Jets (für Thrust und Hemispherenmassen) auf 2 Schleifen (bzw. N3 LL im SCET counting). T. Theorie 77 Als Anwendung dieses Setups untersuchen wir die Auswirkung von schweren Quarks (charm, bottom) auf Partonverteilungsfunktionen der leichten Quarks in tiefinelastischer Streuung. Derzeit werden unterschiedliche Schemas verwendet, die für verschiedene kinematische Regimes der beteiligten Energien und Massen gelten. Wir wollen einen Rahmenwerk aufstellen, in dem die Masse des schweren Fermions von der höchsten bis zur niedrigsten Skala variiert werden kann, bzw. in dem ein Scan über die verschiedenen Partonimpulse durchgeführt werden kann. Schließlich kann dieses Setup auch für andere inklusive Prozesse angewandt werden, wie z. B. Drell-Yan, oder exklusivere Prozesse, für welche auch Faktorisierungstheoreme gelten. T-18 (B) Elektroschwache NLO Korrekturen zur W und Z Produktion mit vollen leptonischen Zerfällen C HRISTIAN PASOLD Inst. f. Theor. Physik und Astrophysik, Uni Würzburg Das Standardmodell (SM) der Teilchenphysik liefert eine gute Beschreibung der elektroschwachen und der starken Wechselwirkung zwischen den bisher bekannten Elementarteilchen: den Quarks, den Leptonen und den Eichbosonen. Die entsprechenden Prozesse an Collidern werden mithilfe der Störungstheorie berechnet. Die präzisen Vorhersagen dafür sind Voraussetzung für das Verständnis der LHC-Daten. Dabei liefert die führende Ordnung sehr große Unsicherheiten, sodass brauchbare Resultate erst durch die Berechnung der nächstführenden Ordnung (NLO, next-to-leading order) erzielt werden. Von besonderem Interesse am Large Hadron Collider (LHC) sind Prozesse mit W - und ZBosonen, denn mit der Analyse der W - und Z-Produktion sind einerseits sehr genaue Aussagen über die Wechselwirkung der W - und Z-Bosonen mit den Photonen möglich. Andererseits liefern diese auch wichtige Hintergrundprozesse bei der Suche nach neuen Teilchen. Bisher existieren für elektroschwache NLO-Korrekturen nur Rechnungen in der Näherung stabiler W - und Z-Bosonen oder in einer Resonanznäherung (Leading Pole Approximation). Für die Berechnung der elektroschwachen NLO-Korrekturen der vollständigen Prozesse pp! `N und pp! ``N ohne Polnäherung müssen nun auch die nichtfaktorisierbaren Feynman-Diagramme berücksichtigt werden. Ein Beispiel für ein solches Diagramm erhält man durch den im Vergleich zum Born-Prozess zusätzlichen Austausch eines Photon zwischen initial-state Quark und final-state Lepton. Die Berechnung der zusätzlichen Diagramme und der damit verbundenen Korrekturen ist deutlich komplizierter als die der faktorisierbaren Diagramme. Ein Grund dafür ist das Auftreten von 5-Punkt-Funktionen, die in den bisherigen Berechnungen in Polnäherung nicht vorkommen. In meinem Vortrag werde ich die Strategie und das Verfahren erläutern, die für die Berechnung der NLO-Korrekturen verwendet werden. Dies umfasst die Berechnung des hadronischen Wirkungsquerschnittes aus den partonischen Prozessen mithilfe der Partonverteilungsfunktionen sowie die Bestimmung der Matrixelemente. Dabei werde ich sowohl auf die endlichen Anteile für die virtuellen NLO- sowie die reellen QED-Korrekturen eingehen als auch die Behandlung der soften und kollinearen Singularitäten mit der Subtraktionsmethode erläutern. 78 44. Herbstschule für Hochenergiephysik Maria Laach 2012 T-19 (A) Formfaktoren für B ! ` Zerfälle in Gittereichtheorie F ELIX BAHR DESY Zeuthen Das Cabibbo-Kobayashi-Maskawa (CKM)-Matrix-Element Vub ist gegenwärtig nur unzureichend genau bekannt; so besteht zwischen aus inklusiven B ! Xu `, exklusiven B ! ` und exklusiven B ! Zerfällen bestimmten Werten von Vub derzeit eine Diskrepanz von 3. Um die Präzision zu verbessern und systematische Fehler zu reduzieren, ist eine genauere, numerische Bestimmung von Vub über Methoden der Gittereichtheorie vonnöten. Wir untersuchen dazu semi-leptonische Zerfälle, B ! `, von pseudo-skalaren B-Mesonen, deren Quarkinhalt durch ein b-Quark und ein leichtes Quark (u; d ) gegeben ist. Auf dem Gitter berechenbar ist das den Zerfall bestimmende hadronische Matrixelement, in führender Ordnung in der schwachen Kopplung, ˇ ˇ ˝ ˛ .p / ˇu N b ˇ B.p C q/ D .pB C p / fC .q 2 / C .pB p / f .q 2 / ; (T.7) q 2 D .pB p /2 , welches sich durch die Formfaktoren fC ; f beschreiben lässt. Für kleine Leptonmassen me; 0 ist der Beitrag von f vernachlässigbar. Wir berechnen die Formfaktoren numerisch auf einem hyperkubischen Gitter der Größe L3 2L mit endlichem Gitterabstand a und Nf D 2 dynamischen Seequark-Flavours. Um Effekte aufgrund des endlichen Volumens gering zu halten, ist eine Gittergröße Lm & 4 erforderlich, was bei Gitterabständen von a 0:05 : : : 0:08 fm und -größen von L D 32; 48; 64 Pionmassen von m 250 : : : 450 MeV entspricht. Nach Simulation für verschiedene Gitterabstände a und Pionmassen m kann zum phys physikalischen Punkt extrapoliert werden, a ! 0, m ! m . Aufgrund von Überlegungen bezüglich der Analytizität des Formfaktors fC kann die modellunabhängige Parametrisierung 2 fC .q / D 1 K X1 1 bk z k .q 2 / q 2 =mB2 . 1/ k K kD0 p tC z.q 2 / D p tC k K 2 z .q / ; K (T.8) p q2 tC t0 ; (T.9) p q 2 C tC t0 p p 2 mit tC D .mB 0 m C /2 und t0 D .mB C m / mB m angesetzt werden. Experimentell bestimmte differentielle Zerfallsraten werden durch ˇ d GF2 jVub j2 3=2 2 ˇˇ 2 ˇ2 D .q / f .q / ; C dq 2 192 3 mB3 .q 2 / D mB2 C m2 q2 2 4mB2 m2 ; (T.10) (T.11) beschrieben. In einem kombinierten Fit des Formfaktors fC als Funktion des Impulsübertrags q 2 gemäß der Parametrisierung (T.8) bei festem K an die numerisch simulierten sowie experimentelle Datenpunkte können die Koeffizienten bk sowie Vub als unabhängige Fitparameter bestimmt werden. Die Abtei Maria Laach Die Abtei wurde als Abbatia ad Lacum – später auch Abbatia Lacensis – zwischen 1093 und 1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich II. von Laach und seiner Frau Adelheid von Weimar-Orlamünde, für sein und seiner Gemahlin Seelenheil und dazu als Grablege, zurück. Das Wort Laach ist eine verschliefene Form des althochdeutschen Wortes lacha – von lat. lacus, -us m – und ist als Name für den See, den Ort und das Kloster erhalten geblieben. Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten frühesten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen 819 und 829 im Kloster Reichenau. Die sechstürmige Abteikirche gehört zu den schönsten Denkmälern der romanischen Baukunst aus der Zeit der Salier in Deutschland. Dies liegt vor allem daran, dass die Klosterkirche von späteren Umbauten fast völlig verschont geblieben ist. In der Zeit der Gotik und des Barock kam es jedoch zu einigen Veränderungen, die allerdings während Renovierungsarbeiten im 20. Jahrhundert rückgängig gemacht wurden, so dass in beindruckender Weise die Form einer mittelalterlichen Klosteranlage bis heute bewundert werden kann. Der prachtvolle Westeingang mit seinem nördlich der Alpen einzigartigen Paradies (Narthex) findet sich stilisiert im Logo der Herbstschule wieder. Der Abteikirche, auch als Laacher Münster bezeichnet, einer doppelchörigen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica minor” durch Papst Pius XI. verliehen. Die Abtei blieb von der Säkularisierung in der Zeit der Napoleonischen Herrschaft nicht verschont. Im Jahre 1801 wurden ihre Güter enteignet und 1802 die Abtei durch das Säkularisationsedikt Napoleons durch die französische Verwaltung aufgehoben. Nach dem Wiener Kongress ging die Abtei 1815 in preußischen Staatsbesitz über. 1892 konnten einige Benediktinermönche unter Prior Willibrord Benzler die Abtei zunächst als Priorei wieder besiedeln, schließlich, 1893, 737 nach ihrer Gründung, wurde die Abtei zum zweiten Male konsekriert und erhielt den Namen “Maria Laach”. 1093 Gründung durch Pfalzgraf Heinrich II. von Laach 1095 Tod des Pfalzgrafen, seine Frau Adelheid führt die Bauarbeiten fort 1112 Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballenstadt, er schenkt das Kloster an die Abtei Affligem im Landgrafschaft Brabant. 1138 Laach wird selbständige Abtei 1802 Aufhebung der Abtei in Folge der Säkularisation 1820 Erwerb des Klosters als Rittergut durch Daniel Heinrich Delius für 24.900 “Thaler in preußischen Courant” 1855 Zerstörung der Prälatur durch einen schweren Brand 1863 Erwerb der Abteigebäude durch die deutsche Jesuitenprovinz und errichtet “Collegium Maximum”. 1892 Wiederbesiedelung durch Benediktiniermönche aus der ErzabLaach Klosterkirche. Ostseite tei Beuron. 1924 Übereignung der Klosterkirche an die Abtei durch den preußischen Staat 2006 Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850. Weihetag. Bildnachweis: Titel, S. 5 und S. 79: Maria Laach, Basis und Ostseite aus G. Dehio und G. Bezold, “Die Kirchliche Baukunst des Abendlandes.” Verlag der J. G. Cotta’schen Buchhandlung, 1892, mit freundlicher Genehmigung des Magnus Verlag, Essen. Druck: UniPrint der Universität Siegen Hölderlinstraße 3 57068 Siegen, 2012