42. Herbstschule für Hochenergiephysik Maria Laach 7.–17. September 2010 Zusammenfassungen der Kurzberichte der Teilnehmerinnen und Teilnehmer Die Herbstschule für Hochenergiephysik wird vom Bundesministerium für Bildung und Forschung (BMBF) finanziell unterstützt. Programm Vorlesungen Physik am LHC und erste Resultate Claudia Wulz HEPHY Wien QCD at Hadron Colliders Gavin Salam LPTHE Paris Elektroschwache Aspekte des Standardmodells Stefan Dittmaier Uni Freiburg Physics beyond the Standard Model Christophe Grojean CERN Dunkle Materie und Neutrinos Béla Majorovits MPI München Neue Methoden der Teilchenbeschleunigung Ralph Aßmann CERN Particle Cosmology Viatcheslav Mukhanov LMU und MPI München Abendvorträge Welt von gestern, Lebensmöglichkeit heute Pater Athanasius Wolff Maria Laach Geologie der Vulkaneifel Brigitte Bethke Bad Dürkheim Wie weit reicht die physikalische Erkenntnis? Paul Hoyningen-Huene Uni Hanover Übungen Feynman Diagramme für Anfänger Thorsten Ohl Uni Würzburg Renormierung und effektive Feldtheorie Peter Uwer HU Berlin Supersymmetrie Oliver Brein Uni Freiburg Koordinatoren der Gruppenberichte 4 Gruppe Experiment Theorie A Petra Haefner MPI München. Bernd Jantzen RWTH Aachen B Peter Wagner U Pennsylvania Sven Faller Uni Siegen C Kevin Kröninger Uni Göttingen Alexander Knochel Uni Freiburg Zeitplan Dienstag Mittwoch Donnerstag Freitag Samstag 7.9. 8.9. 9.9. 10.9. 11.9. 08:30–09:25 Wulz Mukhanov Dittmaier Dittmaier 09:40–10:35 Mukhanov Mukhanov Wulz Wulz 10:50–11:45 Dittmaier Wulz Dittmaier Übungen 11:55 14:30–15:25 Mittagessen Übungen Übungen Übungen Übungen 15:45–16:45 Übungen Gruppen Übungen Gruppen 17:00–18:00 Übungen Gruppen Gruppen Gruppen Anreise 18:25 19:30 Abendessen Begrüßung 20:00 Wolff Bethke Montag Dienstag Mittwoch Donnerstag Freitag 13.9. 14.9. 15.9. 16.9. 17.9. 08:30–09:25 Majorovits Salam Salam Aßman Salam 09:40–10:35 Grojean Majorovits Aßmann Salam Aßmann 10:50–11:45 Kirchenbesuch Grojean Grojean Grojean Diskussion Abreise 11:55 Mittagessen 14:30–16:00 Majorovits Übungen Übungen Übungen 16:30–18:00 Gruppen Gruppen Gruppen Gruppen 18:25 20:00 Abendessen HoyningenHuene Abschlussabend 5 Teilnehmerinnen und Teilnehmer Detektor- und Beschleunigertechnologie Stadt Nr. (Gr.) Name Titel des Vortrags Institut Aachen D-1 (A) III. Physikalisches Institut B, RWTH Aachen Dennis Terhorst T2K – Konzept und aktueller Stand 11 Freiburg D-2 (B) Universität Freiburg Uwe Renz Mikrostrukturierte Gasdetektoren mit pixellierter Auslese 11 Freiburg D-3 (C) Physikalisches Institut, Universität Freiburg Kim Temming MPGD-Studien mittels präziser Laser-Photoelektronen 13 Garching D-4 (A) Stefanie Adomeit LMU München Konstruktion eines Szintillator-Trigger-Hodoskops für Testmessungen bei hohem radioaktivem Untergrund Göttingen D-5 (B) II. Physikalisches Institut, Universität Göttingen Nina Krieger Insertable B-Layer Upgrade des ATLAS Pixel Detektors 14 Göttingen D-6 (C) II. Physikalisches Institut, Universität Göttingen Benjamin Schwenker Simulation eines DEPFET Pixel Detektors in Testrahlmessungen 15 Hamburg D-7 (A) Universität Hamburg / DESY Nils Feege Niederenergetische Pion-Schauer in einem hochauflösenden Hadron-Kalorimeter 16 Hamburg D-8 (B) Isa Heinze DESY Weiterentwicklung von Rekonstruktionsalgorithmen für Zeitprojektionskammern 16 Kirchhoff Institut für Physik, Universität Heidelberg Heidelberg Wei Shen D-9 (C) Auslese-ASIC für Silizium Photomultipliers in Positronen-Emissions-Tomographie Zeuthen D-10 (A) 6 Conrad Friedrich DESY Das sLHC-Upgrade des ATLAS-Silizium-Streifendetektors Seite 13 17 18 Experimentelle Analyse Stadt Nr. (Gr.) Name Titel des Vortrags Aachen E-1 (A) III. Physikalisches Institut A, RWTH Aachen Andreas Güth Messung der inklusiven W ! und Z ! Wirkungsquerschnitte in ppp Kollisionen bei s D 7 TeV mit dem CMS-Detektor Aachen E-2 (B) III. Physikalisches Institut A, RWTH Aachen Mark Olschewski Modellunabhängige Suche in CMS Aachen E-3 (C) I. Physikalisches Institut B, RWTH Aachen Hendrik Weber Suche nach neutralen MSSM Higgs Bosonen h=A=H im b-assoziierten Zerfall in zwei Myonen am CMS-Experiment Berlin E-4 (A) Thomas Lück HU Berlin Inklusive Bestimmung von Vub bei BABAR Bonn E-5 (B) Physikalisches Institut, Universität Bonn Sebastian Fleischmann Stau im LHC: Entdeckungspotential für R-Paritätsverletzende supersymmetrische Modelle Physikalisches Institut, Universität Bonn Agnieszka Leyko W+jets als Hauptuntergrundprozess für die Messung des Produktionswirkungsquerschnitts von Top-Antitop-Paaren im semileptonischen Zerfallskanal unter Anwendung von b-Tagging mit dem ATLAS-Detektor am LHC Bonn E-6 (C) Institut Seite 20 21 21 22 23 25 Bonn E-7 (A) Sebastian Mergelmeyer Universität Bonn D -Photoproduktion mit assoziierten Jets und Vertices bei ZEUS Bonn E-8 (B) Physikalisches Institut, Universität Bonn Thomas Schwindt Technische Studien zur Messung des Z ! Wirkungsquerschnitts mit dem ATLAS-Experiment Dortmund E-9 (C) Sebastian Schleich TU Dortmund Studien zum Zerfall Bs ! bei LHCb Dresden E-10 (A) Freiburg E-11 (B) Institut für Kern- und Teilchenphysik, TU Dresden Patrick Czodrowski Bestimmung der Fehlidentifikationsrate von -Leptonen durch Elektronen mit ATLAS am LHC Physikalisches Institut, Universität Freiburg Katharina Schmidt Exklusive Produktion von 0 Mesonen am COMPASS Experiment Gießen E-12 (C) II. Physikalisches Institut der JLU Gießen Irina Brodski Messung generalisierter Partonverteilungen bei HERMES und P ANDA 29 Hamburg E-13 (A) Institut für Experimentalphysik, Universität Hamburg Hanno Perrey Jet-Wirkungsquerschnitte in neutralen Reaktionen bei HERA 29 Hamburg E-14 (B) DESY / Universität Hamburg Hannes Schettler Datenvalidierung aus der SUSY-Perspektive bei CMS 30 Institut für Experimentalphysik, Uni Hamburg Martin Wildt Studium von 2-Photon-Endzuständen im GMSB-Modell bei ATLAS Physikalisches Institut, Universität Heidelberg Heidelberg Christian Linn E-16 (A) Erste Schritte zur Messung der schwachen Mischungsphase im Zerfall Bs ! J = ˚ bei LHCb Hamburg E-15 (C) 25 26 27 27 28 31 31 7 Physikalisches Institut, Universität Heidelberg Heidelberg Manuel Schiller p E-17 (B) Messung des KS -Wirkungsquerschnitts in pp-Kollisionen bei s D900 GeV mit dem LHCb-Experiment Karlsruhe E-19 (A) Institut für Experimentelle Kernphysik, KIT Dominik Horn Messung des Verzweigungsverhältnisses des Meson-Zerfalls Bs0 ! DsC Ds bei CDF-II Institut für Experimentelle Kernphysik, KIT Felix Wick Charm-Baryon-Spektroskopie bei CDF 33 Mainz E-20 (B) Andreas Hafner Universität Mainz Hadronische Wirkungsquerschnittsmessungen via ISR bei BABAR 34 Mainz E-21 (C) Institut für Physik, Johannes-Gutenberg-Universität Mainz Christian Schröder Studien zum Nachweis eines schweren Eichboson im Zerfallskanal W 0 ! e am 34 ATLAS-Experiment München E-22 (A) Max-Planck-Institut für Physik Andreas Moll B-Physik am Belle-Experiment: Untersuchung von CP-Verletzung München E-23 (B) Max-Planck-Institut für Physik Sebastian Stern Suche nach dem MSSM Higgsbosonzerfall h=A=H ! C p Detektor bei s D 10 und 7 TeV. Rostock E-24 (C) Institut für Physik, Universität Rostock Oliver Grünberg Analyse des Zerfalls B ! ˙cCC p bei BABAR 36 Siegen E-25 (A) Fachbereich 7 - Physik, Universität Siegen Marcus Rammes Untersuchung radiativer Top-Quark-Prozesse pp ! t tN am ATLAS-Detektor 37 Wuppertal E-26 (B) Universität Wuppertal Sebastian Weber Positionskorrektur des CALICE-Kalorimeters (Detector Alignment) 39 Karlsruhe E-18 (C) 8 32 mit dem ATLAS- 32 35 36 Theorie Stadt Nr. (Gr.) Name Titel des Vortrags Institut Seite Amsterdam Reinier De Adelhart TooropNikhef T-1 (A) Familiensymmetrien und GUTs 40 Berlin T-2 (B) Mohammad Assadsolimani Institut für Physik, HU Berlin Numerische NLO-Rechnungen in QCD 41 Bielefeld T-3 (C) Marcel Müller Universität Bielefeld Thermodynamischer Limes und Kontinuumlimes von Meson-Screeningmassen 42 Dortmund T-4 (A) Theoretische Physik III, TU Dortmund Danny van Dyk Die Vorzüge des Zerfalls BN ! KN l C l bei großen Dileptonmassen 43 Dresden T-5 (B) Freiburg T-6 (C) Institut für Kern- und Teilchenphysik, TU Dresden Alexander Voigt Die Berechnung von Schwellenkorrekturen im Exzeptionellen Supersymmetrischen Standardmodell (E6 SSM) Universität Freiburg Sebastian Schmidt Implementation von Parton Showern für WHIZARD Hamburg T-7 (A) Sarah Andreas Hidden Sektor Teilchen Hamburg T-8 (B) Patrick Rieth Theorie, DESY On-Shell-Renormierung von Mischungsmatrizen 46 Karlsruhe T-9 (C) Institut für Theoretische Physik, KIT Eva Popenda Der flavorverletzende Zerfall tQ1 ! c C Q 01 auf Einschleifenniveau 47 Karlsruhe T-10 (A) Institut für Theoretische Teilchenphysik, KIT Nikolai Zerf Higgs-Bosonproduktion durch Gluonfusion in NNLO im MSSM 48 Mainz T-11 (B) Institut für Physik, Universität Mainz Sebastian Becker Automatisierung von Einschleifenrechnungen 49 München T-12 (C) München T-13 (B) Max-Planck-Institut für Physik Peter Graf Axionen im frühen Universum Physik Department T31, TU München Andreas Joseph Flavorsymmetrien des Leptonsektors 52 München T-14 (A) Alexander Pritzel LMU München Über die Enstehung der Arten durch große Eichgruppen 53 43 44 Deutsches Elektronen Synchrotron, DESY Institut für Theoretische Teilchenphysik, KIT Regensburg Markus Bobrowski T-15 (B) Mischung neutraler D-Mesonen im Standardmodell 45 51 54 Wien T-17 (B) Theoretische Physik 1, Universität Siegen Patrick Gelhausen Colorflow-Methode bei QCD-Prozessen Fakultät für Physik, Universität Wien Patrick Otto Ludl Endliche Familiensymmetriegruppen im Leptonsektor 56 Wuppertal T-18 (A) Universität Wuppertal Hendrik Mantler Higgs-Produktion durch Gluonfusion im MSSM 58 Siegen T-16 (A) 55 9 Würzburg T-19 (B) Zeuthen T-20 (A) 10 Institut für Theoretische Physik und Astrophysik, Universität Würzburg Bestimmung der R-paritätsverletzenden Parameter im MSSM mit bilinear gebrochener R-Parität Dirk Hesse NIC, DESY Automatisierte Gitterstörungstheorie im Schrödinger Funktional Frank Thomas 59 60 D. Detektor- und Beschleunigertechnologie D-1 (A) T2K – Konzept und aktueller Stand D ENNIS T ERHORST III. Physikalisches Institut B, RWTH Aachen Das in Japan aufgebaute long baseline Neutrinooszillations-Experiment T2K hat Anfang diesen Jahres begonnen Daten aufzuzeichnen. Es wird mit einem hochintensiven Strahl Myon-Neutrinos die Oszillation zu Elektron-Neutrinos vermessen. Dabei sollen sowohl das Erscheinen der Elektron-Neutrinos, wie auch das Verschwinden der Myon-Neutrinos betrachtet werden und daraus wichtige Parameter der leptonischen Mischungsmatrix des Standardmodells bestimmt werden. Insbesondere soll der kaum bekannte Mischungswinkel 13 bestimmt, bzw. stark eingeschränkt, werden. Der Vortrag gibt einen kurzen Überblick der zugrunde liegenden Mechanismen, gefolgt von einer Darstellung des experimentellen Aufbaus. Abschließend wird der aktuelle Stand und erste Analysen gezeigt. D-2 (B) Mikrostrukturierte Gasdetektoren mit pixellierter Auslese U WE R ENZ Universität Freiburg In den vergangenen Jahren erfuhr die Forschung an auf Gas basierenden Detektoren für den Nachweis geladener Teilchen neuen Anschub. Durch die Entwicklung sogenannter Mikrostrukturierter Gasdetektoren (MPGD) war es möglich, neue Anwendungsgebiete für diese Art von Spurkammern aufzustoßen. Die MPGDs bestehen im Gegensatz zu ihren Vorfahren, den Vieldraht-Proportional-Kammern (MWPCs), nicht aus Reihen von Drähten, sondern machen sich moderne industrielle Entwicklungen aus den Bereichen Elektronik und Mikroelektronik zur Bearbeitung von Platinen und Halbleitern zunutze. Während im Falle der Drahtkammer die Auslesegranularität und damit das Auflösungsvermögen der Detektoren durch die mechanische Stabilität der Drähte und damit im wesentlichen deren Durchmesser beschränkt war, besteht diese Limitation bei Verwendung von MPGDs nicht mehr. Diese bestehen ihrerseits aus feinen Strukturen im Bereich weniger Mikrometer, welche mit Hilfe photolithographischer Prozesstechniken und moderner Materialien aus der Mikroelektronik modelliert werden. Einer der wichtigsten Vertreter seiner Gattung ist der sogenannte Gas-Elektron-Multiplier (GEM). Abbildung D.1 a) illustriert die Funktionsweise einer GEM. Diese besteht aus einer 50 m dicken hochiR solierenden Kapton-Folie, welche beiderseits jeweils mit einer 5 m starken Kupferschicht bedeckt ist. In diese drei Materiallagen werden doppel-konische Löcher geätzt. Durch Anlegen einer Spannung von einigen hundert Volt ( 300 500 V) treten in den Löcher sehr hohe Feldstärken ( 60 120 kV=cm) auf, in welchen die Ladungsvervielfachung durch heftige Kollisionen der primären Ladung mit den Atomen bzw. Molekülen des Nachweisgases stattfindet. Mehrere GEMs können kaskadiert werden um die Gasverstärkung weiter zu erhöhen und gleichzeitig die Wahrscheinlichkeit eines zerstörerischen Funkenüberschlags gering zu halten. Wie in Abb. D.1 b) dargestellt, findet der Teilchennachweis in einem Driftvolumen statt, welches sich 12 42. Herbstschule für Hochenergiephysik Maria Laach 2010 vor der eigentlichen Stufe der Gasverstärkung befindet. Ein elektrisches Feld lässt die primär erzeugte Ladung von typischerweise einigen dutzende Elektronen in Richtung der GEM driften. Dort findet die Ladungsvervielfachung zur Auslese des Signals statt, welche bis vor wenigen Jahre ausschließlich durch konventionelle Elektronik bewerkstelligt wurde. Diese beruhte auf segmentierten, metallischen Flächen zur Sammlung der Ladung in Verbindung mit ladungsempfindlichen Verstärkern und weiterer signalverabeitender Elektronik. Nun stellt allerdings diese Auslesekonzept den limitierenden Faktor für die Auslesegranularität bei der Konstruktion von MPGD basierenden Spurkammern da. Auf Grund technologischer Einschränkungen können die verwendeten segmentierten Metallflächen zur Ladungssammlung nicht kleiner als mehrere hundert Mikrometer gefertigt werden - etwa ein Faktor fünf größer als die Strukturen von GEMs. Seit wenigen Jahren verfolgen nun zwei deutsche Forschungsgruppen recht erfolgreich den Versuch einer sogenannten pixellierten Auslese der GEM. Dies bedeutet, dass die eben beschriebenen segmentierten Metallflächen durch einen hochintegrierten, pixellierten Baustein, vergleichbar dem CCD-Chip einer Digitalkamera, ersetzt wird. Dabei bedient man sich bereits existierender, sogenannter hybrider, Halbleiterdetektoren, welche schon seit längerem in zahlreichen Experimenten der Hochenergiephysik Verwendung finden und benutzt den dort verbauten ladungsempfindlichen pixellierten Auslesechip. Die hier vorgestellte Arbeit befasst sich dabei vor allem mit den Chips der MediPix-Familie, dem MediPix2- und TimePixChip. Diese bestehen aus 256 256 Pixeln mit einer Größe von jeweils 55 55 m2 . Abbildung D.1 c) zeigt den TimePix-Chip mit einer aktiven Fläche von 1; 4 1; 4 cm2 . Damit ist nun die Granularität der Auslese in der gleichen Größenordnung wie die Strukturen der MPGDs selbst und schränkt daher nicht länger das Auflösungsvermögen des Detektors ein. Während der MediPix-Chip lediglich die Anzahl von Ereignissen zählen kann, ist der TimePix-Chip außerdem in der Lage die Driftzeit zu messen. Mit Hilfe dieser kann, bei bekannter Driftgeschwindigkeit der primär erzeugten Ladung im Gas, die Position der Teilchenspur senkrecht zur Ausleseebene vermessen werden. Ohne die Information über die Driftzeit wäre lediglich eine zweidimensionale Projektion der Spur auf die Ausleseebene rekonstruierbar. Zusätzlich kann der TimePix-Chip alternativ auch die Dauer eines Signales auf einem Pixel oberhalb einer einstellbaren Schwelle messen. Diese sogenannte “TimeOver-Threshold” (TOT), in welcher sich das Eingangssignal über der Schwelle befindet, ist proportional zur dort deponierten Ladung. Mit Hilfe der TOT lassen sich daher Rückschlüsse auf den Energieverlust eines Teilchens im Detektor ziehen. Dieser Vortrag zeigt Resultate eines Versuchsaufbaus, s.a. Abb. D.1 b), bestehend aus drei kaskadierten GEMs zur Gasverstärkung in Kombination mit einem TimePix-Chip zur Signalauslese. Verschieden Studien zur Energie-, Orts- und Zeitauflösung zeigen die Potenz eines solchen Systems. Abbildung D.1.: a) Simulation der Äquipotential- und der Feldlinien einer GEM. Eingezeichnet: Spur eines ionisierenden Teilchens und Vervielfachung der Primärladung. b) Schematische Darstellung des Versuchsaufbaus bestehend aus: 6 mm hohen Driftvolumen, 3-fach GEM Stapel und MediPix2/TimePix-Chip. c) TimePix-Chip mit 256 256 Pixeln von jeweils 55 55 m2 Größe. Rahmen l.u.: vergrößerte Darstellung der Pixelmatrix. D. Detektor- und Beschleunigertechnologie 13 D-3 (C) MPGD-Studien mittels präziser Laser-Photoelektronen K IM T EMMING Physikalisches Institut, Universität Freiburg Micro Pattern Gas Detektoren (MPGD) sind ein aktuelles Thema auf dem Gebiet der Detektorentwicklung für zukünftige Experimente wie den SLHC (ATLAS und CMS) sowie den ILC. Die Forschungsgruppe RD51 des CERN beschäftigt sich mit der Untersuchung, Weiterentwicklung und Produktion von MPGD wie zum Beispiel MicroMeGas, Resistive Thick GEM (RETGEM) und deren Auslese. Besondere Aufmerksamkeit gilt dabei den nach wie vor unvermeidlichen Durchschlı̈¿ 12 gen und elektrischen Entladungen im gasgefüllten Nachweisvolumen. Die Vermeidung von Beschädigungen vornehmlich der Elektronik und Ausleseeinheit der Detektoren ist ein wichtiges Teilziel der Forschungen. Dies kann einerseits durch Begrenzung des maximalen Auslesestroms durch einen Resistive Layer geschehen, der auf die Auslesepads aufgebracht wird. Andererseits könnte die maximale durchschlagsfreie Ladungsdichte im Gasvolumen erhöht werden, indem eine geschickte Wahl der Anoden- und Kathodengeometrie und deren Anordnung im Detektor getroffen wird. Zur präzisen Untersuchung von verschiedenen Arten und Aspekten der MPGD konstruieren und bauen wir daher eigens eine Messkammer auf. Mit deren Hilfe wird es möglich sein, zeitgenau nachvollziehbar an definierten Orten im homogenen Driftfeld der MPGD Elektronen zu erzeugen, die dann vermessen werden können. Ein UV-Laserstrahl wird dazu aufgespalten und löst in verschiedenen Höhen über dem Detektor Photoelektronen aus Aluminiumstreifen aus. Über die regelbare Intensität des Lasers ist es möglich, auch einzelne Elektronen zu erzeugen, deren Entstehungszeit und -ort, sowie Driftzeit im homogenen Feld des Gasvolumens sehr genau bekannt sind. Zur Referenzmessung ist der alternative Nachweis mittels konventioneller Drahtauslese vorgesehen. Für verschiedene MPGD (MicroMeGas, GEM) werden Studien zur Reduktion der Durchschlagsneigung durch Veränderung der Detektorgeometrie angestrebt. Zusätzlich sollen auch Messungen zur Nachweiseffizienz durchgeführt werden. Vorgestellt werden die technische Planung und die Konstruktion der Messkammer. Erste Messungen werden voraussichtlich Ende Herbst 2010 durchgeführt werden. D-4 (A) Konstruktion eines Szintillator-Trigger-Hodoskops für Testmessungen bei hohem radioaktivem Untergrund S TEFANIE A DOMEIT LMU München Zur Impulsbestimmung von Myonen werden im ATLAS-Detektor am LHC unter anderem sogenannte Monitored Drift Tube (MDT) Kammern eingesetzt. Dabei handelt es sich um eine Anordnung aus Driftrohren zusammen mit einem optischen System zur Überwachung von Verformungen sowie Temperatursensoren. Die Driftrohre der MDT-Kammern sind teilweise hohen Untergrundraten ausgesetzt. Der Hauptanteil des Strahlungsuntergrundes setzt sich dabei aus niederenergetischen Photonen sowie Neutronen zusammen. Auf der Basis von simulierten Untergrundprozessen für eine Designluminosität von 1034 cm12 s wird gefordert, dass die Driftrohre auch bei der maximal erwarteten Untergrundrate von 300 kHz pro Rohr weiterhin funktionieren. Mit der geplanten Weiterentwicklung von LHC zu SLHC und der damit verbundenen Verzehnfachung der Luminosität muss mit einer entsprechenden Steigerung der maximalen Untergrundrate auf 3000 kHz pro Driftrohr gerechnet werden. Um das Verhalten der MDT-Kammern bei SLHC-Untergrundbedingungen zu prüfen, wurde an der Gam- 14 42. Herbstschule für Hochenergiephysik Maria Laach 2010 ma Irradiation Facility (GIF) am CERN ein Programm zur Untersuchung alternativer Driftgase und Driftgeometrien durchgeführt. Ziel ist es, die Ortsauflösung kosmischer Myonen in den Driftrohren bei unterschiedlichen Untergrundraten zu studieren. Der Teilchenuntergrund von 662 keV -Partikeln wird dabei von einer 566 GBq starken 137 Cs-Quelle erzeugt. Zur Durchführung der oben genannten Messung wird eine Triggereinheit benötigt, welche auch bei hohen Untergrundraten den Durchgang von Myonen eindeutig nachweisen muss, ohne dabei auf -Treffer sensitiv zu sein. Hierzu wird ein vierlagiges, segmentiertes Trigger-Hodoskokp aus 24 Einzel-Szintillatoren eingesetzt. Die zu untersuchenden Driftrohre sind dabei zwischen der obere und unteren Doppellage des Hodoskops eingeschoben. Ein zuverlässiger Trigger auf kosmische Myonen konnte dabei einerseits durch die zeitliche Koinzidenz aller vier Hodoskoplagen innerhalb der geringen Zeitspanne von 30 ns erreicht werden. Desweiteren erlauben optimierte Diskriminatorschwellen das Aussortieren von Untergrundereignissen auf Grund der geringeren Pulshöhe von -Treffern. Es wird weiterhin gezeigt, wie die Unterteilung zweier der Hodoskoplagen in sieben schmale Szintillatoren mit Ausrichtung parallel zu den Driftrohren eine vorläufigen Festlegung der Myonenspur ermöglicht. Hierdurch können bei der Datenanalyse Untergrundtreffer in Driftrohren außerhalb des Myonen-Spurbereich aussortiert werden. Eine weitere Korrektur der Driftdaten ist durch die aufgenommenen TDCSpektren der Hodoskop-Szintillatoren möglich, mit deren Hilfe auf den Zeitpunkt des Myonentreffers in den Driftrohren zurückgerechnet werden kann. D-5 (B) Insertable B-Layer Upgrade des ATLAS Pixel Detektors N INA K RIEGER II. Physikalisches Institut, Universität Göttingen Der innerste Teil des ATLAS Detektors besteht aus dem sogenannten Pixel Detektor, dessen innerste Lage gerade einmal 5 cm vom Wechselwirkungspunkt der Proton-Proton Kollision entfernt ist. Durch diese Nähe erfährt das sensitive Material, welches aus Silizium besteht, eine hohe Strahlendosis. Untersuchungen zeigen, dass mit dem jetzigen Pixeldetektor die benötigte Ortsauflösung nach etwa 7 Jahren LHC Laufzeit nicht mehr gegeben ist. Aufgrund dieser Schädigung und einer nur kurzen Installationszeit des neuen Detektors während einer LHC Laufzeit Unterbrechung wurde das Insertable B-Layer (IBL) Projekt ins Leben gerufen. Hierbei soll eine neue innerste B-Lage des Pixel Detektors zusammen mit einem neuen Strahlrohr in den bisherigen Detektor hineingeschoben werden. Da der Abstand dieser Lage 3,7 cm zum Kollisionspunkt beträgt, ist die Strahlendosis noch größer und die Verarbeitung von strahlenharten Komponenten besonders wichtig. Das sensitive Material sowie ein strahlenharter Auslesechip, der das gemessene analoge Signal in ein digitales umwandelt, sind die wesentlichen Bestandteile, die an das neue System angepasst werden müssen. Hinzu kommt der Bedarf eines neuen Auslesesystems, welches an den neuen Chip sowie an die höhere Datenrate angeglichen ist. Da ein wesentlicher Aspekt die Kompatibilität mit dem bereits bestehenden ATLAS Pixel Auslesesystem ist, wird das mehrfach bewährte VME Auslesesystem beibehalten. Hier muss u.A. die datenverarbeitende Auslesekarte, der Read-Out-Driver (ROD), angepasst werden. Seine Aufgabe ist zum Einen das Formatieren und die Fehlererkennung der Daten. So werden die Informationen aller Module eines Ereignisses zu einem einzigen Datenpaket verarbeitet und die Daten auf Fehler untersucht. Zum Anderen besteht die Aufgabe des RODs aus dem Histogrammieren und Analysieren der Daten, die z.B. bei einer Scanreihe oder einer Kalibration entstehen. Die dafür benutzte Software ist im ersten Fall durch Field Programmable Gate Arrays (FPGAs) implementiert. Im Letzteren durch Digitale Signal Prozessoren (DSPs), die ähnlich wie eine CPU komplizierte Vorgänge in mehreren Prozessen gleichzeitig verarbeiten können. Neben dem D. Detektor- und Beschleunigertechnologie 15 Histogrammieren und Analysieren wird ein weiterer DSP zur Steuerung der gesamten Karte verwendet (Master DSP). Innerhalb des IBL-Projektes werden diese bestehenden Komponenten durch neuere und daher weniger Bestandteile ersetzt. Zudem werden die aktuellen Datenraten von 40Mb/s und 80Mb/s (abhängig von der Detektorlage) auf 160Mb/s erweitert. Um hier die Fehlerdetektierung während des Datentransfers zu verbessern wird zusätzlich die 8b/10b Kodierung eingeführt. In diesem breiten Feld des IBL Projektes wird meine Tätigkeit die Umprogrammierung des Master DSPs sein, der an das neue Datenprotokoll und den Speicherzugriff des Auslesechips angepasst werden muss. D-6 (C) Simulation eines DEPFET Pixel Detektors in Testrahlmessungen B ENJAMIN S CHWENKER II. Physikalisches Institut, Universität Göttingen Für das geplante Belle II Experiment am KEK in Japan sind DEPFET Pixel Sensoren zur Vertexrekonstruktion vorgesehen. Zur Optimierung der Geometrie des Pixel Detektors ist eine zuverlässige Simulation der DEPFET Sensoren erforderlich. Von besonderem Interesse ist hierbei eine Abschätzung der erreichbaren Ortsauflösung einer einzelnen DEPFET Matrix. Die Simulation eines DEPFET Sensors wurde anhand von Teststrahlmessungen mit Prototyp Modulen experimentell validiert. Der Belle Detektor befindet sich am Elektron-Positron Speichering KEKB am Hochenergie Forschungszentrum KEK. Der Speicherring wird bei einer Schwerpunktsenergie entsprechend der Y .4S / Resonanz, die zu 96% in B Mesonen zerfällt, betrieben. Ziel des Belle Detektors ist die Untersuchung der CP Verletzung im System der B-Mesonen. Belle II ist ein geplanter Upgrade für den Belle Detektor ausgelegt für den Betrieb bei einer instantanen Luminosität von 8 1035 cm 2 s 1 . Zentrale Anforderungen an einen Pixel Detektor für Belle II sind die Installation auf der Strahlröhre nahe am Kollisionspunkt, ein sehr niedriges Materialbudget zur Minimierung von Vielfachstreuung und eine hohe Ortsauflösung. Im DEPFET-Sensor (DEPleted Field Effect Transistor) ist die erster Verstärkerstufe in jedem einzelnen Pixel integriert. Das Substrat eines FETs wird seitwärts-depletiert. Dadurch und durch die Wahl von geeigneten Implantationsparametern wird ein Potenzialminimum für Elektronen unter dem Kanal des Transistors erzeugt. Dieses Potenzialminimum wird als internes Gate bezeichnet. Elektronen, die beim Durchgang eines ionisierenden Teilchens erzeugt werden, werden im internen Gate gesammelt und steuern die Leitfähigkeit des Transistorkanals. Nach der Auslese des Transistorstroms werden die Elektronen über einen Reset-Mechanismus aus dem internen Gate entfernt. DEPFET Sensoren können auf eine Dicke bis zu 50 m gedünnt werden und erlauben einen Betrieb ohne Auslesechips oder aktive Kühlung auf der aktiven Sensorfläche. Die Zielsetzung der hier vorgestellten Arbeit war die Weiterentwicklung und Validation der Simulation einer DEPFET Pixel Matrix. Zur Verfügung standen hierzu Daten aus Testrahlmessungen ausgeführt am CERN SPS in den Jahren 2008/2009. Für die Messungen wurde ein DEPFET Teleskop mit Submikrometer Auflösung und ein DEPFET Testsensor mit 24x24 m2 Pixelgröße und einer Dicke von 450 m eingesetzt. Verschiedene Variablen wie z.B. Clustersignal, Clustergröße und Ortsauflösung wurden zwischen Simulation und Experiment verglichen. Weiterhin konnte auf detaillierte Simulationen der elektrostatischen Potenziale im DEPFET Pixel unter Berücksichtigung aller Implantationen zurückgegriffen werden. 16 42. Herbstschule für Hochenergiephysik Maria Laach 2010 D-7 (A) Niederenergetische Pion-Schauer in einem hochauflösenden Hadron-Kalorimeter N ILS F EEGE Universität Hamburg / DESY Die CALICE Kollaboration erforscht mehrere mögliche Kalorimetertechnologien für einen Detektor an einem zukünftigen e C e Linearbeschleuniger. All diese Kalorimeter zeichnen sich durch eine hohe longitudinale und transversale Segmentierung aus, die zur Schauerseparation bei der Anwendung von Particle Flow Rekonstruktionsalgorithmen benötigt wird. Im Rahmen dieser Forschung wurde ein Prototyp für ein hadronisches Stahl-Plastikszintillator-Samplingkalorimeter (AHCAL) mit 38 sensitiven Lagen konstruiert. Jede Lage ist aus 216 nebeneinander angeordneten Szintillatorziegeln zusammengesetzt. Die Messung des Szintillationslichts aus den einzelnen Ziegeln erfolgt durch neuartige Photodetektoren auf Siliziumbasis, die im Geiger-Modus betrieben werden (so genannte SiPMs). Das Ansprechveralten der SiPMs ist nicht linear, und ihre Kalibration hängt von der Betriebsspannung und der Temperatur ab. Diese Effekte müssen bei der Detektorkalibration entsprechend berücksichtigt werden. Dank seiner hohen räumlichen Auflösung ist das AHCAL über seine Rolle in der Detektorentwicklung hinaus ein geeignetes Instrument zur Überprüfung und zum Vergleich verschiedener Monte Carlo Modelle für Hadronen. Der Energiebereich unterhalb von 10 GeV ist dabei besonders interessant, da sich hier die Geltungsbereiche verschiedener Modelle überschneiden. Außerdem nimmt die elektromagnetische Komponente in hadronischen Schauern mit kleiner werdender Energie ab, so dass hadronische Effekte stärker hervortreten. In den Jahren 2008 und 2009 wurde das AHCAL gemeinsam mit einem Tail Catcher und Muon Tracker für mehrere Wochen im Teststrahl der Meson Test Beam Facility am Fermilab betrieben. Während dieser Messzeiten wurden unter anderem Pion-Daten zwischen 1 GeV und 20 GeV gesammelt. Dieser Vortrag befasst sich mit einigen Aspekten der Kalibration des AHCAL Detektorprototypen und gibt einen Einblick in die Analyse der am Fermilab gesammelten Daten niederenergetischer Pionen. Außerdem werden erste Vergleiche dieser Daten mit verschiedenen Monte Carlo Modellen präsentiert. D-8 (B) Weiterentwicklung von Rekonstruktionsalgorithmen für Zeitprojektionskammern I SA H EINZE DESY Der International Linear Collider (ILC) ist ein in Planung befindlicher Linearbeschleuniger in dem Elektronen und Positronen zur Kollision gebracht werden sollen. Derzeit werden verschieden Detektorkonzepte entwickelt. Einer davon ist der International Large Detector (ILD). Für den ILD ist als zentrales Spursystem eine Zeitprojektionskammer (time projection chamber, TPC) vorgesehen. Eine TPC besteht im wesentlichen aus einem Gasvolumen zwischen einer Anode und einer Kathode. Durchquert ein geladenes Teilchen das Gasvolumen, wird das Gas entlang der Trajektorie ionisiert. Die so entstandenen Elektronen driften durch das angelegte elektrische Feld zur Anode wo sie dann ausgelesen werden. Zur Rekonstruktion von TPC Daten wird eine Software namens MarlinTPC entwickelt, die auf Marlin (Modular Analysis & Reconstruction for the Linear Collider) basiert. Der modulare Aufbau erlaubt eine parallele Entwicklung von verschiedenen Rekonstruktionsalgorithmen. Eine mögliche Rekonstruktionskette soll im Folgenden beschrieben werden. Die Rekonstruktion erfolgt in mehreren Schritten. Mit den einzelnen Pads in der Auslesestruktur werden zunächst Ladungsspektren aufgenommen (Ladung über Zeit). In diesen Spektren wird nach so genannten D. Detektor- und Beschleunigertechnologie 17 Pulsen gesucht, das sind zusammenhängende Zeitbins, in denen die gemessene Ladung höher ist als ein vorher gewählter Schwellenwert. Diese Pulse werden im nächsten Schritt zu Hits (Punkte im Raum) zusammengefasst. Als nächstes wird nach solchen Hits gesucht, die auf einer Spur liegen. Hierfür gibt es unterschiedliche herangehensweisen. Eine Methode ist die Houghtransformation, die sowohl für Geraden als auch für gekrümmte Spuren funktioniert. Da die Hits im Allgemeinen nicht genau auf einer Spur liegen, sondern darum streuen, liefert die Houghtransformation nur nährungsweise die richtigen Spurparameter, die als Anfangsparameter für einen Fit verwendet werden können. D-9 (C) Auslese-ASIC für Silizium Photomultipliers in PositronenEmissions-Tomographie W EI S HEN Kirchhoff Institut für Physik, Universität Heidelberg Silizium Photomultipliers (SiPMs) sind neuartige Photon Detektoren, die aus vielen parallel geschalteten in Geigermodus betriebenen Avalanche-Photodioden (Pixel) bestehen. Aufgrund ihrer hohen Verstärkungsfaktors, niedrige Betriebsspannung, geringe Größe gelten diese Sensoren als versprechende angesehen Kandidaten von Photon-Detektoren in Positronen-Emissions- Tomographie (PET) mit Time of Flight (ToF)-Fähigkeit. Übrigens, der Geiger-Modus Avalanche Mechanismus dieser neuen Sensor verspricht auch sehr schnelle Reaktionszeit. Daher haben wir einen Prototyp ASIC (STIC, AMS 0:35m CMOS Technologie) entwickelt, um das Limit der Zeitauflösung zu untersuchen. Abb. D.2 ist der Mikroskopie Foto von STIC, der schone auf den PCB platine geklebt hat. Der Chip besteht insgesamt aus 4 Kanäle. Jeder Kanal kann das Signal durch zwei verschiedene Methoden triggern, d.h. konstant Fraktion (CF) oder Leading Edge (LE). Die CF Diskriminierung ist durch spezielle aktuellen Modus Signal Processing Units durchgeführt. Die Time walk ist ca. 80ps für Eingangssignalbereiches 10:1, und die entsprechende jitter ist etwa 20ps. Mittelweile, die Leading Edge Triggerung ist durch einen Strom Komparator mit einer niedriger Schwelle ausgeführt. Die entsprechende Jitter ist circa 60 ps. Darüber hinaus, aufgrund der Breakdownspannung Variationen SiPMs eine spezielle DAC ist verwendet, um die Bias-Spannung von SiPMs an das Eingangssignal Linie zu tunen. Alle Diskriminierung Schwelle DACs sowie die Bias DAC ist von SPI-interface gesteuert. Die gesamte Power ist geringer als 10 mW für jeden einzelnen Kanal. Abbildung D.2.: Das Mikroscopie Foto Abbildung D.3.: Das Diagram Abb.D.3 zeigt das Diagramm des STIC-Kanals. Das Detektorsignal völlig fließt in das Stromkonverter wegen seiner niedrigen Eingangsimpedanz. Ein Stromspiegel Array innerhalb dem Stromkonverter kopiert der Eingangsstrom für die weitere Verarbeitung. Das Konstante Fraktion Modul ist wie der untere Teil des Diagramms dargestellt. Ein Stromspiegel verringert dieser Strom als eine abgeschwächte Kopie und eine zweite wird in einem Differenzierer zugeführt. Die beiden Ausgänge vermischt sich miteinander 18 42. Herbstschule für Hochenergiephysik Maria Laach 2010 zu einem bipolaren Signal für Nulldurchgang Timing. Einer schneller Stromkomparator fürht zugleich die Diskriminierung der bipolaren Stromsignal aus. Eine weiterere Replik der Differenzierer Ausgang ermöglicht einer Pre-Diskriminierung Logik für Compton-Streuung Photonen. Als eine Option zur Messung der Signalsladung, ein anderes Kondensator (hervorgehoben im Diagramm) parallel zur Eingangsstufe ist angeschaltet für Ladungsintegration (CF zugleich ausgeschaltet). Eine zusätzliche Pin ist geplant die Spannung dort zu überwachen. Für das LE-Modul, einen dritten Weg des Konverterausgang ist mit eine schnelle Stromkomparator verbunden, die entweder Leading Edge Discriminierung oder Time over Thershold (ToT) Impuls für Energie Messung herstellen kann. Also, zusammenfassend, kann der Chip in CF-Modus betrieben mit ToT als Ereignisse Auswahl oder in LE-Modus mit Ladungsintegration für Energie-cut. Messungen mit LED-Beleuchtung (Hamamatsu MPPC- 33-2x2-50) wurde durchgeführt, um die TimeWalk und Jitter des Chips zu charakterisieren. Das Ergebnis zeigt ein Time-Walk von ca. 360 ps für das Eingangspitzenstrom von 320A bis 3.2mA und die entsprechenden Jitter ist ca. 60 ps. Für SiPMs die mit anorganischen Szintillatoren verbunden werden, das Signal ist langsamer, damit die Jitter- und Time-Walk sollte größer sein. Messungen von Energiespektrum für LFS Kristall (3 cm3 cm15 cm) und MPPC mit Ladungsintegration -Methode zeigt eine volle FWHM von 11%. Die Zufallskoinzidenzen Zeitauflösungen Methoden, die mit dem Kristall und SiPM gemessen wurden, die in Abb D.5 zeigt wird. Abbildung D.4.: Das Energie Spectrum Abbildung D.5.: Die Zeitauflösung Neben Anwendung der Positronen-Emissions-Tomographie, der Chip eignet sich auch für andere Anwendungen mit Time-of-Flight Anforderung. Zum Beispiel, SiPM zusammen mit Organische Szintillatoren für MIP-Erkennung. Schnelle Abklingzeit der Organische Szintillator verspricht immer ein kleinen Timewalk und Jitter der Diskriminierung. D-10 (A) Das sLHC-Upgrade des ATLAS-Silizium-Streifendetektors C ONRAD F RIEDRICH DESY Ende März 2010 konnten am 27 km langen LHC-Beschleuniger bei Genf erstmals Protonen bei Schwerpunktsenergien von 7 TeV zur Kollision gebracht werden. Damit ist zwar bisher nur die Hälfte der zukünftig geplanten maximalen Kollisionsenergie von 14 TeV in den Wechselwirkungspunkten des Beschleunigers erreicht, dessen ungeachtet jedoch ein neuer Weltrekord aufgestellt worden. Physikalische Analysen, welche auf die Entdeckung neuer Teilchen oder über das Standardmodell hinausgehender Physik abzielen, benötigen neben hohen Schwerpunktsenergien jedoch ebenso wesentlich größere Gesamtmengen an auswertbaren physikalischen Daten. Für die Messung dieser innerhalb absehbarer Zeit ist daher bis zum Jahr 2014 eine schrittweise Erhöhung der Kollisionsraten bis auf eine angestrebte Designluminosität von 1034 cm 2 s 1 geplant. D. Detektor- und Beschleunigertechnologie 19 Nach einer mehrjährigen Phase der Datennahme wird in den Jahren 2020/21 jedoch wieder eine längerfristige Abschaltung des Beschleunigerkomplexes für den Ausbau zum sogenannten super-LHC (sLHC) notwendig. Die sLHC-Upgrades sollen in nicht allzu ferner Zukunft mindestens eine Verfünffachung der derzeitigen Designluminosität (ca. 5 1034 cm 2 s 1 ) ermöglichen. Insbesondere werden hierfür der Austausch und Ausbau diverser Komponenten des Beschleunigersystems notwendig. Darüberhinaus müssen große Teile der Detektoren in den Kollisionspunkten erneuert bzw. durch modernere und leitungsfähigere Technik ersetzt werden. Im Falle des ATLAS-Detektors sind folglich weitreichende Erneuerungen und Upgrades einer Vielzahl von Komponenten notwendig, um den gestiegenen Anforderungen an Strahlenhärte der Detektorelemente und Geschwindigkeit der zugehörigen Ausleseelektronik gerecht zu werden. Gerade im inneren, zu großen Teilen aus Halbleiterdetektoren bestehenden Spurdetektor (Tracker), welcher insbesondere die Messung der Flugbahnen, Transversalimpulse und damit die Rekonstruktion der Vertizes der in den Kollisionen produzierten Sekundärteilchen ermöglicht, gehen die höheren Kollisionsraten mit einer um mehrere Größenordnungen gesteigerten Spurdichte und Strahlenbelastung einher. Allein aufgrund der in den Betriebsjahren vor dem sLHC-Upgrade akkumulierten Strahlenschäden in den heutigen Siliziumsensoren und zugehörigen Ausleseelektronik ist ein Austausch des gesamten inneren Detektors unvermeidbar. Besonders bei der in Zukunft gesteigerten Strahlenbelastung kann dieser eine weitere mehrjährige Funktion nicht mehr sicher gewährleisten. Um den neuen Anforderungen der höheren Spurdichten und Teilchenraten Rechnung zu tragen, muss von einem zukünftigen, komplett aus Si-Halbleiterdetektoren bestehenden Spurdetektor zudem eine wesentlich höhere Granularität gefordert werden. Neben einer Verkleinerung der Strukturen (Pixel bzw. Streifen) der Siliziumsensoren selbst, werden insbesondere eine höhere Geschwindigkeit der Ausleseelektronik und neue Konzepte zur Spannungsversorgung erforderlich. Im Vortrag werden, neben einer Zusammenfassung der neuen technologischen Anforderungen, die geplanten Lösungsansätze und mit den Upgrades einhergehenden geplanten technischen Veränderungen exemplarisch anhand des ATLAS Silizium-Streifendetektors erläutert und eigene Untersuchungen zur Charakterisierung von Si-Streifen-Sensoren sowie vorbereitende Arbeiten für den am DESY bis 2020 geplanten Bau einer kompletten Endkappe des ATLAS-Si-Streifendetektors vorgestellt. E. Experimentelle Analysen E-1 (A) Messung der inklusiven W ! und Z ! Wirkungsquerp schnitte in pp-Kollisionen bei s D 7 TeV mit dem CMS-Detektor A NDREAS G ÜTH III. Physikalisches Institut A, RWTH Aachen p Seit dem 30. März 2010 werden am LHC pp-Kollisionen bei einer Schwerpunktsenergie von s D 7 TeV aufgezeichnet. Ein wichtiger erster Schritt nach der Inbetriebnahme des Beschleunigers ist die Wiederentdeckung bekannter physikalischer Phänomene in diesem Energiebereich. Die Prozesse pp ! Z C X ! C C X sowie pp ! W C X ! C X können aufgrund ihrer großen Wirkungsquerschnitte von W BR.W ! / 10 nb bzw. Z BR.Z ! / 1 nb bereits zu Beginn der Datennahme am LHC untersucht werden. Die Eigenschaften der W- und Z-Bosonen sind in Präzisionsmessungen sehr genau bestimmt und ihre Produktion an Hadronbeschleunigern - in Übereinstimmung mit theoretischen Vorhersagen - vermessen worden. Für die am LHC erreichten Energien liegen theoretische Vorhersagen der inklusiven Produktionswirkungsquerschnitte in next-to-next-to leading order (NNLO QCD) mit Unsicherheiten kleiner als 4% vor. Damit dienen die betrachteten Prozesse einerseits als Standardkerzen“ für die Myonrekonstruktion im Detektor, die Myon-Identifikationskriterien und die ” Detektorsimulation, andererseits als Test für perturbative QCD und als Methode zur Luminositätsbestimmung. Die myonischen Zerfälle von W- und Z-Bosonen erzeugen hochenergetische, gut isolierte Myonen, welche im CMS-Detektor im Myonsytem getriggert und unter Hinzunahme der Spurinformation aus dem Siliziumtracker rekonstruiert werden. Das Myonsystem besteht im zentralen Bereich aus Driftkammern (jj < 1:1) und in der Vorwärtsregion (1:1 < jj < 2:5) mit höherer Teilchenrate und stärkerem Magnetfeld aus Kathodenstreifendetektoren, jeweils mit einer Ortsauflösung von 100 m. Widerstandsplattendetektoren ergänzen das Triggersystem. Der innerhalb des 3.8 Tesla Solenoidmagneten installierte Tracker liefert für die hier betrachteten Myonen mit Transversalimpuls pT 50 GeV eine Impulsauflösung von 1%. Aufgrund der klaren Signaturen können die Signale mit wenigen Schnitten vom Untergrund getrennt werden. Während in Z-Zerfällen beide Myonen direkt rekonstruiert werden können, muss im W-Kanal auf die fehlende transversale Energie zurückgegriffen werden. Die entsprechenden charakteristischen Verteilungen der selektierten Ereignisse sind die Z-Resonanz in der invarianten Masse M und der Jacobian-Peak in der transversalen Masse MT der W-Ereignisse. Das sehr reine Z-Sample um die Resonanz (erwarteter Untergrund < 1%) bietet die Möglichkeit, für die Bestimmung der Wirkungsquerschnitte benötigte Trigger-, Rekonstruktions- und Isolationseffizienzen direkt aus den Daten zu bestimmen, um die Abhängigkeit von der Detektorsimulation zu verringern (z.B. Tag-and-Probe Methode). Auch die Untergründe sollen aus Daten extrahiert werden, was insbesondere für den W-Kanal mit einem erwarteten Untergrund von 10% wichtig ist. Dazu bieten sich die Inversion der Schnitte auf MT und Myonisolation oder Anpassungen an die gemessenen MT - und Isolationsverteilung an (Template-Fits). E. Experimentelle Analysen 21 E-2 (B) Modellunabhängige Suche in CMS M ARK O LSCHEWSKI III. Physikalisches Institut A, RWTH Aachen Seit 2009 nimmt das CMS-Experiment am CERN erste Daten von Proton-Proton-Kollisionen des LHCBeschleunigers. Auf der Suche nach noch unbekannten physikalischen Phänomenen gibt es zwei Arten von Analysen: Modellabhängige Analysen suchen nach Übereinstimmungen mit neuen Theorien. Modellunabhängige Analysen suchen nach Abweichungen vom Standardmodell. Der Vorteil einer modellunabhängigen Suche ist, dass damit auch Phänomene entdeckt werden können, zu denen es noch keine passende Theorie gibt. MUSiC (=Model Unspecific Search in CMS) vergleicht CMS-Daten mit Monte-Carlo-Simulationen des Standardmodells. Dafür werden die Ereignisse nach den in ihnen enthaltenen Teilchenarten in Klassen eingeteilt. Für jede Klasse wird die Summe der Transversalimpulse, die invariante Masse und die fehlende transversale Energie betrachtet. In jeder dieser Verteilungen wird dann die Region mit der signifikantesten Abweichung zwischen Simulation und gemessenen Daten gesucht. Die statistische Signifikanz wird unter Beachtung einer Reihe systematischer Unsicherheiten bestimmt. Eine Möglichkeit, um die Abhängigkeit von Simulationen weiter zu reduzieren, ist es, analytische Funktionen an die Verteilungen anzupassen. Dies ist besonders geeignet, um Resonanzen zu identifizieren. Der Vortrag führt in die modellunabhängige Suche ein, erklärt die verwendeten statistischen Methoden und zeigt einige Beispiele mit Simulationen und Daten. E-3 (C) Suche nach neutralen MSSM Higgs Bosonen h=A=H im bassoziierten Zerfall in zwei Myonen am CMS-Experiment H ENDRIK W EBER I. Physikalisches Institut B, RWTH Aachen Eine der meist diskutierten Erweiterungen des Standard Modells stellt die Supersymmetrie dar, bei der zu jedem Teilchen im Standardmodell ein Superpartner eingeführt wird. Die einfachste Erweiterung in diesem Rahmen bietet dabei das MSSM (Minimal Supersymmetric Standard Modell). Im Rahmen dieser Erweiterung werden zwei Doublets von Higgs-Bosonen benötigt die jeweils an up- bzw. down-artige Fermionen koppeln. Nach der elektroschwachen Symmetriebrechung mischen diese Doublets zu fünf Higgs-Bosonen. Es werden zwei geladenen Zustände H C , H und drei neutrale Zustände h0 , H 0 und A0 für den Higgssektor im MSSM vorhergesagt. In meiner Arbeit beschäftige ich mich mit der Suche nach den neutralen Higgs Bosonen des MSSM am CMS Experiment des LHC Beschleunigers. Ich konzentriere mich dabei auf den in Abbildung E.1 dargestellten Zerfall der Higgs Bosonen in zwei Myonen. Der dominante Produktionsprozess der neutralen Higgs Bosonen bei LHC ist die Fusion zweier Gluonen über die Produktion von zwei b Quark Paaren von denen wiederum zwei b Quarks zum Higgs annihilieren. Diese assoziierte Produktion beinhaltet gleichzeitig eine Möglichkeit zur Identifikation der Signal Ereignisse mit Hilfe von b-tagging. Das Verzweigungsverhältnis für den Zerfall in Myonen ist zwar um 2 Größenordnungen kleiner als beim Zerfall in ein -Paar, allerdings bieten Myonen eine deutlich sauberere Signatur im Detektor und ermöglichen eine präzise Rekonstruktion der Higgsmasse. Die wichtigsten Untergrund Prozesse für diese Analyse sind die Produktion von Top Quark Paaren bei denen beide Top Quarks in ihrem Zerfall ein Myon erzeugen, und der Drell Yan Prozess bei dem das Z 0 = ebenfalls in zwei Myonen zerfallen kann. Der Drell Yan Prozess beinhaltet dabei einen Anteil von 22 42. Herbstschule für Hochenergiephysik Maria Laach 2010 irreduziblen Untergrundereignissen, da auch hier die b-assoziierte Produktion des Z Bosons möglich ist. Diese Ereignisse haben die selbe Topologie wie die Signalereignisse. Der untersuchte Massenbereich für die Higgs Bosonen ergibt sich aus dem mhmax Szenario bei dem die freien Parameter so gewählt werden, dass die Masse des leichten skalaren Higgs h0 maximal wird. Daraus ergibt sich ein Bereich bei etwa 130 GeV in dem die Masse aller drei gesuchten Higgs Bosonen fast identisch sind. Oberhalb dieses Bereichs sind dann immer noch die Massen des pseudoskalaren A0 und des schweren skalaren H 0 degeneriert. Das leichte skalare Higgs h0 spielt in diesem Bereich keine Rolle mehr, da der Produktionswirkungsquerschnitt für hohe Massen des h0 stark abnimmt und vernachlässigt werden kann. Im Folgenden wird nun durch eine Schnittbasierte Analyse eine möglichst gute Separation von Signal und Untergrund erzielt. Das resultierende Spektrum der invarianten Masse der Monte-Carlo Simulation wird zur Auswertung mit einer Hypothese, dass sowohl Untergrund als auch Signal vorhanden sind, gefittet. Anschließend wird das selbe Spektrum mit der Hypothese gefittet, dass kein Signal vorhanden ist und nur Untergrund Ereignisse in das Spektrum eingeflossen sind. Aus dem Verhältnis der Likelihoods der beiden Fits kann dann die Signifikanz berechnet werden. Im Rahmen des Vortrags wird die Möglichkeit der Entdeckung, bzw. des Ausschlusses der Higgs Bosonen am CMS Experiment besprochen. Dabei wird auch die benötigte Statistik für eine mögliche Entdeckung des Higgs Bosons in Abhängigkeit der Higgsmasse mA und tan ˇ angegeben. Des weiteren werden Alternativen zur Identifikation der Jets aus b Quarks erörtert. b g µ b H0/A0/h 0 g b µ b Abbildung E.1.: Feynman Diagramm des gesuchten Prozesses bb' ! .' D H 0 =A0 = h0 /. E-4 (A) Inklusive Bestimmung von Vub bei BABAR T HOMAS L ÜCK HU Berlin Die Elemente der Cabibbo-Kobayashi-Maskawa-Matrix (CKM-Matrix) sind fundamentale Parameter der Physik wie wir sie heute kennen. Um unser Verständnis der CKM-Matrix zu vergrößern wurde das BABAR - Experiment erdacht und gebaut, um Präzisionsmessungen von CKM-Matrixelementen durchzuführen. BABAR steht für “B And B-Bar” und ist das Experiment an einer der sogenannten B-Fabriken, dem asymmetrischen Elektron-Positron-Collider PEP II der sich am SLAC National Acelerator Center befindet. Diese B-Fabriken sind so konzipiert, dass sie B-Mesonen in grosser Zahl produzieren. Im Fall von BA- E. Experimentelle Analysen 23 BAR wird dies dadurch erreicht, indem ein Elektronenstrahl mit einer Energie von 9:1 GeV und ein Positronenstrahl mit einer Energie von 3 GeV im Zentrum des Experiments zur Kollision gebracht werden. Die so erreichte Schwerpunktsenergie von 10:58 GeV entspricht der Ruhemasse des Y .4S /-Mesons, einem gebundenen Zustand aus b und anti-b Quark, was die Produktion dieser Mesonen begünstigt. Die Y.4S/-Mesonen zerfallen fast ausschließlich in B und BN - Mesonen, deren Zerfälle mit BABAR studiert werden können. BABAR sammelte in den Jahren zwischen 1999 und 2008 Daten mit einer integrierten Luminosität von 429 fb 1 , was ca. 470 Mio produzierten B BN - Paaren entspricht. BABAR ist ein Mehrzweck - Detektor, bestehend aus einem “Silicon Vertex Tracker” (SVT) welcher präzise Informationen über die Postion von geladenen Teilchenspuren liefert. Im Anschluss an das SVT folgt die Drift-Kammer (DCH) welche zur Messung des Impulses von geladenen Teilchen dient und zur Teilchenidentifikation, durch Messung des mittleren Energieverlustes @E=@x, benutzt wird. BABAR verfügt desweiteren über einen Detektor für intern emittiertes Cerenkov Licht (DIRC), welcher ebenfalls zur Teilchenidentifikation genutzt wird. Das Elektromagnetische Kalorimeter (EMC) besteht aus 6580 CsI(TI) - Kristallen, und liefert Informationen über Teilchenenergien. All die zuvor genannten Subdetektoren befinden sich in einem 1:5 T starken Magnetfeld, welches durch eine supraleitende Spule bereitgestellt wird. In das Eisenjoch der Spule sind Lagen von Detektormaterial eingelassen, die zur Idenfikation von Muonen und neutralen Hadronen dienen. Thema meiner Arbeit ist die Bestimmung des CKM-Matrixelementes Vub aus dem inklusiven Leptonenergie-Spektrum von B ! Xu l Zerfällen. Im Gegensatz zu exklusiven Analysen, in denen man sich nur einen bestimmten Zerfallskanal ansieht, betrachtet man in einer inklusiven Analyse alle Zerfälle in denen das b-Quark im B-Meson semileptonisch in ein u-Quark zerfällt. Aus dem Energiespektrum des bei dieser Reaktion freiwerdenden Leptons kann man das partielle Verzweigungsverhältnis für B ! Xu l Zerfälle bestimmen, woraus dann Vub berechnet werden kann. Das Problem der inklusiven Bestimmung von Vub ist der Untergrund von b ! cl Zerfällen, die etwa 50 mal wahrscheinlicher als b ! ul Zerfälle sind. Um diesen Untergrund zu unterdrücken führt man die Messung am Endpunkt des Spektrums durch, da durch die Massendifferenz von u- und c-Quark der kinematische Endpunkt der Leptonenergie aus b ! cl Zerfällen bei 2:31 GeV liegt, während er bei b ! ul Zerfällen bei 2:64 GeV (gemessen im Schwerpunktssystem) liegt. Dabei liegt die Schwierigkeit darin den Schnitt auf die Leptonenergie so auszubalancieren, dass der b ! cl Untergrund möglichst gut unterdrückt wird, was einen hohen Schnitt im Leptonenergiespektrum entspricht, und einer möglichst guten Beschreibung des Zerfalls durch die Theorie, was einen möglichst niedrigen Schnitt im Spektrum erfordert. E-5 (B) Stau im LHC: Entdeckungspotential für R-Paritätsverletzende supersymmetrische Modelle S EBASTIAN F LEISCHMANN Physikalisches Institut, Universität Bonn Supersymmetrie (SUSY) als Symmetrie zwischen Bosonen und Fermionen gilt als vielversprechende Erweiterung des Standardmodells. Mit ihrer Hilfe können verschiedene theoretische Unzulänglichkeiten des Standardmodells, wie zum Beispiel das Hierarchieproblem der Higgsmasse, behoben werden. Mit der Einführung von Supersymmetrie verdoppelt sich der Teilcheninhalt der Theorie mindestens, da für jedes Fermion ein Boson eingeführt wird und umgekehrt. Darüberhinaus ergeben sich eine ganze Reihe neuer Kopplungen, welche neuartige Zerfälle hervorrufen können. Diese Kopplungen müssen im Einklang mit den bisherigen experimentellen Beobachtungen sein und schränken damit die supersymmetrische Erweiterung ein. So wird üblicherweise die Erhaltung der sogenannten R-Parität Rp D . 1/2S C3BCL verlangt, welche anschaulich zwischen Standardmodell-Teilchen und ihren Superpartnern unterscheidet. 24 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Damit werden effektiv auch Baryon- (B) und Leptonzahl (L) verletzende Kopplungen unterdrückt, welche anderenfalls zum schnellen Protonzerfall führen würden. R-Paritätserhaltung hat aber noch weitere wichtige phänomenologische Konsequenzen. So könnten supersymmetrische Teilchen nur paarweise erzeugt werden und das leichteste supersymmetrische Teilchen (lightest supersymmetric particle, LSP) muss stabil sein, da es kein weiteres SUSY-Teilchen gibt, in das es zerfallen könnte. Aus kosmologischen Gründen müsste dieses LSP neutral sein, da es in grosser Zahl kurz nach dem Urknall produziert worden sein müsste. Es stellt damit einen Kandidaten für die Suche nach Dunkler Materie dar. In Collider-Experimenten erwartet man somit signifikante Beiträge von fehlender transversaler Energie E = T durch jeweils zwei LSPs pro Ereignis, die den Detektor ungemessen verlassen. Allerdings existieren auch weitere diskrete Symmetrien, ausser R-Parität, welche einen schnellen Zerfall des Protons unterbinden können und somit experimentell zulässige Modelle vorhersagen. Dabei dürfen nur Baryon- oder Leptonzahl verletzende Kopplung auftreten. In R-Paritätsverletzenden ( R = p ) Modellen ergibt sich im Gegensatz zu Rp -Modellen eine andere Signatur in Collider-Experimenten, da das LSP zerfallen und damit auch geladen sein kann. Je nach Lebensdauer des LSP ergeben sich dabei sehr verschiedene phänomenologische Vorhersagen von hochionisierenden Teilchen im Falle eines semi-stabilen, geladenen LSP über späte Zerfälle von abgebremsten semi-stabilen LSPs bis hinzu klassischen“ Signa” turen für kurzlebige LSPs. Sowohl für das ATLAS als auch das CMS Experiment am LHC existieren eine grosse Anzahl von Untersuchungen des Entdeckungspotentials von Rp -SUSY (e.g. [1]), während R = p -Modelle mit kurzlebigem LSP noch kaum auf dem Menü“ der LHC-Experimente stehen. ” Im Rahmen des sogenannten mSUGRA-Modells, welche die über 100 Parameter des minimalen supersymmetrischen Standardmodells (MSSM) mit Rp -Erhaltung auf fünf Parameter vereinfacht, ergibt sich in weiten Teilen des interessanten Parameterbereichs als LSP das Stau ()-Slepton, Q der supersymmetrische Partner des Tau-Leptons[2]. In Rp -Modellen ist dieses wegen seiner Ladung ausgeschlossen, stellt in R = p -Modellen jedoch einen interessanten Kandidaten dar. Wir untersuchen zwei Szenarien mit -LSP, Q die unterschiedliche Leptonzahl-verletzende R = p -Kopplungen aufweisen [3, 4]. Diese beiden Szenarien können als Extremfälle der Phänomenologie von R = p mSUGRA-Modellen mit Stau-LSP aufgefasst werden. Im ersten Fall einer 121 (L1 L2 EN 1 ) Kopplung zerfällt das Stau in einem Vierkörperzerfall in Leptonen (Q1˙ ! ˙ ` `0 ˙ ). Dadurch wäre ein solches Szenario bereits mit einer integrierten Luminosität p von wenigen 100pb 1 bei einer Schwerpunktenergie von s D 7TeV mit dem ATLAS-Detektor zu entdecken. Der Vortrag stellt eine Strategie zur Ereignisselektion vor, welche ein nahezu untergrundfreies Signal-Sample ergibt. Mithilfe eines Scans im mSUGRA-Parameterraum kann gezeigt werden, dass diese Selektion hinreichend allgemein ist. Es wird dabei auch kurz auf die besonderen Probleme der Tau-Lepton-Identifikation in diesen Ereignissen eingegangen. Obwohl die Entdeckung derartiger Szenarien am LHC gut möglich ist, zeigt sich, dass die Messung der Stau-Masse schwierig ist. Auch wenn Standardmodell-Untergrund nur eine untergeordnete Rolle spielt, erschwert kombinatorischer Untergrund die Massenbestimmung erheblich. Darüberhinaus kann durch die auftretenden Neutrinos nur ein wenig ausgeprägter Endpunkt in der Verteilung der gemessenen invarianten Masse bestimmt werden. Im zweiten Fall einer 0311 (L3 Q1 DN 1 ) Kopplung zerfällt das Stau direkt in einem Zweikörperzerfall in zwei leichte Quarks. Damit weist die Signatur keine Leptonen aus dem Stau-Zerfall auf und kann dadurch weniger rein als im ersten Fall selektiert werden. In diesem Fall ist eine Unterscheidung zu reinen QCD-Ereignissen jedoch über den Zerfall eines Neutralinos in das Stau-LSP (Q 01 ! Q ) und die dabei auftretenden Tau-Leptonen möglich. [1] The ATLAS Collaboration, G. Aad et al., “Expected Performance of the ATLAS Experiment Detector, Trigger and Physics,” arXiv:0901.0512 [hep-ex]. [2] B. C. Allanach, A. Dedes and H. K. Dreiner, “The R parity violating minimal supergravity model,” Phys. Rev. D69 (2004) 115002, [Erratum-ibid. D72 (2005) 079902], [arXiv:hep-ph/0309196]. [3] B. C. Allanach, M. A. Bernhardt, H. K. Dreiner, C. H. Kom and P. Richardson, “Mass Spectrum in R-Parity Violating mSUGRA and Benchmark Points,” Phys. Rev. D75 (2007) 035002, [arXiv:hepph/0609263]. E. Experimentelle Analysen 25 [4] H. K. Dreiner, S. Fleischmann, S. Grab and P. Wienemann, in preparation E-6 (C) W+jets als Hauptuntergrundprozess für die Messung des Produktionswirkungsquerschnitts von Top-Antitop-Paaren im semileptonischen Zerfallskanal unter Anwendung von b-Tagging mit dem ATLAS-Detektor am LHC AGNIESZKA L EYKO Physikalisches Institut, Universität Bonn Das Top Quark ist das schwerste bis jetzt bekannte Quark, seine Existenz wurde erst vor 15 Jahren am Tevatron experimentell bestätigt. Top-Antitop-Paare werden hauptsächlich durch Gluon-Gluon-Fusion oder Quark-Antiquark-Annihilation erzeugt. Wegen der sehr kurzen Lebensdauer des Top-Quarks findet keine Hadronisierung statt, sondern das Top-Quark zerfällt direkt in ein W-Boson und ein Bottom-Quark. Im so genannten semileptonischen Kanal zerfällt das eine W-Boson leptonisch und das andere hadronisch, d.h. in zwei Jets. Die Signatur ist ein hochenergetisches Lepton, fehlende Transversalenergie durch das Lepton-Neutrino, zwei b-Jets aus den Bottom-Quarks und zwei leichte Jets. Gegenüber dem vollhadronischen Endzustand ist eine einfache Triggerselektion und Abgrenzung zum QCD Untergrund möglich. Gegenüber dem dileptonischen Endzustand ist das Verzweigungsverhältnis für diesen Kanal mit 4/9 gross. Zudem ist der Endzustand kinematisch überbestimmt. Der Nachteil des kleineren Signal zu Untergrund Verhältnisses kann durch Anwendung von b-Tagging Algorithmen verbessert werden. Generell ist es von grosser Bedeutung, die Untergrundprozesse gut zu verstehen und bestimmen zu können. Diese Bestimmung des Wirkungsquerschnitts und der Untergrundanteile basiert zum Teil auf MonteCarlo-Simulationen. Der Hauptuntergrundprozess für den semileptonischen Kanal ist die W-Boson Produktion mit zusätzlichen Jets, kurz W+jets. Leider ist die Simulation von W-Boson-Zerfällen mit mehreren Jets mit einer grossen Unsicherheit behaftet. Um daher den W+jets-Untergrund zuverlässig zu bestimmen, sollte der Prozess aus Daten abgeschätzt werden. Hier profitiert man von der Tatsache, dass die Wirkungsquerschnitt von W-Bosonen mit N zusätzlichen Jets proportional ist zum Wirkungsquerschnitt der Z-Bosonen mit N Jets. Letztere kann mit guter Reinheit aus Daten bestimmt werden. In dieser Studie wird insbesondere überprüft, wie b-Tagging Algorithmen die Bestimmung des Untergrunds aus Daten beeinflussen. E-7 (A) D -Photoproduktion mit assoziierten Jets und Vertices bei ZEUS S EBASTIAN M ERGELMEYER Universität Bonn Die Erzeugung von D -Mesonen im Regime der Photoproduktion mit mindestens zwei hochenergetischen Jets wurde mit Hilfe des ZEUS-Detektors am ep-Collider HERA untersucht. Für die Rekonstruktion der D -Mesonen wurden der goldene Zerfallskanal Œc ! DC ! D0 C ! K C C und seine ladungskonjugierte Variante benutzt. Die verwendeten Daten wurden in den Jahren 2003-2007 p bei einer ep-Schwerpunktsenergie von s D 318 GeV aufgenommen und entsprachen einer integrierten Luminosität von L D 370 pb 1 . 26 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Ein Schwerpunkt der Untersuchung war die Validation der Masse charm-angereicherter Jet-Vertices. Solche Jet-Vertices werden in neuen ZEUS-Analysen für die Identifikation von Charm- und Beauty-Jets benutzt, ohne sich dabei auf einen spezifischen Zerfallskanal zu beschränken. Mittels der D -Selektion konnten nun Charm-Jets angereichert und überprüft werden Es zeigte sich, dass die Charm-Vertex-Masse insgesamt gut simuliert ist. Auch Untersuchungen in Abhängigkeit von der Kinematik zeigten keine deutlich abweichenden Tendenzen. Für den totalen Wirkungsquerschnitt der D -Produktion im selektierten kinematischen Bereich, Q2 < 1 GeV2 ; 0; 2 < y < 0; 8; 3 GeV < pT .D / < 15 GeV; 2; 5 < .jet 1(2)/ < 2; 5; 1; 5 < .D / < 1; 5; ET .jet 1(2)/ > 6.7/ GeV R.D ; D -jet/ < 0; 6 wurden tot D 1; 39 ˙ 0; 03 nb gemessen. Die korrespondierende LO-Theorievorhersage ergibt LO D 1; 38 nb und beinhaltet einen nicht vernachlässigbaren Anteil an D -Mesonen aus Gluonaufspaltung, g ! cNc ! D X. Bei der Messung der differentiellen Wirkungsquerschnitte des D -Mesons und seines assoziierten Jets wurden abgesehen vom Bereich niedriger pT keine signifikanten Abweichungen von der Theorievorhersage gefunden. Die beobachteten Unterschiede in sind verträglich mit bisherigen Analysen. In Photoproduktion werden jedoch für einen Vergleich mit der Theorie NLO-Vorhersagen benötigt. Eine Erweiterung der Analyse auf diese Vorhersagen steht in Aussicht. E-8 (B) Technische Studien zur Messung des Z ! Wirkungsquerschnitts mit dem ATLAS-Experiment T HOMAS S CHWINDT Physikalisches Institut, Universität Bonn Die Suche nach dem Higgs-Bosons des Standardmodells ist eine der wichtigsten Aufgaben der Experimente am LHC. Obwohl die Masse dieses postulierten Teilchens nicht vorhergesagt werden kann, lassen elektroschwache Präzisionsmessungen vermuten, dass diese unterhalb von 160 GeV, der doppelten Masse des W-Bosons, liegt. In diesem Bereich zerfällt das Higgs-Boson zwar vorzugsweise in schwere Quarks N in Hadron-Kollisionen liefert jedoch der Zerfall H ! den besten Nachweis. Dabei treten (H ! b b), besonders häufig Endzustände auf, in denen eines der -Leptonen hadronisch zerfällt. Eine Entdeckung des Higgs-Bosons erfordert eine Messung des Untergrundes mit ähnlicher Signatur, der im betrachteten Massenbereich von Z ! -Ereignissen dominiert wird. Dabei ist insbesondere die Bestimmung des Spektrums der invarianten Masse m von Bedeutung, da diese sich durch fehlende Energiedepositionen der Neutrinos sowie durch Auflösungseffekte im Experiment gegenüber der Z-Resonanz deutlich verbreitert zeigt. Diese experimentelle Breite erschwert die Entdeckung eines möglichen HiggsSignals und soll daher durch kinematische Rekonstruktion des -Zerfalls verbessert werden. Eine weitere Herausforderung bei der Messung des Z ! Wirkungsquerschnitts mit Hilfe hadronisch zerfallender -Leptonen liegt in der Unterscheidung zwischen - und QCD-Jets. Da beide Objekttypen Spuren im inneren Detektor und Energiedepositionen in den Kalorimetern hinterlassen, muss ihre Identifikation anhand von verschiedenen Observablen durchgeführt werden, die beispielsweise die longitudinale und transversale Form der Energiedepositionen sowie Eigenschaften der Spuren beschreiben. Die dabei auftretenden Effizienzen und Fehlidentifikationsraten sind wichtige experimentelle Größen, die im laufenden Experiment bestimmt und optimiert werden müssen. E. Experimentelle Analysen 27 E-9 (C) Studien zum Zerfall Bs ! bei LHCb S EBASTIAN S CHLEICH TU Dortmund Eines der Ziele des LHCb-Experiments am LHC sind Präzisionstests der CP-Verletzung im Standardmodell (SM) und die Suche nach über das SM hinausgehender CP-Verletzung. Dies geschieht insbesondere durch die Analyse der Zerfälle von B-Mesonen. Da davon auszugehen ist, dass sich neue Physik vornehmlich in Beiträgen höherer Ordnung manifestiert, bieten sich insbesondere solche Zerfälle an, die bereits im Standardmodell durch Schleifenprozesse vermittelt werden. Ein solcher Zerfallskanal ist Bs ! , N in dem die Box dominierte B-B-Mischung mit dem Schleifen dominierten Zerfallsprozess interferiert. Hier verschwindet die CP-verletzende Phase im Standardmodell, so dass neue Physik in einem Nulltest gefunden werden könnte. Die Analyse wird dadurch verkompliziert, dass Bs ! ein Pseudoskalar nach Vektor-Vektor-Zerfall ist, dessen Endzustand als Überlagerung dreier verschiedener Drehimpulseigenzustände vorliegt. Da diese sich durch einen Faktor -1 in der CP-verletzenden Phase unterscheiden, müssen sie durch eine Winkelanalyse statistisch voneinander getrennt werden. Die zu erwartenden Signifikanzen der Analyse werden auf Toy-Monte-Carlo unter Rückgriff auf bestehende Messungen des Bs ! -Verzweigungsverhältnis dargestellt. Der LHCb-Detektor ist durch seine Bauweise speziell an die Erfordernisse präziser B-Physik angepasst. Sein Aufbau als Vorwärtsspektrometer trägt dem Erzeugungsmechanismus von B-Mesonen in pp-Kollisionen Rechnung, sein in direkter Strahlnähe positionierter Silizium-Spurdetektor erlaubt eine gute Vertexund damit Eigenzeitauflösung und sein RICH-System ist für die K--Separation von essentieller Bedeutung. Der Detektor befindet sich gegenwärtig in der Phase erster Datennahme, wobei sowohl seine Funktion als auch die korrekte Beschreibung im Monte-Carlo zu verifizieren sind. Im momentanen Stadium kommt für die Analyse der K--Teilchenidentifikation ein auf ! K C K -Zerfällen basierender Tag-and-ProbeMechanismus zum Einsatz. Dieser ermöglicht es, die Teilchen-Identifikations-Effizienz auf den Daten zu messen. Darüber hinaus lässt sich der differenzielle Wirkungsquerschnitt inklusiver -Produktion bestimmen. E-10 (A) Bestimmung der Fehlidentifikationsrate von -Leptonen durch Elektronen mit ATLAS am LHC PATRICK C ZODROWSKI Institut für Kern- und Teilchenphysik, TU Dresden In der minimalen supersymmetrischen Erweiterung des Standardmodells (MSSM) wird die Existenz von fünf Higgs-Bosonen vorhergesagt. Die Kopplung der drei neutralen (h, H und A), sowie der zwei geladenen (H˙ ) an Fermionen der dritten Generation ist eine Funktion von tan ˇ, dem Verhältnis der Vakuumerwartungswerte der beiden Higgs-Dupletts. Ein hoher tan ˇ Wert erhöht die Zerfallswahrscheinlichkeit der Higgs-Bosonen in Fermionen der dritten Generation. Die Produktion supersymmetrischer Higgs-Bosonen in Assoziation mit b-Quarks sowie deren anschließender Zerfall in Endzustände mit -Leptonen ist somit einer der wichtigsten Entdeckungskanäle am LHC. Ein gutes Verständnis der Rekonstruktionseffizienz für hadronisch zerfallende -Leptonen stellt damit eine der Grundvoraussetzungen für die Entdeckung von Higgs-Bosonen im MSSM dar. Elektronen ähneln in ihrer Signatur denen von hadronisch zerfallenden -Leptonen, insbesondere in Zerfällen mit einer Spur eines geladenen Hadrons, welche in 75 % aller Fälle von neutralen Pionen be- 28 42. Herbstschule für Hochenergiephysik Maria Laach 2010 gleitet werden und damit eine signifikante Energiedeposition im elektromagnetischen Kalorimeter haben. Die direkte Messung der Fehlidentifikationsrate von Elektronen in Endzuständen mit -Leptonen ist somit wichtig für die Bestimmung des Untergrundes zur MSSM-Higgs-Boson-Produktion. Algorithmen zur Unterdrückung des Elektron-Untergrunds, sogenannte Elektron-Vetos, sind Teil des -Rekonstruktionspaketes der ATLAS-Software. Sie sollen diese Fehlidentifikation durch Schnitte auf Variablen, mit deren Hilfe Leptonen und Elektronen sehr effektiv unterschieden werden können, vermindern. Ein Beispiel ist das Verhältnis der Anzahl der Hoch- zu Niederschwellensignale im Transition Radiation Tracker. Die nach den Elektron-Vetos verbleibende Fehlidentifikationsrate soll mit der vorgestellten Methode aus Daten ermittelt werden. Zunächst wird durch Auswahl eines sehr gut rekonstruierten Elektrons oder Positrons und eines zweiten Elektronkandidaten, der unterschiedliche Selektionskriterien erfüllen kann, ein Z-Boson bzw. J/ -Meson im Elektron-Positron-Zerfallskanal selektiert. Das ausgewählte Paar muss eine invariante Masse aufweisen, welche innerhalb eines vordefinierten Massenfensters der Masse der ursprüglichen Resonanz entspricht. Damit ist eine hohe Reinheit für das selektierte Elektron-Positron-Paar gewährleistet. Dem zweiten Elektron oder Positron wird ein -Kandidat zugeordnet, an dem nun die Elektron-VetoKriterien überprüft werden. Die Entscheidung der Veto-Algorithmen, von denen es verschiedene Abstufungen gibt, wird ermittelt und daraus eine Veto-Effizienz abgeleitet. Diese Effizienz steht in einem direkten Zusammenhang mit der Fehlidentifikationsrate. Auf Grund des Aufbaus des ATLAS Detektors wird diese als Funktion der sogenannten Pseudorapidität () dargestellt, welche eine Funktion des Polarwinkels ist. Des weiteren werden verschiedene Bereiche transversaler Energie (ET ) untersucht, da auch der -Identifikationsalgorithmus zwischen verschiedenen ET -Bereichen unterscheidet. Die so erhaltenen Informationen über die Fehlidentifikationsraten von -Leptonen nach Anwendung der bereitgestellten Veto-Algorithmen ist essenziell um fundierte Aussagen über Untergrundbeiträge zu Signalprozessen mit hadronisch zerfallenden -Leptonen bei ATLAS zu treffen. Im Vortrag wird die beschriebene Methode zur Abschätzung der Fehlidentifikationsrate und Ergebnisse der ersten ATLAS Daten bzw. Erwartungen für die Messung mit einer integrierten Luminosität von 10 pb 1 vorgestellt. E-11 (B) Exklusive Produktion von 0 Mesonen am COMPASS Experiment K ATHARINA S CHMIDT Physikalisches Institut, Universität Freiburg Ende der 1980er Jahre erregte die Spinstruktur des Nukleon große Aufmerksamkeit. Damals hatte das EMC-Experiment herausgefunden, dass der Spin des Nukleons nicht alleine durch die Beiträge der Valenzquarks erklärt werden kann. Es folgte ein detailliertes Studium der Spinbeiträge der einzelnen Valenzquarks, der Seequarks und der Gluonen. Doch die Ergebnisse der vergangenen Jahre machten immer deutlicher, dass ein wichtiger Schlüssel zur vollständigen Beschreibung des Nukleons im Verständnis des Bahndrehimpulsbeitrages der Konstituenten liegt. In dieser Zeit erregte auch das Konzept der Generalisierten Partonverteilungen (GPD) großes Interesse. Während die altbekannten Partonverteilungen die Impuls- und Spinverteilungen von Quarks und Gluonen im Hadron beschreiben, enthalten GPDs neben dem longitudinalen Impuls ergänzende Informationen über den transversalen Aufenthaltsort der Konstituenten. Diese zusätzliche Information ermöglicht auch eine Formulierung des Bahndrehimpulses mit Hilfe der GPDs. Der Wirkungsquerschnitt eines tiefinelastischen Streuprozesses kann im Bjorken Limit in einen sogenannten ’harten’ und ’weichen’ Anteil zerlegt werden. Während die Wechselwirkung der Quarks und Gluonen im Rahmen der perturbativen QCD berechnet werden können, wird die Struktur des Nukleons durch Partonverteilungen beschrieben. E. Experimentelle Analysen 29 Fordert man zusätzlich einen Impulsübertrag auf das Proton, so wird der nicht-pertubative Anteil des Streuprozesses durch GPDs beschrieben. Diese Forderung kann experimentell in der exklusiven Produktion von Photonen oder Vektormesons umgesetzt werden. Die Winkelverteilung der Vektormesonen ist sensitiv auf die GPDs H und E, die wiederum in die Summenregel von X. Ji zur Beschreibung des Bahndrehimpulses einfließen. Das Compass (COmmon Muon Proton Apparatus for Structureand Spectroscopy) Experiment am SPS Beschleuniger am CERN bietet mit einem 160 GeV/c longitudinal polarisierten Myonenstrahl und einem wahlweise transversal oder longitudinal polarisierten Target die Möglichkeit zur umfangreichen Erforschung der Spinstruktur des Nukleons. Im Jahre 2004 wurden an dem Fixed-Target-Experiment erstmals Daten mit einem transversal polarisierten 6 LiD Target genommen, das die Untersuchung von polarisierten Neutronen ermöglicht. 2007 folgte schließlich die Datennahme mit einem transversal polarisierten NH3 Target und somit die Erforschung polariserter Protonen, die aktuell in diesem Jahr fortgesetzt wird. Dieser Vortrag beinhaltet eine Einfürung in die Analyse der exklusiv produzierten 0 Mesonen aus der Streuung eines longitudinal polarisierten Myonenstrahls an einem transversal polarisierten NH3 Target, sin. S / und gibt Einblicke in die Extraktion der transversalen Target-Single-Spin-Asymmetrie AU T . E-12 (C) Messung generalisierter Partonverteilungen bei HERMES und P ANDA I RINA B RODSKI II. Physikalisches Institut der JLU Gießen Generalisierte Partonverteilungen (GPDs) beschreiben die innere Quark- und Gluonstruktur der Hadronen. Sie vervollständigen die Information aus Partonverteilungen und Formfaktoren zu einem mehrdimensionalen Bild im Phasenraum der Partonen. Nach den theoretischen Betrachtungen von Xiangdong Ji besteht eine direkte Verbindung zwischen den GPDs und dem eichinvarianten gesamten Drehimpuls der Quarks und Gluonen. Die GPDs stellen deshalb eine erste Möglichkeit dar, den Bahndrehimpulsanteil der Quarks am Spin des Nukleons experimentell zu bestimmen. Am HERMES-Experiment in Hamburg am DESY wurde tief-virtuelle Compton-Streuung (DVCS) gemessen. Dabei koppelt ein vom Elektron emittiertes virtuelles Photon an das Proton welches anschließend ein reelles Photon emittiert. Das Proton bleibt bei diesem harten Streuprozess intakt . C p ! C p/. Der Prozess wird durch ein QCD-Handbag Diagramm beschrieben, bei dem die Compton-Streuung an einem quasifreien Quark passiert. Der niederenergetische Teil des Prozesses wird durch GPDs parameterisiert. Die HERMES Messungen liefern erste Ergebnisse zu DVCS und den zugeordneten GPDs. Die Untersuchung eines verwandten Prozesses, nämlich des dazugehörigen cross channels pp ! , ist bei dem in wenigen Jahren in Darmstadt anlaufenden Experiment P ANDA am neuen Beschleunigerzentrum FAIR möglich.Auch hier kann das QCD-Handbag Diagramm durch entsprechende GPDs beschrieben werden. E-13 (A) Jet-Wirkungsquerschnitte in neutralen Reaktionen bei HERA H ANNO P ERREY Institut für Experimentalphysik, Universität Hamburg Lepton-Hadron-Streuexperimente gehören zu den zentralen Werkzeugen der experimentellen Teilchenphysik. Sie liefern uns wichtige Informationen über den inneren Aufbau der Materie, indem sie ein vom 30 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Lepton abgestrahltes virtuelles Photon als Sonde in das Hadron eindringen lassen und so dessen innere Struktur erforschen. Der bis Mitte 2007 am DESY in Hamburg betriebene Speicherring HERA nimmt dabei eine besondere Stellung ein, da er Elektronen und Protonen beschleunigte und somit eine nach wie vor unerreichte ep-Schwerpunktsenergie von bis zu 318 GeV erlangte. Der von HERA abgedeckte Phasenraum reicht somit von kleinsten Werten der Skalenvariablen xBj 10 5 bis zu größten Impulsüberträgen Q2 105 .GeV=c/2 . Von besonderem Interesse für die Untersuchung der Starken Wechselwirkung ist das Studium des gesamten hadronischen Endzustandes und speziell von Jets. So können durch Messung von Jet-Observablen Vorhersagen der pertubertiven QCD-Theorie und des Faktorisierungsansatzes überprüft und die Partondichteverteilungsfunktion (PDF) des Protons und die starke Koplungskonstante, ˛s , bestimmt werden. Vorgestellt wird dazu eine Messung von Jet-Wirkungsquerschnitten in tiefunelastischer Elektron-ProtonStreuung mit einer Virtualität des einlaufenden Photons im Bereich von 10 < Q2 < 100 .GeV=c/2 . Die verwendeten Daten wurden 1998–2007 mit dem ZEUS-Detektor bei HERA aufgenommen und entsprechen einer Luminosität von 0.37 fb 1 . Für die Messung wurden Jets mit Hilfe des inklusiven kT Algorithmus im Breit-System rekonstruiert. Die Wirkungsquerschnitte wurden differentiell in den kinematischen Größen Q2 , xBj und den Jet-Observablen ET und gemessen und mit QCD-Rechnungen in nächst-führender Ordnung verglichen. Insbesondere mit den in Zukunft zu erwartenden QCD-Rechnungen höherer Ordnung sollen diese Daten benutzt werden, um die Parton-Dichteverteilungen des Protons und ˛s genauer zu bestimmen. Präsentiert wird der aktuelle Stand der Analyse. E-14 (B) Datenvalidierung aus der SUSY-Perspektive bei CMS H ANNES S CHETTLER DESY / Universität Hamburg Seit März dieses Jahres wird der Large Hadron Collider am CERN mit einer Schwerpunktsenergie von 7 TeV betrieben. Als eines der beiden großen Vielzweckexperimente zeichnet der CMS-Detektor (Compact Muon Solenoid) Daten über die Produkte der Proton-Proton-Kollisionen auf. Damit hat sich die Möglichkeit eröffnet, in bislang unerreichten Energiebereichen nach Neuer Physik zu suchen. Ein vieldiskutiertes Modell von Neuer Physik ist die Supersymmetrie (SUSY). Sie ergänzt das etablierte Standardmodell der Elementarteilchenphysik um die Symmetrie zwischen Fermionen und Bosonen. Nach gängigen Submodellen dieser Theorie zeichnet sich ein typisches supersymmetrisches Ereignis in einem Beschleunigerexperiment aus durch massive, kurzlebig Teilchen, die paarweise produziert werden. Diese zerfallen – häufig über einige Zwischenzustände – in das leichteste SUSY-Teilchen (LSP), das in Rparitätserhaltenden Modellen als stabil angenommen wird und den Detektor unnachgewiesen verlässt. Als Signatur erwarten man also eine hohe Gesamtenergie im Ereignis, viele Endprodukte wie Leptonen oder Jets und eine unausgeglichene Impuls- und Energiebalance durch die LSPs. Das SUSY-Signal sollte vor allem in den Ausläufern einiger Verteilungen gegenüber dem Untergrund von Standardmodell-Ereignissen sichtbar sein. Garade die Extrembereiche dieser Verteilungen sind aber anfällig für Messungenauigkeiten und Störungen. So kann beispielsweise die in vielen SUSY-Analysen wichtige fehlende Transversal-Energie eines Ereignisses von Rauschen in den Kalorimetern, von heißen oder kalten Zellen verursacht werden. Auch können viele Jets und/oder Leptonen zu zusätzlichen Messungenauigkeiten führen, da die Wahrscheinlichkeit steigt, dass die rekonstuierten Objekte dicht beieinander liegen oder überlappen. Das Data Quality Monitoring ist die zentrale Datenvalidierung bei CMS. Für jeden Run werden die einzelnen Detektorkomponenten bewertet und mit einem Flag als gut oder schlecht markiert. Anschließend durchlaufen die Daten die sogenannte Prompt Validation der verschiedenen Physikgebiete. In diesem E. Experimentelle Analysen 31 Vortrag werden einige Aspekte und Ergebnisse der SUSY Prompt Validation vorgestellt. Im Zentrum dieser Datenvalidierung stehen die SUSY-typischen Variablen und, wie oben motiviert, die Ausläufer einiger Verteilungen. Dabei werden zwei Ansätze verfolgt: Zum einen werden die Daten mit MonteCarlo-Simulationen verglichen. Zum anderen wird beobachtet, wie sich relevante Größen von Run zu Run verändern. Darüber hinaus werden auch die vom Data Quality Monitoring gesetzen Flags aus der SUSY-Perspektive untersucht. Runs, die in einzelnen Flags als schlecht bewertet wurden, werden in den typischen SUSYVariablen mit den guten Runs verglichen. Dabei stellt sich die Frage, welchen dieser Flags für SUSYAnalysen besondere Relevanz zukommt. Und letzlich auch, wie sich Detektorprobleme auf die SUSYVariablen niederschlagen. E-15 (C) Studium von 2-Photon-Endzuständen im GMSB-Modell bei ATLAS M ARTIN W ILDT Institut für Experimentalphysik, Uni Hamburg Die Brechung von Supersymmetrie (SUSY) kann durch verschiedene Mechanismen vermittelt werden, wobei z.B. Eichwechselwirkungen eine Rolle spielen können. Diese Modelle nennt man “Gauge Mediated Supersymmetry Breaking“ (GMSB) Modelle. In diesen Modellen werden die Ereignistopologien, die an Collider-Experimenten erwartet werden, durch das zweitleichteste SUSY-Teilchen (NLSP) bestimmt, welches entweder das leichteste Neutralino oder ein Slepton sein kann. Das Neutralino zerfällt hauptsächlich in ein Photon und ein Gravitino. In den Proton-Proton Kollisionen am Large Hadron Collider erwartet man in Szenarien mit einem Neutralino NLSP Ereignisse mit zwei hochenergetischen Photonen und fehlender tranversaler Energie durch die nicht messbaren Gravitinos. In diesem Vortrag werden Studien zum Entdeckungspotential des ATLAS Detektors für die GMSB Signaturen mit zwei Photonen vorgestellt. Insbesondere wird auf die Optimierung der Analyse für erste Daten eingegangen. E-16 (A) Erste Schritte zur Messung der schwachen Mischungsphase im Zerfall Bs ! J = ˚ bei LHCb C HRISTIAN L INN Physikalisches Institut, Universität Heidelberg Ende 2009 begann am LHCb Detektor die Datennahme bei Proton-Proton Kollisionen mit einer Schwerpunktsenergie von bis zu 7 TeV. Bis zum Jahr 2012 wird eine integrierte Luminosität von ca 1 fb 1 erwartet. Damit ist es bereits möglich erste Ergebnisse in einigen Kernbereichen des Physikprogramms von LHCb zu erreichen. Besonders aussichtsreich ist die Messung der CP-verletzenden Phase ˚s im Zerfall Bs ! J = ˚. Das Standardmodell sagt hier eine nur wenig von Null abweichende Phase voraus. Messungen von CDF und DØ sind damit im Rahmen der Fehler kompatibel, weisen jedoch noch grosse statistische Unsicherheiten auf. Mit den nun erwarteteten 1 fb 1 ist LHCb in der Lage die Unsicherheiten signifikant zu verringern und eventuell Abweichungen vom Standardmodell zu messen. Bereits mit den bisher gewonnenen Daten wurden erste Schritte in Richtung der Messung von ˚s unternommen. So erlaubt zum Beispiel eine grosse Menge von rekonstruierten J = ! Zerfällen erste Aussagen über Massen - und Eigenzeitauflösung des Detektors, welche entscheidend für eine exakte 32 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Messung der B-Mischung ist. Desweiteren wurden erste B ! J =K Zerfälle rekonstruiert, die wichtige Kontrollmessungen für die Messung der Phase ˚s erlauben. Aufgrund einer ähnlichen Zerfallstopologie wie Bs ! J = ˚ eignet sich zum Beispiel der Zerfall Bd ! J =K gut um die in der Simulation bestimmte Detektorakzeptanz zu validieren. Der Vortrag wird nun erste Resultate aus der Untersuchung der J = Resonanz vorstellen, sowie erste rekonstruierte B ! J =K Zerfälle und ihre Bedeutung für die Phasenmesssung im Kanal Bs ! J = ˚ diskutieren. E-17 (B) Messung des KS -Wirkungsquerschnitts in pp-Kollisionen bei p s D900 GeV mit dem LHCb-Experiment M ANUEL S CHILLER Physikalisches Institut, Universität Heidelberg Ende 2009 wurden am LHC die ersten pp-Kollisionen bei einer Schwerpunktsenergie von 900 GeV beobachtet. In diesem Vortrag wird die erste LHCb-Analyse, eine Messung des doppelt differentiellen dpp!KS KS -Wirkungsquerschnitts dp im Kanal KS ! C , vorgestellt. Die Analyse verwendet 13 T dy Datensätze, die vom 11. bis 13. Dezember 2009 aufgezeichnet wurden. Durch seine besondere Geometrie deckt LHCb einen bisher noch nicht untersuchten Pseudorapiditätsbereich ab (2 < < 5). Aus diesem Grund erlaubt diese Messung, QCD-Modelle zur Beschreibung von Hadronisierung und Fragmentation in Generatoren zu optimieren. Eine gute Beschreibung ist wichtig für viele der zukünftigen Messungen bei LHCb (und anderen Experimenten in diesen Pseudorapiditätsbereich). Grundlegende Bausteine der Analyse sind die Extraktion der Signalausbeute, die Messung der Rekonstruktions- und Trigger-Effizienzen und die Messung der Luminosität, wobei auf letzteren Punkt nur kurz eingegangen wird. Signalausbeute und Luminosität werden direkt aus den Daten bestimmt. Die Rekonstruktions- und Triggereffizienzen werden auf simulierten Ereignissen ermittelt. Die Ausrichtung der einzelnen Subdetektoren mit kosmischen Myonen ist aufgrund der Vorwärts-Geometrie des Experimentes nur für einige Teildetektoren und mit sehr eingeschränkter Statistik möglich. Darum hat die Ausrichtung noch nicht ihre endgültige Präzision erreicht. Dies verursacht ein Absinken der Detektionseffizienz gegenüber einer optimalen Detektorausrichtung, das so nicht in der Simulation berücksichtigt ist. Die Auswirkungen der reduzierten Rekonstruktionseffizienz wurden im Detail untersucht; die zugehörigen Studien werden zusammen mit der Evaluation weiterer systematischer Effekte im Vortrag vorgestellt. Abschließend wird der gemessene doppelt differentielle Wirkungsquerschnitt mit den Vorhersagen verschiedener Generator-Einstellungen verglichen. E-18 (C) Messung des Verzweigungsverhältnisses des Meson-Zerfalls Bs0 ! DsC Ds bei CDF-II D OMINIK H ORN Institut für Experimentelle Kernphysik, KIT Mit einer vom CDF-II-Detektor am p p-Ringbeschleuniger N Tevatron bei einer Schwerpunktsenergie von 1:96 TeV genommenen Datenmenge, die einer integrierten Luminosität von etwa 5 fb 1 entspricht, führen E. Experimentelle Analysen 33 wir eine Messung des Verzweigungsverhältnisses des exklusiven Prozesses Bs0 ! DsC Ds durch. ./C ./ Erste Evidenz für Zerfälle des neutralen Bs0 -Mesons in die Doppel-Charm-Endzustände Ds Ds wurde vor etwa zehn Jahren von der ALEPH-Kollaboration erbracht und in jüngerer Vergangenheit vom ebenfalls am Tevatron verorteten DØ-Experiment bei einer statistischen Signifikanz von 3:2 Standardabweichungen bestätigt. In beiden Analysen wurde das Verzweigungsverhältnis des semi-inklusiven Pro./C ./ zesses Bs0 ! Ds Ds gemessen, es wurde jedoch nicht der Versuch unternommen, zwischen den ./ angeregten Endzuständen DsC Ds und dem exklusiven Zerfall Bs0 ! DsC Ds zu unterscheiden. Letzterer wurde erstmals mit einer statistischen Signifikanz von 7:5 vom CDF-II-Experiment beobachtet. Mit einer Datenmenge von 355 pb 1 konnten unter Verwendung der hadronischen Zerfallskanäle DsC ! C ; Ds ! .K 0 K ; C /, mit ! K C K und K 0 ! K C , etwa 24 Bs0 ! DsC Ds -Signalereignisse rekonstruiert werden. Das Verzweigungsverhältnis dieses Zerfalls wurde mit BŒBs0 ! DsC Ds D 0:0107 ˙ 0:0036C0:0010 0:0033 bestimmt. Mit einer nun deutlich größeren Datenmenge wird diese Messung auf Grundlage einer exklusiven Rekonstruktion der bereits in der früheren CDF-Messung verwendeten hadronischen Zerfallskanäle wiederholt. Für die Optimierung des Signal- zu Untergrundverhältnisses werden nun jedoch anstelle rechtwinkliger Schnitte künstliche neuronale Netze eingesetzt. Im Gegensatz zu den zuvor aufgeführten Messungen sehen wir uns nun in der Lage, auf Grundlage einer partiellen Rekonstruktion angeregter DsC Mesonen zusätzlich die Verzweigungsverhältnisse der Zerfälle Bs0 ! DsC Ds und Bs0 ! DsC Ds getrennt zu bestimmen. Erstmalig wird zudem, auf Grundlage einer kürzlich veröffentlichten Analyse der CLEO-Kollaboration, die Dalitz-Struktur des Zerfalls DsC ! K C K C vollständig berücksichtigt; bei der Rekonstruktion der in dieser Analyse verwendeten Zerfälle DsC ! .K C K / C bzw. Ds ! K 0 .K C /K C kann innerhalb der gewählten Massenfenstern des K C K C -Phasenraums jede andere signifikante Zwischenresonanz leicht als bzw. K 0 rekonstruiert werden und somit die Signalausbeuten verfälschen. Durch Berücksichtigung der vollen Dalitz-Struktur stellen wir sicher, dass Rekonstruktionseffizienzen dennoch korrekt berechnet werden. Von dieser Behandlung erhoffen wir uns zudem eine Reduzierung der durch die Endzustands-Verzweigungsverhältnisse gegebenen systematischen Unsicherheiten. Unter gewissen theoretischen Annahmen saturieren die hier untersuchten Doppel-Charm-Endzustände ./C ./ Ds Ds vorwiegend CP-gerade Eigenzustände; dann kann gezeigt werden, dass eine Messung der Verzweigungsverhältnisse dieser Zerfälle unmittelbar sensitiv auf die relative Zerfallsbreitendifferenz sCP = s im schnell oszillierenden Bs0 BNs0 -Mesonsystem ist. Die vorgestellte Analyse ist daher als wichtiger kontemplativer Beitrag zu weiteren Forschungsarbeiten im Bs0 -Mesonsektor, wie beispielsweise die Analyse des Zerfalls Bs ! J = , die die Messung der über die Relation D sCP cos s verknüpften Zerfallsbreitendifferenz und CP-verletzenden Phase s zum Ziel hat, zu verstehen. E-19 (A) Charm-Baryon-Spektroskopie bei CDF F ELIX W ICK Institut für Experimentelle Kernphysik, KIT Der Teilchendetektor CDF-II am Tevatron Proton-Antiproton-Beschleuniger ermöglicht dank einer sehr guten Massenauflösung und einer großen Menge verfügbarer Daten die genaue Vermessung von spektroskopischen Eigenschaften wie Masse und Zerfallsbreite einer Vielzahl von Zuständen. C Dies wird ausgenutzt um die ersten orbitalen Anregungen des C c -Baryons, die Resonanzen c .2595/ C und c .2625/C , in dem Zerfallskanal C sowie dessen Spinanregungen ˙c .2455/0;CC und c 0;CC C C C ˙c .2520/ in ihren Zerfällen nach c und C c zu untersuchen. Dabei wird das c -Baryon aus seinen Zerfallsprodukten p K C rekonstruiert. 34 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Das System der Charm-Baryonen eignet sich dank seines reichen Massenspektrums und der relativ schmalen Zerfallsbreiten der beobachteten Resonanzen ideal zum Testen der Heavy Quark Symmetry. Das Ziel der vorgestellten Analyse ist daher die Verbesserung früherer Messungen der Massendifferenzen zur C c Masse sowie der Zerfallsbreiten der oben genannten Zustände. Zur Signalselektion werden künstliche neuronale Netzwerke des Programmpakets NeuroBayes eingesetzt. Mittels der s Plot-Methode zur Seitenbandsubtraktion werden dabei ausschließlich reale Daten zum Training der Netzwerke verwendet. Dies hat den Vorteil, dass keine simulierten Ereignisse für den Trainingsprozess vonnöten sind, deren Struktur gegebenenfalls von der Realität abweichen kann. C C Insbesondere die Studie der orbital angeregten C c -Baryonen, c .2595/ und c .2625/ , kann, verglichen mit bisherigen Messungen, mit deutlich höherer Statistik durchgeführt werden. Dies ermöglicht die Untersuchung der von der gewöhnlichen Breit-Wigner-Form abweichenden Signalstruktur der c .2595/C Resonanz, welche durch kinematische Schwelleneffekte des dominierenden, resonanten Zerfalls nach ˙c .2455/ hervorgerufen wird. Die Berücksichtigung dieses Umstandes resultiert in einem signifikant niedrigeren Messwert der c .2595/C -Masse. Desweiteren kann die starke Pion-Kopplungskonstante h2 des Zerfalls c .2595/C ! ˙c .2455/ direkt bestimmt werden, was von theoretischem Interesse zur Vorhersage spektroskopischer Eigenschaften von Charm- und Bottom-Baryonen ist. E-20 (B) Hadronische Wirkungsquerschnittsmessungen via ISR bei BABAR A NDREAS H AFNER Universität Mainz Die Messung des hadronischen Wirkunsquerschnittes in der e C e Annhihilation ist von entscheidender Bedeutung für eine verbesserte Standardmodellvorhersage des anomalischen magnetischen Momentes had aus den des Myons a . Mit Hilfe einer Dispersionsrelation ist es möglich, den hadronischen Anteil a gemessenen exklusiven Wirkungsquerschnitten der hadronischen Reaktionen zu bestimmen. Der Reaktionskanal e C e ! C hat mit ca. 75% des Gesamtbeitrages zum Dispersionsintegral den größten Einfluss auf die Berechnung von a . Der BaBar-Detektor hat von 1999-2008 eine integrierte Luminosität von ca. 500 fb 1 am e C e -Beschleuniger PEP-II aufgenommen. Die Schwerpunktsenergie beträgt 10:58 GeV. In Initial State Radiation (ISR) Ereignissen wird von einem einkommendem Lepton ein Photon abgestrahlt und dadurch die effektive Schwerpunktsenergie abgesenkt. Mit Hilfe dieser ISR-Methode können bei BaBar hadronische Wirkunsquerschnitte im Energiebereich von der Schwelle bis 5 GeV vermessen werden. Die Messung des C -Kanals wurde mit sehr hoher Präzision durchgeführt. Dadurch ist der Fehler auf den hadronischen Anteil der Myon-Anomalie momentan dominiert durch die Kanäle C C sowie C o o . Diese laufenden Messungen werden vorgestellt. E-21 (C) Studien zum Nachweis eines schweren Eichboson im Zerfallskanal W 0 ! e am ATLAS-Experiment C HRISTIAN S CHR ÖDER Institut für Physik, Johannes-Gutenberg-Universität Mainz Trotz seines Erfolgs gibt es einige Hinweise darauf, daß das Standardmodell der Teilchenphysik nicht vollständig ist. Einige Erweiterungen um das Standardmodell der Teilchenphysik sagen bisher nicht entdeckte Teilchen voraus, welche an den Experimenten des Large Hadron Collider (LHC) am CERN, u. a. dem ATLAS-Experiment, nachgewiesen werden sollen. Eines dieser vorhergesagten Teilchen ist das E. Experimentelle Analysen 35 schwere Eichboson W 0 , dessen Existenznachweis bis zu einer Masse von 3 TeV möglich sein soll, wobei angenommen wird, daß dieses Teilchen die gleichen Wechselwirkungen wie das W -Eichboson aufweist. Bisherige Experimente, insbesondere das CMS- and DØ-Experiment am Tevatron, konnten ein W 0 -Boson bis zu einer Masse von 1 TeV ausschließen, weshalb insbesondere die ersten 1 fb 1 an Daten des ATLASExperiments, welche den sensitiven Massenbereich bis auf 3 TeV erweitern, interessant sind. In dem Vortrag soll hauptsächlich auf die Detektion des leptonischen Zerfallskanal des W 0 -Bosons in ein Elektron und ein Neutrino, d. h. W 0 ! e eingegangen werden. Da hierbei das Neutrino nicht mit dem Detektormaterial wechselwirkt, kann es nur indirekt über die fehlende Energie im Detektor nachgewiesen werden. Außerdem werden die Teilchen in Proton-Proton-Kollisionen erzeugt, weshalb der Impulsbruchteil der zum Prozeß beitragenden Quarks nicht genau bekannt ist. Daher kann nur der transversale Impuls des Neutrinos aus der fehlenden Transversalenergie rekonstruiert werden und somit die invariante transversale Masse des W 0 -Boson berechnet werden. Der hadronische Rückstoß verschmiert das Spektrum aufgrund der großen Masse des W 0 -Bosons dabei nur minimal, und die gröste Ungenauigkeit der Messung resultiert hierbei aus dem Verständniß des Untergrundes und der Bestimmung des fehlenden Transversalimpulses, welcher besonders empfindlich auf Rauschen und elektronisches Fehlverhalten ist, weshalb ein genaues Verständniß des Detektors und seiner Komponenten unverzichtbar ist. In dem Vortrag sollen daher geeignete Methoden zur Rauschunterdrückung und zur möglichst präziesen Messung des fehlenden Transversalimpulses im ATLAS-Experiment vorgestellt werden. Daneben sollen auch Studien zum Untergrund und dessen Unterdrückung präsentiert werden, und anhand erster vorläufiger Ergebnisse mit den bis dahin analysierten Daten des ATLAS-Experimentes im Vergleich mit Simulationen soll das Verständnis des Detektorverhaltens demonstriert werden. Abschließend soll ein Ausblick auf Analysemöglichkeiten mit zukünftigen Daten gegeben werden. E-22 (A) B-Physik am Belle-Experiment: Untersuchung von CP-Verletzung A NDREAS M OLL Max-Planck-Institut für Physik CP-Verletzung ist von entscheidender Bedeutung für die Entwicklung des Universums, da sie unbedingt erforderlich ist, um die beobachtete Materie-Antimaterie-Asymmetrie im Universum zu erklären. Darüber hinaus erlauben Experimente zur Untersuchung der CP-Verletzung präzise Tests der fundamentalen Wechselwirkungen in der Teilchenphysik. Im Standardmodell wird die CP-Verletzung durch das sogenannte CKM-Modell, benannt nach ihren Erfindern Nicola Cabibbo, Makoto Kobayashi und Toshihide Maskawa erklärt. Die Theorie sagt voraus, dass die CP-Verletzung aus Massenmischungen schwerer Quarks, mathematisch durch die CKM-Matrix beschrieben, resultiert. Hierbei wird die CP-Verletzung durch eine Phase der CKM-Matrix beschrieben, die die Quarkeigenzustände mit entsprechenden Masseneigenzuständen verbindet. Dabei ist die CP-Verletzung bei Zerfällen, an denen schwere Quarks beteiligt sind, am ausgeprägtesten. Daher eignen sich B-Mesonen, die aus einem leichten Quark und dem schwere Bottom-Quark bestehen, besonders gut diese Theorie zu testen. Dies übernahmen die beiden Experimente BaBar am SLAC und Belle am KEKB und bestätigten eindrucksvoll die Theorie von Cabibbo, Kobayashi und Maskawa. Dafür erhielten Kobayashi und Maskawa im Jahr 2008 den Nobelpreis für Physik. Gibt es keine ”neue Physik“, so ist die CKM-Matrix unitär und lässt sich in einer komplexen Ebene grafisch in Form eines geschlossenen Dreieckes darstellen. Ist allerdings das Standard Modell nicht vollständig, so schliessen sich die drei Seiten des Dreiecks nicht. Daher ist das Ziel, unabhängig voneinander, sowohl die 3 Winkel als auch die Länge der 3 Seiten in den verschiedenen, beim B-Zerfall gemessenen, Physikkanälen zu bestimmen. Das Belle-Experiment ist ein Teilchendetektor an der KEKB Flavor Factory in Japan. Hier werden in Elektron-Positron-Kollisionen an der .4s/ Resonanz, bei einer Schwerpunktsenergie von 10.58 GeV, 36 42. Herbstschule für Hochenergiephysik Maria Laach 2010 N quantenmechanisch verschränkte B-Mesonen-Paare erzeugt. Da diese Resonanz direkt oberhalb der B BProduktionsschwelle liegt, werden die Mesonen im Schwerpunktssystem der Kollision praktisch in Ruhe erzeugt. Durch eine asymmetrische Kollisionsenergie, die zu einem Boost des Schwerpunktssystem der BMesonen im Laborsystem führt, ist eine präzise Messung der Zeitstruktur der Zerfälle der Mesonen über eine genaue Rekonstruktion des Zerfallsortes möglich. Die Zerfälle der quantemechanisch verschränkt erzeugten B-Meson Paare, lassen eine präzise Überprüfung der Unitarität der CKM-Matrix zu. Der Vortrag beschreibt das Belle Experiment in Japan und erläutert anhand des Zerfalls B ! C und des Winkels 2 im CKM-Dreieck, wie Parameter des CKM-Dreiecks gemessen werden und wie CP-Verletzung im B-Mesonen System nachgewiesen wird. E-23 (B) Suche nach dem MSSM Higgsbosonzerfall h=A=H ! C mit p dem ATLAS-Detektor bei s D 10 und 7 TeV. S EBASTIAN S TERN Max-Planck-Institut für Physik In der minimalen supersymmetrischen Erweiterung des Standardmodells (MSSM) werden fünf Higgsbosonen (h, H , A, H ˙ ) vorhergesagt, deren Massen durch zwei unabhängige Parameter bestimmt sind: das Verhältnis tan ˇ der Vakuumerwartungswerte und die Masse mA des pseudoskalaren Higgsbosons. Im Vergleich zum Higgsboson im Standardmodell ist der Zerfall der neutralen h=H=A-Bosonen in zwei Myonen für hohe Werte von tan ˇ deutlich verstärkt. Dieser Zerfallskanal bietet eine experimentell klare Signatur und ergänzt die Suche im wahrscheinlicheren C Zerfallskanal. Im Vortrag wird die Suche nach dem h=A=H ! C Zerfall mit dem ATLAS-Detektor unter Berücksichtigung der wichtigsten Untergrundprozesse vorgestellt. Dabei wurde eine detailierte Detektorsimulation für Proton-Proton-Kollisionen bei p einer Schwerpunktsenergie von s D 10 TeV verwendet. Zu den wichtigsten C Untergrundbeiträgen zählen die Z-Boson- und die Top-Paarproduktion. Im Vortrag wird eine Methode zur Messung dieser Untergrundbeiträge anhand von Endzuständen mit e C e Paaren vorgestellt. Diese können aufgrund der verschwindenen Zerfallsrate h=H=A ! e C e als signalfreie Kontrolldatensätze verwendet werden. Unterschiede zwischen den C - und e C e -Endzuständen, verursacht durch Detektoreigenschaften und Photonabstrahlung, wurden ausführlich untersucht. Die Methode wurde bei der Bestimmung von erwarteten Ausschlussgrenzen für den Zerfall h=H=A ! C angewendet. Dabei wurden auch die systematischen Unsicherheiten berücksichtigt. Abschließend werden die erwarteten Ausschlussgrenzen bei der derzeitigen LHC-Schwerpunktsenergie p gezeigt. Dazu wurden die Ergebnisse der Analyse auf die Wirkungsquerschnitte bei s D 7 TeV skaliert und die Ausschlussgrenzen neu berechnet. Es wird gezeigt, dass die Abhängigkeit der Selektionseffizienzen von der Schwerpunktsenergie hierfür vernachlässigt werden kann. E-24 (C) Analyse des Zerfalls B ! ˙cCC p bei BABAR O LIVER G R ÜNBERG Institut für Physik, Universität Rostock In der Analyse wird das Verzweigungsverhältnis B.B ! ˙cCC p / gemessen. Der zugrundeliegende Datensatz umfasst ca. 470 Millionen BB-Paare, die im Prozess .4S / ! BB am asymmetrischen e C e -Speicherring PEP-II erzeugt und vom BABAR-Detektor gemessen wurden. Die Rekonstruktion C C C vorgenommen. Für den Zerfall wird ein signifiwird im Kanal ˙cCC ! C c , c ! pK E. Experimentelle Analysen 37 Events / 5 MeV kantes Signal in der Größenordnung B.B ! ˙cCC p / 10 4 gemessen. Zusätzlich wird in dem Vier-Körper-Zerfall nach resonanten Zwischenzuständen gesucht, sowie nach einer Anreicherung bei niedrigen Baryon-Antibaryon-Massen, einem Phänomen, das bereits bei vielen anderen Zerfällen mit Baryon-Antibaron-Paaren gesehen wurde. Im Zuge dieser Analyse finden sich Hinweise auf die resoCC N . Eine Anreicherung bei niedrigen Baryonnanten Zerfälle B ! C c p und B ! ˙c Antibaryon Massen wird nicht beobachtet. 220 200 Data 180 Background fit Global Fit 160 140 120 100 80 60 40 20 0 -0.1 -0.05 0 0.05 0.1 ∆E [GeV] Abbildung E.2.: Signalpeak in der E-Verteilung für rekonstruierte B-Kandidaten mit Vorauswahlkriterien zur Untergrundreduktion. E ist im e C e -Schwerpunktsystem definiert als E D EB m.e C e /=2. E-25 (A) Untersuchung radiativer Top-Quark-Prozesse pp ! t tN am ATLAS-Detektor M ARCUS R AMMES Fachbereich 7 - Physik, Universität Siegen Das Top-Quark wurde aufgrund seiner hohen Ruhmasse von 172; 5 GeV=c2 erst 1995 am Tevatron (Fermilab) entdeckt [1]. Erst das Tevatron war mit einer Schwerpunktenergie von 1; 96 TeV in der Lage, genügend viel Energie zur Erzeugung von Top-Quarks aufzubringen. Während am Tevatron nur eine geringe Anzahl von Top-Quarks nachgewiesen werden konnten, wird der Teilchenbeschleuniger LHC am Forschungszentrum CERN bei Genf eine deutlich höhere Anzahl an TopQuarks hervorbringen können. Bei einer geplanten Designluminosität von 1034 cm 2 s 1 [2] kann man p bis zu etwa 250 Mio. Top-Quark-Paare (bei einer Schwerpunktsenergie von s D 14 TeV) erwarten. Aus diesem Grund werden viele wichtige Eigenschaften des Top-Quarks mit hoher Genauigkeit vermessen werden können. 38 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Die Top-Gruppe der Universität Siegen beschäftigt sich dabei insbesondere mit der Kopplung von Photonen an das Top-Quark. Dies ermöglicht die direkte Bestimmung von Parametern, wie sie die Quantenelektrodynamik (QED) für das Top-Quark voraussagt. Wir verwenden dazu Ereignisse, in denen ein N Top-Quark-Paar (pp ! t tN ! bW C bW ) erzeugt wurde und ein W -Boson leptonisch (W ! `) und das andere hadronisch (W ! q q) N zerfällt, da dieser Zerfallskanal eine genügend hohes Verzweigungsverhältnis auf der einen Seite, andererseits aber ein zufriedenstellendes S=B-Verhältnis aufweist. Zur Simulation von Ereignissen verwendet unsere Forschungsgruppe den MonteCarlo-Generator WHIZARD (W. K ILIAN ,T. O HL , J. R EUTER). Es handelt sich dabei um einen Leading Order (LO)-Generator auf Tree-Level mit automatischer Matrixgeneration [3]. Für die Forschungsgruppe Siegen liegt dabei besonderes Augenmerk auf Bestimmung der elektrischen Ladung des Top-Quarks Das Top-Quark ist das sechste Quark im Standardmodell und bildet zusammen mit dem b-Quark die dritte Quark-Familie (Isospindublett). Daher wird seine elektrische Ladung zu q t D C2e=3 angenommen. Im Standardmodell zerfällt das Top-Quark fast ausschließlich über den elektroschwachen Zerfall t ! W C b. Es gibt jedoch ein theoretisches Modell, welches eine exotische Top-Quark-Ladung von qtQ D 4e=3 vorhersagt. In diesem Modell wäre das Top-Quark nicht der elektroschwache Isospinpartner des b-Quarks, sondern würde als unbekanntes Quark tQ D Q4 zusammen mit einem weiteren exotischen Quark Q1 ein rechtshändiges Dublett .Q1 ; Q4 /R bilden, welches mit dem rechtshändigen SM-b-Quark bR mischen könnte [4]. Dieses exotische “Top-Quark” würde dann über tQ ! W b zerfallen, das “wahre” Top-Quark könnte dabei eine weit größere Masse (m t & 230 GeV) haben, so dass am Tevatron auch Mischungen beider Zerfälle (t ! W C b und tQ ! W b) gemessen worden wäre [5]. Bisher konnte die elektrische Ladung des Top-Quarks nur indirekt über die Messung der Ladung des b-Quarks und der Zerfallsprodukte des dazughörigen W -Bosons bestimmt werden. Dieses Verfahren eignet sich aufgrund seiner hohen Effizienz gut für geringe Ereigniszahlen, ist allerdings mit einer hohen Unsicherheit behaftet. Wir von der Top-Gruppe der Universität Siegen wollen die Ladung des Top-Quarks direkt über die Kopplungsstärke des Photons an das Top-Quark bestimmen. Der Wirkungsquerschnitt des Prozesses pp ! t tN liegt dabei allerdings um etwa einen Faktor 100 niedriger als für die reine TopQuark-Paarerzeugung pp ! t tN. Auf lange Sicht wird eine solche Messung am ATLAS-Detektor jedoch möglich sein, da innerhalb der Lebensdauer des LHC eine integrierte Luminosität von 3000 fb 1 erwartet wird. Bestimmung der elektrischen und magnetischen t -Vertex-Formfaktoren Das Standardmodell sagt die Kopplung von Photonen an Fermionen in der folgenden Form voraus: a t .s/ d t tt i D e V .s/ C A t t .s/5 C e .q C q/ N i 5 2m t e Dabei entspricht V t t der Kopplung an der vektoriellen und A t t der Kopplung an den axial-vektoriellen Photon-Strom. Nach dem Standardmodell ist A t t D 0; V t t D 2=3 entspricht der elektrischen Ladung. a t .s/ beschreibt den anomalen magnetischen Formfaktor (D 0 im SM) und d t .s/ den elektrischen Dipol-Formfaktor (ebenfalls D 0 im SM) [6]. Da die Top-Quark-Masse so groß ist, könnte es eine spezielle Rolle bei der elektroschwachen Sym metriebrechung (EWSB) spielen. Dann wäre eine Messung von Werten von A t t , a t .s/ und d t .s/ ungleich von Null ein deutliches Anzeichen von physikalischen Phänomenen jenseits des Standardmodells, die ihren Ursprung in der EWSB haben. E. Experimentelle Analysen 39 Das Modell der anomalen Top-Quark-Ladung von qtQ D 4e=3 wurde bereits in WHIZARD eingebaut, die erweiterten t -Vertizes werden zur Zeit implementiert. Ich werde in dieser Präsentation einen Überblick über den Stand der Analyse der Siegener Top-QuarkGruppe geben und die wichtigsten Analysemethoden und Ergebnisse präsentieren. [1] The Tevatron Electroweak Working Group, “Combination of CDF an DØ Results on the Mass of the Top Quark,” arXiv:0808.1089v1 [hep-ex]. [2] M. Benedikt et al., “LHC Design Report, Volume III,” CERN-2004-003-V-3. [3] W. Kilian, J. Reuters and T. Ohl, “WHIZARD 1.93,” LC-TOOL-2001-039 (revised). [4] D. Chang and W. F. Chang, “Alternative Interpretation of the Tevatron Top Events,” Phys. Rev. D59:091503, 1999. [5] The DØ Collaboration, V. M. Abazov et al., “Experimental discrimination between charge 2e=3 top quark and charge 4e=3 exotic quark production scenarios,” Phys. Lett. 98:041801, 2007. [6] U. Baur et al., “Probing electroweak top quark couplings at hadron colliders,” Phys. Rev. D71: 054013 (2005). E-26 (B) Positionskorrektur des CALICE-Kalorimeters (Detector Alignment) S EBASTIAN W EBER Universität Wuppertal Im Rahmen der CALICE1 -Kollaboration wurde ein Kalorimeter-Prototyp entwickelt, der die von zukünftigen Beschleunigerexperimenten gestellten Anforderungen erfüllt. Ein wesentlicher Punkt ist eine hohe räumliche Auflösung, die im hadronischen Kalorimeter durch Szintillatorzellen von nur 3 3 cm Größe und eine Auslese mittels halbleiterbasierter Photomultiplier realistiert wird. Durch Bestrahlung des Prototypen mit bekannten Teilchen an existierenden Beschleunigern an CERN und Fermilab können die theoretischen Erwartungen an das Kalorimeter experimentell verifiziert werden. Insbesondere die hohe Auflösung des Kalorimeters ansich erfordert hierzu die Kenntnis der exakten Position des Detektors bezogen auf das Koordinatensystem des Teilchenstrahls. Neben einer kurzen Übersicht über den Prototypen bietet dieser Vortrag einen Einblick in die Ermittlung dieser exakten Position mit Hilfe von Myonen und erste Studien zum Auflösungsvermögen des Detektors. 1 CALorimeter for an International Collider Experiment T. Theorie T-1 (A) Familiensymmetrien und GUTs R EINIER D E A DELHART T OOROP Nikhef Familiensymmetrien und große vereinheitlichte Theorien (GUTs) können helfen, die anscheinenden Muster des Massensektors zu erklären. Wenn man ebenfalls ein Modell mit beiden Symmetrien herzustellen versucht, gibt es neue Komplikationen. Muster im Massensektor Im Massensektor des Standardmodells gibt es viele Muster. Zum Beispiel ist für die Uptype-Quarks das Top-quark (in der dritten Generation) ungefähr 100-mal schwerer als das Charm-Quark (in der zweiten Generation), das selbst wieder ungefähr 100-mal schwerer ist als das Up-Quark, das in der ersten Generation sitzt. Für Downtype-Quarks und geladene Leptonen gibt es vergleichbare Relationen, aber mit einem kleineren Faktor. Auch in der Mischung der Masse- und Flavour-Eigenzustände gibt es anschei- Abbildung T.1.: Fermionmassen im Standardmodell nende Muster, besonders im Neutrinosektor. Einer der Massen-Eigenzustände ist eine gleiche Mischung von zwei Flavour-Eigenzuständen, weil der zweite Massen-Eigenzustand eine Überlagerung allen drei Flavour-Eigenzustände ist. Abbildung T.2.: Links: die Flavourinhalt der drei Neutrinomassen-Eigenzustände. Rechts: Eine Familiensymmetrie kann tribimaximal Mixing vorhersagen Familiensymmetrien Das Standardmodell (mit Neutrinomassen) enthält 22 freie Parameter im Massensektor. Es ist naturlich möglich, dass die anscheinenden Muster nur ein Zufall sind. Wenn man allerdings eine neue, horizontale Symmetrie postuliert, so kann man die Munster durch Symmetrieprinzipen erklären. Abbildung 2 zeigt hierfür ein Beispiel. 41 T. Theorie GUTs Familiensymmetrien können hauptsächlich Beziehungen zwischen gleichen Teilchenarten (z.B. Neutrinos oder Uptype-Quarks) erklären. Große vereinheitlichte Theorien können auch Beziehungen zwischen verschiedene Teilchenarten herstellen. In Pati-Salam GUTs gibt es beispielsweise Beziehungen zwischen dem Bottom-Quark und dem Tauon und zwischen dem Strange-Quark und dem Myon. Modelle mit Familiensymmetrien und GUTs Ein Modell mit beiden Symmetrien kann sehr viele Aspekte des Massensektors erklären. Wir haben ein Modell mit einem Pati-Salam GUT und S4 Familiensymmetrie [1] entwickelt. Das Modell kann die Massen und Flavour-Mischung des Standardmodells erklären und sagt einen meßbaren neutrinolosern DoppelBetazerfall voraus. Die Kombination der Symmetrien gibt allerdings neue Komplikationen. Der Higgs-Sektor wird sehr groß und der Effect der Renormierungsgruppen-Gleichungen ist größer als erwartet. Diese Effekte können ein großen Teil des Parameterraums ausschließen, so das das Modell weniger attraktiv ist als wenn man naiv nur die guten Aspekte beider Symmetrien kombiniert. [1] R. de Adelhart Toorop, F. Bazzocchi and L. Merlo, “Discrete Flavour Symmetries in GUTs: the Beauty and the Beast,” arXiv:1003.4502 [hep-ph]. T-2 (B) Numerische NLO-Rechnungen in QCD M OHAMMAD A SSADSOLIMANI Institut für Physik, HU Berlin Man untersucht die Wechselwirkungen der Hochenergiephysik hauptsächlich an Teilchenbeschleunigern wie dem Large Hadron Collider (LHC). Für einen möglichst präzisen Vergleich zwischen theoretischen Vorhersagen und Experiment braucht man in der Theorie die nächstführende Ordnung der Störungtheorie (NLO), da die führende Ordnung (LO) oft eine große Skalenabhängigkeit aufweist. Die analytische Berechnung von NLO-Korrekturen werden komplizierter, wenn es viele Teilchen im Endzustand gibt. Daher sind numerische Methoden nützlich, die uns eine genauere und schnellere Berechnung der NLO-Korrekturen ermöglichen. Jeder QCD W i rkungsquerschni t t in NLO kann in der folgenden Form geschrieben werden: NLO b v r 2!N D 2!N C 2!N C 2!N C1 ; (T.1) .b/ wobei .2!N / der Born W i rkungsquerschni t t, proportional zum Quadrat der Born Amplit ude, .v/ .r/ für einen 2 ! N Prozess ist und .2!N / die virtuelle Korrektur. Der dritte Term .2!N C1/ beschreibt die .v/ reelle Strahlung eines unbeobachteten Partons auf dem Born-Niveau. Die beiden letzten Beiträge .2!N / .r/ und .2!N C1/ enthalten divergente Integrale. Diese Divergenzen werden durch unterschiedliche Singularitäten hervorgerufen, die Ultraviolett- und die Infrarot-Singularitäten. Die UV-Singularitäten kommen aus den Integrationsbereichen großer Schleifenimpulse. Diese können systematisch durch die Renormierung in die Parameter des Modells absorbiert werden. Infrarot-Singularitäten können aus Phasenraumbereichen kommen, in denen das Teilchen weich (“soft”) ist, also sein Impuls verschwindet. Oder es treten kollineare Divergenzen in Phasenraumbereichen auf, in denen das Teilchen mit einem anderen Teilchen 42 42. Herbstschule für Hochenergiephysik Maria Laach 2010 im Anfangs- oder Endzustand kollinear ist. Die UV-Singularitäten treten nur in den virtuellen Korrekturen auf, während die Infrarot-Singularitäten sowohl in den reellen als auch in den virtuellen Korrekturen vorkommen. Die Amplitude für jedes Einschleifendiagramm kann wie folgt dargestellt werden: Z I D n Y d 4k N.k/ 4 .2/ .k i D1 i pi /2 m2i , (T.2) wobei N.k/ ein beliebiges Polynom ist und k ,p Vierervektoren aus dem Minkowskiraum sind. Der Nenner dieses Integranden .k pi /2 m2i kann Null werden, wenn .k pi /2 D m2i . Das führt zu Polen, die im Integrationsintervall liegen. Die von diesen Polen entstandenen Singularitäten können vermieden werden, wenn man den Integrationsweg an diesen Stellen verschiebt bzw. deformiert. Das Integral in Gl.(T.2) kann noch nicht numerisch ausgewertet werden, denn es gibt Infrarot-Singularitäten im Integranden, die man mit Hilfe der Subtraktionsterme beseitigen kann. Die Idee hierbei ist, dass man einen Term wie S findet, den man zu dem Integranden I addieren und dann subtrahieren kann Z Z Z Z I D Œ.I S / C S D .I S / C S (T.3) und so erhält man einen Integranden .I S /, der numerisch ausgewertet werden kann und das zweite Integral kann analytisch behandelt werden. T-3 (C) Thermodynamischer Limes und Kontinuumlimes von MesonScreeningmassen M ARCEL M ÜLLER Universität Bielefeld Meson-Screeningmassen, welche aus der räumlichen Meson-Korrelationsfunktion ermittelt werden, sind eine wichtige Basismessgröße in der Hochtemperatur-Gitter-QCD. Bisherige Rechnungen bei endlichen Gittervolumina lieferten abweichende Abschirmmassen für zwei weit verbreitete Gitterwirkungen, die clover-verbesserte Wilson Wirkung und die Standard-Staggered Wirkung. Dies motivierte eine Analyse beider Wirkungen, um durch die Extrapolation zu unendlicher Gittergröße (thermodynamischer Limes) und die Extrapolation zu infinitisimalem Gitterabstand (Kontinuumslimes) die systematischen Fehler beider Wirkungen zu vergleichen. Hierzu musste zunächst die vorhandene massiv parallele Software auf die Gitterwirkungen angepasst und die Berechnungen durchgeführt werden. Die berechneten Korrelatoren sind insbesondere in den Vektorund Axialvektor-Kanälen der Staggered-Wirkung durch Flavour-Mischung sehr verrauscht, so dass für exakte Extrapolationen eine recht aufwenige statistische Analyse implementiert werden musste. Als Ergebnis liegen Rohdaten der Mesonkorrelatoren verschiedener Gittergrößen und Temperaturen (1:5Tc und 3:0Tc ) sowie thermodynamische und Kontinuumsextrapolationen mit geringen Fehlern vor. Der Einfluss von Gittergröße und -abstand auf die Mesonkorrelatoren (und damit auch auf bestimmte anderer Observablen) lässt sich nun für die beiden Wirkungen ermitteln und vergleichen. Außerdem zeigt ein Vergleich des Kontinuumslimes beider Wirkungen, ob hier die Abweichung der Abschirmmassen aufgehoben ist oder weitere, von der speziellen Wirkung unabhängige systematische Fehler vorliegen. Der Vortrag geht auf die verwendete Methodik, Soft- und Hardware sowie die Ergebnisse dieser Arbeit ein. T. Theorie 43 T-4 (A) Die Vorzüge des Zerfalls BN ! KN l C l bei großen Dileptonmassen DANNY VAN DYK Theoretische Physik III, TU Dortmund p Mein Vortrag wird die Vorzüge der kinematischen Region großer Dileptonmassen q 2 für den Zerfall BN ! KN l C l behandeln. Dabei werde ich p darlegen, dass sich durch eine Kombination einer Operatorproduktentwicklung in 1=Q, Q D fmb ; q 2 g und verbesserter Isgur-Wise-Relationen der QCDFormfaktoren die Beschreibung der zahlreichen Zerfallsobservablen drastisch vereinfacht. Es bieten sich so Gelegenheiten die elektroschwachen, kurzreichweitigen Kopplungen C9 ; C10 zu extrahieren. Die Ergebnisse von Parameterscans auf Basis aktueller Experimentaldaten der Kollaborationen Belle und CDF werden vorgestellt. Es wird gezeigt, dass die momentane Datenlage disjunkte Parameterbereiche favorisiert, die das Standardmodell, aber auch darüber hinausgehende Modelle einschließen. Diese Mehrdeutigkeit kann durch Präzisionsmessungen ausgewählter Observablen aufgelöst werden. T-5 (B) Die Berechnung von Schwellenkorrekturen im Exzeptionellen Supersymmetrischen Standardmodell (E6 SSM) A LEXANDER VOIGT Institut für Kern- und Teilchenphysik, TU Dresden Das Standardmodell der Teilchenphysik ist die zur Zeit am besten getestete Theorie, die alle beobachteten Teilchen, sowie die starke, schwache und elektromagnetische Wechselwirkung im Rahmen der theoretischen und experimentellen Ungenauigkeiten beschreibt. Jedoch ist es keine vollständige Beschreibung der Natur, da z. B. die Gravitation nicht berücksichtigt wird. Große vereinheitlichte Theorien mit lokaler Supersymmetrie stellen attraktive Erweiterungen des Standardmodells dar, denn sie ermöglichen eine vereinheitlichte Beschreibung aller vier Grundkräfte sowie die Einbettung aller bekannten Teilchen in eine einfache Eichgruppe. Da Supersymmetrie in der Natur jedoch nicht beobachtet wurde, müssen derartige Theorien Supersymmetrie brechende Terme enthalten um bei niedrigen Energien die bekannten Observablen zu reproduzieren. Theorien dieser Art können aus der heterotischen E8 E80 Stringtheorie abgeleitet werden. Durch verschiedene Brechungsmechanismen können supersymmetrische Eichtheorien mit der Eichgruppe E6 und zusätzlichen Familiensymmetrien konstruiert werden. Das Exzeptionelle Supersymmetrische Standardmodell (E6 SSM) ist eine supersymmetrische Eichtheorie, basierend auf einer E6 Eichgruppe. Es bietet Eichkopplungsvereinigung sowie die Einbettung aller Materiefelder in fundamentale Darstellungen der E6 . Auf Grund dieser Gruppenstruktur enthält das Modell zusätzliche exotische Teilchen, sowie eine weitere U.1/ Eichsymmetrie, die zu einem weiteren Eichboson Z 0 führt. Darüber hinaus vermeidet das E6 SSM das -Problem, das in der minimalen supersymmetrischen Erweiterung des Standardmodells auftritt. Unterhalb der elektroschwachen Symmetriebrechungsskala muss das E6 SSM die bereits gemessenen Observablen reproduzieren. Da letztere durch das Standardmodell bereits hinreichend gut beschrieben werden, muss das E6 SSM für niedrige Energien in das Standardmodell übergehen. Nach dem Appelquist– Carazzone-Entkopplungstheorem ist dies möglich, falls die neuen E6 SSM-Teilchen, die nicht im Standardmodell enthalten sind, Massen oberhalb der elektroschwachen Symmetriebrechungsskala haben. In einem solchen Fall können die schweren Teilchen aus dem E6 SSM entfernt (ausintegriert) werden, wodurch man das Standardmodell als eine effektive Niederenergietheorie erhält. Bei diesem Übergang müssen die E6 SSM-Parameter in Standardmodellparameter umgerechnet werden. Diese Umrechnungen nennt man Schwellenkorrekturen. Sie können als Effekt der schweren Teilchen auf die Parameter der effektiven 44 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Theorie interpretiert werden. In einer 2009 erschienen Veröffentlichung wurden erste Massenspektren einer eingeschränkten Version des E6 SSM (cE6 SSM) berechnet. Der darin dargestellte Algorithmus benutzt die Methode der effektiven Feldtheorie um das cE6 SSM bei niedrigen Energien in das Standardmodell zu überführen. Jedoch werden die dabei notwendigen Schwellenkorrekturen für die Modellparameter vernachlässigt, was zu einer erhöhten Ungenauigkeit der vorhergesagten Teilchemassen führt. In diesem Vortrag wird die Berechnung von Schwellenkorrekturen im E6 SSM vorgestellt. Dabei werden zunächst das E6 SSM und das cE6 SSM definiert und anschließend die Methode der effektiven Feldtheorie anhand eines Beispiels erklärt. Danach wird die Prozedur zur Berechnung der Schwellenkorrekturen für die Eichkopplungen des E6 SSM und des Standardmodells beschrieben. Abschließend erfolgt eine numerische Anwendung der Ergebnisse, indem die berechneten Schwellenkorrekturen in einen cE6 SSMTeilchenspektrumgenerator eingebaut werden und präzisere cE6 SSM-Massenspektren berechnet werden. T-6 (C) Implementation von Parton Showern für WHIZARD S EBASTIAN S CHMIDT Universität Freiburg Die Simulation von Proton-Proton-Kollisionen gemäß einer bestimmten Theorie spielt eine wichtige Rolle beim Vergleich von Messdaten und theoretischen Vorhersagen. Um von einer durch die Theorie beschriebenen härtesten Interaktion, meist der Annihilation zweier Teilchen in einige wenige Teilchen, zu einem mit dem im Detektor gemessenen Ereignis zu kommen, sind noch einige weitere Schritte nötig. Diese Schritte bei der Generierung eines Ereignisses ausgehend von der harten Wechselwirkung sind: Initial State Parton Shower und Multiple Interactions Final State Parton Shower Hadronisierung Zerfälle instabiler Hadronen Simulation des Detektors Die Simulation des Parton Showers hat großen Einfluss auf die Struktur der in dem Ereignis auftretenden Jets. Ein Verständnis der Physik der Parton Shower ist also nötig, um Untergründe und Signale zu verstehen. Ein Parton Shower besteht aus konsekutiven 1 ! 2-Branchings, z.B. der Abstrahlung eines Gluons von einem Quark. Die Wahrscheinlichkeiten für diese Branchings werden beschrieben durch die Anwendung der DGLAP-Gleichungen, die nicht wie bei PDFs inklusiv auf Parton-Dichten angewendet werden, sondern exklusiv und auf einzelne Partonen angewandt werden. Die Implementation von Parton Showern, die ich für WHIZARD schreibe, unterscheidet sich von bekannten Implementationen dadurch, dass die Simulation von 1 ! 2-Branchings durch kombinierte Branchings, und zwar 2 ! 4-Branchings für den Final State Parton Shower und 1 ! 3-Branchings im Initial State Parton Shower ersetzt wird. Desweiteren bietet es sich an, die Simulation des Initial State Parton Shower mit der Simulation von zusätzlichen Interaktionen zu verbinden. Diese beiden physikalischen Vorgänge müssen parallel simuliert T. Theorie 45 werden, da beide die Zusammensetzung des Proton-Rests verändern können. Die Implementation dieser sogenannten Interleaved Evolution für WHIZARD ist ebenfalls in Arbeit. T-7 (A) Hidden Sektor Teilchen S ARAH A NDREAS Deutsches Elektronen Synchrotron, DESY In vielen Erweiterungen des Standardmodells (SM) treten häufig so genannte “hidden sectors” - versteckte Sektoren - auf, die nur schwach mit dem sichtbaren Sektor wechselwirken und deshalb bislang nur wenig experimentellen Einschränkungen unterliegen. Im hidden Sektor können sogar Teilchen mit Massen im sub-GeV-Bereich existieren, die aufgrund ihrer schwachen Wechselwirkung noch nicht nachgewiesen werden konnten. Zu diesen Teilchen, die häufig als “weakly interacting sub-GeV particles”, kurz WISPs, bezeichnet werden, zählen zusätzliche U(1)-Eichbosonen, das CP-ungerade Higgs-Boson des “Next-toMinimal Supersymmetric SM” (NMSSM) sowie andere axion-ähnliche Teilchen. In diesem Vortrag stelle ich die verschiedenen Modelle, die diese Szenarien beschreiben, sowie den gegenwärtigen Status experimenteller Schranken für den Massenbereich unterhalb der doppelten Muonmasse m vor (entstanden in Zusammenarbeit mit O. Lebedev, S. Ramos-Sánchez und A. Ringwald). Aus der top-down Perspektive gehen solche Teilchen auch aus String-Kompaktifizierungen hervor, die das NMSSM reproduzieren und/oder zusätzliche versteckte U(1)-Symmetrien enthalten. Darüber hinaus sind sie von großem aktuellem Interesse in vielen Modellen, die versuchen, neueste terrestrische und astrophysikalische Anomalien als Signale Dunkler Materie zu interpretieren. Dazu zählen z.B. die von DAMA beobachtete jährliche Modulation der Ereignisrate in nuklearen Rückstößen sowie die von PAMELA in der kosmischen Strahlung gemessene Zunahme des Positronen-Anteils mit steigender Energie. Letztere lässt sich nur schwer durch die Annihilation eines gewöhnlichen WIMPs erklären, da der erforderliche Wirkungsquerschnitt den übersteigt, der in Standard Kosmologie durch “thermal freeze-out” zur korrekten “relic abundance” führt und das Spektrum außerdem auf eine leptophile Annihilation hindeutet. Beides ergibt sich direkt in Modellen mit einem leichten Austauschteilchen, welches durch eine langreichweitige attraktive Kraft ein “Sommerfeld enhancement” des Annihilationswirkungsquerschnittes generiert und bedingt durch Kinematik ausschließlich in leichte Leptonen zerfällt. Die Erweiterung des MSSM um ein zusätzliches Superfeld SO zum NMSSM ist gut motiviert, da es eine Lösung des -Problems sowie eine Entschärfung des “little hierarchy”-Problems liefert. Im MSSM fehlt eine Erklärung dafür, dass der Massenterm der beiden Higgs-doublets Hu und Hd weit unterhalb dem zu erwartenden Wert der GUT-Skala liegt: MGUT . Dies ergibt sich im NMSSM auf natürliche Weise, indem der Massenterm durch die Kopplung SHu Hd von Hu und Hd zu einem skalaren Feld ersetzt wird, dessen vev, hervorgerufen durch die soft-SUSY brechenden Terme, von der gewünschten Größenordung ist: D hSi. Um die Higgs-Masse von der MSSM tree-level Vorhersage mh mZ durch ein-loop Korrekturen über die LEP-Schranke mh 114 GeV zu heben, sind große soft-SUSY brechende Massen erforderlich. Die Größe dieser Massen im Vergleich zur schwachen Skala, als “little hierarchy”-Problem bezeichnet, erfordert ein beträchtliches Mass an “fine-tuning” der soft-SUSY brechenden Parameter. Durch das zusätzliche Superfeld SO im NMSSM wird der Teilchenbestand des MSSM unter anderem um ein CP-ungerades Higgs-boson A0 erweitert, welches, falls leicht genug, einen neuen Zerfallskanal h ! 2A0 für das SM Higgs-boson h öffnet. Die bei diesem Kanal, im Vergleich zum traN geringere Sensitivität von LEP kann zu einer Herabsetzung des ditionell untersuchten Zerfall h ! b b, LEP-limits und damit zur Verringerung des notwendigen “fine-tunings” führen. Wir beschränken uns auf eine spezielle Version des NMSSM, die keinen direkten -Term hat, das so genannte Z3 -symmetrische NMSSM. In diesem Modell ist A0 auf natürliche Weise leicht, falls das Higgs- 46 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Potential eine ungefähre Peccei-Quinn-Symmetrie besitzt. Die Kopplung von A0 an Fermionen 1 g N N CAff md d 5 d C mu u N 5 u C ml l5 l A0 ˇ D i 2mW tan2 ˇ ermöglicht verschiedene experimentelle Test des Modells von denen wir Einschränkungen auf die Kopplungskonstante CAff und die Masse für den Bereich mA0 < 2m ableiten. Im NMSSM ist das Intervall 10 2 . CAff . 102 am relevantesten, da es außerhalb zur Verletzung von Perturbativität und/oder “fine-tuning” kommt. Unsere Analyse trifft auch ganz allgemein auf die Kopplung eines Pseudoskalars an Materie zu, sofern CAff universell für alle Fermionen ist. Die Einschränkungen aus verschiedenen Meson-Zerfällen, anomalem magnetischem Moment des Muons, beam-dump und Reaktor-Experimenten lassen uns schlussfolgern, dass ein solches Teilchen schwerer als 210 MeV sein oder vier Größenordnungen schwächer an Fermionen koppeln muss als das SM Higgs-boson. Zusätzliche U(1)-Eichgruppen unter denen das SM ungeladen ist, können beim Brechen größerer Symmetriegruppen zur SM-Eichgruppe übrig und bis zu kleinen Energien ungebrochen bleiben. Die dominierende Wechselwirkung mit dem sichtbaren Sektor ist durch kinetisches Mischen des hidden-Photons mit dem gewöhnlichen elektromagnetischen Photon, welche durch den niederenergie effektiven Lagrangian ˇD 1 F F 4 1 1 1 B B C B F C m2 0 B B 4 2 2 mit hidden-Photon Feld B und Feldstärke B sowie kinetischem Mischungsparameter beschrieben wird. Letzterer kann in der Größenordnung 10 8 10 2 durch Loops schwerer, unter beiden U(1) geladener Teilchen erzeugt werden und in Stringtheorien sogar im noch größeren Bereich 10 23 10 2 liegen. Der dritte nicht-diagonale kinetische Term entspricht dem kinetischen Mischen, der letzte Term steht für eine mögliche Masse des hidden-Photons 0 . SM Teilchen erhalten eine mini-Ladung proportional zu unter dem hidden-Photon, wodurch dieses in SM Fermionen zerfallen kann. Für diese Kopplung ans SM ergeben verschiedene Experimente Einschränkungen analog zum CP-ungeraden Higgs-boson des NMSSM. Im Gegensatz zu diesem ist der Massenbereich m 0 < 2m noch weniger eingeschränkt und kann unter anderem an zukünftigen beam-dump Experimenten weiter getestet werden. T-8 (B) On-Shell-Renormierung von Mischungsmatrizen PATRICK R IETH Theorie, DESY Im Standardmodell der Elementarteilchen (SM) ist der Formalismus der Renormierung notwendig, damit Divergenzen, die aufgrund von Quanteneffekten verursachte werden, anhand einer Redefinition endlich vieler unabhängiger Parameter, wie Massen und Kopplungskonstanten, beseitigt werden können und man für physikalische Größen im Experiment verifizierbare Ergebnisse erhält. Im elektroschwachen Sektor des SM ist die Cabibbo-Kobayashi-Maskawa-Matrix (CKM-Matrix), die die Mischung der verschiedenen Quarkflavour beschreibt, von besonderer Bedeutung. Jedoch besteht aber seit langer Zeit Unklarheit, welches die angemessenste Methode der Definition des Counterterms (CT) der CKM-Matrix ist, wobei hierzu verschiedene Vorschläge existieren. Als Problem tritt hierbei auf, dass man instabile Teilchen betrachtet, was zu sogenannten branch-cuts, sogar eichparameterabhängigen1 im SM führt. Notwendigerweise muss aber der CT der CKM-Matrix eichunabhängig sein, um wieder eichunabhängige physikalische Größen zu erhalten, da diese offensichtlich unabhängig von frei wählbaren, nicht physikalischen Parametern sein müssen. 1 Mit den verkürzenden Begriffen eichabhängig/eichunabhängig ist natürlich eichparameterabhängig/eichparameterunabhängig gemeint T. Theorie 47 Als eine mögliche Lösung dieser Probleme bietet sich jetzt folgendes Verfahren an, bei dem man die Selbstenergieeinschübe der äußeren Beine in zwei verschiedene Anteile separiert: Einerseits in eichunabhängige Selbstmassenbeiträge (sm) und andererseits in eichabhängige Wellenfunktionsrenormierungen (wfr). Anschließend werden nicht-diagonale CT-Matrizen folgendermaßen abgestimmt, dass diese die sm-Beiträge wegheben und die Hermitizität der Massenmatrix erfüllen. Die Diagonalisierung dieser kompletten Massenmatrix führt dann zu einer explizit eichunabhängigen CKM-CT-Matrix. In einem neueren Vorschlag ist es gelungen, die Berechnung einer CT-Matrix wesentlich zu vereinfachen, wobei diese direkt als Funktion der lorentzinvarianten Selbstenergiefunktionen ausgedrückt werden kann und automatisch die Hermitizitätsbedingung der Massenmatrix erfüllt. Dieser Quarkmassen-CT ist dahingehend von Vorteil da er zu einer eichunabhängigen CKM-CT-Matrix führt, die Unitarität erhält und demokratisch bezüglich des Quarkflavours ist, d.h. keinen bestimmten Quarkflavour bevorzugt. Eine wichtige Rolle bei der Bestimmung des CT in diesem Verfahren spielen dabei die sogenannten Nielsen-Identitäten (NI), anhand derer sich die Eichabhängigkeit der Theorie kontrollieren lässt. Diese NI folgen aus einer Erweiterung der Becchi-Rouet-Stora-Tyutin-Symmetry (BRST-Symmetie), ähnlich wie man gewöhnliche Ward-Identitäten aus der Invarianz unter BRST-Transformationen erhalten kann. Dies bedeutet, dass die Variation von einzelnen Green’schen Funktionen bezüglich des Eichparameters der Theorie zu bestimmten Symmetrierelationen führt, wobei auch mehrere Eichparameter gleichzeitig auftreten können. Die Mächtigkeit dieser Technik liegt in der Möglichkeit begründet, die Eichabhängigkeit auszufaktorisieren, wobei diese Abhängigkeit dann als Green’sche Funktion der BRST-Quellen vorliegt. Dieses Ausfaktorisieren gilt für jede Ordnung in der Störungstheorie, wobei das Zusammenspiel mit der Renormierungsprozedur nicht trivial ist. Mit Hilfe dieser NI lässt sich dann der Quarkmassen-CT bestimmen. Aktuell wird an einer Erweiterung dieses Formalismus für höhere Schleifenordnungen sowie für massive Majorana-Neutrinos gearbeitet, wobei hierfür die entsprechenden NI auf 1-Schleifen-Niveau bekannt sind. Des Weiteren soll in naher Zukunft der Formalismus ebenso auf supersymmetrische Theorien ausgeweitet werden, in denen die Mischung von Teilchen eine große Rolle spielen. In diesem Vortrag wird einerseits auf die bisherigen Rechnungen im SM, andererseits auf die andauernden Berechnungen für Theorien mit Majorana-Neutrinos eingegangen. Hierbei wird besonderes Augenmerk auf die Berechnungen der NI gelegt, die für die Konstruktion der CT notwendig sind. T-9 (C) Der flavorverletzende Zerfall tQ1 ! c C Q 01 auf Einschleifenniveau E VA P OPENDA Institut für Theoretische Physik, KIT Alle Präzisionsmessungen der letzten Jahre im Bereich der Flavorphysik unterstützen das Bild, das das Standardmodell der Teilchenphysik bezüglich flavorverletzender Prozesse zeichnet. Die experimentellen Daten lassen kaum Freiraum die beobachtete Flavorverletzung anders als mit dem Cabibbo-KobayashiMaskawa (CKM) Mechanismus des Standardmodells zu beschreiben. Dies hat weitreichende Folgen: Die Physik an der TeV-Skala darf nicht mehr Flavorverletzung enthalten als das Standardmodell. Die minimale supersymmetrische Erweiterung des Standardmodells (MSSM) in ihrer allgemeinen Form bietet jedoch eine Vielzahl neuer, flavorverletzender Quellen, die im supersymmetriebrechenden Sektor verankert sind. Dieses sogenannte Flavorproblem der Neuen Physik“ wird in dem Modell der minimalen Flavorver” letzung (MFV), das in Übereinstimmung mit den aktuellen Präzisionsmessungen ist, gelöst. Die grundlegenden Aussagen dieses Modells können einfach zusammen gefasst werden: Alle flavorverletzenden Übergänge werden allein durch die CKM Matrix bestimmt. Insbesondere gibt es keine flavorverletzenden neutralen Ströme (FCNC) auf Bornniveau [1]. 48 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Dementsprechend ist der flavorverletzende Zerfall des leichten Top-Squarks in ein Charm-Quark und das leichteste Neutralino tQ1 ! c C Q 01 in diesem Modell auf Bornniveau verboten. Er findet durch Einschleifendiagramme mit geladenen Teilchen in den Schleifen statt. Deswegen ist er durch die kleinen Mischungswinkel der CKM Matrix der Größenordnung jVcb j 0:04 unterdrückt. Der Zerfall in ein Quark der ersten Generation wäre aufgrund eines noch kleineren CKM-Mischungswinkel jVub j 0:004 noch stärker unterdrückt. Aufgrund der großen Mischung von Wechselwirkungseigenzuständen der dritten Squarkgeneration kann das tQ1 sehr leicht werden, so dass die flavorerhaltenden Zerfälle in Quarks der dritten Generation tQ1 ! t C Q 0 ; tQ1 ! b C Q C kinematisch verboten sind. Dann ist der führende Zerfallskanal der hier betrachtete Prozess. Er wird deswegen auch umfangreich in phänomenologischen Analysen untersucht [2], allerdings fehlt bisher eine vollständige Einschleifenrechnung. Es existiert eine Arbeit [3] aus dem Jahr 1987, in der dieser Prozess in einer Näherung gerechnet wurde. Einerseits wurde lediglich der Zerfall in ein photinoartiges Neutrino tQ1 ! c C Q betrachtet. Andererseits wurden nur Beiträge von divergenten Graphen berücksichtigt und Anteile der übrigen Einschleifendiagramme vernachlässigt. Es verbleibt ein großer Logarithmus log.MP2 =m2W /, in dem der Ursprung der hohen Skala MP 1019 GeV unklar bleibt. Im Vortrag soll nach einer kurzen Einführung in das betrachtete Modell die Einschleifenrechnung des Prozesses vorgestellt werden. Es tragen drei Typen von Diagrammen bei: Squark- und Quark-Selbstenergien sowie Vertexkorrekturen. Alle drei Beiträge liefern Divergenzen, die sich in der Summe nicht aufheben, sobald man supersymmetriebrechende Terme hinzunimmt. Auf die erforderliche Renormierung im Rahmen der MFV wird im Detail eingegangen. [1] A. J. Buras, “Minimal Flavour Violation,” Act. Phys. Pol. B34:5615–5668, 2003. [2] K. Hikasa et al., “Flavor-changing neutral current top-squark decay as a probe of squark mixing,” Phys. Rev. D70 (2004) 055001, G. Hiller et al., “Collider signatures of minimal flavor mixing from stop decay length measurements,” Phys. Rev. D80 (2009) 115016. [3] K. Kikasa and M. Kobayashi, “Light scalar top quark at e C e colliders,” Phys. Rev. D36:724–732, 1987. T-10 (A) Higgs-Bosonproduktion durch Gluonfusion in NNLO im MSSM N IKOLAI Z ERF Institut für Theoretische Teilchenphysik, KIT Es wird erwartet, dass das letzte, bis jetzt unentdeckte Teilchen des Standardmodells (SM), das HiggsBoson, am LHC produziert wird. Sein Nachweis benötigt eine präzise theoretische Vorhersage des Produktionswirkungsquerschnitts .pp ! H C X / im SM. Den dominanten Beitrag zur Higgs-Produktion am LHC liefert die Gluonfusion, bei der zwei Gluonen über eine Topquarkschleife an das Higgs-Boson koppeln. Rechnungen in der Störungstheorie im SM zeigen, dass große radiative Korrekturen zu diesem Prozess auftreten. In nächstführender Ordnung (NLO) der starken Kopplungskonstanten ˛s ergeben sich relative Korrekturen zum totalen Wirkungsquerschnitts von bis zu 70% im Vergleich zur Vorhersage in führender Ordnung (LO). Um eine akkurate Vorhersage zu erhalten, ist es daher notwendig, den Wirkungsquerschnitt in nächstnächstführender Ordnung (NNLO) zu bestimmen. Die ersten NNLO Ergebnisse wurden mit Hilfe einer effektiven Theorie (EFT) gewonnen, in der die über T. Theorie 49 eine Topquarkschleife induzierte Kopplung der Gluonen an das Higgs-Boson in Form eines Matchingkoeffizienten C1 berücksichtigt wird. Die EFT stimmt per Konstruktion für eine unendlich große Topquarkmasse mit den Vorhersagen des SM überein und kann als Näherung für im Vergleich zur Higgs-Masse großer Topquarkmasse (m t mH ) verwendet werden. Daß diese Näherung sogar für physikalische Massenverhältnisse zutreffende Vorhersagen macht, wurde erst durch eine, vor kurzem durchgeführte Rechnung in der vollen Theorie, im Falle des SM in NNLO gezeigt. Eine analoge Rechnung im Minimal Super Symmetrische Standardmodell (MSSM) ist aufgrund der vielen verschiedenen Teilchenmassen nicht ohne weiteres möglich. Man ist daher in NNLO auf die Vorhersage der EFT angewiesen. Um diese anwenden zu können, benötigt man den Matchingkoeffizienten C1 für den Fall, in dem die volle Theorie durch das MSSM gegeben ist. In C1 sind dann alle Beiträge der zusätzlichen schweren SUSY-Teilchen - der Supersymmetriepartner der Quarks und des Gluon - der Squarks und des Gluino, sowie die des Topquarks enthalten. Unter Annahme einer bestimmten Massenhierarchie, läßt sich C1 auf Dreischleifenniveau (NNLO) berechnen. In diesem Vortrag wird diese Rechnung vorgestellt und der Einfluß der SUSY-Teilchen auf den totalen Produktionswirkungsquerschnitt diskutiert. T-11 (B) Automatisierung von Einschleifenrechnungen S EBASTIAN B ECKER Institut für Physik, Universität Mainz Einleitung Die Experimente am LHC sind mit einer hohen QCD Jetrate konfrontiert. Um die theoretischen Vorhersagen für Multijetobservablen zu verbessern, sind NLO Korrekturen notwendig. In NLO Rechnungen tragen reelle und virtuelle Korrekturen bei. NLO D B C R C V (T.4) Das Matrixelement der virtuellen Korrekturen berechnet sich aus dem Interferenzterm zwischen einer Baum- und Einschleifenamplitude. Eine effiziente Berechnung einer Einschleifenamplitude, mit vielen Teilchen im Endzustand, stellt augenblicklich das größte Hindernis bei der Berechnung von NLO Korrekturen dar. Hier soll eine effiziente, rein numerische Methode zur Berechnung von Einschleifenamplituden vorgestellt werden. Subtraktionsmethode Das Integral in der Einschleifenamplitude ist im Allgemeinen ultraviolett(UV)- und infrarot(IR)-divergent und daher nicht für eine Monte-Carlo-Integration geeignet. Unser Ansatz besteht nun darin, lokale Subtraktionsterme für die UV- und IR- Divergenzen zu finden, so dass der Integrand nach der Subtraktion numerisch in 4 Dimensionen integriert werden kann. Z d V Z D .d V d UV d IR Z /C d UV Z C d IR Die Integrale in den letzten beiden Termen können analytisch berechnet werden. (T.5) 50 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Lokale Ultraviolett-Subtraktion Wir können einen Einschleifengraphen vereinfacht wie folgt schreiben: G .1/ Z D d 4 k .1/ G ; .2/4 G .1/ D N.k/ n Y k2 j D1 j 1 ; C iı (T.6) mit kj D k qj und qj D p1 C : : : C pj . Abhängig von der Zählerfunktion N.k/ ist dieses Integral für n D 2; 3; 4 UV-Divergent. Wir entwickeln den Integranden für große k: G .1/ N.k/ ' .kN 2 1C 2U V /n N ˝1 .k/ .kN 2 2U V / C ! N ˝2 .k/ .kN 2 N / C O.1=jkj 3 2U V /2 DW G .1/ ; (T.7) N ein Polynom in kN vom Grad m ist. Die analytische Integration von G .1/ in D D 4 2 wobei ˝m .k/ .1/ Dimensionen liefert uns einen endlichen Anteil Gf i n plus einen Anteil proportional zu 1=. Da wir nur den divergenten Anteil des Integranden über den Subtraktionsterm modellieren wollen, ziehen wir den .1/ endlichen von G ab. Damit ist der UV-Subtraktionsterm: .1/ GU V D G .1/ .kN 2 2U V .1/ Gf i n ; 3 / 1 Z D d 4k .2/4 .kN 2 1 2U V /3 : (T.8) Lokale Infrarot-Subtraktion Die IR-Divergenzen stehen in Beziehung zu soften und kollinearen Partonen in der Schleife. Sei nun ki2 ein Gluonpropagator in der Schleife, dann gilt: “Softe”- Singularität: , k ! qi “Kollineare”- Singularität: , k ! qi ki2 ) 1 C xpi 1 D ki2 D ki2C1 D 0; ki2 1 ) D ki2 D 0; (T.9) (T.10) wobei x 2 Œ0; 1. Wir definieren nun die soften und kollinearen Subtraktionsterme für einen Graphen G wie folgt: lim Si .G/ D k!qi n ki2 1 ki2 ki2C1 G .1/ .G/ ki2 1 ki2 ki2C1 o lim ; Ki .G/ D k!qi 1 Cxpi n o ki2 1 ki2 G .1/ .G/ ki2 1 ki2 KiU V ; (T.11) wobei KiU V so gewählt wird, dass der kollineare Subtraktionsterm UV-endlich ist. Summieren wir nun die Subtraktionsterme für alle Graphen einer Amplitude, so erhalten wir eine einfache und kompakte Formel für die lokalen IR-Subtraktionsterme. Schlussendlich müssen wir noch über alle Gluonen in der Schleife summieren. .1/ Gsof t D 4 ˛s i X 4pi pi C1 .0/ Ai ; 2 2 2 ki 1 ki ki C1 i 2I (T.12) g .1/ Gkol l D 4 ˛s i X i 2Ig .0/ . 2/ si KiU V ki2 1 ki2 C V si C1 KiUC1 ki2 ki2C1 ! .0/ Ai ; (T.13) wobei si Symmetriefaktoren und Ai die zu A.1/ zugehörigen Baumamplituden sind. Diese Subtraktionsterme entsprechen lokal der Einschleifenamplitude im IR-Limes. T. Theorie 51 Integrationswegdeformation Um Feynmans Ci ı-Vorschrift in dem Einschleifenintegral zu berücksichtigen, müssen wir den Integrationsweg ins komplexe verschieben. Das Integral verläuft nun über einen komplexen Integrationsweg um, wann immer es möglich ist, die Pole der Propagatoren zu umgehen. Wir setzten: ˇ 0 ˇ ˇ @k ˇ 0 (T.14) k D k C i .k/ und J.k/ D ˇˇ ˇˇ : @k Damit ist das Einschleifenintegral: Z I D n Y 1 d 4k 0 J.k/N.k .k// : .2/4 k 0 .k/2 (T.15) i D1 Die Effizienz der Monte-Carlo-Integration hängt sehr stark von der Funktion .k/ ab, die die Integrationswegdeformation definiert. Zusammenfassung Wir haben hier einen numerischen Ansatz zur Berechnung von Einschleifenamplituden vorgestellt. Um die darin enthaltene Einschleifenintegrale mit Monte-Carlo-Methoden berechnen zu können, führen wir UV- und IR-Subtraktionsterme ein und deformieren den Integrationsweg ins Komplexe. T-12 (C) Axionen im frühen Universum P ETER G RAF Max-Planck-Institut für Physik Das Standardmodell (SM) ist ein sehr guter theoretischer Rahmen, um die starke, schwache und elektromagnetische Wechselwirkung zu beschreiben. Dennoch gibt es eine Reihe von Hinweisen auf Physik jenseits des SM. Ein Beispiel ist das starke CP Problem: Eine Verletzung der CP Symmetrie in der QuantenChromodynamik würde zu einem elektrischen Dipolmoment des Neutrons führen, das weit größer ist als es die experimentellen Grenzen erlauben. Dieses fine-tuning nennt man das starke CP Problem. Die bis heute vielversprechendste Lösung wurde bereits 1977 von Peccei und Quinn (PQ) vorgeschlagen. Sie entdeckten, dass eine neue, globale chirale U(1)-Symmetrie den problematischen CP-verletzenden -Term dynamisch auf null bringt. Diese U(1)PQ wird bei der Skala fa spontan gebrochen. Das pseudoNambu-Goldstone Boson dieses Symmetriebruchs ist das Axion a. Die einzigen modellunabhängigen Wechselwirkungen des Axions sind gegeben durch den Lagrange La D gs2 1 b e b a G G 32 2 fa b und dem dazu dualen Tensor mit der starken Kopplungkonstante gs , dem Gluon-Feldstärketensor G e b D G b =2. Obwohl das Axion klassisch masselos ist, erzeugen Instantonen für Temperaturen G T . 1 GeV eine kleine Axionmasse: 10 10 GeV ma D 0:60 meV : fa Verschiedendste kosmologische und astrophysikalische Beobachtungen sowie negative Ergebnisse von direkten Suchexperimenten im Labor begrenzen den Parameter fa auf fa & 6 108 GeV: 52 42. Herbstschule für Hochenergiephysik Maria Laach 2010 Damit ist das Axion ein sehr leichtes, elektrisch ungeladenes, sehr schwach wechselwirkendes Boson, dessen Lebensdauer viel größer ist als das Alter des Universums. Diese Eigenschaften machen es sehr interessant als Kandidat für die dunkle Materie. Das Axion kann im frühen Universum auf nicht-thermische Art durch den misalignment-Mechanismus produziert werden. Ich werde mich aber auf die thermische Produktion beschränken, also auf die Produktion von Axionen in Streuprozessen. Weiterhin verwende ich nur die durch den oben angegebenen Lagrange definierten AxionGluon Kopplungen, weil es die einzigen sind, die unabhängig vom verwendeten Axionmodell sind. Das erlaubt Prozesse wie z.B. gCg ! gCa. Dabei werden Methoden der thermischen Feldtheorie angewandt, um der Abschirmung von Wechselwirkungen mit langer Reichweite im Quark-Gluon-Plasma des frühen Universums Rechnung zu tragen. T-13 (B) Flavorsymmetrien des Leptonsektors A NDREAS J OSEPH Physik Department T31, TU München Noch immer wirft der Flavorsektor des Standardmodells (SM) viele unbeantwortete Fragen auf, unter Anderem: Warum gibt es gerade drei Familien von Quarks und Leptonen? Warum spannt sich die Massenskala von geladenen Leptonen und Quarks über sechs Größenordnungen? Wie kommen Mischung und CP-Phase im Quarksektor zustande? — Weiterhin gilt es inzwischen als experimentell gesichert, dass Neutrinos, wenn auch kleine, Massen besitzen. Da Neutrinos im SM strikt masselos sind, muss dieses erweitert werden, und es stellen sich weitere Fragen. Welcher Natur sind Neutrinos, Majorana– oder Dirac– ? Was ist ihre absolute Massenskala, und wie sieht das Spektrum aus? Wie kommen Mischung und, falls vorhanden, CP-Phase(n) zustande? Und schließlich, warum sind die gemessenen Mischungswinkel im Quark- und Leptonbereich so unterschiedlich. Um diesen Punkten weiter auf den Grund zu gehen, ist es nützlich, die Symmetrien des Flavorsektors im SM, bzw. deren Brechung durch die Yukawakopplungen an das Higgs-Boson, zu betrachten. Dazu werde ich zunächst einen Überblick über die experimentellen Befunde im Neutrinosektor geben, sowie einige populäre theoretische Erklärungsmodelle erläutern. Dabei beschränken wir uns im Folgenden auf minimale Erweiterungen des SMs, und betrachten die Flavorkoeffizienten als Vakuumserwartungswerte (VEVs) neuer Skalarfelder, welche die Flavorsymmetrie (dynamisch) brechen. Anhand eines expliziten Beispiels wird schließlich gezeigt, wie sich die Hierarchien der Massen und Mischungswinkel im Leptonsektor in eine Sequenz von teilweise gebrochenen Flavorsymmetrien übersetzt. Experimentelle Befunde und minimale Erweiterung des Standardmodells Das SM, welches in Form einer lokalen Eichtheorie im Rahmen der Quantenfeldtheorie beschrieben wird, liefert eine konsistente Beschreibung der elektroschwachen und starken Wechselwirkung, wobei die oben genannten Fragen unbeantwortet bleiben. Aus Experimenten zu Neutrinooszillationen, wie KamLAND, MiniBooNE oder SNO weiß man, dass Neutrinos geringe Massen besitzen und zwei der drei Mischungswinkel groß sind. Absolute Massenskala und Neutrinospektrum sind zur Zeit nicht zugänglich. Eine theoretische Möglichkeit, die Beobachtungen zu erklären, sind sogenannte See-Saw Mechanismen (engl. für Wippe), bei denen die Energieskala schwerer SM-Singulett–Neutrinos für die Unterdrückung der Massen der SM-Neutrinos verantwortlich ist und ähnlich zum Quarksektor eine Mischungsmatrix zwischen geladenen Leptonen und Neutrinos induziert, die Pontecorvo-Maki-Nakagawa-Sakata (PMNS) Matrix. Im SM ist der Yukawa-Sektor für die spontane Symmetriebrechung der globalen Flavorsymmetrien verantwortlich, wobei die Brechungsterme proportional zu den Massen der Leptonen sind. Analoges gilt zu führender Ordnung für den effektiven Dimension-5–Operator (D5O), der nach dem Ausintegrieren der schweren T. Theorie 53 Singulett-Neutrinos auftritt (Type-I See-Saw–Mechanismus). Dieser ist proportional zu den Massen der SM-Neutrinos und invers-proportional zu der Massenskala der schweren Singulett-Neutrinos. Im minimal erweiterten SM fungieren diese Operatoren so gleichzeitig als möglicher Ursprung von Lepton-Flavorund Leptonzahlverletzung. Letztere wird in kosmologischen Modellen von Lepton- und Baryongenesis gebraucht, um die Baryonasymmetrie im Universum zu erklären. Spurionparametrisierung und Spontane Symmetriebrechung Eine elegante Möglichkeit, die beobachteten Hierarchien (für Massen und Mischungswinkel) im Leptonsektor (wie auch für Quarks) zu parametrisieren, ist, die Yukawa-Kopplungsterme und die Koeffizientenmatrix des D5O als skalare Spurionfelder zu beschreiben, die entsprechend der Flavorsymmetrien (FS) transformieren. Die FS werden nun durch Vakuumserwartungswerte (VEVs) dieser Spurionfelder schrittweise gebrochen, wodurch Massen und Mischungsparameter durch einen dynamischen Prozess festgelegt werden. Die Strukturen der Massen- und Mischungsmatrizen spiegeln sich in der Struktur und den Hierarchien der VEVs der Spurionfelder wider. Im Leptonsektor des hier betrachteten See-Saw Modells sind dies 12 physikalische Parameter: 6 Massen von geladenen Leptonen und SM-Neutrinos, 3 Mischungswinkel, eine Dirac-Phase und 2 Majorana-Phasen. Den Fällen von normalem, invertiertem oder entartetem Spektrum kann durch Konstruktion entsprechender Szenarien leicht Rechnung getragen werden. CP-verletzende Dirac- bzw. Majorana-Phasen treten dabei aufgrund von komplexen VEVs auf. Interessant ist zu sehen, wie sich verschiedene phänomenologisch “sinnvolle” Szenarien, wie zum Beispiel bi-trimaximale Mischung realisieren lassen, wobei zusätzliche diskrete Symmetrien, wie zum Beispiel A4 , eine Rolle spielen können. Falls man die Flavorsymmetrie als zusätzliche Symmetrie der effektiven Lagrangedichte fordert, resultiert die spontante Symmetriebrechung aus dem Grundzustand der Spurionfelder in einem Invariantenpotential. Das Invariantenpotential hat die besondere Eigenschaft, dass es unabhängig von der Basiswahl für die Leptonfamilien im Yukawa-Bereich bzw. D5O ist. Ein Invariantenpotential lässt sich während jedes Schrittes der oben beschriebenen Symmetriebrechung aus den restlichen Spurionfeldern konstruieren. Die dynamische Herkunft des Potentials bleibt dabei zunächst offen. Im Rahmen der effektiven Theorie kann unser Szenario dennoch als “book-keeping device” für die Parametrisierung von Lepton-Flavour-verletzenden Prozessen und als Startpunkt für die Konstruktion von dynamischen Modellen jenseits des SM (mit ggf. geeichten Flavoursymmetrien) verwendet werden. T-14 (A) Über die Enstehung der Arten durch große Eichgruppen A LEXANDER P RITZEL LMU München Das Standardmodell der Teilchenphysik beschreibt Physik zu einer bis dato nicht bekannten Genauigkeit und ist in perfekter Übereinstimmung mit jeder Beobachtung. Allerdings gibt es im Standard Modell Probleme die eindeutig zeigen, dass das Standardmodell unmöglich die finale Theorie sein kann und, dass es neue Physik jenseits des Standard Modells geben muss. Das deutlichste dieser Probleme ist das Hierarchieproblem. Das lässt sich wie folgt formulieren: Warum ist die einzige Skala im Standardmodell -die elektroschwache Skala- soviel kleiner als die Planck Skala, welche die fundamentale Skala der Gravitation ist? Für dieses Problem gibt es verschiedene Lösungsansätze, eine besonders attraktive Möglichkeit ist anzunehmen, dass sich Gravitation auf kleinen Skalen deutlich anders verhält als man es erwarten würde. Die Idee ist, dass wir auf unsere Theorie aus einem falschen Blickwinkel schauen und deshalb annehmen, dass die fundamentale Skala der Gravitation die Planck Skala ist, aber in Wirklichkeit ist sie die TeV Skala. Das Ziel ist also Gravitation so zu modifizieren, dass die fundamentale Skala mit der elektroschwachen Skala übereinstimmt. Dadurch wird das Hierarchieproblem offensichtlich gelöst, da in 54 42. Herbstschule für Hochenergiephysik Maria Laach 2010 diesem Fall keine Hierarchie zwischen den Parametern mehr existiert und folglich auch keine Hierarchie erklärt werden muss. Der Zerfall schwarzer Löcher zeigt eindeutig, dass die Einführung vieler neuer Teilchenspezies in das Standardmodell die fundamentale Gravitationsskala senken muss. Eine konkrete Idee ist, diese zusätzlichen Teilchenspezies durch zusätzliche exakte Kopien des Standard Modells zu erklären. Um das zu realisieren kann man sich verschiedene Mechanismen vorstellen, zwei konkrete sind: Man kann viele Standard Modell Kopien in eine grosse 4 dimensionale Eichgruppe einbetten, also eine Art Über-GUT einführen. Hier gibt es verschiedene Probleme, die ein derartiges Modell faktisch unmöglich zu realisieren machen. Der andere Mechanismus basiert auf einer höher dimensionalen Konstruktion, konkret werden die Kopien des Standardmodells in zusätzlichen Raumdimensionen auf sogenannten feldtheoretischen Branen zu lokalisieren. Der Mechanismus zur Lokalisation funktioniert hierbei analog zu einem Josephson Kontakt, blos, dass man den Supraleiter durch einen magnetischen Supraleiter, also eine nichtabelsche Eichtheorie ersetzt. Wenn man diesen Mechanismus im Detail studiert ergeben sich ausserdem interessante Analogien zu String Theorie. Eine Konstruktion dieser Art macht verschiedene interessante Vorhersagen, insbesondere zum Verhalten schwarzer Löcher. Leider gibt es hierbei noch einige offene Probleme, die gelöst werden müssen bevor man ein konkretes phänomenlogisches Modell bauen kann. T-15 (B) Mischung neutraler D-Mesonen im Standardmodell M ARKUS B OBROWSKI Institut für Theoretische Teilchenphysik, KIT Mischung und CP-Verletzung neutraler Mesonen spielten eine Schlüsselrolle bei der Entwicklung des Standardmodells der Teilchenphysik und der Messung seiner fundamentalen Parameter. Flavourverändernde neutrale Ströme im elektroschwachen Sektor des Standardmodels vermitteln Übergange neutraler Mesonen in ihre CP-konjugierten Antiteilchenzustände über einen gemeinsamen Zerfallskanal. Diese bemerkenswerte Verwandlung von Materie zu Antimaterie gibt Anlaß zu beobachtbaren Flavouroszillationen, in denen sich die Quantenstruktur der Natur auf makroskopischen Skalen offenbart. Grundsätzlich sind solche Oszillationen denkbar bei den vier Hadronen K 0 , D 0 , B 0 and Bs0 . Pionen sind ihre eigenen Antiteilchen während die angeregten Mesonzustande zu kurzlebig sind und stark oder elektromagnetisch zerfallen ehe eine nennenswerte Mischung in den Antiteilchenzustand Zustande kommt. Seit 2007 ist bekannt, daß bei allen dieser vier Mesonen Oszillationen auch tatsächlich beobachtet werden können. In diesem Vortrag diskutiere ich den gegenwärtigen Status theoretischer Vorhersagen zur D 0 -Mischung. Die Amplitude des Meson-Antimeson-Übergangs wird üblicherweise im Rahmen der ‘Heavy Quark Expansion’ (HQE) berechnet, einer Entwicklung der jF j D 2 Übergangsmatrix (F D S; C; B) in eine Reihe lokaler Operatoren wachsender Dimension D, unterdrückt durch inverse Potenzen der schweren Valenzquarkmasse. Dieser Zugang erlaubt die Isolation aller Effekte nichtperturbativer NiederenergieQCD in Matrixelementen von Vierquark-Operatoren, die auf dem Gitter berechnet werden können. HQEbasierte Methoden erlauben die Bestimmung von Mischung, Lebensdauern und CP-Verletzung neutraler B- und Bs -Mesonen in guter Übereinstimmung mit den beobachteten Werten. Berechnet man auf der gleichen Grundlage die Lebensdauerdiffenz im D 0 -System, stößt man auf eine Abweichung vom Experiment um mindestens drei Größenordnungen. Formal manifestiert sich darin effiziente GIM-Unterdrückung, ein Zusammenspiel von CKM-Hierarchie und SU.3/F -Flavoursymmetrie. Zur Erklärung dieser auffälligen Abweichung kann man entweder die Anwendbarkeit der HQE auf den D-Sektor in Frage stellen oder aber nach relevanten Beiträgen innerhalb der HQE suchen, die in der zugrundeliegenden Rechnung nicht berücksichtigt wurden. Der erste Fall entspricht einem Zusammenbruch der HQE-Störungsreihe, sobald T. Theorie 55 ˛s oder 1=m an der Charm-Schwelle kein geeigneter Entwicklungsparameter mehr ist. Die Berechnung nächstführender QCD Strahlungskorrekturen sowie D D 7 Massekorrekturen legt allerdings nahe, daß die HQE zumindest eine richtige Abschätzung der Größenordnung liefern sollte. Daneben kann die Nichtanwendbarkeit des HQE-Ansatzes auch Folge von Verletzung der Quark-Hadron-Dualität (QHD) in Gegenwart nichtperturbativer langreichweitiger QCD-Dynamik sein. Dies tritt auf, sobald die Valenzquarkdynamik im Charm-Sektor nicht mehr der wesentliche Beitrag zur Physik auf Hadron-Niveau ist und der niederenergetische Seequark- und Gluoninhalt des Mesons eine dominierende Rolle zu spielen beginnt. Die HQE, die wesentlich auf der Annahme von QHD beruht, wäre somit nicht mehr in der Lage, die wesentlichen Beiträge zum jC j D 2 Übergang richtig zu beschreiben. Das zweite der oben erwähnten Szenarien, die Dominanz bislang nicht berücksichtigter Beiträge zur HQE, ist eng verknüpft mit der erwähnten GIM-Interferenz: Die Mischungsamplitude wächst mit dem Parameter der SU.3/F -Symmetriebrechung. Korrekturen mit verstärkter Flavourverletzung sind daher potentiell in der Lage, die dominanten Beiträgen zur D-Mischung zu werden. Da Effekte von SU.4/F -Symmetrie weitaus schwächer ausgeprägt sind, ist klar, daß solche Beiträge im B-Sektor eine untergeordnete Rolle spielen. Schon seit langer Zeit besteht die Vermutung, daß die GIM-Unterdrückung in höheren Ordungen der HQE durchbrochen wird. Der Grund dafür liegt in einer ausgeprägten Verletzung der Flavoursymmetrie, sobald Zwischenzustände des bilokalen jC j D 2 Übergangs an den Seequark- und Gluoninhalt des Mesons koppeln. Gegenstand dieser Studie ist die Untersuchung von Beiträgen der Dimension 10 und 12 zur effektiven jC j D 2 Hamiltondichte, wie sie sich aus Diquark-Kopplungen an den Mesonhintergrund ergeben. Generisch führt die Rechnung auf Matrixelemente von Sechsquarkoperatoren. Gegenwärtig gibt es keine zuverlässige Methode für deren Berechnung auf auf dem Gitter oder mit Summenregeln. In dieser Arbeit wird ein Faktorisierungsansatz für die Kopplungen im Zwischenzustand vorgeschlagen, der auf einer Vakuumeinfügungsnäherung im beruht. Der Einfluß von Seequarks und Gluonen wird darin in erster Näherung mit dem Kondensathintergrund des QCD-Vakuums beschrieben, unter Vernachlässigung höherer Anregungen im Mesonzustand. Die Faktorisierung erlaubt es, die Operatorstruktur so zu vereinfachen, daß nur noch Matrixelemente von Vierquarkoperatoren auftreten, für die auf eine Fülle bestehender Numerik zurückgegriffen werden kann. Erwartungsgemäß übersteigen sie die HQE-führenden (D D 6; 7)-Terme. Numerisch findet sich ein Verstärkungsfaktor der Ordnung zehn. Diese Studie zeigt damit, daß höhere Ordnungen der HQE tatsächlich in der Lage sind, zu dominanten Beiträgen anzuwachsen. Nichtsdestotrotz ist die gefundene Verstärkung nicht ausreichend, um die Spannung zwischen Theorie und Experiment aufzulösen. Im Vortrag gebe ich einen Überblick über sinnvolle nächste Schritte in einer Standardmodellanalyse der D 0 -Mischung. Dabei gehe ich im besonderen auf weitere höherdimensionale Beiträge ein, von denen die Aufhebung einer weiteren Ordnung GIMUnterdrückung zu erwarten ist. Daneben zeige ich eine Möglichkeit auf, wie man zuvor zu einer besseren Einschätzung des HQE-Konvergenzverhaltens kommen könnte und erkläre, wie die CP-Verletzung in der D 0 -Mischung quantifiziert werden kann. Die vorgeschlagenen nächsten Schritte, im Zusammenspiel mit den Ergebnissen dieser Studie, dürfen schließlich in der Lage sein, ein klareres Bild des Ursprungs von Mischung und CP-Verletzung neutraler D-Mesonen zu zeichnen und bergen möglicherweise interessante Erkenntnisse über Quark-Hadron-Dualität oder neue Physik im D-Sektor. T-16 (A) Colorflow-Methode bei QCD-Prozessen PATRICK G ELHAUSEN Theoretische Physik 1, Universität Siegen Seit der Entwicklung der Quantenchromodynamik (QCD) in den siebziger Jahren aus dem Quark-Modell heraus hat sich die QCD nach und nach zu einem festen Bestandteil des Standardmodells entwickelt. Um Wirkungsquerschnitte für verschiedene Prozesse - insbesondere unter Beteiligung von Hadronen - zu 56 42. Herbstschule für Hochenergiephysik Maria Laach 2010 berechnen, ist es daher eine umfassende Kenntnis im Bereich der QCD nötig. Im Gegensatz zu abelschen Eichtheorien wie z.B. der QED tritt in der QCD eine Wechselwirkung der Eichboson-Felder untereinander auf (! Farbladung der Eichbosonen). Als Konsequenz daraus ergibt sich eine Modifikation der aus der QED bekannten Feynmanregeln, deren Anwendung bei der Berechnung des Matrixelementes M nun zum Auftreten von sog. Farbfaktoren führt. Wenngleich die eigentliche Wechselwirkungsdynamik des Prozesses in den restlichen Termen von M enthalten ist, so ist die Bestimmung des Farbfaktors für eine korrekte theoretische Vorhersage unerlässlich. Bei der Anwendung der neudefinierten QCD-Feynmanregeln treten diese Farbfaktoren in der einzelnen Amplitude zunächst als Kombination von Gell-Mann-Matrizen T a (den Generatoren der zugrunde liegenden SU.3/Color ) auf. In der späteren Aufsummierung über alle Farben erscheinen die Farbfaktoren dann als Spuren dieser Matrix-Kombinationen (Casimir Trick). Die Berechnung dieser Spuren ist im Prinzip durch einfache Computer-Algorithmen machbar, benötigt aber gerade bei komplizierteren Prozessen einen beachtlichen Anteil an Rechenaufwand. Im Interesse diesen Aufwand zu minimieren, wurde ein neuer Ansatz zur Berechnung von M gewählt. Dieser Ansatz orientiert sich am sogenannten “Colorflow” zwischen Quarks und Gluonen und ist heute in so gut wie allen Monte-Carlo-Generatoren (beispielsweise WHIZARD) üblich. Als entscheidende Änderung ergänzt man die acht Gluonen der S U.3/Color um ein neuntes “Geist”-Gluon zu einer U.3/Darstellung. Tatsächlich erleichtert diese neue Darstellung die Berechnung der Farbfaktoren enorm, denn sie reduzieren sich dann auf eine Kombination von Kronecker-Deltas. Anschließend werden die durch das “unphysikalische” U.1/-Geist-Gluon erzeugten Beiträge im Ergebnis wieder abgezogen. Da die auftretenden Kroneckerdeltas anschaulich mit “Farbflüssen” (Colorflows) zwischen den beteiligten Partikeln identifiziert werden können, erklärt sich somit auch der Name dieser Methode. Über die Anwendung dieses kleinen Umweges lassen sich die Rechenzeiten für die Berechnung von QCD-Amplituden also stark verkürzen. Die Zeitersparnis gegenüber der Berechnung per Spur nimmt mit steigender Komplexität der Prozesse zu. In diesem Vortrag sollen einige Details der “Spur”- und der “Colorflow”-Methode näher erläutert und verglichen werden. Neben einer kurzen Herleitung und Gegenüberstellung wird dabei der Fokus vor allem auf den Vorteilen und der Anschaulichkeit der Colorflow-Methode liegen. T-17 (B) Endliche Familiensymmetriegruppen im Leptonsektor PATRICK OTTO L UDL Fakultät für Physik, Universität Wien Im Standardmodell der Elementarteilchenphysik werden Teilchenmassen durch den Higgs-Mechanismus erzeugt. Die wesentlichste Eigenschaft des Standardmodells in Hinsicht auf die Neutrinophysik ist die Tatsache, dass das Standardmodell nur linkshändige Neutrinofelder beschreibt. Aufgrund dessen, und der einfachen Struktur des skalaren Sektors (nur ein Higgs-Doublet), sind Neutrinos im Standardmodell masselos. Aufgrund der Existenz von Neutrinooszillationen ist jedoch bekannt, dass zumindest zwei Neutrinos massiv sein müssen. Dies ist der deutlichste bekannte Hinweis auf die Existenz elektroschwacher Physik jenseits des Standardmodells. An die absoluten Neutrinomassen gibt es derzeit nur obere Schranken: mi < 2 eV; i D 1; 2; 3 ; Œ1 : T. Theorie 57 Als nächstes stellen wir uns die Frage, wie Neutrinomassen im Standardmodell implementiert werden können. Eine Möglichkeit ist die Erweiterung des Standardmodells um drei rechtshändige Neutrinofelder (Singlets unter der Standardmodell-Eichgruppe). Alle Leptonmassen können dann in Analogie zum Quark-Sektor über den Higgs-Mechanismus generiert werden. Dieses Modell führt zu massiven Dirac-Neutrinos. Eine weitere Möglichkeit wäre die Einführung eines Majorana-Massenterms in der Lagrangedichte des Standardmodells, was auf massive Majorana-Neutrinos führen würde. Im Prinzip gibt es keine physikalischen Einschränkungen an die Zahl der Standardmodell Higgs-Doublets. Es ist jedoch darauf zu achten, dass die Schranken an “seltene Zerfälle” (rare decays), wie z.B. flavourändernde neutrale Ströme, durch Hinzufügen von Higgs-Doublets nicht überschritten werden. Die Lagrangedichte für die schwache Wechselwirkung mit dem geladenen Strom (charged current) hat die Form g ˇC C D p JC C W C H:c:; 2 mit 0 0 0 0 0 0 0 JC C D dNL0 uL C sNL cL C bNL tL C C eNL eL C N L L C NL0 L : Die im geladenen Strom enthaltenen Felder sind nicht physikalisch (keine Masseneigenfelder). Die Relationen zu den Masseneigenfeldern sind durch den Higgs-Mechanismus bestimmt (wir nehmen hier DiracNeutrinos und Massenerzeugung durch den Higgs-Mechanismus an): 0 1 0 1 0 1 0 1 0 0 1 1 0 1 0 1 0 uL uL dL dL0 1L eL eL e0 B C B C B C B C B B C C B C B LC B C B C B C C B C u B 0 C d B 0 C B e B 0 C B cL C D UL B cL C ; B sL C D UL B sL C ; B2L C D UL BL C ; BL C D UL BL C @ A @ A @ A @ A @ @ A A @ A @ A 0 tL0 bL bL 3L L L L0 tL JC C kann nun durch die Masseneigenfelder ausgedrückt werden: JC C 0 1 0 1 uL 1L B C B C B C B C D .dNL ; sNL ; bNL / UCKM B cL C C .eNL ; N L ; NL / UPMNS B2L C : @ A @ A tL 3L u e UCKM D UL ULd ist die sogenannte Cabibbo-Kobayashi-Maskawa-Matrix, UPMNS D UL UL die Pontecorvo-Maki-Nakagawa-Sakata-Matrix (Lepton-Mischungsmatrix). Die Abweichung dieser Matrizen von der 3 3-Einheitsmatrix ist der Grund für die Existenz von Mesonoszillationen (z.B. K0 KN 0 ) und Neutrinooszillationen. Während UCKM nicht sehr stark von der 3 3-Einheitsmatrix abweicht, ist UPMNS innerhalb des 2 -Bereiches kompatibel mit der sogenannten Harrison-Perkins-Scott-Mischungsmatrix 1 0q 2 p1 0 3 B 3 C C B p1 p1 C : UHPS D B p1 6 3 2A @ p1 6 p1 3 p1 2 Die interessante Form dieser Matrix führte zur Idee, dass es möglicherweise Symmetrien in der Lagrangedichte des Leptonsektors (und des skalaren Sektors) geben könnte, die zur Harrison-Perkins-ScottMischung (tribimaximale Mischung) führen. Interessante Kandidaten für Symmetriegruppen des Leptonsektors sind (da es drei Generationen von Leptonen und Quarks gibt) Untergruppen von U.3/ bzw. 58 42. Herbstschule für Hochenergiephysik Maria Laach 2010 SU.3/. Dabei sind besonders diskrete Symmetrien interessant, da bei der notwendigen Brechung (durch den Higgs-Mechanismus) diskreter Symmetrien keine Goldstonebosonen auftreten. Die einfachsten Modelle dieser Art enthalten alle Felder des Standardmodells, sowie zusätzlich drei rechtshändige Neutrinofelder. Um eine nichttriviale Lepton-Mischungsmatrix zu erhalten, muss mindestens ein (zusätzliches) Standardmodell-Higgs-Doublet hinzugefügt werden. Die Massenmatrizen, und damit UPMNS , sind bestimmt durch die Vakuumerwartungswerte der Higgs-Doublets, die Yukawa-Kopplungen und die sogenannten Clebsch-Gordan-Koeffizienten (CGCs) der betrachteten Symmetriegruppe. In der Arbeit Systematic analysis of finite family symmetry groups and their application to the lepton sector [2] konnten unter anderem die Clebsch-Gordan-Koeffizienten für einen großen Teil der 3 ˝ 3Tensorprodukte von endlichen Untergruppen der S U.3/ berechnet werden. Die Resultate dieser Arbeit könnten in Zukunft zum besseren Verständnis von Symmetrien im Leptonsektor nützlich sein. Vielleicht kann eine geeignete Symmetrie, die sowohl Leptonmassen als auch Leptonmischung beschreiben kann, einen Hinweis auf eine allgemeinere Theorie liefern, welche das heutige Standardmodell in einem bestimmten Limes enthält. [1] C. Amsler and others, “Particle Data Group,” Phys. Lett. B667:1, 2008, Online updates: http://pdg.lbl.gov [2] P. O. Ludl, “Systematic analysis of finite family symmetry groups and their application to the lepton sector,” [arXiv:0907.5587] T-18 (A) Higgs-Produktion durch Gluonfusion im MSSM H ENDRIK M ANTLER Universität Wuppertal Das Higgs-Boson ist das einzige elementare Teilchen des Standardmodells, das bisher nicht experimentell nachgewiesen werden konnte. Dieser Nachweis soll nun am LHC gelingen. Auf theoretischer Seite ist daür eine möglichst genaue Berechnung der Wirkungsquerschnitte für die Higgs-Produktion erforderlich. Von den Higgs-Produktionsprozessen hat die Gluonfusion am LHC den größten Wirkungsquerschnitt. Aus diesem Grund ist eine genauere Betrachtung dieses Prozesses besonders interessant. Bei der Gluonfusion entsteht das Higgs-Boson über einen Quark-Loop. Da die Quark-Higgs-Kopplung proportional zur Masse ist, tragen hauptsächlich schwere Quarks bei. Im Standardmodell liefert das TopQuark den größten Beitrag zum Wirkungsquerschnitt. Neben der Berechnung im Rahmen des Standardmodells ist auch die Betrachtung supersymmetrischer Modelle von besonderem Interesse. Im minimal supersymmetrischen Standardmodell (MSSM) wird das Standardmodell um die minimale Anzahl an Elementarteilchen erweitert. Bei der Berechnung im MSSM können im Loop auch Squarks, die Superpartner der Quarks, auftreten. Zusätzlich verändern sich auch die Quark-Higgs-Kopplungen der Quarks gegenüber dem Standardmodell. Die Yukawa-Kopplung für das Bottom-Quark bekommt einen zusätzlichen Faktor tan ˇ und kann deshalb die Yukawa-Kopplung des Top-Quarks übersteigen. Die Bottom- und Sbottom-Beiträge dominieren daher für große tan ˇ. Als Kanal für die Higgs-Suche am LHC eignet sich unter anderem die Higgs-Produktion in Verbindung mit einem high-pT -Jet. Durch geeignete Phasenraum-Schnitte kann das Signal-zu-Untergrund-Verhältnis verbessert werden. T. Theorie 59 In dem Vortrag wird die Berechnung des Wirkungsquerschnitts für die Gluonfusion zur Next-to-LeadingOrder im MSSM präsentiert. Dabei wird der Einfluss von tan ˇ, sowie der anderen Parameter des MSSM gezeigt, indem verschiedene Benchmark-Szenarios betrachtet werden. Berücksichtigt werden die Beiträge von Bottom-, Sbottom-, Top- und Stop-Quark. In die Berechnung gehen bei den Top- und Bottom-QuarkBeiträgen die exakten Massenabhängigkeiten ein, während für die Squark-Beiträge bei den virtuellen Korrekturen eine effektive Theorie für große Squark-Massen verwendet wird. Bei den reellen Korrekturen werden jedoch die exakten Squark-Massenabhängigkeiten verwendet. Für die Gluonfusion stellt man fest, dass die NLO-Korrekturen in der Größenordnung des LO-Resultates liegen. Daher ist es sinnvoll, auch höhere Ordnungen zu betrachten. In dem Vortrag wird daher auch der Einfluß der NNLO-Beiträge gezeigt. Berechnet werden dabei allerdings nur die Top-Quark-Beiträge in einer effektiven Theorie für eine große Top-Masse. Zusätzlich werden pT -Verteilungen und der Einfluß von Phasenraumschnitten gezeigt. T-19 (B) Bestimmung der R-paritätsverletzenden Parameter im MSSM mit bilinear gebrochener R-Parität F RANK T HOMAS Institut für Theoretische Physik und Astrophysik, Universität Würzburg Mit dem Start des Large Hadron Collider (LHC) hat die Erforschung der Tera-Skala begonnen. Neben der Erforschung des genauen Mechanismus der elektroschwachen Symmetriebrechung ist auch die Suche nach Teilchen, die von Erweiterungen des Standardmodells vorhergesagt werden, ein zentraler Punkt des experimentellen Programms. Viel diskutierte Modelle sind in diesem Zusammenhang supersymmetrische Modelle, in denen jedem Standardmodellteilchen ein Superpartner zugeordnet wird. Supersymmetrische Modelle besitzen einen intrinsischen Mechanismus, die Kleinheit von Neutrinomassen zu erklären, nämlich Brechung der R-Parität mit Hilfe von Leptonzahl-verletzenden Operatoren. Die einfachste Variante dieses Mechanismus ist die minimale supersymmetrische Erweiterung des Standardmodells mit bilinear gebrochener R-Parität (BRpV). Dieselben Parameter, die für die Generierung von Neutrinomassen verantwortlich sind, führen auch zum Zerfall des leichtesten supersymmetrischen Teilchens (LSP). Dies impliziert, dass es Korrelationen zwischen dessen Zerfallseigenschaften und Neutrinodaten gibt und Erstere als Funktionen der Zweiten vorhergesagt werden. Unter der Annahme, dass z.B. das LSP das leichteste Neutralino ist, zerfällt dieses innerhalb eines typischen Detektors und eröffnet damit die Möglichkeit Neutrinophysik direkt an Teilchenbeschleunigern zu testen. Falls Supersymmetrie (SUSY) bei niedriger Energie realisiert ist, werden der LHC sowie der zukünftige International Linear Collider eine Fülle von Daten supersymmetrischer Prozesse liefern. Eine der zentralen Aufgaben ist es dann die Parameter der Lagrangedichte und deren Unsicherheiten aus diesen Daten zu extrahieren. Unter diesem Gesichtspunkt wurde untersucht, mit welcher Genauigkeit die R-paritätsverletzenden Parameter des MSSM mit BRpV aus Beschleunigerobservablen mit deren zu erwartenden experimentellen Unsicherheiten bestimmt werden können. Außerdem wurde untersucht welchen Einfluss Neutrinophysik auf die Bestimmung dieser Parameter hat. Zusätzlich wurden diejenigen Zerfallskanäle des LSP identifiziert, die besonders sensitiv auf die diese Parameter sind und damit interessant für Tests der Neutrinophysik sind. Zur Bestimmung der R-paritätsverletzenden Parameter wurde das generische Fit-Programm Kaimini entwickelt, das unter Verwendung verschiedener deterministischer und stochastischer Optimierungsalgorithmen, beliebige Kombinationen von Parametern an Observablen fitten kann. Zur Berechnung der theore- 60 42. Herbstschule für Hochenergiephysik Maria Laach 2010 tischen Vorhersagen von SUSY Observablen wurde SPheno verwendet, jedoch kann Kaimini jedes Programm verwenden, das den SUSY Les Houches Accord implementiert. Das Ergebnis eines Fits sind dann Parameterpunkte hoher Anpassungsgüte und die Konfidenzintervalle der Parameter. T-20 (A) Automatisierte Gitterstörungstheorie im Schrödinger Funktional D IRK H ESSE NIC, DESY Die Gitterregularisierung der Quantenchromodynamik (QCD) erlaubt einen nichtstörungstheoretischen Zugang zu Phänomenen der starken Wechselwirkung, also zu solchen, die bei niedrigen Energien auftreten. Übliche Observable, die hierbei von Interesse sind, wären Mesonen- oder Hadronenmassen. Bei der Formulierung der Gitter-QCD wird die Raumzeit nicht als kontinuierlich, sondern als aus diskreten Gitterpunkten mit Abstand a bestehend aufgefasst. Die Wirkung der QCD wird hierbei in eine Gitterversion überführt. Die Zuordnung einer Gitterwirkung zur Wirkung der Kontinuums-QCD ist aber nicht eindeutig. In der Praxis werden viele verschiedene Gitterwirkungen verwendet, die im Limes verschwindenden Gitterabstandes, dem Kontinuumlimes a ! 0, alle die ursprüngliche Wirkung der QCD reproduzieren. Wenn auch die großen Stärken der Gitterformulierung der QCD in der Möglichkeit der Durchführung von Monte Carlo Simulationen liegen, so ist in der Praxis dennoch eine störungstheoretische Entwicklung, die nur bei hohen Energieskalen konvergent ist, zusätzlich notwendig oder zumindest wünschenswert. Aus der eingangs erwähnten Uneindeutigkeit der Gitterwirkung ergibt sich für störungstheoretische Rechnungen eine gravierende Komplikation. Jede Wirkung definiert einen eigenen Satz von Feynmanregeln. Da letztere die Bausteine jeder Störungsrechnung sind, muss im Prinzip jede Rechnung wiederholt werden, sobald man eine andere Wirkung betrachtet. Erst im Kontinuumslimes würden die Ergebnisse dann übereinstimmen. Daher ist es wünschenswert, die Generierung von Feynmanregeln von einer beliebigen Wirkung ausgehend zu automatisieren. Das Schrödingerfunktional ist ein wichtiges Werkzeug zur Behandlung skalenabhängiger Größen wie der laufenden Kopplung oder Renormierungsfaktoren. Durch die Einführung von Dirichlet-Randbedingungen in Zeitrichtung2 wird hier, ähnlich wie zwischen geladenen Kondensatorplatten, ein Hintergrundfeld induziert. Dies erschwert störungstheoretische Rechnungen zusätzlich und eine Automatisierung wird um so wünschenswerter. In den letzten zwei Jahren habe ich ein Softwarepaket entwickelt, das von beliebigen Wirkungen ausgehend Feynmanregeln aufstellt und eine leicht zu verwendende Schnittstelle bietet, mit diesen Feynmandiagramme zu berechnen. Einige Ergebnisse erster Rechnungen werden, zusammen mit einer kurzen Übersicht über die Prinzipien der Automatisierung, vorgestellt werden. 2 Da in der Gitter-QCD üblicherweise eine Euklidische Raumzeit angenommen wird, ist der Zeitbegriff hier nicht wörtlich zu verstehen. Die Abtei Maria Laach Die Abtei wurde als Abbatia ad Lacum - später auch Abbatia Lacensis - zwischen 1093 und 1216 erbaut und geht auf eine Stiftung des Pfalzgrafen Heinrich II. von Laach und seiner Frau Adelheid von Weimar-Orlamünde, für sein und seiner Gemahlin Seelenheil und dazu als Grablege, zurück. Das Wort Laach ist eine verschliefene Form des althochdeutschen Wortes lacha - von lat. lacus, -us m und ist als Name für den See, den Ort und das Kloster erhalten geblieben. Die mittelalterliche Klosteranlage folgt dem sog. St. Galler Klosterplan, der bekanntesten frühesten Darstellung eines Klosterbezirks aus dem Mittelalter, entstanden vermutlich zwischen 819 und 829 im Kloster Reichenau. Die sechstürmige Abteikirche gehört zu den schönsten Denkmälern der romanischen Baukunst aus der Zeit der Salier in Deutschland. Dies liegt vor allem daran, dass die Klosterkirche von späteren Umbauten fast völlig verschont geblieben ist. Laach Klosterkirche, Basis In der Zeit der Gotik und des Barock kam es jedoch zu einigen Veränderungen, die allerdings während Renovierungsarbeiten im 20. Jahrhundert rückgängig gemacht wurden, so dass in beindruckender Weise die Form einer mittelalterlichen Klosteranlage bis heute bewundert werden kann. Der prachtvolle Westeingang mit seinem nördlich der Alpen einzigartigen Paradies (Narthex) findet sich stilisiert im Logo der Herbstschule wieder. Der Abteikirche, auch als Laacher Münster bezeichnet, einer doppelchörigen, dreischiffigen Pfeilerbasilika mit zwei Transepten, wurde 1926 der Ehrentitel “Basilica minor” durch Papst Pius XI. verliehen. Die Abtei blieb von der Säkularisierung in der Zeit der Napoleonischen Herrschaft nicht verschont. Im Jahre 1801 wurden ihre Güter enteignet und 1802 die Abtei durch das Säkularisationsedikt Napoleons durch die französische Verwaltung aufgehoben. Nach dem Wiener Kongress ging die Abtei 1815 in preußischen Staatsbesitz über. 1892 konnten einige Benediktinermönche unter Prior Willibrord Benzler die Abtei zunächst als Priorei wieder besiedeln, schließlich, 1893, 737 nach ihrer Gründung, wurde die Abtei zum zweiten Male konsekriert und erhielt den Namen “Maria Laach”. 1093 Gründung durch Pfalzgraf Heinrich II. von Laach 1095 Tod des Pfalzgrafen, seine Frau Adelheid führt die Bauarbeiten fort 1112 Erneuerung der Stiftung durch Pfalzgraf Siegfried von Ballenstadt, er schenkt das Kloster an die Abtei Affligem im Landgrafschaft Brabant. 1138 Laach wird selbständige Abtei 1802 Aufhebung der Abtei in Folge der Säkularisation 1820 Erwerb des Klosters als Rittergut durch Daniel Heinrich Delius für 24.900 “Thaler in preußischen Courant” 1855 Zerstörung der Prälatur durch einen schweren Brand 1863 Erwerb der Abteigebäude durch die deutsche Jesuitenprovinz und errichtet “Collegium Maximum”. 1892 Wiederbesiedelung durch Benediktiniermönche aus der Erzabtei Beuron. 1924 Übereignung der Klosterkirche an die Abtei durch den preußischen Staat 2006 Festmesse mit dem Trierer Bischof Dr. Reinhard Marx zum 850. Weihetag. Laach Klosterkirche. Ostseite Bildnachweis Titel- und Rückseite: Maria Laach, Basis und Ostseite aus G. Dehio und G. Bezold, “Die Kirchliche Baukunst des Abendlandes.” Verlag der J. G. Cotta’schen Buchhandlung, 1892, mit freundlicher Genehmigung des Magnus Verlag, Essen.