Arbeit zur Erlangung des akademischen Grades Bachelor of Science Suche nach dem Lepton-Flavour verletzenden Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− am LHCb-Experiment Optimierte Signalselektion Maik Becker geboren in Unna 2016 Lehrstuhl für Experimentelle Physik V Fakultät Physik Technische Universität Dortmund Erstgutachter: Zweitgutachter: Abgabedatum: Dr. Johannes Albrecht Prof. Dr. Bernhard Spaan 1. Juli 2016 Kurzfassung Diese Bachelorarbeit befasst sich mit der Suche nach dem Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− , In der Theorie des Standardmodells ist der Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− verboten, da er die Leptonflavourzahlerhaltung verletzt. Die Suche nach diesem Zerfall ist gleichbedeutend mit der Suche nach Physik jenseits des Standardmodells. Die verwendeten Daten wurden 2012 in Run 1 des LHC am CERN mit dem LHCb-Detektor bei √ einer Schwerpunktsenergie von 𝑠 = 8 TeV aufgenommen. Sie entsprechen einer integrierten Luminosität von 2 fb−1 . Die erwartete obere Schranke für das Verzweigungsverhältnis ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) wurde zu ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < (9,2 ± 3,4) ⋅ 10−5 bestimmt, bei einem Konfidenzniveau von 95 %. Fokus dieser Arbeit war eine Optimierung der Separation von Signal und Untergrund. Abstract In this Bachelor thesis a search for the decay 𝐽 /𝜓 → 𝑒+ 𝜇− is performed. In the Standard Model, this decay is forbidden, as it violates lepton flavour conservation. Searching for this decay means to search for physics beyond the Standard Model. The data used in this study has been collected in 2012 during Run 1 of LHC at √ CERN with the LHCb experiment, at a center of mass energy of 𝑠 = 8 TeV corresponding to an integrated luminosity of 2 fb−1 . The calculated upper limit of the branching fraction ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ), referring to a confidence level of 95 %, is set to ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < (9,2 ± 3,4) ⋅ 10−5 . This study focused on the optimisation of the separation of signal and background. iii Inhaltsverzeichnis 1 Einleitung und Motivation 1 2 Physikalische Grundlagen 2.1 Das Standardmodell der Teilchenphysik . . . . . . . . . . . . . . . . 2.2 Der seltene Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− . . . . . . . . . . . . . . . . . . . . . 2 2 3 3 Das LHCb-Detektorsystem 5 4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− 4.1 Beschreibung der verwendeten Datensätze . . . . . . . . . . . . . . . 4.2 Anpassung der Simulation an die Daten . . . . . . . . . . . . . . . . 7 8 10 5 Optimierung der Signalselektion 5.1 Optimierung der Separation mit rechteckigen Schnitten 5.2 Separation mit Hilfe multivariater Analysetechniken . . 5.3 Optimierung der BDT-Variable . . . . . . . . . . . . . . 5.4 Bestimmung der maximal erwarteten Signalereignisse . . 13 13 17 20 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Ergebnisse der Analyse 24 6.1 Bestimmung eines oberen Limits . . . . . . . . . . . . . . . . . . . . 24 6.2 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . 24 Literaturverzeichnis iv 26 1 Einleitung und Motivation Wesentlicher Bestandteil moderner teilchenphysikalischer Analysen ist die Suche nach Prozessen, die durch die derzeit gängigen und anerkannten Theorien der Teilchenphysik nicht erklärt werden können. Das Standardmodell der Teilchenphysik ist die am besten getestete Theorie der modernen Physik, doch es gibt experimentelle Messungen, die darauf schließen lassen, dass das Standardmodell die Physik auf elementarer Ebene nicht vollständig beschreibt. So kann zum Beispiel mit dem Standardmodell nicht die im Universum beobachtete Asymmetrie zwischen Materie und Antimaterie erklärt werden. Auch liefert es keinen Anhaltspunkt dafür, aus was dunkle Materie oder dunkle Energie bestehen könnte. In der hier durchgeführten Analyse wird der Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− betrachtet. Im Folgenden schließen die Betrachtungen auch immer den ladungskonjugierten Zerfall 𝐽 /𝜓 → 𝑒− 𝜇+ mit ein. Gemäß dem Standardmodell ist dieser Zerfall verboten, da er die Leptonflavourzahl verletzt. Sollten sich jedoch Hinweise auf die Existenz dieses Zerfalls zeigen, würde dies auf neue Physik hindeuten. Ziel der vorliegenden Arbeit ist die Bestimmung einer oberen Schranke für das Verzweigungsverhältnis des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− . Als Normierungskanal wird der gut vermessene Zerfall 𝐽 /𝜓 → 𝜇+ 𝜇− aus dem Zerfall 𝐵+ → 𝐽 /𝜓𝐾 + gewählt, der eine ähnliche Topologie aufweist. Die experimentellen Daten wurden 2012 in Run 1 des LHC am CERN mit dem LHCb-Detektor aufgenommen. Sie entsprechen einer √ integrierten Luminosität von 2 fb−1 bei einer Schwerpunktsenergie von 𝑠 = 8 TeV. Die Studie soll gleichzeitig zeigen, ob die Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− mit dem LHCb-Detektor möglich ist. Die Arbeit gliedert sich wie folgt: Zunächst wird ein kurzer allgemeiner Überblick über das Standardmodell der Elementarteilchenphysik, sowie über den untersuchten Zerfall gegeben (Kapitel 2). Daran anschließend wird der für die Aufnahme der Daten verwendete LHCb-Detektor beschrieben (Kapitel 3). Der Hauptteil der Arbeit (Kapitel 4 und 5) beschäftigt sich mit der Analyse der vorliegenden Daten. Durch Optimierung der Signalselektion wird versucht eine maximale Anzahl an Signalkandidaten für den gesuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− zu ermitteln. In einer parallel zu dieser Arbeit durchgeführten Studie [1] wird die Normierungskonstante anhand des Normierungskanals berechnet, sodass als Ergebnis (Kapitel 6) eine obere Schranke für das Verzweigungsverhältnis bestimmt werden kann. Zum Schluss wird noch ein Ausblick gegeben. 1 2 Physikalische Grundlagen 2.1 Das Standardmodell der Teilchenphysik Das Standardmodell der Teilchenphysik ist eine quantenmechanische Feldtheorie, die mit hoher Präzision die Eigenschaften und das Verhalten aller bekannten Elementarteilchen unter Einfluss von drei der vier fundamentalen Naturkräfte beschreibt. Im Bereich der Teilchen wird dabei zwischen Quarks und Leptonen unterschieden. Quarks und Leptonen wiederum können paarweise anhand ihrer physikalischen Eigenschaften in je drei Generationen angeordnet werden. Dabei unterscheiden sich die entsprechenden Mitglieder verschiedener Teilchengenerationen in erster Linie durch ihre Masse. Weiterhin existiert zu jedem Teilchen ein passendes Antiteilchen, welches sich in allen ladungsartigen Quantenzahlen entgegengesetzt zum Teilchen verhält. Eigenschaften wie Lebensdauer, Masse und Spin jedoch sind gleich. Der Begriff der Materie bezieht sich im allgemeinen Sprachgebrauch nur auf das UpQuark 𝑢, das Down-Quark 𝑑, sowie auf das Elektron 𝑒− , da sich nur die Mitglieder der ersten Teilchengeneration zu stabilen Nukleonen und Atomen zusammenfügen. Im Folgenden sind alle derzeit bekannten Elementarteilchen übersichtlich und nach Generationen geordnet dargestellt: 𝑢 𝑐 𝑡 Quarks: ( ) , ( ) , ( ) 𝑑 𝑠 𝑏 , 𝜈 𝜈 𝜈 Leptonen: ( −u� ) , ( u� ) , ( u�− ) . − 𝑒 𝜏 𝜇 Neben den Quarks (up, down, charm, strange, top und bottom) gibt es auf der anderen Seite noch die geladenen Leptonen (Elektron, Myon und Tau), sowie die ungeladenen Leptonen (Eletron-, Myon-, und Tau-Neutrino). Eine ausführliche Diskussion der im Standardmodell vorkommenden Elementarteilchen findet sich in jedem Standardlehrbuch der Teilchenphysik, so zum Beispiel in [2, 3]. Die verschiedenen Wechselwirkungen zwischen den Elementarteilchen werden durch Austauschbosonen vermittelt. Für die elektroschwache Kraft sind diese das masselose Photon 𝛾, sowie die massiven Vektorbosonen 𝑊 ± und 𝑍 0 . Das Photon koppelt an die elektrische Ladung der Elementarteilchen, während die 𝑊 ± - und 𝑍 0 - Bosonen an die schwache Ladung koppeln. Neben der elektrischen und der schwachen Ladung tragen alle Quarks zusätzlich eine von drei sogenannten Farbladungen (rot, grün, blau). Es gilt, dass nur solche Teilchen frei existieren können, die in ihrer Gesamtheit farbneutral sind. Diese Einschränkung wird als Confinement bezeichnet und verbietet die Existenz freier Quarks. Ein Teilchen, das aus drei Quarks mit jeweils verschiedener Farbladung 2 2.2 Der seltene Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− zusammengesetzt ist, wird als Baryon bezeichnet. Dazu zählen zum Beispiel das Proton (𝑢𝑢𝑑) oder das Neutron (𝑢𝑑𝑑). Der Zusammenschluss eines Quarks mit einem Antiquark derselben Farbladung wird als Meson bezeichnet. Auch das in dieser Arbeit diskutierte 𝐽 /𝜓-Teilchen ist ein Meson, welches aus einem 𝑐- und einem 𝑐-Quark ̄ zusammengesetzt ist. Ein wichtiger Aspekt der experimentellen Teilchenphysik ist die Untersuchung von Teilchenzerfällen. Dabei ist insbesondere das Verzweigungsverhältnis ℬ eines Teilchens in einen bestimmten Endzustand interessant, da es die Wahrscheinlichkeit für diesen Zerfall angibt. Verzweigungsverhältnisse eignen sich gut, um ein theoretisches Modell mit experimentellen Messungen zu vergleichen. Physikalische Theorien basieren fast immer auf Gleichungen, die nicht direkt durch ein Experiment überprüft werden können. So kann zum Beispiel mit keinem Experiment direkt eine Lagrangedichtefunktion messen. Stattdessen werden aus Theorien Zusammenhänge für experimentell zugängliche Observablen hergestellt, durch die eine Theorie verifiziert, oder falsifiziert werden kann. Das Verzweigungsverhältnis ist eine solche Observable. 2.2 Der seltene Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− Das oben diskutierte Standardmodell der Teilchenphysik verbietet den in dieser Arbeit untersuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− , da er in seiner Gesamtbilanz sowohl die Elektron- als auch die Myonleptonflavourzahl verletzt. Die Leptonflavourzahlen sind Quantenzahlen, die nach dem Standardmodell in einem Prozess zu jedem Zeitpunkt erhalten bleiben müssen. Dabei trägt ein Lepton stets die Quantenzahl +1 der jeweiligen Generation. Ein Antiteilchen trägt entsprechend die Quantenzahl −1. Leptonflavourzahlverletzende Prozesse können im Standardmodell nur erklärt werden, wenn Erweiterungen des Modells zugelassen werden, die infolgedessen einer experimentellen Überprüfung standhalten müssen. Sollten sich die experimentellen Befunde für Leptonflavourzahlverletzung mit Hinblick auf die Vorhersagen des Standardmodells verdichten, wäre dies ein Hinweis auf Physik jenseits des Standardmodells. Eine Möglichkeit den Zerfall im Rahmen einer Theorie zu erlauben, wäre durch die Einführung eines sogenannten Leptoquarks [4]. Leptoquarks sind im Rahmen einer Großen Vereinheitlichenden Theorie (GUT) hypothetische Elementarteilchen, die sowohl an Leptonen als auch an Quarks koppeln und Leptonflavourzahlverletzung erlauben. Eine andere Erweiterungen des Standardmodells basiert auf der Existenz von skalaren 𝑍 ′ -Bosonen [5], welche im Gegensatz zu 𝑍 0 -Bosonen ebenfalls eine Änderung des Leptonflavours ermöglichen. Eine mögliche dritte Erweiterung nutzt 3 2 Physikalische Grundlagen die im Jahre 1957 vorhergesagte Existenz von Neutrinooszillationen aus, durch die den Neutrinos entgegen den Vorhersagen des Standardmodells eine Masse zugeordnet wird. Hierbei annihilieren das 𝑐- und das 𝑐-Quark ̄ zu einem virtuellen 𝛾 oder einem 0 virtuellen 𝑍 . Beim Zerfall des virtuellen Teilchens findet eine Neutrinooszillation statt, wodurch der Flavour geändert wird. Explizite Rechnungen zeigen jedoch auch, dass durch die äußerst geringe Masse der Neutrinos die Leptonflavourverletzung durch Neutrinooszillation so stark unterdrückt wird, dass die resultierenden Verzweigungsverhältnisse mit der heutigen Detektortechnologie nicht nachgewiesen werden können [6]. Abbildung 2.1 zeigt drei hypothetische Feynmandiagramme für die diskutierten Standardmodellerweiterungen. 𝜇− 𝑐 LQ 𝐽/ψ Z′ 𝐽/ψ 𝑒+ 𝑐 𝜇− 𝑐 𝑒+ 𝑐 (a) (b) 𝑐 𝛾, 𝑍 0 𝐽/Ψ 𝑐 𝑊− 𝑊+ 𝜇− 𝜈 u� 𝜈u� 𝑒+ (c) Abbildung 2.1: Feynman-Diagramme für hypothetische Standardmodellerweiterungen. In (a) ist ein möglicher Prozess unter Beteiligung eines Leptoquarks gezeigt. Abbildung (b) zeigt den Zerfall über den Austausch eines u� ′ -Bosons. Der Zerfall, der über Neutrinooszillation abläuft, ist in (c) zu sehen. Experimentell erfolgt die Suche nach Leptonflavourverletzung beispielsweise über die Untersuchung der Zerfälle 𝐵0 → 𝑒± 𝜇∓ [7] und 𝐷0 → 𝑒± 𝜇∓ [8] und, wie es in dieser Analyse der Fall ist, über den Zerfall von Vektormesonen (𝜙, 𝐽 /𝜓, 𝛶 ). Einen Vergleichswert für das Ergebnis der hier vorgelegte Arbeit liefert eine im Jahr 2013 durchgeführte Analyse der BESIII Kollaboration [6]. In dieser wurden bei einer Erfassung von (225,3 ± 2,8) ⋅ 106 𝐽 /𝜓 Ereignissen mit dem BESIII Detektor am BEPCII Collider vier Signalkandidaten ausgemacht. Als oberes Limit für das Verzweigungsverhältnis wurde ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < 1,6 ⋅ 10−7 bei einem Konfidenzlevel von 90 % bestimmt. 4 3 Das LHCb-Detektorsystem Die in dieser Arbeit analysierten Daten wurden 2012 in Run 1 mit dem LHCbDetektor am Large Hadron Collider (LHC) am CERN bei Genf aufgenommen. Der LHC ist der derzeit größte Ringbeschleuniger der Welt mit einem Umfang von 26,7 km, in dem zwei entgegengesetzt laufende Protonen- oder Bleiionenstrahlen √ bei einer Schwerpunktsenergie von bis zu 𝑠 = 13 TeV zur Kollison gebracht werden können. Geplante Verbesserungen sehen eine neue maximale Schwerpunktsenergie √ von 𝑠 = 14 TeV vor. Supraleitende Elektromagnete, die konstant mit Hilfe von flüssigem Stickstoff und flüssigem Helium auf eine Temperatur von 1,85 K gekühlt 2 CHAPTER 1. OVERVIEW werden müssen, halten die Protonen auf ihrer Kreisbahn. Um vorzeitige Kollisionen mit etwaigen Gasmolekülen zu verhindern, bewegen sich die Protonen in einem Ultrahochvakuum. y 5m Magnet RICH1 Vertex Locator M2 SPD/PS HCAL ECAL T3 RICH2 M1 T1 T2 M3 M4 M5 rad 250m 100mrad TT − 5m 5m 10m 15m 20m z Abbildung 3.1: Schematischer Aufbau undthe Anordnung der(VELO), DetektorkomponenFigure 1.1: Reoptimized LHCb detector layout, showing Vertex Locator the dipole magnet, Zu sehen sind Locator (VELO), die RICH theten two des RICHLHCb-Detektors. detectors, the four tracking stations TTder andVertex T1–T3, the Scintillating Pad Detector (SPD), Preshower (PS), Electromagnetic (ECAL)TT andund Hadronic (HCAL) and der the five muon stations Detektoren, die Spurdetektoren T1–T3, der calorimeters, Dipolmagnet, Scintillating M1–M5. It also shows the direction of the y and z coordinate axes; the und x axishadronische completes the (HCAL) right-handed Pad Detektor (SPD), das elektromagnetische (ECAL) framework. Kalorimeter, sowie die fünf Myonenkammern M1–M5 [9]. compared to theStellen TDR [4].des TheBeschleunigerrings ma- the VELO, the TT is used die in theProtonenstrahLevel-1 trigger. Anintroduced vier verschiedenen werden terial budget has been reduced by optimizing the Large impact parameter tracks found in theCollider VELO len von einem Detektor umschlossen, von denen einer der Large Hadron thickness of the silicon sensors and the number of are extrapolated to the TT and the magnetic field beauty Detektor ist. Am Kollisionspunkt innerhalb des Detektors kreuzen stations.(LHCb) The thickness of the sensors has been re- in the RICH 1 region allows their momenta to be duced 300 toStrahlen, 220 µm, and wodurch the number es of stameasured. The three remaining stations are placed sich diefrom beiden zu Proton-Proton-Kollisionen kommt. Abbiltions from 25 to 21 without significantly affecting behind the magnet with equal spacing. Each stadung 3.1 zeigt den schematischen Aufbau des LHCb-Detektor und die Anordnung its performance, as shown in this document. tion consists of an Inner Tracker (IT) close to the der verschiedenen Detektorkomponenten. beam pipe and an Outer Tracker (OT) surrounding The dipole magnet has not been modified from the TDR design [5] and its construction is advancing. Compared to the TP spectrometer layout, no shielding plate is placed upstream of the magnet. This change has been made in order to introduce magnetic field between the VELO and the magnet, i.e. in the region of RICH 1, for the Level-1 trigger improvement. Compared to the TP, the number of tracking stations is reduced to four in order to reduce the material budget, without introducing performance losses, as demonstrated in this document2 . The first station after the VELO, referred to as the Trigger Tracker (TT), is in front of the magnet and just behind RICH 1. It consists of four planes of silicon strip detectors. They are split into two pairs of planes separated by 30 cm. Together with the IT. The OT is made of straw tubes and the IT of silicon strip detectors. Their designs remain unchanged from those described in the corresponding TDR’s [6, 2]. The RICH 1 material has been reduced, largely by changing the mirror material and redesigning the mirror support. The mirror will be made from either carbon-composite or beryllium. The mirror support has been moved outside of the acceptance. Further reduction of the material has been achieved by removing the entrance window, by connecting the front face of RICH 1 to the flange of the VELO exit window. Iron shielding boxes for the photon detectors have been introduced for two reasons. Firstly, they protect the photon detectors from the magnetic field. Secondly, they help to focus the 5 3 Das LHCb-Detektorsystem Der LHCb-Detektor ist ein einarmiges Vorwärtsspektrometer, das einen Winkelbereich von 15 mrad bis 250 mrad in der 𝑦𝑧-Ebene in Richtung der Strahlachse abdeckt. Im Gegensatz zu den anderen großen Detektoren am LHC, wie zum Beispiel dem ATLAS Detektor, finden die Kollisionen bei LHCb nicht im Zentrum des Detektors, sondern an einem Ende statt. Der LHCb-Detektor ist spezialisiert auf die Untersū chung der Zerfälle von 𝑏- und 𝑏-Hadronen, welche im vom Dektektor abgedeckten Winkelbereich dominant produziert werden. Die Asymmetrie der Produktion der ̄ 𝑏𝑏-Paare ist dadurch begründet, dass für kleine Impulsüberträge der Prozess 𝑔𝑔 → 𝑏𝑏̄ in Proton-Proton-Kollisionen dominant ist. Durch seinen langen Detektorarm ist der ̄ LHCb-Detektor in der Lage ungefähr 40 % der entstehenden 𝑏𝑏-Paare zu erfassen. Somit hat das zu behandelnde Physikprogramm, die Konstruktion des LHCb-Detektors maßgeblich mitbeeinflusst. Dem Kollisionspunkt am nächsten ist der Vertex Locator (VELO), dessen Aufgabe es ist, mit hoher Genauigkeit die unmittelbar vom Kollisionspunkt ausgehenden Teilchenspuren zu erfassen. Die zugehörige Software versucht anschließend die detektierten Spuren zu einem gemeinsamen Kollisionsvertex zu rekonstruieren. Die ebenfalls zum Tracking System gehörenden Spurdetektoren TT und T1–T3 dienen zusammen mit dem Dipolmagneten zur exakten Impulsbestimmung der enstehenden geladenen Teilchen. Die zwei Ring Imaging Cherenkov Detektoren (RICH1 und RICH2) sind für die Identifikation von Hadronen mit einem Impuls zwischen 2 und 100 GeV verantwortlich. Mit Hilfe des elektromagnetischen (ECAL) und hadronischen (HCAL) Kalorimeters, sowie des Scintillating Pad Detektor (SPD) werden Energiedeposition von Elektronen, Photonen und Hadronen vermessen. Bei den weiter hinten liegenden Detektorkomponenten handelt es sich um mehrere große Myonenkammern, die die Aufgabe haben, einen Teil der schwer zu erfassenden Myonen zu detektieren. Eine ausführlichere Präsentation der verschiedenen Detektorkomponenten findet sich zum Beispiel in [10]. Mit einer Protonkollisionsrate von ungefähr 600 MHz bei einer Umlauffrequenz von 40 MHz für die Protonenpakete [11] ist die am Detektor anfallende Datenmenge zu groß, um vollständig vom Detektor erfasst und gleichzeitig abgespeichert zu werden. Aus diesem Grund selektiert ein kombiniertes System aus Hardware- und Softwaretriggern die anfallenden Daten. Die erste Stufe bildet der Hardwaretrigger (L0). Dieser lässt nur Ereignisse passieren, für die ein hoher transversaler Impuls in den Myonenkammern, oder eine hohe transversale Energie in den Kalorimetern gemessen wurde. Allein durch den L0-Trigger kann die Ereignisrate somit auf ein Maximum von 1,1 MHz reduziert werden. Ereignisse die den L0-Trigger passieren werden an die Software-Trigger (HLT1 und HLT2) geleitet, die auf Grundlage von ersten einfachen Rekonstruktionen und Selektionen die Auswahl weiter eingrenzen. Mit einer Rate von 5 kHz werden die verbleibenden Ereignisse dann zur weiteren Auswertung gespeichert. 6 4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− Ziel der Analyse ist die Bestimmung eines oberen Limits für das Verzweigungsverhältnis des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− . Das Verzweigungsverhältnis bestimmt sich gemäß der Gleichung ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) = 𝛼𝑁sig,95% . (4.1) Hierbei ist 𝑁sig,95% die Anzahl der maximal messbaren Signalereignisse für den Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− bei einem Konfidenzniveau von 95 %. Das Konfidenznivau gibt an, in wie viel Prozent der bei unendlicher Wiederholung einer statistischen Messung resultierenden Konfidenzintervalle der wahre Wert des betrachteten Parameters tatsächlich liegt [12]. Das Konfidenzintervall (auch Vertrauensintervall genannt) ist ein in jeder Messung unterschiedliches Intervall, welches den Mittelwert des Parameters einschließt [13]. Im Fall der hier gemachten Untersuchung heißt das, dass die gefundenen Signalereignisse mit einer Wahrscheinlichkeit von 95 % nicht durch den erwarteten Untergrund erklärt werden können. Die in Gleichung (4.1) ebenfalls benötigte Normierungskonstante 𝛼 wurde in einer parallel durchgeführten Studie [1] auf Grundlage desselben Datensatzes aus dem Normierungskanal 𝐽 /𝜓 → 𝜇+ 𝜇− bestimmt. Sie berechnet sich gemäß 𝛼= ℬ(𝐵 → 𝐽 /𝜓𝐾)ℬ(𝐽 /𝜓 → 𝜇+ 𝜇− ) (𝜖ges )u�/u�→u�+ u�− . 𝑁u�/u�→u�+ u�− (𝜖ges )u�/u�→u�+ u�− (4.2) Hierbei sind ℬ(𝐵 → 𝐽 /𝜓𝐾) und ℬ(𝐽 /𝜓 → 𝜇+ 𝜇− ) die bekannten Verzweigungsverhältnisse des Normierungskanals und 𝑁u�/u�→u�+ u�− die Anzahl der gemessenen Signalereignisse im Normierungskanal 𝜖ges sind die Gesamteffizienzen für die Detektion, Rekonstruktion und Selektion des jeweiligen Kanals. Über Formel (4.1) und (4.2) wird das Verzweigungsverhältnis ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) relativ zum Normierungskanal bestimmt. Dies ist sinnvoll, da sich über ein Verhältnis von Verzweigungsverhältnissen systematische Fehler größtenteils aufheben und der Fehler somit minimiert werden kann. Dieses Verfahren setzt jedoch die Kenntnis des Verzweigungsverhältnis des Normierungskanals voraus, weswegen hier der gut vermessene Zerfall 𝐽 /𝜓 → 𝜇+ 𝜇− aus dem Zerfall 𝐵+ → 𝐽 /𝜓𝐾 + gewählt wurde. Für die Verzweigungsverhältnisse des Normierungskanals werden die Literaturwerte ℬ(𝐽 /𝜓 → 𝜇+ 𝜇− ) = (5,961 ± 0,033) % und ℬ(𝐵+ → 𝐽 /𝜓𝐾 + ) = (0,1027 ± 0,0031) % verwendet [14]. Im folgenden Abschnitt werden die in dieser Analyse verwendeten Datensätze beschrieben und anschließend angepasst. Dabei werden stets die auftretenden Signalund Untergrundeffizienzen bestimmt. 7 4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− 4.1 Beschreibung der verwendeten Datensätze Monte-Carlo-Simulation Um das Signal zu beschreiben und den Untergrund besser abschätzen zu können, werden Monte-Carlo simulierte Daten verwendet. Im Folgenden soll kurz beschrieben werden, wie Monte-Carlo-Simulationen bei LHCb prozessiert werden: Mit MonteCarlo-Methoden erzeugte Ereignisse basieren auf einer Simulation der Proton-ProtonKollisionen im Detektor, der Simulation der daraus resultierenden Zerfallsprozesse, sowie der Simulation der Wechselwirkungen mit dem Detektormaterial. Die ProtonProton-Kollisionen werden mit der Software PYTHIA [15] generiert. PYTHIA liefert dabei anhand komplizierter Modelle, die unter anderem auf den Lagrangefunktionen des Standardmodells basieren die Vierervektoren der in einer Kollision entstehenden Teilchen. Das Programm EVTGEN [16] simuliert die sich anschließenden Zerfallsprozesse, so zum Beispiel den von 𝐵-Hadronen. Die Simulation der Wechselwirkungen zwischen Teilchen und Detektormaterial, übernimmt das Softwarepaket GEANT4 [17]. Die Konvertierung der berechneten Ereignisse in elektrische Signale leistet die Software BOOLE [18]. Ab diesem Punkt werden die Monte-Carlo simulierten Ereignisse wie reale Ereignisse an die Trigger und Rekonstruktionssoftware von LHCb geschickt. Eine weitergehende und ausführliche Diskussion der verwendeten Module findet sich zum Beispiel in [19]. Die Gesamtanzahl der Monte-Carlo-Ereignisse für den Zerfall 𝐵 → 𝐽 /𝜓𝑋 beträgt 1 261 633. Die 𝐽 /𝜓-Mesonen zerfallen in der Simulation dann zu 100 % weiter in Elektron und Myon. In dem vorliegenden Datensatz sind weniger Ereignisse enthalten, da durch Teilchenrekonstruktionen der Detektorsoftware bereits Ereignisse verloren worden sind. Daten Die in dieser Arbeit analysierten Daten wurden 2012 in Run 1 des LHCs mit dem LHCb Detektor aufgenommen und entsprechen einer integrierten Luminosität von 2 fb−1 bei einer Schwerpunktsenergie von 8 TeV. Der vorliegende Datensatz beinhaltet nach einer im Vorfeld durchgeführten Selektion 19 550 674 Ereignisse. Da der gesuchte Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− gemäß dem Standardmodell nicht erlaubt ist, wird erwartet, dass potentielle Signalkandidaten vollständig vom Untergrund verdeckt werden. Es ist somit notwendig, den vorliegenden Untergrund genau zu verstehen. Zur Analyse des Untergrunds werden nur die Seitenbänder des Massenfensters betrachtet. Die Masse des 𝐽 /𝜓-Teilchens beträgt (3096,916 ± 0,011) MeV [14]. Ereignisse, die einer rekonstruierten 𝐽 /𝜓-Masse zwischen 2750 MeV und 3250 MeV 8 4.1 Beschreibung der verwendeten Datensätze Kandidaten / (11MeV/c2 ) entsprechen, werden im Folgenden ausgeblendet. Damit ist sichergestellt, dass die im Datensatz verbleibenden 5 863 516 Ereignisse ausschließlich aus Untergrund bestehen. Abbildung 4.1 zeigt die Massenverteilung der aufgenommenen Daten und der Simulation. 6 ×10 5 Signal Untergrund 5 4 3 2 1 0 2600 2800 3000 3200 3400 3600 m(eµ)/(MeV/c2 ) Abbildung 4.1: Normierte Verteilung der u�/u�-Masse. Für die mit dem Detektor aufgenommenen Daten werden zur Untergrundanalyse nur die Seitenbänder betrachtet. Der Massenbereich von 2750 MeV bis 3250 MeV wird ausgeblendet. Die Verteilungen sind auf die Anzahl der Untergrundereignisse normiert. Der Untergrund in seiner Gesamtheit ist eine Überlagerung verschiedener Untergründe mit unterschiedlichen Ursachen: Der partiell rekonstruierte Untergrund entsteht durch Ereignisse, wie zum Beispiel dem Zerfall 𝐵− → 𝐷0 (→ 𝐾 − 𝑒+ 𝜈u� )𝜇− 𝜈u� ̄ 𝑋, bei dem das 𝐾 − nicht detektiert wird. Ein weiterer Untergrund entsteht durch die Misidentifikation von Teilchen im Detektor, zum Beispiel, wenn der Detektor ein Pion als Elektron fehlinterpretiert. Einen dritten Beitrag liefert der sogenannte kombinatorische Untergrund, der dadurch entsteht, dass voneinander unabhängige Prozesse als der gesuchte Prozess identifiziert werden. So kann beispielsweise ein einzelnes entstehendes Elektron kombiniert mit einem Myon aus einem anderen Ereignis als das gesuchte Ereignis detektiert werden. 9 4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− 4.2 Anpassung der Simulation an die Daten Um eine Vergleichbarkeit zwischen Daten und Simulation zu ermöglichen, muss zunächst die Simulation an die aufgenommenen Daten angepasst werden. In einem ersten Schritt wird dazu die auf die Daten angewendete Vorselektion auch auf die Simulation angewendet. Tabelle 4.1 zeigt die durchgeführten Schnitte. Tabelle 4.1: Variablen der Vorselektion mit zugehörigem Schnitt. Die aufgeführten Schnitte werden auf die Monte-Carlo simulierten Daten angewendet, um diese mit den aufgenommenen Daten vergleichen zu können. Variable 𝐽 /𝜓 ∶ M 𝐽 /𝜓 ∶ M 𝐽 /𝜓 ∶ BKGCAT 𝐽 /𝜓 ∶ DIRA 𝐽 /𝜓 ∶ 𝜒2FD 𝐽 /𝜓 ∶ 𝜒2IP 𝐽 /𝜓 ∶ 𝜒2Endvertex /NDOF Schnitt > 2096 MeV < 4096 MeV =0 >0 > 256 < 25 <9 𝑒+ ∶ 𝜒2IP 𝑒+ ∶ 𝜒2Track 𝑒+ ∶ PIDe > 36 <3 > −2 𝜇− ∶ 𝜒2IP 𝜇− ∶ 𝜒2Track 𝜇− ∶ GhostProb > 36 <3 < 0,3 Zunächst werden nur Ereignisse betrachtet, die einer hinreichend großen rekonstruierten 𝐽 /𝜓-Masse entsprechen. Dabei muss darauf geachtet werden, dass neben dem Signalbereich auch noch Seitenbänder vorhanden sind, mit denen der Untergrund abgeschätzt werden kann. Desweiteren werden nur Monte-Carlo-Ereignisse zugelassen, die in die Untergrundkategorie (BKGCAT) Null fallen. Innerhalb dieser Kategorie ist sichergestellt, dass das rekonstruierte Ereignis auch tatsächlich als Signalereignis generiert wurde. Die Größe DIRA (direction angle) des 𝐽 /𝜓-Teilchens gibt an, inwiefern Flugrichtung und rekonstruierter Impuls in dieselbe Richtung zeigen. Da es sich um den Cosinus des Winkels handelt, ist diese Größe im Optimalfall Eins. Die Variable 𝜒2IP gibt an, inwiefern sich das 𝜒2 des primären Vertex unter Berücksichtigung bzw. Nichtberücksichtigung des entsprechenden Teilchens ändert. IP steht für impact parameter. Für den gesuchten Zerfall wird verlangt, 10 4.2 Anpassung der Simulation an die Daten dass das detektierte Elektron und Myon ein großes 𝜒2IP haben, da diese aus dem Sekundärvertex eines 𝐵-Hadrons stammen sollen. Aus demselben Grund sollte auch die Variable 𝜒2FD nicht zu klein sein, die den 𝜒2 -Abstand vom Ursprungsvertex zum Zerfallsvertex eines 𝐽 /𝜓-Teilchens angibt. FD steht für Flugdistanz. Die Variable 𝜒2TRACK wiederum bewertet die Qualität der Spurrekonstruktion und sollte klein sein, was einer guten Rekonstruktion entspricht. Mit der Particle-Identification (PID) Variablen GhostProb wird die Wahrscheinlichkeit angeben, mit der die Spurrekonstruktionssoftware detektierte Spurpunkte zu einer falschen Spur rekonstruiert hat. Aus naheliegenden Gründen sollte auch diese Variable klein sein. Mit der PIDe Variable wird die Wahrscheinlichkeit angegeben, dass tatsächlich ein Elektron identifiziert wurde. Die Effizienz der Vorselektion zusammen mit den im Vorfeld erfolgten Rekonstruktionen der Teilchenspuren beträgt 𝜖Vorselektion = (3,51 ± 0,02) %. (4.3) Für den statistischen Fehler der Effizienz wurde der Binomialfehler mit ∆𝜖 = √ 𝜖 (1 − 𝜖) 𝑁vorher (4.4) verwendet [20]. In einem weiteren Schritt werden eine Reihe von Trigger sowohl auf die Daten, als auch auf die Simulation angewendet. Tabelle 4.2 listet die verwendeten Trigger auf. Dabei wird ein Ereignis genau dann weiter berücksichtigt, wenn es pro Triggerstufe mindestens einer Triggeranforderung genügt. In dieser Analyse werden die sogenannten TOS (trigger on signal) Triggerentscheidungen verwendet. Im Gegensatz zu den TIS (trigger independent of signal) Trigger werden diese Trigger nur ausgelöst, wenn das detektierte Ereignis im Zusammenhang mit einem Signalkandidaten steht [21]. In Tabelle 4.3 finden sich die Effizienzen der verschiedenen Triggerstufen, sowie die Gesamteffizienz für die Simulation. Die Effizienzen bestimmen sich stets als Quotient der Anzahl an Ereignissen, die in eine Triggerstufe gehen, und der Anzahl an Ereignissen, die die Triggerstufe passieren. Die Gesamteffizienz ergibt sich als Produkt der Effizienzen der einzelnen Stufen. Der Fehler wird auch hier mit Gleichung (4.4) bestimmt. Es fällt auf, dass die Triggereffizienz auf Untergund größer ist als auf Signal. Es wird vermutet, dass der Untergrund dominant aus 𝐽 /𝜓 → 𝜇− 𝜇+ und 𝐽 /𝜓 → 𝑒− 𝑒+ Zerfällen besteht. Diese Zerfälle werden von den Triggern mit großer Signaleffizienz erfasst. Die Trigger für den untersuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− hingegen müssen noch optimiert werden. In einer weiterführenden Studie könnte zunächst versucht werden, eine Veto-Selektion auf 𝑒− 𝑒+ und 𝜇− 𝜇+ anzuwenden. 11 4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− Tabelle 4.2: Auflistung der verwendeten Trigger. Ereignisse, die pro Triggerstufe mindestens einen Trigger auslösen, werden weiter betrachtet. L0-Trigger Jpsi_L0MuonDecision_TOS Jpsi_L0HadronDecision_TOS Jpsi_L0ElectronDecision_TOS HLT1-Trigger Jpsi_Hlt1TrackAllL0Decision_TOS Jpsi_Hlt1TrackMuonDecision_TOS HLT2-Trigger Jpsi_Hlt2Topo2BodyBBDTDecision_TOS Jpsi_Hlt2Topo3BodyBBDTDecision_TOS Jpsi_Hlt2Topo4BodyBBDTDecision_TOS Jpsi_Hlt2TopoMu2BodyBBDTDecision_TOS Jpsi_Hlt2TopoMu3BodyBBDTDecision_TOS Jpsi_Hlt2TopoMu4BodyBBDTDecision_TOS Tabelle 4.3: Triggereffizienzen der einzelnen Triggerstufen, sowie der gesamten Triggerlines für die Monte-Carlo simulierten Daten. Triggerstufe 12 𝜖Signal 𝜖Untergrund L0 HLT1 HLT2 (61,7 ± 0,2) % (86,3 ± 0,2) % (58,1 ± 0,3) % (76,38 ± 0,02) % (96,617 ± 0,009) % (63,89 ± 0,02) % Gesamt (𝜖Trigger ) (30,9 ± 0,2) % (47,15 ± 0,02) % 5 Optimierung der Signalselektion Im Folgenden soll es nun darum gehen, Untergrund von Signal zu trennen, um anschließend die Anzahl der maximal erwarteten Signalereignisse zu bestimmen. Dazu werden verschiedene Analysetechniken angewendet: Zunächst werden rechteckige Schnitte mit möglichst hoher Signaleffizienz und möglichst hoher Untergrundunterdrückung angewendet. Daran anschließend wird ein Boosted Decision Tree (BDT) [22] trainiert, um Signal und Untergrund mit Hilfe einer neu berechneten Klassifikationsvariablen zu trennen. In einem dritten Schritt wird der Schnitt von dieser neuen Variablen optimiert und ein harter Schnitt auf die PID Variablen angewendet. Zuletzt wird dann anhand der verbleibenden Untergrundkandidaten die Anzahl der Untergrundkandidaten im ausgeblendeten Massenfenster berechnet, um daraus die Anzahl der maximal messbaren Signalereignisse zu bestimmen. 5.1 Optimierung der Separation mit rechteckigen Schnitten Die schnittbasierte Separation von Signal und Untergrund durch rechteckige Schnitte erfolgt mit Hilfe des Tools „Crop“ aus dem Simpletools Paket [23]. Crop (Cut Recursive Optimiser) ist ein Schnittoptimierer, der bei einer gegebenen Liste von Variablen rechteckige Schnitte auf die Daten zurückgibt, die zu einer hohen Signaleffizienz und einer geringen Untergrundeffizienz führen. Dazu geht das Tool rekursiv vor. Bei der Verwendung von Crop muss berücksichtigt werden, dass der Signaldatensatz und der Untergrunddatensatz eine unterschiedliche Anzahl an Ereignissen beinhaltet. Daher muss eine Gütefunktion gefunden werden, anhand derer Crop die Effizienzen unter Berücksichtigung der unterschiedliche Anzahl an Untergrund- und Signalereignissen optimieren kann. Für diese Analyse wird die Gütefunktion FoM = 𝑆 u�u� 2 + √ , 𝐵 (5.1) verwendet [24]. Hierbei beschreibt 𝑆 die Anzahl an Signalereignissen und 𝐵 die Anzahl an erwarteten Untergrundereignissen. Der Term u�u�/2 ist notwendig, damit die Funktion für kleine Werte von 𝐵 nicht divergiert und Crop die Untergrundeffizienzen nicht auf Null optimiert. 𝑁u� gibt die Anzahl der Standardabweichungen an, die verknüpft ist mit der geforderten Genauigkeit der Analyse. Für die hier durchgeführte Analyse wird der Wert 𝑁u� = 3 verwendet. Interessant wäre es auch, die von Crop empfohlenen Schnitte unter Verwendung verschiedener Gütefunktionen 13 5 Optimierung der Signalselektion zu untersuchen. Im Rahmen dieser Arbeit wurde jedoch keine Untersuchung für verschiedene Funktionen durchgeführt. Dies stellt eine mögliche Verbesserung für eine nachfolgende Studie dar. Nach bereits durchgeführter Anpassung der Simulation an die Daten, wie in Kapitel 4 beschrieben, werden nun die Variablen an Crop übergeben, bei denen eine große Trennkraft durch rechteckige Schnitte erwartet wird. Zusätzlich wird den Untergrundereignissen das Gewicht 0,5 gegeben, das sich aus dem Verhältnis der Signalereignisse und einer Abschätzung der Untergrundereignisse im ausgeblendeten Massenfenster ergibt. Dieser Schritt ist notwendig, damit über die vorgestellte Gütefunktion der optimale Schnitt korrekt ausgerechnet werden kann. Crop gibt optimierten Schnitte zurück und sortiert die entsprechenden Variablen nach Trennkraft. Um nicht auf unnötig viele Variablen zu schneiden, werden nur die Schnitte angewendet, deren Effizienzen sich wesentlich von Eins unterscheiden. Schnitte mit einer Effizienz, die nah bei Eins liegt, sortieren kaum Ereignisse aus und eignen sich somit nicht zur Selektion. Tabelle 5.1 zeigt die durchgeführten Schnitte, sowie die erreichten Signal- und Untergrundeffizienzen. Die Fehler der Effizienzen wurden von Crop bestimmt. Tabelle 5.1: Ergebnisse der Separation durch Optimierung rechteckiger Schnitte mit Crop. Neben den von Crop optimierten Schnitten sind die resultierenden Signalund Untergrundeffizienzen, sowie die Gesamteffizenzen aufgeführt. Variable Schnitt 𝜖Signal 𝜖Untergrund 𝐽 /𝜓 ∶ 𝜒2VTX 𝑒+ ∶ ProbNNe 𝑒+ ∶ GhostProb 𝜇− ∶ GhostProb < 4,05 > 0,23 < 0,02 < 0,01 (93,7 ± 0,2) % (87,3 ± 0,3) % (82,3 ± 0,3) % (66,8 ± 0,4) % (86,20 ± 0,02) % (38,00 ± 0,04) % (64,50 ± 0,04) % (39,30 ± 0,04) % (46,4 ± 0,3) % (8,70 ± 0,01) % Gesamt (𝜖crop ) Es zeigt sich, dass die Variable 𝜒2VTX des 𝐽 /𝜓-Mesons, sowie die PID-Variablen ProbNNe des Elektrons und GhostProb von Elektron und Myon die größte Trennkraft besitzen. 𝜒2VTX gibt dabei die Qualität des Vertex-Fits des 𝐽 /𝜓-Vertex an. ProbNNe gibt ähnlich zur bereits erwähnten PIDe Variablen die Wahrscheinlichkeit an, dass ein rekonstruiertes Elektron auch wirklich ein Elektron ist. Die Bedeutung der GhostProb-Variablen wurde bereits in Kapitel 4 erklärt. Die Anwendung der harten Schnitte auf die GhostProb-Variablen sollte in einer möglichen nachfolgenden Studie auf jeden Fall noch hinsichtlich der korrekten Simulation dieser Variablen mit Monte-Carlo untersucht werden. Abbildung 5.2 zeigt die Variablen, auf die geschnitten wurde. Aufgetragen ist jeweils die Untergrund- und Signalverteilung, 14 5.1 Optimierung der Separation mit rechteckigen Schnitten Kandidaten / 0.09 normiert auf die Untergrundverteilung. Die senkrechte Linie markiert den von Crop optimierten Schnitt. Die Anwendung aller Schnitte ergibt eine Signaleffizienz von (46,4 ± 0,3) % bei einer Untergrundeffizienz von (8,70 ± 0,01) %. Mit Hilfe von optimierten senkrechten Schnitten kann somit der Untergrund um rund 91 % reduziert werden, während nur etwa die Hälfte des Signals verloren geht. 106 10 Untergrund Signal 5 104 103 102 Kandidaten / 0.001 101 0 2.5 ×10 1 2 3 4 5 6 7 8 9 J/ψ : χ2VTX 5 Untergrund Signal 2.0 1.5 1.0 0.5 0.0 0.00 0.02 0.04 0.06 0.08 0.10 µ− : GhostProb Abbildung 5.1: Variablen, auf die mit Hilfe von Crop geschnitten wurde. Die gestrichelte Linie markiert den Schnitt. Alle Verteilungen sind auf die Anzahl der Untergrundereignisse normiert. 15 Kandidaten / 0.001 5 Optimierung der Signalselektion 2.5 ×10 5 Untergrund Signal 2.0 1.5 1.0 0.5 Kandidaten / 0.01 0.0 0.00 9 ×10 0.02 0.04 0.06 0.08 0.10 e+ : GhostProb 5 Untergrund Signal 8 7 6 5 4 3 2 1 0 0.0 0.2 0.4 0.6 0.8 1.0 e+ : ProbbNNe Abbildung 5.2: Variablen, auf die mit Hilfe von Crop geschnitten wurde. Die gestrichelte Linie markiert den Schnitt. Alle Verteilungen sind auf die Anzahl der Untergrundereignisse normiert. 16 5.2 Separation mit Hilfe multivariater Analysetechniken 5.2 Separation mit Hilfe multivariater Analysetechniken Mit Hilfe multivariater Analysetechniken ist es oft möglich bei hoher Signleffizienz noch weitaus mehr Untergrund zu unterdrücken. Eine häufig angewandte Analysetechnik ist die Verwendung eines sogenannten Boosted Decision Tree (BDT) [22]. Ein BDT erstellt an Hand der ihm übergebenen Datensätze und einer Liste von zu betrachtenden Variablen Entscheidungsbäume mit denen der BDT lernt, Signal und Untergrund voneinander zu trennen. Im Gegensatz zu einem normalen Decision Tree (DT), zeichnet sich ein BDT dadurch aus, dass er falsch zugeordneten Ereignissen für den nächsten Entscheidungsbaum ein höheres Gewicht zuordnet. Mit Hilfe dieser Technik kann die Qualität eines DT stark erhöht werden. Das Resultat eines BDTs ist eine neue Variable für beide Datensätze. Diese ist als Klassifizierer zu interpretieren, der jedem Ereignis eine Wahrscheinlichkeit zuordnet, die angibt, ob es sich bei dem Ereignis eher um Signal oder um Untergrund handelt. In dieser Analyse wird mit dem Programmpaket scikit-learn [25] gearbeitet, welches alle notwendigen Funktionen zum BDT-Training zur Verfügung stellt. Um den BDT noch besser auf die vorhandenen Datensätze zu trainieren und die Statistik zu erhöhen, wird zusätzlich ein sogenanntes kFolding durchgeführt. Dazu werden die Datensätze in sechs gleich große Teildatensätze aufgeteilt. Anschließend wird der BDT mit fünf Teildatensätzen trainiert und an dem sechsten Teildatensatz getestet. Auf diese Art und Weise ist es möglich, sechs statt nur einem BDT zu trainieren. Gleichzeitig kann überprüft werden, ob der BDT übertrainiert wurde. Wenn ein BDT übertrainiert ist, wurde er auf statistische Fluktuationen in den Datensätzen und nicht auf die tatsächliche Unterscheidung von Signal und Untergrund trainiert. Dies kann geschehen, wenn die Teildatensätze, auf denen trainiert wurde, zu klein sind, oder wenn der BDT zu komplex gebaut ist. Für die hier durchgeführte Analyse werden im Folgenden nur Ereignisse des oberen Seitenbandes mit Massen 𝐽 /𝜓 ∶ M > 3300 MeV verwendet. Dies hat den Grund, dass in diesem Massenbereich nur noch kombinatorischer Untergrund erwartet wird. Somit soll der BDT darauf trainiert werden kombinatorischen Untergrund von Signal zu trennen. In Tabelle 5.2 sind die dem BDT übergebenen Variablen aufgeführt. Die Variablen wurden gewählt, da sie nach den von Crop durchgeführten rechteckigen Schnitten eine hohe Trennkraft zwischen Signal und Untergrund aufweisen und nicht stark untereinander korreliert sind. Abbildung 5.3 zeigt beispielhaft für einen kFold die Histogramme der neu berechneten BDT-Variablen für einen Trainingsdatensatz. Zusätzlich sind die Verteilungen für den zugehörigen Testdatensatz eingezeichnet. Während die Verteilung des Testdatensatzes für Untergrund eine große Übreinstimmung mit dem Trainingsdatensatz zeigt, fluktuieren sie für den Signaldatensatz weitaus stärker. Dies hat den Grund, dass der 17 5 Optimierung der Signalselektion Tabelle 5.2: Variablen, die für das BDT-Training verwendet wurden. Es wurden Variablen gewählt, die im Bezug auf die Signal-Untergrund-Separation eine große Trennkraft aufweisen. 𝐽 /𝜓 ∶ 𝑝T 𝐽 /𝜓 ∶ 𝜏 𝐽 /𝜓 ∶ DIRA 𝐽 /𝜓 ∶ 𝜒2IP 𝐽 /𝜓 ∶ 𝜒2ENDVERTEX 𝜇− ∶ 𝑝T 𝜇− ∶ 𝜒2IP 𝜇− ∶ GhostProb 𝑒+ ∶ 𝜒2IP 𝑒+ ∶ GhostProb Signaldatensatz deutlich weniger Ereignisse beinhaltet als der Untergrunddatensatz. Hinzu kommt, dass durch das kFolding nur auf einem Bruchteil dieser Daten getestet wird. Die Anfälligkeit des Testdatensatzes für Fluktuationen ist somit recht groß. Diesbezügliche Verbesserungen könnten Teil weiterführender Studien sein. Die Qualitiät der BDT-Variable kann mit Hilfe einer ROC-Kurve (Receiver Operating Characteristic) dargestellt werden. Dabei wird die Signaleffizienz gegen die Untergrundeffizienz aufgetragen. Charakteristische Größe ist der Flächeninhalt unter der ROC-Kurve. Je näher dieser bei Eins liegt, desto besser hat der BDT gelernt Signal von Untergrund zu trennen. Abbildung 5.4 zeigt exemplarisch eine ROC-Kurve für das durchgeführte BDT-Training. Der Verlauf der ROC-Kurve ist nicht optimal und kann noch verbessert werden. Im Rahmen dieser Arbeit wurden keine alternativen Implementationen von BDTs getestet. Dies stellt ein mögliches Verbesserungspotential für nachfolgende Studien dar. 18 Kandidaten / beliebige Einheit 5.2 Separation mit Hilfe multivariater Analysetechniken 5 Signal Untergrund 4 3 2 1 0 −1.0 −0.8 −0.6 −0.4 −0.2 0.0 BDT-Klassifizierer Signaleffizienz Abbildung 5.3: Verteilungen der BDT-Klassifizierungsvariablen für Signal und Untergrund. Zusätzlich zu den Verteilungen eines Trainingsdatensatzes sind ebenso die Verteilungen für den entsprechenden Testdatensatz als Punkte eingezeichnet. 1.0 ROC-Kurve Integral = 0.726 0.8 0.6 0.4 0.2 0.0 0.0 0.2 0.4 0.6 0.8 1.0 Untergrundeffizienz Abbildung 5.4: Darstellung einer ROC Kurve des trainierten BDTs für einen kFold. Je näher der Flächeninhalt unter der Kurve an Eins liegt, desto besser hat der BDT gelernt, Signal von Untergrund zu trennen. 19 5 Optimierung der Signalselektion 5.3 Optimierung der BDT-Variable Für die im letzten Abschnitt bestimmte BDT-Variable soll nun wiederum ein bestmöglicher Schnitt gefunden werden. Außerdem soll durch einen harten Schnitt auf die PID-Variablen von Elektron und Myon noch weitaus mehr Untergrund unterdrückt werden. Zunächst wird zwei harte Schnitte auf die PID-Variablen 𝑒+ ∶ ProbNNe und 𝜇− ∶ ProbNNmu durchgeführt. Der Schnitt auf die BDT-Variable wird unter Verwendung der bereits zur Optimierung rechteckiger Schnitte diskutierte Gütefunktion bestimmt. Tabelle 5.3 zeigt die durchgeführten Schnitte, die zu einer größtmöglichen Signaleffizienz bei gleichzeitig größtmöglicher Untergrundunterdrückung führen. Tabelle 5.3: Schnitte auf die PID Variablen von Elektron und Myon, sowie auf die mit Hilfe eines BDT berechnete Klassifizierungsvariable. Der zuletzt genannte Schnitt wurde mit Hilfe einer Gütefunktion optiniert. Variable Schnitt 𝑒+ ∶ ProbNNe 𝜇− ∶ ProbNNmu BDT-Variable > 0.97 > 0.95 > −0.29 Die Effizienz dieses Schritts beläuft sich für den Signaldatensatz zu 𝜖Signal,BDT,PID = (0,126 ± 0,045) % (5.2) und für den Untergrunddatensatz zu 𝜖Untergrund,BDT,PID = (0,0279 ± 0,0034) %. (5.3) Es fällt auf, dass sowohl die Effizienz auf Signal, als auch auf Untergrund sehr klein ist. Abbildung 5.5 zeigt die drei Variablen, auf die geschnitten wird. Dabei ist stets eine Variable unter Anwendung der beiden Schnitte auf die anderen beiden Variablen dargestellt. 20 Kandidaten / 0.02 5.3 Optimierung der BDT-Variable 60 50 40 Untergrund Signal 30 20 10 Kandidaten / 0.02 Kandidaten / 0.02 0 0.0 45 40 35 30 25 20 15 10 5 0 0.0 0.2 0.4 0.6 0.8 1.0 e+ : ProbbNNe 0.6 0.8 1.0 µ+ : ProbbNNmu Untergrund Signal 0.2 0.4 600 Untergrund Signal 500 400 300 200 100 0 −1.0 −0.8 −0.6 −0.4 −0.2 0.0 BDT-Variable Abbildung 5.5: Verteilung der PID-Variablen und der neu berechneten BDTVariable. Die erste Abbildung zeigt die PID-Variable des Elektrons unter Anwendung der Schnitte auf die PID-Variable des Myons und der BDT-Variable. Die anderen beiden Abbildungen zeigen analog die anderen Variablen unter jeweils zwei der drei Schnitte. 21 5 Optimierung der Signalselektion 5.4 Bestimmung der maximal erwarteten Signalereignisse Im Folgenden soll nun die Anzahl der erwarteten Untergrundereignisse in dem Teil des ausgeblendeten Massenfenster berechnet werden, in dem gemäß der Simulation 68 % des Signals liegen. Anschließend soll daraus die Anzahl der gemessenen Signalkandidaten ermittelt werden. Das hierfür benötigte Massenintervall geht von 2871 MeV bis 3150 MeV. Kandidaten / (22 MeV/c2) Zur Bestimmung der Untergrundkandidaten werden alle im Vorfeld ermittelten Selektionskriterien auf den vollständigen Datensatz angewendet. Mit Hilfe der verbleibenden 67 Ereignisse im Untergrunddatensatz kann nun eine Abschätzung für den kombinatorischen Untergrund gemacht werden. Dazu werden die Untergrundereignisse zunächst mit einer Exponentialfunktion der Form eu�u� gefittet. Für die Bestimmung des freien Parameters wird das Programm RooFit [26] verwendet. Abbildung 5.6 zeigt die kombinierte 𝑒𝜇-Masse nach Anwendung aller Selektionen. Zusätzlich zu den Datenpunkten ist der exponentielle Fit eingezeichnet, mit dem der Untergrund beschrieben wird. 16 14 12 10 8 6 4 2 0 2600 2800 3000 3200 3400 3600 m(eµ) / (MeV/c2) Abbildung 5.6: Kombinierte u�u�-Masse nach Anwendung aller Selektionen. Zusätzlich zu den verbleibenden Ereignissen ist die angepasste Exponentialfunktion eingezeichnet. 22 5.4 Bestimmung der maximal erwarteten Signalereignisse Die Bestimmung der Untergrundereignisse geschieht durch Integration der Exponentialfunktion im oben angegeben Massenintervall. Es ergibt sich 𝑁b = 11 ± 2, (5.4) wobei der Fehler der Größe aus dem Fehler des Exponentialfits resultiert. Die Bestimmung der maximal messbaren Signalereignisse im ausgeblendeten Massenfenster erfolgt mit Hilfe der Formel ∞ 𝑁sig,95% = ∑ 𝑁sig,95% (𝑁bu� ) ⋅ 𝑓Poisson (𝑁bu� , 𝑁b ). (5.5) u�=0 Hierbei gibt 𝑓Poisson (𝑁bu� , 𝑁b ) die poissonverteilte Wahrscheinlichkeit an 𝑁bu� Ereignisse bei einem Untergrund von 𝑁b zu messen. 𝑁sig,95% bestimmt sich über die 𝜒2 -Verteilung. Es ergibt sich der Wert 𝑁sig,95% = 7 ± 1, (5.6) welcher im Zusammenhang mit Gleichung (4.1) benötigt wird. 23 6 Ergebnisse der Analyse Im folgenden Kapitel werden die Ergebnisse der Analyse präsentiert. Außerdem wird ein Ausblick auf mögliche weiterführenden Studien zu diesem Thema gegeben. 6.1 Bestimmung eines oberen Limits Tabelle 6.1 listet die Signaleffizienzen der verschiedenen Selektionsschritte, sowie die Gesamteffizienz auf. Die Generatoreffizienz 𝜖Generator ist dabei eine durch die Monte-Carlo-Generation bedingte Effizienz. Tabelle 6.1: Effizienzen Signaleffizienzen 𝜖Generator 𝜖Vorselektion 𝜖Trigger 𝜖Crop 𝜖BDT,PID 0,190 15 ± 0,000 78 0,035 09 ± 0,000 16 0,3091 ± 0,0022 0,4642 ± 0,0037 0,001 26 ± 0,000 45 𝜖ges (1,21 ± 0,43) ⋅ 10−6 Aus der parallel durchgeführten Studie [1] wird die Normierungskonstanten 𝛼 zu 𝛼 = (1,3 ± 0,4) ⋅ 10−5 (6.1) bestimmt. Zusammen mit der Anzahl 𝑁sig,95% der erwarteten Signalkandidaten ergibt sich das Verzweigungsverhältnis für den untersuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− zu ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < (9,2 ± 3,4) ⋅ 10−5 . (6.2) 6.2 Zusammenfassung und Ausblick In dieser Arbeit wird eine obere Schranke für das Verzweigungsverhältnis des leptonflavourverletzenden Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− mit Daten des LHCb-Detektors aus dem Jahr 2012 bestimmt. Die Daten entsprechen einer integrierten Luminosität von 2 fb−1 . Dabei musste zuerst der Frage nachgegangen werden, ob die Analyse 24 6.2 Zusammenfassung und Ausblick mit den Daten des LHCb-Experimentes überhaupt durchführbar ist. Der Detektor liefert präzisere Daten zur Myonidentifikation als zur Elektronenidentifikation. Dies liegt in erster Linie daran, dass die Bremsstrahlungskorrekturen für die Elektronen schwierig zu bestimmen sind. Diese sind aufgrund der geringen Masse des Elektrons jedoch unumgänglich. Im Zuge der Analyse wurden keine Untersuchungen zu systematischen Fehlern gemacht. Weiterführende Studien sollten diese berücksichtigen. Auch wurden für die einzelnen Schritte der Signaloptimierung in Kapitel 5 keine tiefergehenden Studien hinsichtlich verschiedener Methodiken gemacht. Mögliche Verbesserungen bestehen hierbei, in der Untersuchung verschiedener Gütefunktionen für die schnittbasierte Separation, sowie in der Untersuchung verschiedener BDT-Implementationen. Eine weitere Möglichkeit zur Verbesserung ist die Durchführung der Analyse auf neueren und größeren Datensätzen, zum Beispiel mit Daten aus Run 2 des LHCs, sobald diese zur Verfügung stehen. In der hier vorliegenden Bachelorarbeit, koordiniert durchgeführt mit Referenz [1], konnte der Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− erstmals am LHCb-Experiment analysiert werden. Diese explorativen Studien deuten darauf hin, dass mit einer optimierten Triggerund Vorselektion eine kompetitive Messung durchgeführt werden kann. 25 Literaturverzeichnis [1] K. Sedlaczek. „Suche nach dem Lepton-Flavour verletzenden Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− am LHCb-Experiment. Normierungskonstante“. Bachelorarbeit. TU Dortmund, 2016. [2] D.J. Griffiths. Introduction to Elementary Particles, Second Edition. Physics Textbook. New York, NY: Wiley-VCH, 2010. [3] F. Halzen und A.D. Martin. Quarks and Leptons: An Introductory Course in Modern Particle Physics. Wiley-VCH, 1984. [4] The ATLAS Collaboration. „Search for pair production of first or second √ generation leptoquarks in proton-proton collisions at 𝑠 = 7 TeV using the ATLAS detector at the LHC“. In: Phys. Rev. D83 (2011). 112006. arXiv: 1104.4481. [5] P. Langacker. „The Physics of Heavy 𝑍 ′ Gauge Bosons“. In: Rev. Mod. Phys. 81 (2009), S. 1199–1228. doi: 10.1103/RevModPhys.81.1199. arXiv: 0801.1345. [6] The BESIII Collaboration. „Search for the lepton flavor violation process 𝐽 /𝜓 → 𝑒𝜇 at BESIII“. In: Phys. Rev. D87 (2013). 112007. arXiv: 1304.3205. [7] The LHCb Collaboration. „Search for the lepton-flavour violating decays 𝐵u�0 → 𝑒± 𝜇∓ and 𝐵0 → 𝑒± 𝜇∓ “. In: Phys.Rev.Lett. 111 (2013). 141801. arXiv: 1307.4889. [8] The LHCb Collaboration. „Search for the lepton-flavour violating decay 𝐷0 → 𝑒± 𝜇∓ “. In: Phys. Lett. B754 (2016), S. 167–175. arXiv: 1512.00322. [9] The LHCb Collaboration. LHCb reoptimized detector design and performance: Technical Design Report. Technical Design Report LHCb. Geneva: CERN, 2003. url: http://cds.cern.ch/record/630827. [10] The LHCb Collaboration. „LHCb Detector Performance“. In: Int. J. Mod. Phys. A30.07 (2015). 1530022. arXiv: 1412.6352. [11] LHC Machine Outreach. Collision rate. url: http://lhc-machine-outreach. web . cern . ch / lhc - machine - outreach / collisions . htm (besucht am 22. 06. 2016). [12] H. Berman. Statistics and Probability Dictionary. Confidence Level. url: http : / / stattrek . com / statistics / dictionary . aspx ? definition = confidence_level (besucht am 18. 06. 2016). [13] I.N. Bronstein und K.A. Semendjaew. Springer-Taschenbuch der Mathematik. Hrsg. von E. Zeidler. 3. Aufl. Wiesbaden: Springer Spektrum, 2013, S. 855. 26 Literaturverzeichnis [14] J. Beringer et al. „Review of Particle Physics (RPP)“. In: Phys.Rev. D86 (2012). 010001. [15] T. Sjöstrand, S. Mrenna und P. Skands. „A Brief Introduction to PYTHIA 8.1“. In: Comput. Phys. Commun. 178 (2008), S. 852–867. arXiv: 0710.3820. [16] A. Ryd et al. EvtGen: A Monte Carlo Generator for B-Physics. 2005. [17] S. Agostinelli et al. „Geant4 — A simulation toolkit“. In: Nuclear Instruments and Methods in Physics Research Section A: Accelerators, Spectrometers, Detectors and Associated Equipment 506.3 (2003), S. 250–303. issn: 0168-9002. doi: http://dx.doi.org/10.1016/S0168- 9002(03)01368- 8. url: http: //www.sciencedirect.com/science/article/pii/S0168900203013688. [18] M. Cattaneo. Boole: The LHCb digitization program. 2004. url: http://lhcbcomp.web.cern.ch/lhcb-comp/Digitization. [19] J.A.N. van Tilburg. „Track Simulation and Reconstruction in LHCb“. Diss. Vrije U., Amsterdam, 2005. url: http://www-spires.fnal.gov/spires/ find/books/www?cl=QC793.3.T67T35::2005. [20] G. Cowan. Statistical Data Analysis. Oxford science publications. Clarendon Press, 1998. isbn: 9780198501558. [21] The LHCb Collaboration. „The LHCb Trigger and its Performance in 2011“. In: JINST 8 (2013), P04022. doi: 10.1088/1748-0221/8/04/P04022. arXiv: 1211.3055. [22] B.P. Roe et al. „Boosted decision trees, as an alternative to artificial neural networks for particle identification“. In: Nucl. Instrum. Meth. A543.2-3 (2005), S. 577–584. doi: 10.1016/j.nima.2004.12.018. arXiv: physics/0408124. [23] C. Fitzpatrick. simpletools. Handy command line tools for ntuple manipulation and analysis. 2009. url: https://github.com/cofitzpa/simpletools. [24] G. Punzi. „Sensitivity of searches for new signals and its optimization“. In: eConf C030908 (2003), MODT002. arXiv: physics/0308063. [25] F. Pedregosa et al. „Scikit-learn: Machine Learning in Python“. In: Journal of Machine Learning Research 12 (2011), S. 2825–2830. [26] W. Verkerke und D. Kirkby. „The RooFit toolkit for data modeling“. In: eConf C0303241 (2003), MOLT007. arXiv: physics/0306116. 27 28 Eidesstattliche Versicherung Ich versichere hiermit an Eides statt, dass ich die vorliegende Abschlussarbeit mit dem Titel „Suche nach dem Lepton-Flavour verletzenden Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− am LHCb-Experiment“ selbstständig und ohne unzulässige fremde Hilfe erbracht habe. Ich habe keine anderen als die angegebenen Quellen und Hilfsmittel benutzt, sowie wörtliche und sinngemäße Zitate kenntlich gemacht. Die Arbeit hat in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde vorgelegen. Ort, Datum Unterschrift Belehrung Wer vorsätzlich gegen eine die Täuschung über Prüfungsleistungen betreffende Regelung einer Hochschulprüfungsordnung verstößt, handelt ordnungswidrig. Die Ordnungswidrigkeit kann mit einer Geldbuße von bis zu 50 000 € geahndet werden. Zuständige Verwaltungsbehörde für die Verfolgung und Ahndung von Ordnungswidrigkeiten ist der Kanzler/die Kanzlerin der Technischen Universität Dortmund. Im Falle eines mehrfachen oder sonstigen schwerwiegenden Täuschungsversuches kann der Prüfling zudem exmatrikuliert werden (§ 63 Abs. 5 Hochschulgesetz –HG–). Die Abgabe einer falschen Versicherung an Eides statt wird mit Freiheitsstrafe bis zu 3 Jahren oder mit Geldstrafe bestraft. Die Technische Universität Dortmund wird ggf. elektronische Vergleichswerkzeuge (wie z. B. die Software „turnitin“) zur Überprüfung von Ordnungswidrigkeiten in Prüfungsverfahren nutzen. Die oben stehende Belehrung habe ich zur Kenntnis genommen. Ort, Datum Unterschrift