Suche nach dem Lepton-Flavor verletzenden Zerfall J / Ψ → e ± μ

Werbung
Arbeit zur Erlangung des akademischen Grades
Bachelor of Science
Suche nach dem Lepton-Flavour
verletzenden Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− am
LHCb-Experiment
Optimierte Signalselektion
Maik Becker
geboren in Unna
2016
Lehrstuhl für Experimentelle Physik V
Fakultät Physik
Technische Universität Dortmund
Erstgutachter:
Zweitgutachter:
Abgabedatum:
Dr. Johannes Albrecht
Prof. Dr. Bernhard Spaan
1. Juli 2016
Kurzfassung
Diese Bachelorarbeit befasst sich mit der Suche nach dem Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− , In
der Theorie des Standardmodells ist der Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− verboten, da er die
Leptonflavourzahlerhaltung verletzt. Die Suche nach diesem Zerfall ist gleichbedeutend mit der Suche nach Physik jenseits des Standardmodells. Die verwendeten
Daten wurden 2012 in Run 1 des LHC am CERN mit dem LHCb-Detektor bei
√
einer Schwerpunktsenergie von 𝑠 = 8 TeV aufgenommen. Sie entsprechen einer
integrierten Luminosität von 2 fb−1 .
Die erwartete obere Schranke für das Verzweigungsverhältnis ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) wurde zu ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < (9,2 ± 3,4) ⋅ 10−5 bestimmt, bei einem Konfidenzniveau
von 95 %. Fokus dieser Arbeit war eine Optimierung der Separation von Signal und
Untergrund.
Abstract
In this Bachelor thesis a search for the decay 𝐽 /𝜓 → 𝑒+ 𝜇− is performed. In the
Standard Model, this decay is forbidden, as it violates lepton flavour conservation.
Searching for this decay means to search for physics beyond the Standard Model.
The data used in this study has been collected in 2012 during Run 1 of LHC at
√
CERN with the LHCb experiment, at a center of mass energy of 𝑠 = 8 TeV
corresponding to an integrated luminosity of 2 fb−1 .
The calculated upper limit of the branching fraction ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ), referring to a
confidence level of 95 %, is set to ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < (9,2 ± 3,4) ⋅ 10−5 . This study
focused on the optimisation of the separation of signal and background.
iii
Inhaltsverzeichnis
1 Einleitung und Motivation
1
2 Physikalische Grundlagen
2.1 Das Standardmodell der Teilchenphysik . . . . . . . . . . . . . . . .
2.2 Der seltene Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− . . . . . . . . . . . . . . . . . . . . .
2
2
3
3 Das LHCb-Detektorsystem
5
4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇−
4.1 Beschreibung der verwendeten Datensätze . . . . . . . . . . . . . . .
4.2 Anpassung der Simulation an die Daten . . . . . . . . . . . . . . . .
7
8
10
5 Optimierung der Signalselektion
5.1 Optimierung der Separation mit rechteckigen Schnitten
5.2 Separation mit Hilfe multivariater Analysetechniken . .
5.3 Optimierung der BDT-Variable . . . . . . . . . . . . . .
5.4 Bestimmung der maximal erwarteten Signalereignisse . .
13
13
17
20
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Ergebnisse der Analyse
24
6.1 Bestimmung eines oberen Limits . . . . . . . . . . . . . . . . . . . . 24
6.2 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . 24
Literaturverzeichnis
iv
26
1 Einleitung und Motivation
Wesentlicher Bestandteil moderner teilchenphysikalischer Analysen ist die Suche
nach Prozessen, die durch die derzeit gängigen und anerkannten Theorien der
Teilchenphysik nicht erklärt werden können. Das Standardmodell der Teilchenphysik
ist die am besten getestete Theorie der modernen Physik, doch es gibt experimentelle
Messungen, die darauf schließen lassen, dass das Standardmodell die Physik auf
elementarer Ebene nicht vollständig beschreibt. So kann zum Beispiel mit dem
Standardmodell nicht die im Universum beobachtete Asymmetrie zwischen Materie
und Antimaterie erklärt werden. Auch liefert es keinen Anhaltspunkt dafür, aus was
dunkle Materie oder dunkle Energie bestehen könnte.
In der hier durchgeführten Analyse wird der Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− betrachtet. Im
Folgenden schließen die Betrachtungen auch immer den ladungskonjugierten Zerfall 𝐽 /𝜓 → 𝑒− 𝜇+ mit ein. Gemäß dem Standardmodell ist dieser Zerfall verboten,
da er die Leptonflavourzahl verletzt. Sollten sich jedoch Hinweise auf die Existenz
dieses Zerfalls zeigen, würde dies auf neue Physik hindeuten.
Ziel der vorliegenden Arbeit ist die Bestimmung einer oberen Schranke für das
Verzweigungsverhältnis des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− . Als Normierungskanal wird der
gut vermessene Zerfall 𝐽 /𝜓 → 𝜇+ 𝜇− aus dem Zerfall 𝐵+ → 𝐽 /𝜓𝐾 + gewählt, der
eine ähnliche Topologie aufweist. Die experimentellen Daten wurden 2012 in Run 1
des LHC am CERN mit dem LHCb-Detektor aufgenommen. Sie entsprechen einer
√
integrierten Luminosität von 2 fb−1 bei einer Schwerpunktsenergie von 𝑠 = 8 TeV.
Die Studie soll gleichzeitig zeigen, ob die Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− mit dem
LHCb-Detektor möglich ist. Die Arbeit gliedert sich wie folgt:
Zunächst wird ein kurzer allgemeiner Überblick über das Standardmodell der Elementarteilchenphysik, sowie über den untersuchten Zerfall gegeben (Kapitel 2). Daran
anschließend wird der für die Aufnahme der Daten verwendete LHCb-Detektor
beschrieben (Kapitel 3). Der Hauptteil der Arbeit (Kapitel 4 und 5) beschäftigt
sich mit der Analyse der vorliegenden Daten. Durch Optimierung der Signalselektion wird versucht eine maximale Anzahl an Signalkandidaten für den gesuchten
Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− zu ermitteln. In einer parallel zu dieser Arbeit durchgeführten
Studie [1] wird die Normierungskonstante anhand des Normierungskanals berechnet,
sodass als Ergebnis (Kapitel 6) eine obere Schranke für das Verzweigungsverhältnis
bestimmt werden kann. Zum Schluss wird noch ein Ausblick gegeben.
1
2 Physikalische Grundlagen
2.1 Das Standardmodell der Teilchenphysik
Das Standardmodell der Teilchenphysik ist eine quantenmechanische Feldtheorie, die
mit hoher Präzision die Eigenschaften und das Verhalten aller bekannten Elementarteilchen unter Einfluss von drei der vier fundamentalen Naturkräfte beschreibt.
Im Bereich der Teilchen wird dabei zwischen Quarks und Leptonen unterschieden.
Quarks und Leptonen wiederum können paarweise anhand ihrer physikalischen
Eigenschaften in je drei Generationen angeordnet werden. Dabei unterscheiden sich
die entsprechenden Mitglieder verschiedener Teilchengenerationen in erster Linie
durch ihre Masse. Weiterhin existiert zu jedem Teilchen ein passendes Antiteilchen,
welches sich in allen ladungsartigen Quantenzahlen entgegengesetzt zum Teilchen
verhält. Eigenschaften wie Lebensdauer, Masse und Spin jedoch sind gleich. Der
Begriff der Materie bezieht sich im allgemeinen Sprachgebrauch nur auf das UpQuark 𝑢, das Down-Quark 𝑑, sowie auf das Elektron 𝑒− , da sich nur die Mitglieder
der ersten Teilchengeneration zu stabilen Nukleonen und Atomen zusammenfügen.
Im Folgenden sind alle derzeit bekannten Elementarteilchen übersichtlich und nach
Generationen geordnet dargestellt:
𝑢
𝑐
𝑡
Quarks: ( ) , ( ) , ( )
𝑑
𝑠
𝑏
,
𝜈
𝜈
𝜈
Leptonen: ( −u� ) , ( u�
) , ( u�− ) .
−
𝑒
𝜏
𝜇
Neben den Quarks (up, down, charm, strange, top und bottom) gibt es auf der
anderen Seite noch die geladenen Leptonen (Elektron, Myon und Tau), sowie die
ungeladenen Leptonen (Eletron-, Myon-, und Tau-Neutrino). Eine ausführliche
Diskussion der im Standardmodell vorkommenden Elementarteilchen findet sich in
jedem Standardlehrbuch der Teilchenphysik, so zum Beispiel in [2, 3].
Die verschiedenen Wechselwirkungen zwischen den Elementarteilchen werden durch
Austauschbosonen vermittelt. Für die elektroschwache Kraft sind diese das masselose
Photon 𝛾, sowie die massiven Vektorbosonen 𝑊 ± und 𝑍 0 . Das Photon koppelt an
die elektrische Ladung der Elementarteilchen, während die 𝑊 ± - und 𝑍 0 - Bosonen
an die schwache Ladung koppeln.
Neben der elektrischen und der schwachen Ladung tragen alle Quarks zusätzlich
eine von drei sogenannten Farbladungen (rot, grün, blau). Es gilt, dass nur solche
Teilchen frei existieren können, die in ihrer Gesamtheit farbneutral sind. Diese
Einschränkung wird als Confinement bezeichnet und verbietet die Existenz freier
Quarks. Ein Teilchen, das aus drei Quarks mit jeweils verschiedener Farbladung
2
2.2 Der seltene Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇−
zusammengesetzt ist, wird als Baryon bezeichnet. Dazu zählen zum Beispiel das
Proton (𝑢𝑢𝑑) oder das Neutron (𝑢𝑑𝑑). Der Zusammenschluss eines Quarks mit
einem Antiquark derselben Farbladung wird als Meson bezeichnet. Auch das in
dieser Arbeit diskutierte 𝐽 /𝜓-Teilchen ist ein Meson, welches aus einem 𝑐- und
einem 𝑐-Quark
̄
zusammengesetzt ist.
Ein wichtiger Aspekt der experimentellen Teilchenphysik ist die Untersuchung
von Teilchenzerfällen. Dabei ist insbesondere das Verzweigungsverhältnis ℬ eines
Teilchens in einen bestimmten Endzustand interessant, da es die Wahrscheinlichkeit
für diesen Zerfall angibt.
Verzweigungsverhältnisse eignen sich gut, um ein theoretisches Modell mit experimentellen Messungen zu vergleichen. Physikalische Theorien basieren fast immer
auf Gleichungen, die nicht direkt durch ein Experiment überprüft werden können.
So kann zum Beispiel mit keinem Experiment direkt eine Lagrangedichtefunktion
messen. Stattdessen werden aus Theorien Zusammenhänge für experimentell zugängliche Observablen hergestellt, durch die eine Theorie verifiziert, oder falsifiziert
werden kann. Das Verzweigungsverhältnis ist eine solche Observable.
2.2 Der seltene Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇−
Das oben diskutierte Standardmodell der Teilchenphysik verbietet den in dieser
Arbeit untersuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− , da er in seiner Gesamtbilanz sowohl die
Elektron- als auch die Myonleptonflavourzahl verletzt. Die Leptonflavourzahlen sind
Quantenzahlen, die nach dem Standardmodell in einem Prozess zu jedem Zeitpunkt
erhalten bleiben müssen. Dabei trägt ein Lepton stets die Quantenzahl +1 der
jeweiligen Generation. Ein Antiteilchen trägt entsprechend die Quantenzahl −1.
Leptonflavourzahlverletzende Prozesse können im Standardmodell nur erklärt werden, wenn Erweiterungen des Modells zugelassen werden, die infolgedessen einer
experimentellen Überprüfung standhalten müssen. Sollten sich die experimentellen Befunde für Leptonflavourzahlverletzung mit Hinblick auf die Vorhersagen des
Standardmodells verdichten, wäre dies ein Hinweis auf Physik jenseits des Standardmodells.
Eine Möglichkeit den Zerfall im Rahmen einer Theorie zu erlauben, wäre durch die
Einführung eines sogenannten Leptoquarks [4]. Leptoquarks sind im Rahmen einer
Großen Vereinheitlichenden Theorie (GUT) hypothetische Elementarteilchen, die
sowohl an Leptonen als auch an Quarks koppeln und Leptonflavourzahlverletzung
erlauben. Eine andere Erweiterungen des Standardmodells basiert auf der Existenz
von skalaren 𝑍 ′ -Bosonen [5], welche im Gegensatz zu 𝑍 0 -Bosonen ebenfalls eine
Änderung des Leptonflavours ermöglichen. Eine mögliche dritte Erweiterung nutzt
3
2 Physikalische Grundlagen
die im Jahre 1957 vorhergesagte Existenz von Neutrinooszillationen aus, durch die
den Neutrinos entgegen den Vorhersagen des Standardmodells eine Masse zugeordnet
wird. Hierbei annihilieren das 𝑐- und das 𝑐-Quark
̄
zu einem virtuellen 𝛾 oder einem
0
virtuellen 𝑍 . Beim Zerfall des virtuellen Teilchens findet eine Neutrinooszillation
statt, wodurch der Flavour geändert wird. Explizite Rechnungen zeigen jedoch auch,
dass durch die äußerst geringe Masse der Neutrinos die Leptonflavourverletzung
durch Neutrinooszillation so stark unterdrückt wird, dass die resultierenden Verzweigungsverhältnisse mit der heutigen Detektortechnologie nicht nachgewiesen
werden können [6]. Abbildung 2.1 zeigt drei hypothetische Feynmandiagramme für
die diskutierten Standardmodellerweiterungen.
𝜇−
𝑐
LQ
𝐽/ψ
Z′
𝐽/ψ
𝑒+
𝑐
𝜇−
𝑐
𝑒+
𝑐
(a)
(b)
𝑐
𝛾, 𝑍 0
𝐽/Ψ
𝑐
𝑊−
𝑊+
𝜇−
𝜈 u�
𝜈u�
𝑒+
(c)
Abbildung 2.1: Feynman-Diagramme für hypothetische Standardmodellerweiterungen. In (a) ist ein möglicher Prozess unter Beteiligung eines Leptoquarks
gezeigt. Abbildung (b) zeigt den Zerfall über den Austausch eines u� ′ -Bosons. Der
Zerfall, der über Neutrinooszillation abläuft, ist in (c) zu sehen.
Experimentell erfolgt die Suche nach Leptonflavourverletzung beispielsweise über
die Untersuchung der Zerfälle 𝐵0 → 𝑒± 𝜇∓ [7] und 𝐷0 → 𝑒± 𝜇∓ [8] und, wie es in
dieser Analyse der Fall ist, über den Zerfall von Vektormesonen (𝜙, 𝐽 /𝜓, 𝛶 ).
Einen Vergleichswert für das Ergebnis der hier vorgelegte Arbeit liefert eine im
Jahr 2013 durchgeführte Analyse der BESIII Kollaboration [6]. In dieser wurden bei
einer Erfassung von (225,3 ± 2,8) ⋅ 106 𝐽 /𝜓 Ereignissen mit dem BESIII Detektor
am BEPCII Collider vier Signalkandidaten ausgemacht. Als oberes Limit für das Verzweigungsverhältnis wurde ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < 1,6 ⋅ 10−7 bei einem Konfidenzlevel
von 90 % bestimmt.
4
3 Das LHCb-Detektorsystem
Die in dieser Arbeit analysierten Daten wurden 2012 in Run 1 mit dem LHCbDetektor am Large Hadron Collider (LHC) am CERN bei Genf aufgenommen.
Der LHC ist der derzeit größte Ringbeschleuniger der Welt mit einem Umfang
von 26,7 km, in dem zwei entgegengesetzt laufende Protonen- oder Bleiionenstrahlen
√
bei einer Schwerpunktsenergie von bis zu 𝑠 = 13 TeV zur Kollison gebracht werden
können. Geplante Verbesserungen sehen eine neue maximale Schwerpunktsenergie
√
von 𝑠 = 14 TeV vor. Supraleitende Elektromagnete, die konstant mit Hilfe von
flüssigem
Stickstoff und flüssigem Helium auf eine Temperatur
von 1,85 K gekühlt
2
CHAPTER 1. OVERVIEW
werden müssen, halten die Protonen auf ihrer Kreisbahn. Um vorzeitige Kollisionen
mit etwaigen Gasmolekülen zu verhindern, bewegen sich die Protonen in einem
Ultrahochvakuum.
y
5m
Magnet
RICH1
Vertex
Locator
M2
SPD/PS
HCAL
ECAL
T3 RICH2 M1
T1 T2
M3
M4 M5
rad
250m
100mrad
TT
− 5m
5m
10m
15m
20m
z
Abbildung
3.1: Schematischer
Aufbau
undthe
Anordnung
der(VELO),
DetektorkomponenFigure
1.1: Reoptimized
LHCb detector layout,
showing
Vertex Locator
the dipole magnet,
Zu sehen
sind
Locator
(VELO),
die RICH
theten
two des
RICHLHCb-Detektors.
detectors, the four tracking
stations
TTder
andVertex
T1–T3, the
Scintillating
Pad Detector
(SPD),
Preshower
(PS), Electromagnetic
(ECAL)TT
andund
Hadronic
(HCAL)
and der
the five
muon stations
Detektoren,
die Spurdetektoren
T1–T3,
der calorimeters,
Dipolmagnet,
Scintillating
M1–M5.
It also shows
the direction
of the y and z coordinate
axes; the und
x axishadronische
completes the (HCAL)
right-handed
Pad Detektor
(SPD),
das elektromagnetische
(ECAL)
framework.
Kalorimeter, sowie die fünf Myonenkammern M1–M5 [9].
compared to theStellen
TDR [4].des
TheBeschleunigerrings
ma- the VELO, the TT
is used die
in theProtonenstrahLevel-1 trigger.
Anintroduced
vier verschiedenen
werden
terial
budget
has
been
reduced
by
optimizing
the
Large
impact
parameter
tracks
found
in theCollider
VELO
len von einem Detektor umschlossen, von denen einer der Large Hadron
thickness of the silicon sensors and the number of are extrapolated to the TT and the magnetic field
beauty
Detektor
ist. Am
Kollisionspunkt
innerhalb
des Detektors
kreuzen
stations.(LHCb)
The thickness
of the sensors
has been
re- in the RICH
1 region allows
their momenta
to be
duced
300 toStrahlen,
220 µm, and wodurch
the number es
of stameasured. The three remaining stations
are placed
sich
diefrom
beiden
zu Proton-Proton-Kollisionen
kommt.
Abbiltions from 25 to 21 without significantly affecting behind the magnet with equal spacing. Each stadung
3.1 zeigt den schematischen Aufbau des
LHCb-Detektor und die Anordnung
its performance, as shown in this document.
tion consists of an Inner Tracker (IT) close to the
der verschiedenen
Detektorkomponenten.
beam
pipe and an Outer Tracker (OT) surrounding
The dipole magnet has not been modified from
the TDR design [5] and its construction is advancing. Compared to the TP spectrometer layout, no
shielding plate is placed upstream of the magnet.
This change has been made in order to introduce
magnetic field between the VELO and the magnet,
i.e. in the region of RICH 1, for the Level-1 trigger
improvement.
Compared to the TP, the number of tracking
stations is reduced to four in order to reduce the
material budget, without introducing performance
losses, as demonstrated in this document2 . The
first station after the VELO, referred to as the
Trigger Tracker (TT), is in front of the magnet
and just behind RICH 1. It consists of four planes
of silicon strip detectors. They are split into two
pairs of planes separated by 30 cm. Together with
the IT. The OT is made of straw tubes and the IT
of silicon strip detectors. Their designs remain unchanged from those described in the corresponding
TDR’s [6, 2].
The RICH 1 material has been reduced, largely
by changing the mirror material and redesigning
the mirror support. The mirror will be made from
either carbon-composite or beryllium. The mirror
support has been moved outside of the acceptance.
Further reduction of the material has been achieved
by removing the entrance window, by connecting
the front face of RICH 1 to the flange of the VELO
exit window. Iron shielding boxes for the photon
detectors have been introduced for two reasons.
Firstly, they protect the photon detectors from the
magnetic field. Secondly, they help to focus the
5
3 Das LHCb-Detektorsystem
Der LHCb-Detektor ist ein einarmiges Vorwärtsspektrometer, das einen Winkelbereich von 15 mrad bis 250 mrad in der 𝑦𝑧-Ebene in Richtung der Strahlachse abdeckt.
Im Gegensatz zu den anderen großen Detektoren am LHC, wie zum Beispiel dem
ATLAS Detektor, finden die Kollisionen bei LHCb nicht im Zentrum des Detektors,
sondern an einem Ende statt. Der LHCb-Detektor ist spezialisiert auf die Untersū
chung der Zerfälle von 𝑏- und 𝑏-Hadronen,
welche im vom Dektektor abgedeckten
Winkelbereich dominant produziert werden. Die Asymmetrie der Produktion der
̄
𝑏𝑏-Paare
ist dadurch begründet, dass für kleine Impulsüberträge der Prozess 𝑔𝑔 → 𝑏𝑏̄
in Proton-Proton-Kollisionen dominant ist. Durch seinen langen Detektorarm ist der
̄
LHCb-Detektor in der Lage ungefähr 40 % der entstehenden 𝑏𝑏-Paare
zu erfassen. Somit hat das zu behandelnde Physikprogramm, die Konstruktion des LHCb-Detektors
maßgeblich mitbeeinflusst.
Dem Kollisionspunkt am nächsten ist der Vertex Locator (VELO), dessen Aufgabe
es ist, mit hoher Genauigkeit die unmittelbar vom Kollisionspunkt ausgehenden
Teilchenspuren zu erfassen. Die zugehörige Software versucht anschließend die detektierten Spuren zu einem gemeinsamen Kollisionsvertex zu rekonstruieren. Die
ebenfalls zum Tracking System gehörenden Spurdetektoren TT und T1–T3 dienen
zusammen mit dem Dipolmagneten zur exakten Impulsbestimmung der enstehenden
geladenen Teilchen. Die zwei Ring Imaging Cherenkov Detektoren (RICH1 und
RICH2) sind für die Identifikation von Hadronen mit einem Impuls zwischen 2
und 100 GeV verantwortlich. Mit Hilfe des elektromagnetischen (ECAL) und hadronischen (HCAL) Kalorimeters, sowie des Scintillating Pad Detektor (SPD) werden
Energiedeposition von Elektronen, Photonen und Hadronen vermessen. Bei den
weiter hinten liegenden Detektorkomponenten handelt es sich um mehrere große
Myonenkammern, die die Aufgabe haben, einen Teil der schwer zu erfassenden
Myonen zu detektieren. Eine ausführlichere Präsentation der verschiedenen Detektorkomponenten findet sich zum Beispiel in [10].
Mit einer Protonkollisionsrate von ungefähr 600 MHz bei einer Umlauffrequenz
von 40 MHz für die Protonenpakete [11] ist die am Detektor anfallende Datenmenge
zu groß, um vollständig vom Detektor erfasst und gleichzeitig abgespeichert zu
werden. Aus diesem Grund selektiert ein kombiniertes System aus Hardware- und
Softwaretriggern die anfallenden Daten. Die erste Stufe bildet der Hardwaretrigger
(L0). Dieser lässt nur Ereignisse passieren, für die ein hoher transversaler Impuls
in den Myonenkammern, oder eine hohe transversale Energie in den Kalorimetern
gemessen wurde. Allein durch den L0-Trigger kann die Ereignisrate somit auf ein
Maximum von 1,1 MHz reduziert werden. Ereignisse die den L0-Trigger passieren
werden an die Software-Trigger (HLT1 und HLT2) geleitet, die auf Grundlage von
ersten einfachen Rekonstruktionen und Selektionen die Auswahl weiter eingrenzen.
Mit einer Rate von 5 kHz werden die verbleibenden Ereignisse dann zur weiteren
Auswertung gespeichert.
6
4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇−
Ziel der Analyse ist die Bestimmung eines oberen Limits für das Verzweigungsverhältnis des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− . Das Verzweigungsverhältnis bestimmt sich gemäß
der Gleichung
ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) = 𝛼𝑁sig,95% .
(4.1)
Hierbei ist 𝑁sig,95% die Anzahl der maximal messbaren Signalereignisse für den
Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− bei einem Konfidenzniveau von 95 %. Das Konfidenznivau gibt
an, in wie viel Prozent der bei unendlicher Wiederholung einer statistischen Messung
resultierenden Konfidenzintervalle der wahre Wert des betrachteten Parameters
tatsächlich liegt [12]. Das Konfidenzintervall (auch Vertrauensintervall genannt)
ist ein in jeder Messung unterschiedliches Intervall, welches den Mittelwert des
Parameters einschließt [13]. Im Fall der hier gemachten Untersuchung heißt das,
dass die gefundenen Signalereignisse mit einer Wahrscheinlichkeit von 95 % nicht
durch den erwarteten Untergrund erklärt werden können.
Die in Gleichung (4.1) ebenfalls benötigte Normierungskonstante 𝛼 wurde in einer
parallel durchgeführten Studie [1] auf Grundlage desselben Datensatzes aus dem
Normierungskanal 𝐽 /𝜓 → 𝜇+ 𝜇− bestimmt. Sie berechnet sich gemäß
𝛼=
ℬ(𝐵 → 𝐽 /𝜓𝐾)ℬ(𝐽 /𝜓 → 𝜇+ 𝜇− ) (𝜖ges )u�/u�→u�+ u�−
.
𝑁u�/u�→u�+ u�−
(𝜖ges )u�/u�→u�+ u�−
(4.2)
Hierbei sind ℬ(𝐵 → 𝐽 /𝜓𝐾) und ℬ(𝐽 /𝜓 → 𝜇+ 𝜇− ) die bekannten Verzweigungsverhältnisse des Normierungskanals und 𝑁u�/u�→u�+ u�− die Anzahl der gemessenen
Signalereignisse im Normierungskanal 𝜖ges sind die Gesamteffizienzen für die Detektion, Rekonstruktion und Selektion des jeweiligen Kanals.
Über Formel (4.1) und (4.2) wird das Verzweigungsverhältnis ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− )
relativ zum Normierungskanal bestimmt. Dies ist sinnvoll, da sich über ein Verhältnis von Verzweigungsverhältnissen systematische Fehler größtenteils aufheben
und der Fehler somit minimiert werden kann. Dieses Verfahren setzt jedoch die
Kenntnis des Verzweigungsverhältnis des Normierungskanals voraus, weswegen
hier der gut vermessene Zerfall 𝐽 /𝜓 → 𝜇+ 𝜇− aus dem Zerfall 𝐵+ → 𝐽 /𝜓𝐾 + gewählt wurde. Für die Verzweigungsverhältnisse des Normierungskanals werden die
Literaturwerte ℬ(𝐽 /𝜓 → 𝜇+ 𝜇− ) = (5,961 ± 0,033) % und ℬ(𝐵+ → 𝐽 /𝜓𝐾 + ) =
(0,1027 ± 0,0031) % verwendet [14].
Im folgenden Abschnitt werden die in dieser Analyse verwendeten Datensätze
beschrieben und anschließend angepasst. Dabei werden stets die auftretenden Signalund Untergrundeffizienzen bestimmt.
7
4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇−
4.1 Beschreibung der verwendeten Datensätze
Monte-Carlo-Simulation
Um das Signal zu beschreiben und den Untergrund besser abschätzen zu können,
werden Monte-Carlo simulierte Daten verwendet. Im Folgenden soll kurz beschrieben
werden, wie Monte-Carlo-Simulationen bei LHCb prozessiert werden: Mit MonteCarlo-Methoden erzeugte Ereignisse basieren auf einer Simulation der Proton-ProtonKollisionen im Detektor, der Simulation der daraus resultierenden Zerfallsprozesse,
sowie der Simulation der Wechselwirkungen mit dem Detektormaterial. Die ProtonProton-Kollisionen werden mit der Software PYTHIA [15] generiert. PYTHIA liefert
dabei anhand komplizierter Modelle, die unter anderem auf den Lagrangefunktionen
des Standardmodells basieren die Vierervektoren der in einer Kollision entstehenden
Teilchen. Das Programm EVTGEN [16] simuliert die sich anschließenden Zerfallsprozesse, so zum Beispiel den von 𝐵-Hadronen. Die Simulation der Wechselwirkungen
zwischen Teilchen und Detektormaterial, übernimmt das Softwarepaket GEANT4 [17].
Die Konvertierung der berechneten Ereignisse in elektrische Signale leistet die Software BOOLE [18]. Ab diesem Punkt werden die Monte-Carlo simulierten Ereignisse
wie reale Ereignisse an die Trigger und Rekonstruktionssoftware von LHCb geschickt.
Eine weitergehende und ausführliche Diskussion der verwendeten Module findet sich
zum Beispiel in [19].
Die Gesamtanzahl der Monte-Carlo-Ereignisse für den Zerfall 𝐵 → 𝐽 /𝜓𝑋 beträgt 1 261 633. Die 𝐽 /𝜓-Mesonen zerfallen in der Simulation dann zu 100 % weiter
in Elektron und Myon. In dem vorliegenden Datensatz sind weniger Ereignisse enthalten, da durch Teilchenrekonstruktionen der Detektorsoftware bereits Ereignisse
verloren worden sind.
Daten
Die in dieser Arbeit analysierten Daten wurden 2012 in Run 1 des LHCs mit
dem LHCb Detektor aufgenommen und entsprechen einer integrierten Luminosität
von 2 fb−1 bei einer Schwerpunktsenergie von 8 TeV. Der vorliegende Datensatz
beinhaltet nach einer im Vorfeld durchgeführten Selektion 19 550 674 Ereignisse.
Da der gesuchte Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− gemäß dem Standardmodell nicht erlaubt
ist, wird erwartet, dass potentielle Signalkandidaten vollständig vom Untergrund
verdeckt werden. Es ist somit notwendig, den vorliegenden Untergrund genau zu
verstehen. Zur Analyse des Untergrunds werden nur die Seitenbänder des Massenfensters betrachtet. Die Masse des 𝐽 /𝜓-Teilchens beträgt (3096,916 ± 0,011) MeV [14].
Ereignisse, die einer rekonstruierten 𝐽 /𝜓-Masse zwischen 2750 MeV und 3250 MeV
8
4.1 Beschreibung der verwendeten Datensätze
Kandidaten / (11MeV/c2 )
entsprechen, werden im Folgenden ausgeblendet. Damit ist sichergestellt, dass die
im Datensatz verbleibenden 5 863 516 Ereignisse ausschließlich aus Untergrund bestehen. Abbildung 4.1 zeigt die Massenverteilung der aufgenommenen Daten und
der Simulation.
6 ×10
5
Signal
Untergrund
5
4
3
2
1
0
2600
2800
3000
3200
3400
3600
m(eµ)/(MeV/c2 )
Abbildung 4.1: Normierte Verteilung der u�/u�-Masse. Für die mit dem Detektor aufgenommenen Daten werden zur Untergrundanalyse nur die Seitenbänder
betrachtet. Der Massenbereich von 2750 MeV bis 3250 MeV wird ausgeblendet.
Die Verteilungen sind auf die Anzahl der Untergrundereignisse normiert.
Der Untergrund in seiner Gesamtheit ist eine Überlagerung verschiedener Untergründe mit unterschiedlichen Ursachen: Der partiell rekonstruierte Untergrund entsteht
durch Ereignisse, wie zum Beispiel dem Zerfall 𝐵− → 𝐷0 (→ 𝐾 − 𝑒+ 𝜈u� )𝜇− 𝜈u�
̄ 𝑋, bei
dem das 𝐾 − nicht detektiert wird. Ein weiterer Untergrund entsteht durch die
Misidentifikation von Teilchen im Detektor, zum Beispiel, wenn der Detektor ein
Pion als Elektron fehlinterpretiert. Einen dritten Beitrag liefert der sogenannte
kombinatorische Untergrund, der dadurch entsteht, dass voneinander unabhängige
Prozesse als der gesuchte Prozess identifiziert werden. So kann beispielsweise ein
einzelnes entstehendes Elektron kombiniert mit einem Myon aus einem anderen
Ereignis als das gesuchte Ereignis detektiert werden.
9
4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇−
4.2 Anpassung der Simulation an die Daten
Um eine Vergleichbarkeit zwischen Daten und Simulation zu ermöglichen, muss
zunächst die Simulation an die aufgenommenen Daten angepasst werden. In einem
ersten Schritt wird dazu die auf die Daten angewendete Vorselektion auch auf die
Simulation angewendet. Tabelle 4.1 zeigt die durchgeführten Schnitte.
Tabelle 4.1: Variablen der Vorselektion mit zugehörigem Schnitt. Die aufgeführten
Schnitte werden auf die Monte-Carlo simulierten Daten angewendet, um diese mit
den aufgenommenen Daten vergleichen zu können.
Variable
𝐽 /𝜓 ∶ M
𝐽 /𝜓 ∶ M
𝐽 /𝜓 ∶ BKGCAT
𝐽 /𝜓 ∶ DIRA
𝐽 /𝜓 ∶ 𝜒2FD
𝐽 /𝜓 ∶ 𝜒2IP
𝐽 /𝜓 ∶ 𝜒2Endvertex /NDOF
Schnitt
> 2096 MeV
< 4096 MeV
=0
>0
> 256
< 25
<9
𝑒+ ∶ 𝜒2IP
𝑒+ ∶ 𝜒2Track
𝑒+ ∶ PIDe
> 36
<3
> −2
𝜇− ∶ 𝜒2IP
𝜇− ∶ 𝜒2Track
𝜇− ∶ GhostProb
> 36
<3
< 0,3
Zunächst werden nur Ereignisse betrachtet, die einer hinreichend großen rekonstruierten 𝐽 /𝜓-Masse entsprechen. Dabei muss darauf geachtet werden, dass neben
dem Signalbereich auch noch Seitenbänder vorhanden sind, mit denen der Untergrund abgeschätzt werden kann. Desweiteren werden nur Monte-Carlo-Ereignisse
zugelassen, die in die Untergrundkategorie (BKGCAT) Null fallen. Innerhalb dieser
Kategorie ist sichergestellt, dass das rekonstruierte Ereignis auch tatsächlich als
Signalereignis generiert wurde. Die Größe DIRA (direction angle) des 𝐽 /𝜓-Teilchens
gibt an, inwiefern Flugrichtung und rekonstruierter Impuls in dieselbe Richtung
zeigen. Da es sich um den Cosinus des Winkels handelt, ist diese Größe im Optimalfall Eins. Die Variable 𝜒2IP gibt an, inwiefern sich das 𝜒2 des primären Vertex
unter Berücksichtigung bzw. Nichtberücksichtigung des entsprechenden Teilchens
ändert. IP steht für impact parameter. Für den gesuchten Zerfall wird verlangt,
10
4.2 Anpassung der Simulation an die Daten
dass das detektierte Elektron und Myon ein großes 𝜒2IP haben, da diese aus dem
Sekundärvertex eines 𝐵-Hadrons stammen sollen. Aus demselben Grund sollte auch
die Variable 𝜒2FD nicht zu klein sein, die den 𝜒2 -Abstand vom Ursprungsvertex
zum Zerfallsvertex eines 𝐽 /𝜓-Teilchens angibt. FD steht für Flugdistanz. Die Variable 𝜒2TRACK wiederum bewertet die Qualität der Spurrekonstruktion und sollte
klein sein, was einer guten Rekonstruktion entspricht. Mit der Particle-Identification
(PID) Variablen GhostProb wird die Wahrscheinlichkeit angeben, mit der die Spurrekonstruktionssoftware detektierte Spurpunkte zu einer falschen Spur rekonstruiert
hat. Aus naheliegenden Gründen sollte auch diese Variable klein sein. Mit der
PIDe Variable wird die Wahrscheinlichkeit angegeben, dass tatsächlich ein Elektron
identifiziert wurde. Die Effizienz der Vorselektion zusammen mit den im Vorfeld
erfolgten Rekonstruktionen der Teilchenspuren beträgt
𝜖Vorselektion = (3,51 ± 0,02) %.
(4.3)
Für den statistischen Fehler der Effizienz wurde der Binomialfehler mit
∆𝜖 = √
𝜖 (1 − 𝜖)
𝑁vorher
(4.4)
verwendet [20]. In einem weiteren Schritt werden eine Reihe von Trigger sowohl auf
die Daten, als auch auf die Simulation angewendet. Tabelle 4.2 listet die verwendeten
Trigger auf. Dabei wird ein Ereignis genau dann weiter berücksichtigt, wenn es
pro Triggerstufe mindestens einer Triggeranforderung genügt. In dieser Analyse
werden die sogenannten TOS (trigger on signal) Triggerentscheidungen verwendet.
Im Gegensatz zu den TIS (trigger independent of signal) Trigger werden diese
Trigger nur ausgelöst, wenn das detektierte Ereignis im Zusammenhang mit einem
Signalkandidaten steht [21].
In Tabelle 4.3 finden sich die Effizienzen der verschiedenen Triggerstufen, sowie
die Gesamteffizienz für die Simulation. Die Effizienzen bestimmen sich stets als
Quotient der Anzahl an Ereignissen, die in eine Triggerstufe gehen, und der Anzahl an
Ereignissen, die die Triggerstufe passieren. Die Gesamteffizienz ergibt sich als Produkt
der Effizienzen der einzelnen Stufen. Der Fehler wird auch hier mit Gleichung (4.4)
bestimmt.
Es fällt auf, dass die Triggereffizienz auf Untergund größer ist als auf Signal. Es
wird vermutet, dass der Untergrund dominant aus 𝐽 /𝜓 → 𝜇− 𝜇+ und 𝐽 /𝜓 → 𝑒− 𝑒+
Zerfällen besteht. Diese Zerfälle werden von den Triggern mit großer Signaleffizienz
erfasst. Die Trigger für den untersuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− hingegen müssen noch
optimiert werden. In einer weiterführenden Studie könnte zunächst versucht werden,
eine Veto-Selektion auf 𝑒− 𝑒+ und 𝜇− 𝜇+ anzuwenden.
11
4 Analyse des Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇−
Tabelle 4.2: Auflistung der verwendeten Trigger. Ereignisse, die pro Triggerstufe
mindestens einen Trigger auslösen, werden weiter betrachtet.
L0-Trigger
Jpsi_L0MuonDecision_TOS
Jpsi_L0HadronDecision_TOS
Jpsi_L0ElectronDecision_TOS
HLT1-Trigger
Jpsi_Hlt1TrackAllL0Decision_TOS
Jpsi_Hlt1TrackMuonDecision_TOS
HLT2-Trigger
Jpsi_Hlt2Topo2BodyBBDTDecision_TOS
Jpsi_Hlt2Topo3BodyBBDTDecision_TOS
Jpsi_Hlt2Topo4BodyBBDTDecision_TOS
Jpsi_Hlt2TopoMu2BodyBBDTDecision_TOS
Jpsi_Hlt2TopoMu3BodyBBDTDecision_TOS
Jpsi_Hlt2TopoMu4BodyBBDTDecision_TOS
Tabelle 4.3: Triggereffizienzen der einzelnen Triggerstufen, sowie der gesamten
Triggerlines für die Monte-Carlo simulierten Daten.
Triggerstufe
12
𝜖Signal
𝜖Untergrund
L0
HLT1
HLT2
(61,7 ± 0,2) %
(86,3 ± 0,2) %
(58,1 ± 0,3) %
(76,38 ± 0,02) %
(96,617 ± 0,009) %
(63,89 ± 0,02) %
Gesamt (𝜖Trigger )
(30,9 ± 0,2) %
(47,15 ± 0,02) %
5 Optimierung der Signalselektion
Im Folgenden soll es nun darum gehen, Untergrund von Signal zu trennen, um
anschließend die Anzahl der maximal erwarteten Signalereignisse zu bestimmen.
Dazu werden verschiedene Analysetechniken angewendet:
Zunächst werden rechteckige Schnitte mit möglichst hoher Signaleffizienz und möglichst hoher Untergrundunterdrückung angewendet. Daran anschließend wird ein
Boosted Decision Tree (BDT) [22] trainiert, um Signal und Untergrund mit Hilfe
einer neu berechneten Klassifikationsvariablen zu trennen. In einem dritten Schritt
wird der Schnitt von dieser neuen Variablen optimiert und ein harter Schnitt auf die
PID Variablen angewendet. Zuletzt wird dann anhand der verbleibenden Untergrundkandidaten die Anzahl der Untergrundkandidaten im ausgeblendeten Massenfenster
berechnet, um daraus die Anzahl der maximal messbaren Signalereignisse zu bestimmen.
5.1 Optimierung der Separation mit rechteckigen Schnitten
Die schnittbasierte Separation von Signal und Untergrund durch rechteckige Schnitte
erfolgt mit Hilfe des Tools „Crop“ aus dem Simpletools Paket [23]. Crop (Cut Recursive Optimiser) ist ein Schnittoptimierer, der bei einer gegebenen Liste von Variablen
rechteckige Schnitte auf die Daten zurückgibt, die zu einer hohen Signaleffizienz
und einer geringen Untergrundeffizienz führen. Dazu geht das Tool rekursiv vor.
Bei der Verwendung von Crop muss berücksichtigt werden, dass der Signaldatensatz und der Untergrunddatensatz eine unterschiedliche Anzahl an Ereignissen
beinhaltet. Daher muss eine Gütefunktion gefunden werden, anhand derer Crop die
Effizienzen unter Berücksichtigung der unterschiedliche Anzahl an Untergrund- und
Signalereignissen optimieren kann. Für diese Analyse wird die Gütefunktion
FoM =
𝑆
u�u�
2
+
√ ,
𝐵
(5.1)
verwendet [24]. Hierbei beschreibt 𝑆 die Anzahl an Signalereignissen und 𝐵 die
Anzahl an erwarteten Untergrundereignissen. Der Term u�u�/2 ist notwendig, damit
die Funktion für kleine Werte von 𝐵 nicht divergiert und Crop die Untergrundeffizienzen nicht auf Null optimiert. 𝑁u� gibt die Anzahl der Standardabweichungen
an, die verknüpft ist mit der geforderten Genauigkeit der Analyse. Für die hier
durchgeführte Analyse wird der Wert 𝑁u� = 3 verwendet. Interessant wäre es auch,
die von Crop empfohlenen Schnitte unter Verwendung verschiedener Gütefunktionen
13
5 Optimierung der Signalselektion
zu untersuchen. Im Rahmen dieser Arbeit wurde jedoch keine Untersuchung für
verschiedene Funktionen durchgeführt. Dies stellt eine mögliche Verbesserung für
eine nachfolgende Studie dar.
Nach bereits durchgeführter Anpassung der Simulation an die Daten, wie in Kapitel 4 beschrieben, werden nun die Variablen an Crop übergeben, bei denen eine
große Trennkraft durch rechteckige Schnitte erwartet wird. Zusätzlich wird den
Untergrundereignissen das Gewicht 0,5 gegeben, das sich aus dem Verhältnis der
Signalereignisse und einer Abschätzung der Untergrundereignisse im ausgeblendeten Massenfenster ergibt. Dieser Schritt ist notwendig, damit über die vorgestellte
Gütefunktion der optimale Schnitt korrekt ausgerechnet werden kann. Crop gibt
optimierten Schnitte zurück und sortiert die entsprechenden Variablen nach Trennkraft. Um nicht auf unnötig viele Variablen zu schneiden, werden nur die Schnitte
angewendet, deren Effizienzen sich wesentlich von Eins unterscheiden. Schnitte mit
einer Effizienz, die nah bei Eins liegt, sortieren kaum Ereignisse aus und eignen sich
somit nicht zur Selektion. Tabelle 5.1 zeigt die durchgeführten Schnitte, sowie die
erreichten Signal- und Untergrundeffizienzen. Die Fehler der Effizienzen wurden von
Crop bestimmt.
Tabelle 5.1: Ergebnisse der Separation durch Optimierung rechteckiger Schnitte
mit Crop. Neben den von Crop optimierten Schnitten sind die resultierenden Signalund Untergrundeffizienzen, sowie die Gesamteffizenzen aufgeführt.
Variable
Schnitt
𝜖Signal
𝜖Untergrund
𝐽 /𝜓 ∶ 𝜒2VTX
𝑒+ ∶ ProbNNe
𝑒+ ∶ GhostProb
𝜇− ∶ GhostProb
< 4,05
> 0,23
< 0,02
< 0,01
(93,7 ± 0,2) %
(87,3 ± 0,3) %
(82,3 ± 0,3) %
(66,8 ± 0,4) %
(86,20 ± 0,02) %
(38,00 ± 0,04) %
(64,50 ± 0,04) %
(39,30 ± 0,04) %
(46,4 ± 0,3) %
(8,70 ± 0,01) %
Gesamt (𝜖crop )
Es zeigt sich, dass die Variable 𝜒2VTX des 𝐽 /𝜓-Mesons, sowie die PID-Variablen
ProbNNe des Elektrons und GhostProb von Elektron und Myon die größte Trennkraft besitzen. 𝜒2VTX gibt dabei die Qualität des Vertex-Fits des 𝐽 /𝜓-Vertex an.
ProbNNe gibt ähnlich zur bereits erwähnten PIDe Variablen die Wahrscheinlichkeit
an, dass ein rekonstruiertes Elektron auch wirklich ein Elektron ist. Die Bedeutung
der GhostProb-Variablen wurde bereits in Kapitel 4 erklärt. Die Anwendung der
harten Schnitte auf die GhostProb-Variablen sollte in einer möglichen nachfolgenden
Studie auf jeden Fall noch hinsichtlich der korrekten Simulation dieser Variablen
mit Monte-Carlo untersucht werden. Abbildung 5.2 zeigt die Variablen, auf die
geschnitten wurde. Aufgetragen ist jeweils die Untergrund- und Signalverteilung,
14
5.1 Optimierung der Separation mit rechteckigen Schnitten
Kandidaten / 0.09
normiert auf die Untergrundverteilung. Die senkrechte Linie markiert den von
Crop optimierten Schnitt. Die Anwendung aller Schnitte ergibt eine Signaleffizienz von (46,4 ± 0,3) % bei einer Untergrundeffizienz von (8,70 ± 0,01) %. Mit Hilfe
von optimierten senkrechten Schnitten kann somit der Untergrund um rund 91 %
reduziert werden, während nur etwa die Hälfte des Signals verloren geht.
106
10
Untergrund
Signal
5
104
103
102
Kandidaten / 0.001
101
0
2.5 ×10
1
2
3
4
5
6
7
8
9
J/ψ : χ2VTX
5
Untergrund
Signal
2.0
1.5
1.0
0.5
0.0
0.00
0.02
0.04
0.06
0.08
0.10
µ− : GhostProb
Abbildung 5.1: Variablen, auf die mit Hilfe von Crop geschnitten wurde. Die
gestrichelte Linie markiert den Schnitt. Alle Verteilungen sind auf die Anzahl der
Untergrundereignisse normiert.
15
Kandidaten / 0.001
5 Optimierung der Signalselektion
2.5 ×10
5
Untergrund
Signal
2.0
1.5
1.0
0.5
Kandidaten / 0.01
0.0
0.00
9 ×10
0.02
0.04
0.06
0.08
0.10
e+ : GhostProb
5
Untergrund
Signal
8
7
6
5
4
3
2
1
0
0.0
0.2
0.4
0.6
0.8
1.0
e+ : ProbbNNe
Abbildung 5.2: Variablen, auf die mit Hilfe von Crop geschnitten wurde. Die
gestrichelte Linie markiert den Schnitt. Alle Verteilungen sind auf die Anzahl der
Untergrundereignisse normiert.
16
5.2 Separation mit Hilfe multivariater Analysetechniken
5.2 Separation mit Hilfe multivariater Analysetechniken
Mit Hilfe multivariater Analysetechniken ist es oft möglich bei hoher Signleffizienz
noch weitaus mehr Untergrund zu unterdrücken. Eine häufig angewandte Analysetechnik ist die Verwendung eines sogenannten Boosted Decision Tree (BDT) [22].
Ein BDT erstellt an Hand der ihm übergebenen Datensätze und einer Liste von
zu betrachtenden Variablen Entscheidungsbäume mit denen der BDT lernt, Signal
und Untergrund voneinander zu trennen. Im Gegensatz zu einem normalen Decision Tree (DT), zeichnet sich ein BDT dadurch aus, dass er falsch zugeordneten
Ereignissen für den nächsten Entscheidungsbaum ein höheres Gewicht zuordnet. Mit
Hilfe dieser Technik kann die Qualität eines DT stark erhöht werden. Das Resultat
eines BDTs ist eine neue Variable für beide Datensätze. Diese ist als Klassifizierer
zu interpretieren, der jedem Ereignis eine Wahrscheinlichkeit zuordnet, die angibt,
ob es sich bei dem Ereignis eher um Signal oder um Untergrund handelt.
In dieser Analyse wird mit dem Programmpaket scikit-learn [25] gearbeitet, welches
alle notwendigen Funktionen zum BDT-Training zur Verfügung stellt. Um den BDT
noch besser auf die vorhandenen Datensätze zu trainieren und die Statistik zu
erhöhen, wird zusätzlich ein sogenanntes kFolding durchgeführt. Dazu werden die
Datensätze in sechs gleich große Teildatensätze aufgeteilt. Anschließend wird der
BDT mit fünf Teildatensätzen trainiert und an dem sechsten Teildatensatz getestet.
Auf diese Art und Weise ist es möglich, sechs statt nur einem BDT zu trainieren.
Gleichzeitig kann überprüft werden, ob der BDT übertrainiert wurde. Wenn ein
BDT übertrainiert ist, wurde er auf statistische Fluktuationen in den Datensätzen
und nicht auf die tatsächliche Unterscheidung von Signal und Untergrund trainiert.
Dies kann geschehen, wenn die Teildatensätze, auf denen trainiert wurde, zu klein
sind, oder wenn der BDT zu komplex gebaut ist.
Für die hier durchgeführte Analyse werden im Folgenden nur Ereignisse des oberen
Seitenbandes mit Massen 𝐽 /𝜓 ∶ M > 3300 MeV verwendet. Dies hat den Grund,
dass in diesem Massenbereich nur noch kombinatorischer Untergrund erwartet wird.
Somit soll der BDT darauf trainiert werden kombinatorischen Untergrund von Signal
zu trennen. In Tabelle 5.2 sind die dem BDT übergebenen Variablen aufgeführt. Die
Variablen wurden gewählt, da sie nach den von Crop durchgeführten rechteckigen
Schnitten eine hohe Trennkraft zwischen Signal und Untergrund aufweisen und nicht
stark untereinander korreliert sind.
Abbildung 5.3 zeigt beispielhaft für einen kFold die Histogramme der neu berechneten BDT-Variablen für einen Trainingsdatensatz. Zusätzlich sind die Verteilungen für
den zugehörigen Testdatensatz eingezeichnet. Während die Verteilung des Testdatensatzes für Untergrund eine große Übreinstimmung mit dem Trainingsdatensatz zeigt,
fluktuieren sie für den Signaldatensatz weitaus stärker. Dies hat den Grund, dass der
17
5 Optimierung der Signalselektion
Tabelle 5.2: Variablen, die für das BDT-Training verwendet wurden. Es wurden
Variablen gewählt, die im Bezug auf die Signal-Untergrund-Separation eine große
Trennkraft aufweisen.
𝐽 /𝜓 ∶ 𝑝T
𝐽 /𝜓 ∶ 𝜏
𝐽 /𝜓 ∶ DIRA
𝐽 /𝜓 ∶ 𝜒2IP
𝐽 /𝜓 ∶ 𝜒2ENDVERTEX
𝜇− ∶ 𝑝T
𝜇− ∶ 𝜒2IP
𝜇− ∶ GhostProb
𝑒+ ∶ 𝜒2IP
𝑒+ ∶ GhostProb
Signaldatensatz deutlich weniger Ereignisse beinhaltet als der Untergrunddatensatz.
Hinzu kommt, dass durch das kFolding nur auf einem Bruchteil dieser Daten getestet
wird. Die Anfälligkeit des Testdatensatzes für Fluktuationen ist somit recht groß.
Diesbezügliche Verbesserungen könnten Teil weiterführender Studien sein.
Die Qualitiät der BDT-Variable kann mit Hilfe einer ROC-Kurve (Receiver Operating Characteristic) dargestellt werden. Dabei wird die Signaleffizienz gegen
die Untergrundeffizienz aufgetragen. Charakteristische Größe ist der Flächeninhalt
unter der ROC-Kurve. Je näher dieser bei Eins liegt, desto besser hat der BDT
gelernt Signal von Untergrund zu trennen. Abbildung 5.4 zeigt exemplarisch eine
ROC-Kurve für das durchgeführte BDT-Training. Der Verlauf der ROC-Kurve ist
nicht optimal und kann noch verbessert werden. Im Rahmen dieser Arbeit wurden
keine alternativen Implementationen von BDTs getestet. Dies stellt ein mögliches
Verbesserungspotential für nachfolgende Studien dar.
18
Kandidaten / beliebige Einheit
5.2 Separation mit Hilfe multivariater Analysetechniken
5
Signal
Untergrund
4
3
2
1
0
−1.0
−0.8
−0.6
−0.4
−0.2
0.0
BDT-Klassifizierer
Signaleffizienz
Abbildung 5.3: Verteilungen der BDT-Klassifizierungsvariablen für Signal und
Untergrund. Zusätzlich zu den Verteilungen eines Trainingsdatensatzes sind ebenso
die Verteilungen für den entsprechenden Testdatensatz als Punkte eingezeichnet.
1.0
ROC-Kurve
Integral = 0.726
0.8
0.6
0.4
0.2
0.0
0.0
0.2
0.4
0.6
0.8
1.0
Untergrundeffizienz
Abbildung 5.4: Darstellung einer ROC Kurve des trainierten BDTs für einen
kFold. Je näher der Flächeninhalt unter der Kurve an Eins liegt, desto besser hat
der BDT gelernt, Signal von Untergrund zu trennen.
19
5 Optimierung der Signalselektion
5.3 Optimierung der BDT-Variable
Für die im letzten Abschnitt bestimmte BDT-Variable soll nun wiederum ein bestmöglicher Schnitt gefunden werden. Außerdem soll durch einen harten Schnitt auf die
PID-Variablen von Elektron und Myon noch weitaus mehr Untergrund unterdrückt
werden. Zunächst wird zwei harte Schnitte auf die PID-Variablen 𝑒+ ∶ ProbNNe
und 𝜇− ∶ ProbNNmu durchgeführt. Der Schnitt auf die BDT-Variable wird unter Verwendung der bereits zur Optimierung rechteckiger Schnitte diskutierte Gütefunktion
bestimmt. Tabelle 5.3 zeigt die durchgeführten Schnitte, die zu einer größtmöglichen
Signaleffizienz bei gleichzeitig größtmöglicher Untergrundunterdrückung führen.
Tabelle 5.3: Schnitte auf die PID Variablen von Elektron und Myon, sowie auf
die mit Hilfe eines BDT berechnete Klassifizierungsvariable. Der zuletzt genannte
Schnitt wurde mit Hilfe einer Gütefunktion optiniert.
Variable
Schnitt
𝑒+ ∶ ProbNNe
𝜇− ∶ ProbNNmu
BDT-Variable
> 0.97
> 0.95
> −0.29
Die Effizienz dieses Schritts beläuft sich für den Signaldatensatz zu
𝜖Signal,BDT,PID = (0,126 ± 0,045) %
(5.2)
und für den Untergrunddatensatz zu
𝜖Untergrund,BDT,PID = (0,0279 ± 0,0034) %.
(5.3)
Es fällt auf, dass sowohl die Effizienz auf Signal, als auch auf Untergrund sehr
klein ist. Abbildung 5.5 zeigt die drei Variablen, auf die geschnitten wird. Dabei ist
stets eine Variable unter Anwendung der beiden Schnitte auf die anderen beiden
Variablen dargestellt.
20
Kandidaten / 0.02
5.3 Optimierung der BDT-Variable
60
50
40
Untergrund
Signal
30
20
10
Kandidaten / 0.02
Kandidaten / 0.02
0
0.0
45
40
35
30
25
20
15
10
5
0
0.0
0.2
0.4
0.6
0.8
1.0
e+ : ProbbNNe
0.6
0.8
1.0
µ+ : ProbbNNmu
Untergrund
Signal
0.2
0.4
600
Untergrund
Signal
500
400
300
200
100
0
−1.0
−0.8
−0.6
−0.4
−0.2
0.0
BDT-Variable
Abbildung 5.5: Verteilung der PID-Variablen und der neu berechneten BDTVariable. Die erste Abbildung zeigt die PID-Variable des Elektrons unter Anwendung der Schnitte auf die PID-Variable des Myons und der BDT-Variable. Die
anderen beiden Abbildungen zeigen analog die anderen Variablen unter jeweils
zwei der drei Schnitte.
21
5 Optimierung der Signalselektion
5.4 Bestimmung der maximal erwarteten Signalereignisse
Im Folgenden soll nun die Anzahl der erwarteten Untergrundereignisse in dem Teil
des ausgeblendeten Massenfenster berechnet werden, in dem gemäß der Simulation 68 % des Signals liegen. Anschließend soll daraus die Anzahl der gemessenen
Signalkandidaten ermittelt werden. Das hierfür benötigte Massenintervall geht
von 2871 MeV bis 3150 MeV.
Kandidaten / (22 MeV/c2)
Zur Bestimmung der Untergrundkandidaten werden alle im Vorfeld ermittelten
Selektionskriterien auf den vollständigen Datensatz angewendet. Mit Hilfe der verbleibenden 67 Ereignisse im Untergrunddatensatz kann nun eine Abschätzung für
den kombinatorischen Untergrund gemacht werden. Dazu werden die Untergrundereignisse zunächst mit einer Exponentialfunktion der Form eu�u� gefittet. Für die
Bestimmung des freien Parameters wird das Programm RooFit [26] verwendet.
Abbildung 5.6 zeigt die kombinierte 𝑒𝜇-Masse nach Anwendung aller Selektionen.
Zusätzlich zu den Datenpunkten ist der exponentielle Fit eingezeichnet, mit dem
der Untergrund beschrieben wird.
16
14
12
10
8
6
4
2
0
2600
2800
3000
3200
3400
3600
m(eµ) / (MeV/c2)
Abbildung 5.6: Kombinierte u�u�-Masse nach Anwendung aller Selektionen. Zusätzlich zu den verbleibenden Ereignissen ist die angepasste Exponentialfunktion
eingezeichnet.
22
5.4 Bestimmung der maximal erwarteten Signalereignisse
Die Bestimmung der Untergrundereignisse geschieht durch Integration der Exponentialfunktion im oben angegeben Massenintervall. Es ergibt sich
𝑁b = 11 ± 2,
(5.4)
wobei der Fehler der Größe aus dem Fehler des Exponentialfits resultiert. Die Bestimmung der maximal messbaren Signalereignisse im ausgeblendeten Massenfenster
erfolgt mit Hilfe der Formel
∞
𝑁sig,95% = ∑ 𝑁sig,95% (𝑁bu� ) ⋅ 𝑓Poisson (𝑁bu� , 𝑁b ).
(5.5)
u�=0
Hierbei gibt 𝑓Poisson (𝑁bu� , 𝑁b ) die poissonverteilte Wahrscheinlichkeit an 𝑁bu� Ereignisse bei einem Untergrund von 𝑁b zu messen. 𝑁sig,95% bestimmt sich über
die 𝜒2 -Verteilung. Es ergibt sich der Wert
𝑁sig,95% = 7 ± 1,
(5.6)
welcher im Zusammenhang mit Gleichung (4.1) benötigt wird.
23
6 Ergebnisse der Analyse
Im folgenden Kapitel werden die Ergebnisse der Analyse präsentiert. Außerdem wird
ein Ausblick auf mögliche weiterführenden Studien zu diesem Thema gegeben.
6.1 Bestimmung eines oberen Limits
Tabelle 6.1 listet die Signaleffizienzen der verschiedenen Selektionsschritte, sowie
die Gesamteffizienz auf. Die Generatoreffizienz 𝜖Generator ist dabei eine durch die
Monte-Carlo-Generation bedingte Effizienz.
Tabelle 6.1: Effizienzen
Signaleffizienzen
𝜖Generator
𝜖Vorselektion
𝜖Trigger
𝜖Crop
𝜖BDT,PID
0,190 15 ± 0,000 78
0,035 09 ± 0,000 16
0,3091 ± 0,0022
0,4642 ± 0,0037
0,001 26 ± 0,000 45
𝜖ges
(1,21 ± 0,43) ⋅ 10−6
Aus der parallel durchgeführten Studie [1] wird die Normierungskonstanten 𝛼 zu
𝛼 = (1,3 ± 0,4) ⋅ 10−5
(6.1)
bestimmt. Zusammen mit der Anzahl 𝑁sig,95% der erwarteten Signalkandidaten
ergibt sich das Verzweigungsverhältnis für den untersuchten Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇−
zu
ℬ(𝐽 /𝜓 → 𝑒+ 𝜇− ) < (9,2 ± 3,4) ⋅ 10−5 .
(6.2)
6.2 Zusammenfassung und Ausblick
In dieser Arbeit wird eine obere Schranke für das Verzweigungsverhältnis des
leptonflavourverletzenden Zerfalls 𝐽 /𝜓 → 𝑒+ 𝜇− mit Daten des LHCb-Detektors aus
dem Jahr 2012 bestimmt. Die Daten entsprechen einer integrierten Luminosität
von 2 fb−1 . Dabei musste zuerst der Frage nachgegangen werden, ob die Analyse
24
6.2 Zusammenfassung und Ausblick
mit den Daten des LHCb-Experimentes überhaupt durchführbar ist. Der Detektor
liefert präzisere Daten zur Myonidentifikation als zur Elektronenidentifikation. Dies
liegt in erster Linie daran, dass die Bremsstrahlungskorrekturen für die Elektronen
schwierig zu bestimmen sind. Diese sind aufgrund der geringen Masse des Elektrons
jedoch unumgänglich.
Im Zuge der Analyse wurden keine Untersuchungen zu systematischen Fehlern
gemacht. Weiterführende Studien sollten diese berücksichtigen. Auch wurden für die
einzelnen Schritte der Signaloptimierung in Kapitel 5 keine tiefergehenden Studien
hinsichtlich verschiedener Methodiken gemacht. Mögliche Verbesserungen bestehen
hierbei, in der Untersuchung verschiedener Gütefunktionen für die schnittbasierte
Separation, sowie in der Untersuchung verschiedener BDT-Implementationen. Eine
weitere Möglichkeit zur Verbesserung ist die Durchführung der Analyse auf neueren
und größeren Datensätzen, zum Beispiel mit Daten aus Run 2 des LHCs, sobald
diese zur Verfügung stehen.
In der hier vorliegenden Bachelorarbeit, koordiniert durchgeführt mit Referenz [1],
konnte der Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− erstmals am LHCb-Experiment analysiert werden.
Diese explorativen Studien deuten darauf hin, dass mit einer optimierten Triggerund Vorselektion eine kompetitive Messung durchgeführt werden kann.
25
Literaturverzeichnis
[1] K. Sedlaczek. „Suche nach dem Lepton-Flavour verletzenden Zerfall 𝐽 /𝜓 →
𝑒+ 𝜇− am LHCb-Experiment. Normierungskonstante“. Bachelorarbeit. TU
Dortmund, 2016.
[2] D.J. Griffiths. Introduction to Elementary Particles, Second Edition. Physics
Textbook. New York, NY: Wiley-VCH, 2010.
[3] F. Halzen und A.D. Martin. Quarks and Leptons: An Introductory Course in
Modern Particle Physics. Wiley-VCH, 1984.
[4] The ATLAS Collaboration. „Search for pair production of first or second
√
generation leptoquarks in proton-proton collisions at 𝑠 = 7 TeV using the
ATLAS detector at the LHC“. In: Phys. Rev. D83 (2011). 112006. arXiv:
1104.4481.
[5] P. Langacker. „The Physics of Heavy 𝑍 ′ Gauge Bosons“. In: Rev. Mod. Phys. 81
(2009), S. 1199–1228. doi: 10.1103/RevModPhys.81.1199. arXiv: 0801.1345.
[6] The BESIII Collaboration. „Search for the lepton flavor violation process
𝐽 /𝜓 → 𝑒𝜇 at BESIII“. In: Phys. Rev. D87 (2013). 112007. arXiv: 1304.3205.
[7] The LHCb Collaboration. „Search for the lepton-flavour violating decays
𝐵u�0 → 𝑒± 𝜇∓ and 𝐵0 → 𝑒± 𝜇∓ “. In: Phys.Rev.Lett. 111 (2013). 141801. arXiv:
1307.4889.
[8] The LHCb Collaboration. „Search for the lepton-flavour violating decay 𝐷0 →
𝑒± 𝜇∓ “. In: Phys. Lett. B754 (2016), S. 167–175. arXiv: 1512.00322.
[9] The LHCb Collaboration. LHCb reoptimized detector design and performance:
Technical Design Report. Technical Design Report LHCb. Geneva: CERN,
2003. url: http://cds.cern.ch/record/630827.
[10]
The LHCb Collaboration. „LHCb Detector Performance“. In: Int. J. Mod.
Phys. A30.07 (2015). 1530022. arXiv: 1412.6352.
[11]
LHC Machine Outreach. Collision rate. url: http://lhc-machine-outreach.
web . cern . ch / lhc - machine - outreach / collisions . htm (besucht am
22. 06. 2016).
[12]
H. Berman. Statistics and Probability Dictionary. Confidence Level. url:
http : / / stattrek . com / statistics / dictionary . aspx ? definition =
confidence_level (besucht am 18. 06. 2016).
[13]
I.N. Bronstein und K.A. Semendjaew. Springer-Taschenbuch der Mathematik.
Hrsg. von E. Zeidler. 3. Aufl. Wiesbaden: Springer Spektrum, 2013, S. 855.
26
Literaturverzeichnis
[14] J. Beringer et al. „Review of Particle Physics (RPP)“. In: Phys.Rev. D86 (2012).
010001.
[15] T. Sjöstrand, S. Mrenna und P. Skands. „A Brief Introduction to PYTHIA
8.1“. In: Comput. Phys. Commun. 178 (2008), S. 852–867. arXiv: 0710.3820.
[16] A. Ryd et al. EvtGen: A Monte Carlo Generator for B-Physics. 2005.
[17] S. Agostinelli et al. „Geant4 — A simulation toolkit“. In: Nuclear Instruments
and Methods in Physics Research Section A: Accelerators, Spectrometers,
Detectors and Associated Equipment 506.3 (2003), S. 250–303. issn: 0168-9002.
doi: http://dx.doi.org/10.1016/S0168- 9002(03)01368- 8. url: http:
//www.sciencedirect.com/science/article/pii/S0168900203013688.
[18] M. Cattaneo. Boole: The LHCb digitization program. 2004. url: http://lhcbcomp.web.cern.ch/lhcb-comp/Digitization.
[19] J.A.N. van Tilburg. „Track Simulation and Reconstruction in LHCb“. Diss.
Vrije U., Amsterdam, 2005. url: http://www-spires.fnal.gov/spires/
find/books/www?cl=QC793.3.T67T35::2005.
[20] G. Cowan. Statistical Data Analysis. Oxford science publications. Clarendon
Press, 1998. isbn: 9780198501558.
[21] The LHCb Collaboration. „The LHCb Trigger and its Performance in 2011“.
In: JINST 8 (2013), P04022. doi: 10.1088/1748-0221/8/04/P04022. arXiv:
1211.3055.
[22] B.P. Roe et al. „Boosted decision trees, as an alternative to artificial neural
networks for particle identification“. In: Nucl. Instrum. Meth. A543.2-3 (2005),
S. 577–584. doi: 10.1016/j.nima.2004.12.018. arXiv: physics/0408124.
[23] C. Fitzpatrick. simpletools. Handy command line tools for ntuple manipulation
and analysis. 2009. url: https://github.com/cofitzpa/simpletools.
[24] G. Punzi. „Sensitivity of searches for new signals and its optimization“. In:
eConf C030908 (2003), MODT002. arXiv: physics/0308063.
[25] F. Pedregosa et al. „Scikit-learn: Machine Learning in Python“. In: Journal of
Machine Learning Research 12 (2011), S. 2825–2830.
[26] W. Verkerke und D. Kirkby. „The RooFit toolkit for data modeling“. In: eConf
C0303241 (2003), MOLT007. arXiv: physics/0306116.
27
28
Eidesstattliche Versicherung
Ich versichere hiermit an Eides statt, dass ich die vorliegende Abschlussarbeit mit
dem Titel „Suche nach dem Lepton-Flavour verletzenden Zerfall 𝐽 /𝜓 → 𝑒+ 𝜇− am
LHCb-Experiment“ selbstständig und ohne unzulässige fremde Hilfe erbracht habe.
Ich habe keine anderen als die angegebenen Quellen und Hilfsmittel benutzt, sowie
wörtliche und sinngemäße Zitate kenntlich gemacht. Die Arbeit hat in gleicher oder
ähnlicher Form noch keiner Prüfungsbehörde vorgelegen.
Ort, Datum
Unterschrift
Belehrung
Wer vorsätzlich gegen eine die Täuschung über Prüfungsleistungen betreffende
Regelung einer Hochschulprüfungsordnung verstößt, handelt ordnungswidrig. Die
Ordnungswidrigkeit kann mit einer Geldbuße von bis zu 50 000 € geahndet werden.
Zuständige Verwaltungsbehörde für die Verfolgung und Ahndung von Ordnungswidrigkeiten ist der Kanzler/die Kanzlerin der Technischen Universität Dortmund. Im
Falle eines mehrfachen oder sonstigen schwerwiegenden Täuschungsversuches kann
der Prüfling zudem exmatrikuliert werden (§ 63 Abs. 5 Hochschulgesetz –HG–).
Die Abgabe einer falschen Versicherung an Eides statt wird mit Freiheitsstrafe bis
zu 3 Jahren oder mit Geldstrafe bestraft.
Die Technische Universität Dortmund wird ggf. elektronische Vergleichswerkzeuge
(wie z. B. die Software „turnitin“) zur Überprüfung von Ordnungswidrigkeiten in
Prüfungsverfahren nutzen.
Die oben stehende Belehrung habe ich zur Kenntnis genommen.
Ort, Datum
Unterschrift
Herunterladen