Unterdrückung von Elektron Neutrinos

Werbung
Zur Identifikation von kaskadenartigen
Untergrund für die Messung von
Oszillationen atmosphärischer Neutrinos
mit I CE C UBE
von
Christian Wichary
Masterarbeit in Physik
vorgelegt der
Fakultät für Mathematik, Informatik und
Naturwissenschaften der RWTH Aachen
im
September 2014
angefertigt im
III. Physikalisches Institut B
bei
Prof. Dr. Christopher Wiebusch
II
Inhaltsverzeichnis
1
Einleitung
1
2
Theorie
2.1 Neutrinos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Neutrinooszillation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 2-Flavor-Näherung . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
4
5
3
I CE C UBE Neutrino Observatorium
9
3.1 Detektoraufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
3.2 Detektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4
Ereignisselektion für die Oszillationsanalyse in I CE C UBE
17
4.1 Rekonstruktionen in I CE C UBE . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Ereignisselektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.1 Verwendete Daten für den „Boosted Decision Trees“ . . . . . . . 25
5
Variablen zur Trennung von Kaskaden
5.1 Vordefinierte Größen . . . . . . . . . . . . . . . . . .
5.2 SANTA - Single string ANTares-inspired Analysis . .
5.3 Log-Likelihood Berechnung für Spuren und Kaskaden
5.3.1 „Frühe Treffer“ . . . . . . . . . . . . . . . . .
5.3.2 Log-Likelihood Berechnung . . . . . . . . . .
5.4 Verwendete Variablen im BDT . . . . . . . . . . . . .
6
7
Analyse
6.1 Boosted Decision Trees . . . . . . . . . . . . .
6.1.1 Einstellungen des BDTs . . . . . . . .
6.2 Optimierung und Robustheit des BDTs . . . . .
6.3 Ergebnisse der Trennung . . . . . . . . . . . .
6.3.1 Überprüfung der Oszillationshypothese
Fazit
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
28
32
33
35
41
.
.
.
.
.
43
43
45
46
56
59
61
Anhang A
63
Anhang B
65
Anhang C
69
i
ii
Literaturverzeichnis
I NHALTSVERZEICHNIS
83
Kapitel 1
Einleitung
Das I CE C UBE-Experiment ist mit einem Detektionsvolumen von ca. 1 km3 das größte
Neutrinoteleskop der Welt. Es liegt zwischen 1450 m bis 2450 m tief im antarktischen
Gletschereis des geographischen Südpols und wurde im Dezember 2010 fertiggestellt.
IceCube wurde entwickelt zur Suche von hochenergetischen extragalaktischen Neutrinos,
die aus kosmischen Quellen (Quasare, Supernova-Explosionen, ...) entstammen. Die ungeladenen Neutrinos sind geeignete Teilchen, um die kosmischen Quellen und deren Ursprung zu finden. Zudem kann IceCube zur Erforschung von physikalischen Phänomenen
wie Dunkler Materie und Neutrinooszillationen genutzt werden.
1968 hat das Pionierexperiment H OMESTAKE [1] ein Verschwinden von Elektronneutrinos aus der Sonnen entdeckt. Dies wurde auf das Phänomen der Neutrinooszillation zurückgeführt, wodurch sich die drei Neutrinosorten (νe , νµ , ντ ) ineinander umwandeln können, was B. Pontecorvo [2] 1957 postulierte. Mit der Niederenergieerweiterung DeepCore,
die die Energieschwelle von I CE C UBE von 100 GeV auf 10 GeV herabsenkt, können Neutrinooszillationen studiert werden. Basierend auf atmosphärischen Myonneutrinos, die
aus Luftschauern erzeugt werden, wird das Verschwinden der Myonneutrinos gemessen,
wodurch eine Aussage über die Oszillation der Myonneutrinos gemacht werden kann.
Myonneutrinos können durch die Wechselwirkung im Eis Myonen erzeugen, die als Spuren im Eis durch den Cherenkov-Effekt detektiert werden können. Im Gegensatz zu Myonneutrinos erzeugen Elektronneutrinos kaskadenartige Ereignisse im Eis, welche die Beobachtbarkeit der Neutrinooszillation verschmieren. Außerdem sehen diese zwei Sorten von
Ereignissen im betrachteten Energiebereich von 10 GeV bis 100 GeV ähnlich aus, wodurch die Unterscheidung eine Herausforderung ist.
In dieser Arbeit soll ein Verfahren zur Unterdrückung dieser kaskadenartigen Ereignissen
entwickelt werden. Zur Trennung von Kaskaden und Spuren wird ein „Boosted Decision Trees“ verwendet. Zusätzlich werden neue Variablen zur Trennung von kaskadenartigen und spurartigen Ereignissen entwickelt und dem „Boosted Decision Trees“ mitgegeben, sodass dieser optimiert werden kann. Zum Abschluss dieser Arbeit wird eine
Monte-Carlo-Studie zur Bestimmung der statistischen Signifikanz der Oszillationshypothese durchgeführt.
1
2
K APITEL 1. E INLEITUNG
Kapitel 2
Theorie
2.1
Neutrinos
Neutrinos sind elektrisch neutrale Elementarteilchen mit Spin 1/2 und gehören zur Familie der Leptonen. Sie kommen in drei verschiedenen Sorten vor, sogenannte FlavorZustände (νe , νµ , ντ ). Die ungeladenen Neutrinos nehmen nur an der schwachen Wechselwirkung teil und zwar nur die linkshändigen Neutrinos und die rechtshändigen AntiNeutrinos [3]. Durch ihren kleinen Wirkungsquerschnitt [4] sind Neutrinos schwer zu
detektieren. Die Gravitation ist auf Grund ihre geringe Masse (mν ∝ eV) vernachlässigbar klein.
In Abbildung 2.1 sind die zu erwarteten Neutrinoflüsse gegen ihre Energie gezeigt und
aus welchen Quellen sie kommen.
Abbildung 2.1: Die zu erwarteten Neutrinoflüsse aus unterschiedlichen Quellen [5].
3
4
K APITEL 2. T HEORIE
Im Niederenergie-Bereich (< 1 eV) dominieren die kosmologischen Hintergrund-Neutrinos aus dem Urknall. Im MeV-Bereich kommen Neutrinos aus Kernprozessen unserer
Sonne und aus Supernova-Explosionen und in der GeV-TeV-Region sind atmosphärische
Neutrinos, die aus Wechselwirkungen in der Atmosphäre entstehen, stark vertreten. Bei
hohen Energien von > 100 TeV werden Neutrions aus kosmischen Beschleunigern (AGN,
Quasare, ...) erwartet [5]. Für die höchsten Energien im EeV-Bereich erwartet man, dass
Neutrinos aus Zerfällen geladener Pionen entstehen (GZK-Effekt) [6].
Für diese Arbeit sind atmosphärische Myonneutrinos relevant, die aus Luftschauern entstehen und im Energiebereich von 10 GeV bis 100 GeV liegen. Durch die Wechselwirkung von hochenergetischen kosmischen Teilchen mit den Molekülen in der Atmosphäre
entstehen Luftschauern, die aus einer hadronischen und einer elektromagnetischen Komponente bestehen. Die kosmische Strahlung wurde 1912 von Victor Hess durch Ballonexperimenten entdeckt [7] und besteht aus 98 % aus Atomkernen 1 und 2 % aus Elektronen [8]. Aus diesen erzeugten Luftschauern werden Pionen und Kaonen produziert, die
weiter zerfallen können [9]:
K+
K−
−→
−→
µ + + νµ
µ− + ν̄µ
K+
K−
π+
π−
−→
−→
−→
−→
−→
−→
µ + + νµ
µ− + ν̄µ
e+ + νe + ν̄µ + νµ (63,55 %)
e− + ν̄e + νµ + ν̄µ (63,55 %)
π + + π 0 (20,66 %)
π − + π 0 (20,66 %)
−→
−→
e+ + νe + ν̄µ + νµ (99,99 %)
e− + ν̄e + νµ + ν̄µ (99,99 %)
Aus den entstanden Kaonen zerfallen sie zu 63,55 % direkt in Myonen und Neutrinos und
in 20,66 % der Fälle zerfallen sie in neutrale und geladenen Pionen. Die geladenen Pionen zerfallen zu fast 100 % in Myonen und Neutrinos und die neutralen Pionen zerfallen
instantan in zwei Photonen, die den elektromagnetischen Anteil des Schauers ausmachen.
Außerdem zerfallen die Myonen, falls die Energie nicht ausreicht um bis zur Erde zu
gelangen, ausschließlich in Elektronen und weiteren Neutrinos. Das Verhältnis der Neutrinosorten ist aus den obigen Zerfallskanälen ablesbar2 :
N (νµ , ν̄µ )
≈2
N (νe , ν̄e )
(2.1)
In erster Ordnung erwartet man, dass keine Tauneutrinos vorkommen und dass die Produktion von Teilchen und Anti-Teilchen gleich groß ist.
Auf der Erde wird ein Neutrinofluss von Φν ≈ 1 cm−2 s−1 erwartet. [10].
2.2
Neutrinooszillation
Im Jahre 1968 wurde der Elektronneutrinofluss mit dem Experiment H OMESTAKE [1]
gemessen und es wurde ein geringerer Fluss beobachtet, als man erwartete. Damals war
man sich nicht sicher, ob die Sonnenmodelle richtig waren oder die Neutrinophysik noch
nicht gut erforscht war. Die Lösung des Problems war, dass sich die Neutrinos ineinander
1
2
85 % Protonen, 12 % Helium und 3 % schwerere Atomkernen
Solange alle Myonen zerfallen.
2.2. N EUTRINOOSZILLATION
5
umwandeln können, was von Bruno Pontecorvo [2] schon 1957 vorhergesagt wurde. Im
Jahre 1998 konnte das S UPER K AMIOKANDE-Experiment das Phänomen der Neutrinooszillation bestätigen [11]. Durch diese Beobachtung, dass Neutrino-Flavor-Zustände sich
ineinander umwandeln können, wird eine Massendifferenz gefordert (s. unten), sodass
Neutrinos eine Masse zugeordnet wird.
Um die Oszillation zu beschreiben [12], geht man von drei Masseneigenzuständen |νj i
(j=1,2,3) der Neutrinos aus, die als Linearkombination die Flavor-Zustände |να i (α =
e,µ,τ ) ergeben:
X
X
∗
|να i =
Uαj
|νj i ⇐⇒ |νj i =
Uαj |να i
(2.2)
α
j
U ist die Pontecorvo-Maki-Nakagawa-Sakata-Matrix (PMNS-Matrix) und ist außerdem
unitär (U · U ∗ = 1) [13]. Die PMNS-Matrix ist eine Zusammenstellung aus drei Rotationsmatrizen mit jeweils einem Rotationswinkel θjk : U = U23 · U13 · U12 .

 
 

1
0
0
c13
0 s13 eiδ
c12 s12 0
1
0  · −s12 c12 0 ,
U = 0 c23 s23  ·  0
(2.3)
iδ
0 −s23 c23
−s13 e 0 c13
0
0 1
wobei cjk ≡ cos(θjk ), sjk ≡ sin(θjk ) und δ die Phase der CP-Verletzung 3 beschreiben
(im Folgenden ist δ = 0) [3].
Die zeitliche (t) und örtliche (x) Entwicklung der Flavor-Zustände wird durch die Schrödinger-Gleichung beschrieben und kann durch
X
∗ −i(Ej t−~
pj ~
x)
|να (t, ~x)i =
Uαj
e
|νj i
(2.4)
j
gelöst werden, wobei Ej die Energie und pj der Impuls für den Masseneigenzustand |νj i
ist. Mit den Annahmen, dass die Energie der Flavor-Zustände E gleich der Energie der
Masseneigenzustände ist und die Massen der Neutrinos klein sind:
q
q
(2.5)
E = Ej −→ pj = Ej2 − m2j = E 1 − m2j /E 2 ≈ E + m2j /2E ,
kann mit der Gleichung 2.2 und 2.4 die Wahrscheinlichkeit, dass ein Flavor α sich in ein
Flavor β umwandelt, durch [3]
2
X
2
∗
P (να → νβ ) = |hνβ |να (t, ~x)i|2 = Uαj
Uβj e−iL(mj /2E) (2.6)
j
gegeben, wobei t ' |~x| = L mit c = 1 und L die Propagationslänge des Neutrinos ist.
2.2.1
2-Flavor-Näherung
Da in dieser Arbeit atmosphärische Myonen betrachtet werden, können einige Näherungen durchgeführt werden4 . Aus Experimenten ist bekannt, dass sin2 (θ13 ) klein ist, wodurch man die Matrix U13 vernachlässigen kann. Durch die Auswertung von Gleichung
3
4
C=Ladungskonjugation:
ˆ
+q → −q und P=Parität:
ˆ
+r → −r.
Im Allgemeinen sind diese Näherungen nicht gültig.
6
K APITEL 2. T HEORIE
2.6 und Vernachlässigung von Termen in der Größenordnung von 10−3 fallen die Terme
mit U12 wegen ∆m212 ∝ 10−5 eV2 weg [9]. Daher beschränken wir uns auf das 2-FlavorModel, wo die Oszillation zwischen zwei Neutrinosorten (z. B. µ und τ 5 ) betrachtet wird.
Im 2-Flavor-Model gilt:
c23 s23
U=
.
(2.7)
−s23 c23
Mit den Gleichungen 2.6 und 2.7 ist die Wahrscheinlichkeit (s. Herleitung im Anhang A)
in Abhängigkeit der Energie E und der Propagationslänge L der Neutrinos durch
∆m232 L GeV
2
2
·
·
(2.8)
P (νµ → ντ ) = sin (2θ23 ) · sin 1,27 ·
eV2 km E
gegeben, wobei ∆m232 = m23 − m22 ist. Durch die Umrechnung aus den natürlichen Einheiten in das SI-Einheitensystem entsteht der Vorfaktor 1,27.
In Abbildung 2.2 ist die Wahrscheinlichkeit, dass ein Myonneutrino in ein Tauneutrino oszilliert in Abhängigkeit von L / E dargestellt. Die Oszillationsamplitude ist durch
sin2 (2θ23 ) gegeben und der Abstand zwischen zwei Maxima bzw. Minima ist durch die
Oszillationslänge Losci definiert:
Losci =
4πE
.
∆m232
(2.9)
Für eine maximale Umwandlung in einen anderen Flavor-Zustand ist L = 12 Losci . Der
Oszillationseffekt ist im Grenzfall L Losci nicht zu beobachten und für L Losci
können schon kleine relative Änderungen mehrere Oszillationslängen beinhalten, sodass
der Oszillationseffekt verschmiert. Bei einem Wert L / E von größer 100 km/GeV sollten
Oszillationen beobachtbar werden. Der Wert L / E beträgt 400 km/GeV für ein Neutrino,
dass die Strecke L = 12000 km (Erddurchmesser: 12756 km [9]) mit einer Energie von
30 GeV durchläuft.
Mit dem Neutrinoteleskop IceCube/DeepCore ist es möglich, diese Oszillation zu beobachten. Die Berechnung der Propagationslänge in IceCube hängt vom Zenit-Winkel θ des
Teilchens ab und kann berechnet werden durch
12
rdet · sin(π − θ)
2
2
,
(2.10)
L = ratm + rdet − 2ratm rdet · cos θ − arcsin
ratm
wobei ratm = 6391 km der Abstand vom Erdmittelpunkt bis zum Rand der Atmosphäre und
rdet = 6369 km der Abstand vom Erdmittelpunkt bis zum Detektor ist. Der zweite Messparameter für die Oszillationsberechnung ist die Energie des Myonneutrinos, wobei die
Energie ungefähr proportional zur Myonenenergie ist, welches aus der Wechselwirkung
des Myonneutrinos im IceCube-Detektor (s. nächstes Kapitel) erzeugt wird. Die Myonenergie kann durch die Spurlänge des Myons bestimmt werden, weil die Energieverluste
im betrachteten Energiebereich (< 100 GeV) für Myonen hauptsächlich durch Ionisation
(≈ 2 MeV cm2 /g [9]) entstehen. [14]
Aus unterschiedlichen Experimenten wurden in Abbildung 2.3 die Resultate für |∆m232 |
und sin2 (2θ23 ) zusammengefasst. Die besten Resultate erzielen die Experimente MINOS
[16] und S UPER -K AMIOKANDE [11]. Man erkennt auch, dass IceCube sich mit den Jahren ständig verbessert hat.
5
Es können auch die Oszillationen zwischen νe und νµ oder νe und ντ betrachtet werden
2.2. N EUTRINOOSZILLATION
7
Abbildung 2.2: Oszillationswahrscheinlichkeit für ein Myonneutrino in ein Tauneutrino gegen L · E −1 . Oszillationsparameter: sin2 (2θ23 ) = 1 und ∆m232 = 2,5 · 10−3 eV2 [15].
Abbildung 2.3: Ergebnisse aus unterschiedlichen Experimenten für |∆m232 | und
sin2 (2θ23 ) [17]. IceCube-86 ist der vollständige IceCube-Detektor und IceCube-79 nur
ein Teil des Detektors (s. nächstes Kapitel).
8
K APITEL 2. T HEORIE
Kapitel 3
I CE C UBE Neutrino Observatorium
3.1
Detektoraufbau
Das I CE C UBE-Experiment [18] ist ein Neutrino-Detektor am Südpol und befindet sich mit
einem Detektionsvolumen von 1 km3 in einer Tiefe von 1450 m bis 2450 m im Eis (s. Abb.
3.2). Am 18. Dezember 2010 wurde der Detektor fertiggestellt und besteht aus 86 Kabelsträngen (Abstand zwischen Kabelsträngen: ca. 125 m), sogenannten Strings, mit jeweils
60 digitalen optischen Modulen (DOMs). Jeder DOM ist ein kugelförmiges Glasgehäuse.
In der oberen Hälfte des DOMs ist die Stromversorgung sowie die Ausleseelektronik eingebaut, und in der unteren Hälfte befindet sich ein 25 cm großer Photomultiplier, welcher
das emittierte Licht der Teilchen im Eis detektiert (s. Abb. 3.1). Die Messparameter von
IceCube sind die Zeiten und die Positionen jedes einzelnen getroffenen DOMs im Eis.
Die Anzahl der ankommenden Photonen wird in Photoelektronen (PE) gemessen, die im
Mittel die gemessene Ladung eines Photontreffers im DOM entspricht.
Zusätzlich befindet sich an der Oberfläche ein Luftschauer-Array („IceTop“) aus 324 optischen Lichtsensoren. An 81 Strings sind jeweils zwei „IceTop“-Tanks, die atmosphärische
Schauer detektieren und somit als Veto für IceCube dienen können. Jeder „IceTop“-Tank
beinhaltet zwei DOMs, die im Wasser eingefroren sind. IceCube wurde in der 80-StringKonfiguration für Energien größer als 100 GeV konstruiert.
Abbildung 3.1: Links: Schematischer Aufbau eines digitalen optischen Moduls [19].
Rechts: Ein echter IceCube-DOM [20].
9
10
K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM
Abbildung 3.2: Schematischer Aufbau des IceCube-Detektors [21].
Die Niederenergieerweiterung DeepCore [22] im Jahre 2009/2010 hat die Energieschwelle im Inneren von IceCube auf 10 GeV reduziert, wodurch Neutrinooszillation beobachtbar werden. DeepCore wird durch 7 IceCube-Strings und 8 weitere Strings definiert. Die
zusätzlichen 8 Strings werden im Zentrum (um den 36. String) zwischen den IceCubeStrings platziert, wobei sechs der Strings mit 60 DOMs ausgestattet sind, die eine höhere
Quanteneffizienz besitzen, wodurch die DOMs eine 30 % - 40 % höhere optische Sensitivität haben. In einer Tiefe von 2100 m bis 2450 m unterhalb des „Dust Layers“1 , wo
das Eis am klarsten ist, werden 50 DOMs angebracht mit einem vertikalen Abstand von
7 m. Die restlichen 10 DOMs wurden oberhalb des Dust Layers in einer Tiefe von 1750 m
bis 1850 m als Veto-Detektor für DeepCore mit einem vertikalen Abstand von 10 m angebracht (IceCube: 17 m). Der horizontale Abstand zwischen den sechs Strings, die symmetrisch um den IceCube-String liegen, beträgt 72 m. 2010/2011 wurden die letzten zwei
DeepCore-Strings mit einem horizontalen Abstand von 42 m installiert (s. Abb. 3.3).
1
Eine Staubschicht im Eis, die eine stärkere Streuung und Absorption des Lichtes verursacht.
(s. Abb. 3.3)
3.1. D ETEKTORAUFBAU
11
In dieser Analyse werden Daten verwendet, die mit der 79-String-Konfiguration gemessen wurden (s. Abb. 3.4).
Abbildung 3.3: Aufbau des DeepCore-Detektors [23].
12
K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM
Abbildung 3.4: IC79-String-Konfiguration mit 73 Standard IceCube-Strings und 6
DeepCore-Strings [24].
3.2
Detektionsprinzip
Neutrinos wechselwirken selten mit Materie, dementsprechend braucht man ein großes
Detektionsvolumen, um die Neutrinos zur Wechselwirkung zu bringen. Neutrinos können
auf zwei Arten mit den Nukleonen N im Eis wechselwirken:
1. Eine Wechselwirkung über geladene Ströme (Charged Current, CC), wobei ein W ±
zwischen dem Neutrino und dem Nukleon ausgetauscht wird und ein Lepton und
eine hadronische Kaskade X entstehen: [3]
νl /ν̄l + N
−→
l± + X
2. Eine Wechselwirkung über ungeladene Ströme (Neutral Current, NC), wobei ein
Z 0 zwischen dem Neutrino und dem Nukleon ausgetauscht wird und nur eine hadronische Kaskade X im Detektor zurück bleibt: [3]
νl /ν̄l + N
−→
νl /ν̄l + X
mit l = e, µ, τ
3.2. D ETEKTIONSPRINZIP
13
Um eine Vorstellung davon zu bekommen, wie solche Ereignisse im IceCube-Detektor
aussehen, wird kurz auf die verschiedenen Wechselwirkungen eingegangen.
Ein hochenergetisches Myon aus der CC-Wechselwirkung erzeugt im Detektor eine lange
Spur, welche sich von den Signaturen von Elektronen und Tau-Leptonen unterscheidet. Jedoch gilt dies nicht für niederenergetische Myonen von ≤100 GeV, weil dann die hadronische Kaskade dominiert und sich die Ereignisse von Elektronneutrinos und Tauneutrinos,
die im Detektor Kaskaden erzeugen, kaum unterscheiden. Für NC-Wechselwirkungen sehen die Ereignisse für alle Neutrinosorten im Detektor gleich aus, da nur eine hadronische
Kaskade entsteht und das Neutrino durch das Eis weiter propagiert. In Abbildung 3.5 sieht
man, wie die Teilchen (e, µ, τ ) in IceCube aussehen würden, allerdings bei höheren Energie als in dieser Arbeit betrachtet wird.
(a) Myonneutrino: 10 TeV Myonspur
(b) Elektronneutrino: 375 TeV Kaskade
(c) Tauneutrino: 1 PeV Doppel-Kaskade
Abbildung 3.5: Ereignissignaturen in IceCube. Rot = frühe Treffer, blau = späte
Treffer [25].
Diese sekundären Teilchen können durch den Cherenkov-Effekt nachgewiesen werden.
Geladene Teilchen, die sich durch das Medium schneller als die Lichtgeschwindigkeit
des Mediums c0 = nc ausbreiten, können das Medium kurzzeitig polarisieren (s. Abb.
3.7) und unter einem bestimmten Winkel (genannt Cherenkov-Winkel) Cherenkov-Licht
14
K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM
emittieren. Für den Cherenkov-Winkel θc gilt (s. Abb. 3.6)
cos(θc ) =
1
c0
=
,
v
nβ
(3.1)
wobei β = vc sei [26]. Die Bedingung, damit Photonen emittiert werden, ist, dass Teilchen
β·n > 1 erfüllen müssen. Für diese Bedingung kann mittels der Frank-Tamm-Formel [27]
die Anzahl an Cherenkov-Photonen pro Spurlänge pro Wellenlänge durch
2παz 2
d2 N
=
· sin2 (θc )
dxdλ
λ2
(3.2)
angegeben werden, wobei z die Ladung des Teilchens und α die Feinstrukturkonstante
ist.
Für ein relativistisches Teilchen im Eis (β ≈ 1, n ≈ 1,32 [28]) ist der Cherenkov-Winkel
θc ≈ 40,7◦ . Daraus folgt, dass die Anzahl an optischen Photonen N ≈ 250 cm−1 beträgt
in einem Wellenlängen-Bereich von 300 nm bis 500 nm, wo IceCube mit der Photonendetektion sensitiv ist [29].
Abbildung 3.6: Illustration des Cherenkov-Effektes [15].
3.2. D ETEKTIONSPRINZIP
15
Abbildung 3.7: Durch ein geladenes Teilchen polarisiertes Medium.
Links: Das Teilchen ist langsamer als die Lichtgeschwindigkeit im Medium c0 , sodass
die symmetrische Verteilung der Dipole keine Netto-Polarisation verursacht. Rechts: Das
Teilchen ist schneller als c0 , sodass eine asymmetrische Verteilung der Dipole entsteht und
elektromagnetische Strahlung abgestrahlt wird [30].
16
K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM
Kapitel 4
Ereignisselektion für die
Oszillationsanalyse in I CE C UBE
Die verwendeten Daten, die für diese Arbeit verwendete werden, durchliefen einen Trennvorgang aus mehreren Schritten (Ereignisselektion). Bevor diese Ereignisselektion vorgestellt wird, werden einige Rekonstruktionsalgorithmen, die in IceCube benutzt werden,
erläutert.
4.1
Rekonstruktionen in I CE C UBE
• „LineFit“
Die einfachste Anpassung für ein spurartiges Ereignis ist der „LineFit“ [31]. Mittels
einer χ2 -Minimierung wird eine unendliche Gerade durch die getroffenen DOMs
durchgeführt. Die Minimierung wird in den Variablen ~v und r~0 ausgeführt.
NHit
X
χ =
(~
xi − (~
xi + ~v · ti ))2
2
(4.1)
i
Die Parameter aus dem „LineFit“ werden als Ausgangspunkt für den „SPEFit“ bzw.
„MPEFit“ genutzt.
• „SPEFit“ / „MPEFit“
Im Gegensatz zu einer χ2 -Minimierung wird hier eine negative logarithmische Likelihood-Funktion minimiert [32], wobei der „improved LineFit“ [33] als Ausgangspunkt („Seed“) verwendet wird, der eine verbesserte Version des „LineFits“ ist.
L=−
N
X
ln(pi (di , ∆ti )),
(4.2)
i
wobei N die Anzahl der getroffenen DOMs ist. Mit der angenommenen Spur vom
„improved LineFit“ ist di der Abstand vom DOM zur Spur und ∆ti = ttreffer −
tgeometrie ist das Zeitresiduum zwischen der gemessenen Zeit ttreffer und der erwartenden Zeit auf Grund der Geometrie tgeometrie , die durch die Projektion auf die Spur unter dem Cherenkov-Winkel berechnet wird (s. Abb. 4.1). Die Wahrscheinlichkeitsdichtefunktion pi ist die „Pandel-Funktion“, die die Wahrscheinlichkeit für einen
17
18K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE
Treffer im Abstand di zur Zeitdifferenz ∆ti angibt. Die Pandel-Funktion berücksichtig unter anderem Effekte wie Bremsstrahlung, Streuung auf Grund von Eiseigenschaften, sowie Rauschtreffer in IceCube, die nicht mit der Spur in Verbindung
gebracht werden können. Es gibt zwei Varianten wie die Likelihood-Funktion ausgerechnet werden kann. Die erste Möglichkeit ist, dass nur das erste Photoelektron
in jedem getroffen DOM betrachtet wird, dem sogenannten „Single-Photo-Electron“
Likelihood-Fit (SPEFit [32]), welcher eine schnelle Durchführung bietet, und die
physikalisch korrektere Formulierung, dass jedes Photoelektron im einem DOM benutzt wird, dem sogenannten „Multi-Photo-Electron“ Likelihood-Fit (MPEFit [32]).
Abbildung 4.1: Spurrekonstruktion einer unendlichen Spur, wodurch der Anfangspunkt
und der Endpunkt mittels Cherenkov-Projektion bestimmt wird [32].
• „FiniteReco“
Die ersten zwei vorgestellten Rekonstruktionen gehen von einer unendlichen Gerade aus und rekonstruieren nur die Spurrichtung. Der „FiniteReco“-Algorithmus [14]
kann den Start- und Stopppunkt für eine gegebene unendliche Spur (hier „MPEFit“)
berechnen, sodass eine endliche Spur mit einer definierten Spurlänge bestimmt werden kann. Für die erste Abschätzung werden alle getroffenen DOMs um die Rekonstruierte Spur in einem Zylinder mit einem Radius R ausgewählt (hier R =
200 m). Unter dem Cherenkov-Winkel werden die ausgewählten DOMs auf die
Spur projiziert. Die äußersten projizierten DOMs definieren den Start- und Stopppunkt der Spur (s. Abb. 4.1). Für die genauere Bestimmung wird eine Maximierung
der Likelihood-Funktion durchgeführt.
Zur Berechnung werden zwei Likelihoods benötigt, die zwei unterschiedliche Annahmen voraussetzen. In Gleichung 4.3 ist die Wahrscheinlichkeit, dass kein Treffer
(NoHit) detektiert wurde, obwohl die Spur unendlich ist, gegeben. Gleichung 4.4
gibt die Wahrscheinlichkeit, dass kein Treffer detektiert wurde, mit der Annahme,
dass die Spur endlich sei und somit wirklich der Startpunkt bzw. Endpunkt ist.
4.1. R EKONSTRUKTIONEN
IN I CE C UBE
19
Abbildung 4.2: Illustration der Auswahl der nicht getroffenen DOMs in einem Zylinder
zur Berechnung der „NoHit“-Wahrscheinlichkeit [14].
P (noHit|track) =
N
Y
p∗i (noHit|track) und
(4.3)
i
P (noHit|noTrack) =
N
Y
p∗i (noHit|noTrack),
(4.4)
i
wobei N die Anzahl der nicht getroffenen DOMs ist, die sich im Zylinder vor
dem Startpunkt bzw. hinter dem Endpunkt befinden (s. Abb. 4.2). Die „NoHit“Wahrscheinlichkeit p∗i hängt vom Abstand der DOMs zu der rekonstruierten Spur
ab und der Photonenausbreitung auf Grund der Eiseigenschaften. Diese Berechnungen werden mit Hilfe des Software-Paketes „Photonics“ [34] durchgeführt. Mit
welchem die erwartete Anzahl an Photoelektronen für jeden DOM berechnet wird.
Mit der Poisson-Statistik kann die „NoHit“-Wahrscheinlichkeit durch
pλ (noHit) = pλ (0) =
λ0 −λ
· e = e−λ
0!
(4.5)
ausgerechnet werden, wobei λ die erwartete Anzahl an Photoelektronen ist.
Zur Bestimmung des Startpunktes wird das Verhältnis der beiden Likelihoods (4.3
und 4.4) maximiert. Umgekehrt gilt dies für den Endpunkt, sodass „FiniteReco“
jeweils ein Startpunkt und ein Endpunkt ausgibt und somit die Spurlänge durch die
beiden Punkte definiert ist. [35]
• „Taupede“
„Taupede“ [36] wurde für die Rekonstruktion von geladenen Tau-Leptonen entwickelt und ist eine abgewandelte Version von „Millipede“. Die Energierekonstruktion „Millipede“ [37] berücksichtigt die Eiseigenschaften, Streuungen, sowie Absorptionen und den Cherenkov-Effekt für die Photonenausbreitung im Eis. Für jeden DOM wird die Energiedeposition und somit eine Energie für das Ereignis bestimmt. Durch die Betrachtung, dass bei einer Wechselwirkung eines Tauneutrinos
20K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE
über CC-Wechselwirkung eine hadronische Kaskade und ein Tau entsteht, wobei
das Tau nach einer sehr kurzen Wegstrecke in eine weitere hadronische Kaskade
zerfällt, werden mit Taupede zwei Kaskaden mit einem Abstand zueinander, die
sich in die gleiche Richtung ausbreiten, angepasst. Für beide Kaskaden wird jeweils „Millipede“ für die Energiedeposition verwendet.
In dieser Analyse wird „Taupede“ für eine Kaskadenrekonstruktion benutzt, wegen
der genaueren Vertexrekonstruktion, die im nächsten Kapitel verwendet wird.
Vorhin wurden die unterschiedlichen Rekonstruktionen für die Richtung und die Länge
der Spur, sowie die Energiedeposition entlang der Spur besprochen, allerdings sind für
diese Analyse die Raum-Zeit-Koordinaten des Vertizes von großer Bedeutung. Im Kapitel
5 werden die Raum-Zeit-Koordinaten des Vertizes für Kaskaden mit „Taupede“ und für
Spuren mit „FiniteReco“ bestimmt.
4.2
Ereignisselektion
Bevor die Ereignisselektion besprochen wird, werden die Bedingungen für das Auslösen
der Datenaufnahme eines Ereignisses in DeepCore (wegen der Energieregion der Oszillationsanalyse) vorgestellt. In IceCube wird zwischen zwei Arten von Treffern unterschieden: Hard Local Coincidence (HLC) und Soft Local Coincidence (SLC). Ein HLC-Treffer
liegt vor, wenn in zwei oder mehr DOMs in den benachbarten DOMs (am gleichen String)
ein Photosignal in einem Zeitfenster von ± 1 µs aufgenommen wird. Ein Photosignal wird
als SLC-Treffer bezeichnet, wenn die HLC-Bedingung nicht erfüllt ist und eine gewisse
Schwelle von 0,25 PE [38] überschritten wird.
Für die Datenaufnahme in DeepCore ist der SMT3-Trigger zuständig. Dieser löst aus bei
Ereignissen, die mindestens drei HLC-Treffer in einem Zeitfenster von 2,5 µs in DeepCore und in den benachbarten IceCube-Strings unterhalb von 2100 m (Oberen Kante von
DeepCore) besitzen. Danach werden Photosignal im ganzen Detektor, die in einem Zeitfenster von ± 10 µs um die Triggerzeit liegen und nicht die HLC-Bedingung erfüllen (also
SLC-Treffer), aufgenommen. [22]
Eine Ereignisselektion besteht aus mehreren Schritten (Leveln) und werden für Analysen
angepasst. Für die Oszillationsanalyse sind aufwärtslaufende Myonen das Signal, die aus
der Wechselwirkung eines Myonneutrino erzeugt wurden. Allerdings können in DeepCore koinzidente Myonen (s. Abb. 4.4) aus Luftschauern ein Signal verfälschen, indem sie
als ein aufwärtslaufendes Myon falsch rekonstruiert werden. Diese Fehlrekonstruktionen
können auch durch Rausch-Treffern oder durch eine falsche Anpassung1 hervorgerufen
werden.
Während der Aufnahme der Ereignisse in DeepCore werden die Daten zum DeepCore
Online-Filter weitergeleitet, welcher signalartige Ereignisse vorselektiert. Dieser Schritt
wird als Level2 bezeichnet. Im Algorithmus werden nur HLC-Treffer berücksichtigt und
der IceCube-Detektor um DeepCore als Veto-Region benutzt. Als Erstes wird der ladungsgewichtete Schwerpunkt aller Treffer (Center of Gravity (COG)) in DeepCore bestimmt.
1
Ursachen können zu wenige Treffer im Detektor oder Ereignisse am Rande des Detektors
sein.
4.2. E REIGNISSELEKTION
21
Als Nächstes wird für jeden HLC-Treffer (rHLC , tHLC ) im umliegenden IceCube-Detektor
die hypothetische Geschwindigkeit v zum COG (rCOG , tCOG ) berechnet (s. GL. 4.6).
v=
rCOG − rHLC
tCOG − tHLC
(4.6)
Für atmosphärische Myonen würde man eine Geschwindigkeit von v = c erwarten, mit
der sie zum DeepCore-Detektor gelangen. Falls mindestens ein Treffer eine Geschwindigkeit zwischen 0,25 m/ns und 0,4 m/ns besitzt, wird das Ereignis weggeworfen.
Für den weiteren Verlauf der Ereignisselektion werden zwei Algorithmen, die für das
Entfernen von Untergrund-Treffer in IceCube zuständig sind, besprochen.
· classicRT cleaning [39]
Der Algorithmus verwendet alle Photosignale und sucht in einem Radius R und
einem Zeitfenster T benachbarte Treffer (Standardeinstellung: R = 150 m und T =
1000 ns). Falls Treffer in der Umgebung keinen benachbarten Treffer finden, wird
davon ausgegangen, dass es ein Rausch-Treffer war, der daher in der weiteren Rekonstruktion nicht berücksichtigt wird.
· seededRT cleaning [39]
Im Gegensatz zum classicRT cleaning wird für jeden HLC-Treffer in einer RTUmgebung (Standardeinstellung: R=150 m und T=1000 ns) nach SLC-Treffer gesucht. Des Weiteren kann für jeden hinzugefügten SLC-Treffer die RT-Bedingung
nochmal angewandt werden und nach weiteren SLC-Treffer gesucht. Dies kann beliebig oft durchgeführt werden. Alle andere SLC-Treffer werden weggeworfen.
Im nächsten Schritt, Level3, wird das vorher besprochene classicRT cleaning2 mit den
Einstellungen R=200 m und T=700 ns und für den DeepCore-Bereich RDC =100 m und
TDC =400 ns angewandt. Danach wird gefordert, dass keine Treffer in der Veto-Region3
zeitlich vor dem SMT3-Trigger registriert wurden und in DeepCore mindestens fünf Treffer vorhanden sind.
- NChan DC ≥ 5
- NChan Veto = 0
Auf Level4 wird ein NoiseEngine [40] Algorithmus genutzt, um Rausch-Treffer herauszufiltern, die fälschlicherweise als HLC-Treffer identifiziert wurden. Dabei werden die
Treffer pro Ereignis in mögliche Paare eingeteilt und nach Korrelationen in der Zenitund Azimut-Richtung gesucht. Rausch-Treffer weisen eine zufällige Richtung der PaarTreffer auf, wobei eine Myonspur eine klare Richtung aufweisen würde [14]. Des Weiteren wird gefordert, dass der erste HLC-Treffer sich nicht in der unteren oder oberen
Lage der DOMs in DeepCore befindet, um Ereignisse aus dem DustLayer oder aus dem
Felsboden zu entfernen. In der Veto-Region soll die Anzahl an Photoelektronen in einer
RT-Umgebung nicht mehr als 3 PE betragen, sodass Ereignisse keine Strukturen in dieser
Veto-Region aufweisen (RTVeto). Zusätzlich sollen sneaky (eng. heimtückische) Myonen
2
Bevor das Cleaning angewandt wird, werden SLC-Treffer, die innerhalb von 1000 ns aufeinander folgen, zusammen gepackt, sodass SLC-Treffer keine Selbst-Koinzidenz verursachen, wodurch sie das Cleaning überleben können.
3
Der IceCube-Detektor um DeepCore (s.o.)
22K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE
entfernt werden, die sich zwischen den IceCube-String bis zum DeepCore-Detektor durchschleusen und dort ihre Ladung deponieren. Um diese Ereignisse wegzuwerfen, wird der
Corridor Cut verwendet [41]. Es wird nach einem Korridor (die Korridore sind für jeden String unterschiedlich) (s. Abb. 4.3) gesucht zu dem die meisten Treffern zugewiesen
werden können. Falls dieser Korridor einen direkten Treffer besitzt, wird dieses Event
verworfen.
Abbildung 4.3: Beispiele für Korridore für den 86. String [modifizierte Version von
[24]].
Level5 ist darauf optimiert koinzidente Myonen zu entfernen, d. h. Events, die aus mehreren Primär-Wechselwirkungen bestehen. Die Herausforderung ist koinzidente Myonen zu
erkennen, da diese anderenfalls durch die Annahme einer einzelnen Spur falsch interpretiert werden (s. Abb. 4.4). Hierzu wird der topologische Trigger [42] verwendet, welcher
entwickelt wurde um zeitlich und räumlich nach Strukturen (Cluster) zu suchen, die eine
Mindestanzahl an Treffer aufweisen muss. Es wird gefordert, dass immer nur ein Cluster
gefunden wird.
Auf Level6 und Level7 werden hauptsächlich neue Variablen berechnet und einige Rekonstruktionen (SANTA, FiniteReco) durchgeführt, die für die weitere Analyse wichtig sind.
4.2. E REIGNISSELEKTION
23
Abbildung 4.4: Ein koinzidentes Ereignis in IceCube. Zwei abwärtslaufende atmosphärische Myonen werden als ein aufwärtslaufendes Myon rekonstruiert [14]. Rot=früh und
blau=spät.
Das „Kausalitätsveto“ [14] versucht in einer zeitlichen und örtlichen Umgebung Ereignisse zu finden, die nicht im DeepCore-Detektor gestartet sind. In Abbildung 4.5 ist die
Situation dargestellt. Auf der y-Achse ist die Zeitdifferenz zwischen dem 3. HLC-Treffer
in DeepCore (Aktivierte den SMT3-Trigger von DeepCore) und den Treffer, die zum Ereignis gehören, und auf der x-Achse ist der Abstand zum 3. HLC-Treffer aufgetragen.
Teilchen, die von außerhalb in den DeepCore-Detektor einfliegen, haben positive Zeitdifferenzen und rauslaufende Teilchen haben negative Zeitdifferenzen. In der Abbildung
sind die einlaufende und die auslaufende Teilchen jeweils durch die orangen Flächen unterhalb der diagonalen, gestrichelten Linien eingezeichnet, die durch die Propagation mit
der Lichtgeschwindigkeit definiert sind. Die Veto-Region ist durch die schraffierte Fläche
definiert. Die obere diagonale Grenze ist parallel zur gestrichelten Linie und die untere
diagonale Linie ist parallel dazu mit einen Abstand von 2 µs. Die rechte Grenze ist durch
die Größe von IceCube begrenzt, wodurch alles was links von der Grenze liegt als ein
Veto-Treffer gesehen wird. Die letzte Begrenzung ist die linke Linie, hierbei werden Teichen unterhalb dieser Linie als potentiell auslaufend gedeutet.
In den vorherigen Levels wurde hauptsächlich auf den eindeutigen Untergrund geschnitten und keine harte Schnitte genutzt. In Level8 wird die Anwendung eines Multivariate
Verfahrens („Boosted Decision Trees“ (BDT)) zur weiteren Reduktion des Untergrundes
durch Myonen aus Luftschauern herangezogen. Als Erstes wird eine Vorselektion vorgenommen bevor die Trennung des Untergrundes durchgeführt wird. Diese Vorselektion soll
24K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE
Abbildung 4.5: Darstellung der zeitlichen und örtlichen Umgebung zum SMT3-Trigger
(Nullpunkt). Die schraffierte Fläche ist die Veto-Region [43].
in den verwendeten Variablen die Ränder in den Verteilung, wo wenig Statistik vorhanden
ist, wegschneiden, damit der BDT hinsichtlich der Unterscheidung zwischen Untergrund
und Signal nicht in die Irre geführt wird. Die verwendeten Schnitte sind
• maxCausalityVetoLaunches = 10
• LDir < 350 m
• maxCausalityVetoCharge = 10
• recoR < 270 m
• -700 m < recoVetexZ < -170 m
• cos(θMPEFit ) < 0
• QDir < 100
• bayesDiff < 5
„maxCausalityVetoLaunches“ ist die maximale Anzahl an akzeptablen Treffer in der VetoRegion (s. Abb. 4.5) und „maxCausalityVetoCharge“ die maximale akzeptablen Ladung
in der Veto-Region. „recoVertexZ“ ist die Tiefe des horizontalen Abstandes zum Zentrum
von Deepcore (recoR) und „QDir“ ist die gesamt Ladung aller direkter Treffer4 . Die restlichen Variablen werden im nächsten Kapitel besprochen.
Das Ergebnis aus dem „Boosted Decision Trees“ (s. nächstes Kapitel) wird für diese Analyse weiter verwendet.
In Abbildung 4.6 ist die Veränderung der Raten nach jedem Level aufgetragen. Zu Beginn übertriffen die atmosphärischen Myonen (Corsika) alle anderen Komponenten, jedoch wird sie durch die Vorselektion stark reduziert, sodass der Corsika-Anteil auf dem
4
Treffer, die ungestreut detektiert wurden und in einem gewissen Zeitfenster liegen (s. nächstes
Kapitel)
4.2. E REIGNISSELEKTION
25
finalen Level nur noch 3,48 % des Datensatzes ausmacht. Im Datensatz sind Elektronneutrinos mit 17,46 % und die Myonneutrinos mit 79,06 % vertreten. Zusätzlich befinden
sich in den Myonneutrinos noch 9,66 % Myonneutrinos aus der NC-Wechselwirkung, die
auch kaskadenartige Ereignisse erzeugen. Daraus folgt, dass die Kontamination des Untergrunds auf 25,1 % ansteigt. Die Herausforderung in dieser Arbeit ist die Unterdrückung
dieser kaskadenartigen Ereignissen.
Abbildung 4.6: Ratenvergleich nach jedem Level für Myonneutrinos (blau), Elektronneutrinos (lila) und Corsika (pink). In schwarz sind die experimentellen Daten eingezeichnet.
4.2.1
Verwendete Daten für den „Boosted Decision Trees“
Im Folgenden werden die simulierten Monte-Carlo-Datensätze (MC-Daten), die für diese
Arbeit verwendet werden, vorgestellt. Zum Schluss werden die Daten aufgeteilt und erläutert, welche dem „Boosted Decision Trees“ (s. nächstes Kapitel) gegeben werden.
Für die Simulation der Neutrinosorten (νe , νµ , ντ ) werden zwei Simulationsgeneratoren
verwendet, die für unterschiedliche Energiebereiche geeignet sind.
N U G EN („Neutrino Generator“) [44] ist für die hochenergetischen Neutrinos ab 10 GeV
bis in den PeV-Bereich geeignet. Der zweite Simulationsgenerator GENIE („Generates
Events for Neutrino Interaction Experiments“) [45] ist für den Niederenergiebereich von
100 MeV bis einigen 100 GeV optimiert. Für jedes Neutrino wird die Überlebenswahrscheinlichkeit unter Berücksichtigung von Propagationseffekten bis zum Detektor berechnet. Die verwendeten Wirkungsquerschnitte der Neutrinos zur Berechnung der Propagation durch die Erde werden von der Gruppe CTEQ [46] benutzt. Alle Neutrino-Datensätze
wurden mit einem Energiespektrum E −2 und einer DOM-Effizienz von 100 % simuliert.
Außerdem wird die Propagation der (Cherenkov) Photonen innerhalb des Detektors mit
26K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE
PPC („Photon Propagation Code“) [47], CLSim [48] und mit dem Eis-Modell SPICEM IE („South Pole ICE“) [49] berechnet. Für die Tauneutrinos existiert nur ein GENIEDatensatz.
Der Untergrund an atmosphärischen Myonen in IceCube wird mit dem Simulationsprogramm CORSIKA (COsmic Ray SImulations for KAscade) [50] simuliert. CORSIKA
wurde für die Simulation von ausgedehnten Luftschauern bis hin zu 1020 eV entwickelt.
Simuliert werden Wechselwirkungen der Primärteilchen, sowie Zerfällen von Kernen, Hadronen, Myonen, Elektronen und Photonen in der Atmosphäre.
Zum Vergleich der MC-Daten wird ein „Burnsample“5 verwendet, welches ein Zehntel
der experimentellen Daten aus dem Jahre 2010/2011 (≈ 33 T age) beinhaltet.
Zur Übereinstimmung zwischen experimentellen Daten und MC-Daten werden die atmosphärische Myonen (CORSIKA) hinzugefügt, aber nicht in der Analyse betrachtet, da
dieser Untergrund schon stark in der Vorselektion reduziert wurde (s. vorheriges Kapitel).
In Tabelle 4.1 sind die Energiebereich der verwendeten Daten gezeigt.
Tabelle 4.1: Energiebereiche der verwendeten Datensätze
Datensatz
GENIE
N U G EN
Neutrinosorte
νe
νµ
ντ
νe
νµ
Energiebereich [GeV]
3 - 195
3 - 150
3 - 195
50 - 109
50 - 109
Nun werden aus den Datensätzen das Signal und der Untergrund für diese Analyse definiert und eingeteilt.
Das Signal sind Myonneutrinos (CC-Events), die eine maximale Energie von 50 GeV haben sollen, da in diesem Bereich die Oszillation der Neutrinos sichtbar wird. Außerdem
wird gefordert, dass das erzeugte Myon eine minimale Energie von 5 GeV und mindestens 50 % der Myonneutrinoenergie besitzt, sodass das Myon genügend Energie besitzt
zur Erzeugung einer Spur und die hadronische Kaskade nicht die dominante Komponente ist. Der Untergrund sind kaskadenartige Ereignisse, die durch CC-Wechselwirkung der
Elektronneutrinos, sowie durch die NC-Wechselwirkung aus allen Neutrinosorten erzeugt
werden.
Weil N U G EN und GENIE-Datensätze zusammen verwendet werden und ihre Energiebereiche sich überschneiden, muss eine lineare Umgewichtung im Überlappungsbereich
durchgeführt werden, damit sie miteinander kompatibel werden. Dementsprechend müssen die Wirkungsquerschnitte in den N U G EN-Datensätzen für die Myonneutrinos6 zu den
kleinen Energien angepasst werden, da der Wirkungsquerschnitt [4] zu niedrigen Energien sinkt.
5
6
Dies ist ein Teil der experimentelle Daten, die nur zum Testen genutzt werden.
Für Elektronneutrinos existieren keine Korrekturen.
Kapitel 5
Variablen zur Trennung von
Kaskaden
Für diese Analyse wird ein „Boosted Decision Trees“ (BDT) verwendet (s. nächstes Kapitel), um Kaskadenereignisse von Spurereignisse zu trennen. Im diesen Kapitel werden
die verwendeten Variablen für den BDT erklärt und gegebenenfalls kurz diskutiert.
5.1
Vordefinierte Größen
• costheta_SPEFit
costheta_SPEFit steht für den Kosinus des Zenit-Winkels der „SPEFit“ Rekonstruktion, wobei cos(θSPEFit ) > 0 ein abwärtslaufendes Teilchen und cos(θSPEFit ) < 0
ein aufwärtslaufendes Teilchen ist.
• recoR
recoR ist der horizontale Abstand zwischen den rekonstruierten Vertex und den
Zentrum von DeepCore1 .
p
(5.1)
recoR = (xFiniteReco − 46,29 m)2 + (yFiniteReco − 34,88 m)2
• LDir
LDir beschreibt die Länge, die durch die direkten Treffern2 definiert wird. In dieser
Arbeit wird das Zeitfenster C3 von -15 ns bis 75 ns verwendet.
• bayesDiff
bayesDiff ist die Differenz aus zwei Log-Likelihoods (LogL). Dabei wird der erste
LogL aus der Spurrekonstruktion (hier MPEFit) genommen. Für den zweiten LogL
wird die Rekonstruktion gezwungen ein abwärtslaufendes Teilchen zu rekonstruieren. Der Vergleich dieser beiden LogL beschreibt wie stabil eine Spurrekonstruktion
ist. [51]
bayesDif f = loglMPEFit − loglbayes
(5.2)
1
Damit ist näherungsweise der 36. String gemeint.
Treffer, die ungestreut detektiert wurden und in einem gewissen Zeitfenster liegen
3
In der IceCube-Software gibt es 4 Zeitfenstern. A: [-15 ns,15 ns]; B: [-15 ns,25 ns];
D: [-15 ns,125 ns]
2
27
28
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
• QLatePulses
QLatePulses gibt die gesamt Ladung der Pulse nach den Zeitfenster C an, wobei
die Zahl in PE (Photoelektronen) angegeben wird.
• NLateDoms
NLateDoms bestimmt die Anzahl der getroffenen DOMs nach dem Zeitfenster C.
• QMax_QTot
QMax_QTot ist definiert als die maximale Ladung eines DOMs durch die gesamt
Ladung des Ereignisses.
5.2
SANTA - Single string ANTares-inspired Analysis
Die „Single string ANTares-inspired Analysis“ (SANTA) [52] ist eine Spur- und Kaskadenrekonstruktion, die auf einer Methode von ANTARES [53] beruht. Dieser Algorithmus beinhaltet eine Ereignisselektion, eine Winkelrekonstruktion und einen Spur/Kaskaden
Diskriminator. Im Folgenden wird das Prinzip hinter dem SANTA-Algorithmus besprochen und anschließend wird der SANTA-Algorithmus beschrieben.
Ein geladenes Teilchen erzeugt entlang der Spur einen Cherenkov-Kegel mit einem spezifischen Öffnungswinkel θc (Cherenkov-Winkel). Ausgehend von einem String, welcher
vom Cherenkov-Kegel gekreuzt wird, wird die Postion des kleinsten Abstandes zur Spur
bestimmt und entlang des kleinsten Abstandes auf den String projiziert (s. Abb. 5.1). Hierdurch wird das Problem rotationssymmetrisch (keine Azimutabängigkeit).
Abbildung 5.1: Links ist die Darstellung zwischen der Spur (blau) und dem String
(grün) von oben gezeigt. Rechts ist die Seitenansicht in Richtung des kleinsten Abstandes
dc dargestellt [52].
Durch die Projektion entlang dc kann das Problem durch vier Größen beschrieben werden:
5.2. SANTA - S INGLE
STRING
ANTARES - INSPIRED A NALYSIS
29
- dc : Der kleinste Abstand zwischen String und Spur
- zenith: Der Winkel zwischen String und Spur
- tc : Die zeitliche Position des kleinsten Abstandes
- zc : Die z-Koordinate (also die Tiefe) des kleinsten Abstandes
In Abbildung 5.2 sind drei unterschiedliche Hyperbeln dargestellt, wobei zc und tc festgehalten wurden. Durch die Variation des Zenits wird die Ausrichtung der Hyperbeln
gedreht und durch die Verringerung von dc wird die Spitze der Hyperbel schärfer.
Abbildung 5.2: Für drei unterschiedliche Zenitwerte, sowie Variation des kleinsten Abstandes, (in verschiedenen Farben) werden in Abhängigkeit der Tiefe und der Zeit die
erwarteten Treffer für einen String gezeigt [52].
In der obigen Betrachtung wurden für die Berechnung Effekte wie die Ausbreitung des
Lichts im Eis nicht berücksichtigt, wodurch die Photonenpropagation geradlinig angenommen wird und Verschmierungen des Cherenkov-Kegels durch Sekundärteilchen ausgeschlossen werden. Durch die Ereignisselektion des SANTA-Algorithmus kann dies gewährleistet werden, wodurch Ereignisse, die diese Kriterien nicht erfüllen, aussortiert werden.
Das Entfernen der ungewünschten Treffer/DOMs wird als „SANTA-Cleaning“ bezeichnet. Das SANTA-Cleaning ist eine Abfolge von Auswahlkriterien, die jeweils für einen
String unabhängig von den anderen Strings betrachtet wird.
Als Erstes wird ein String gesucht, der mindestens drei getroffene DOMs besitzt. Im zweiten Schritt wird für jeden DOM die gesamt Ladung aller Photosignale (Pulse) und die
frühste Ankunftszeit bestimmt, wobei die Pulse eine bestimmte Schwelle überschreiten
müssen. Das dritte Kriterium wirft alle Pulse weg, die nicht in einem vordefinierten Zeit-
30
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
fenster liegen4 . Im vierten Schritt wird nach einem Puls mit der größten Ladung gesucht
und der dazugehörige DOM als Ausgangspunkt zur Abschätzung von zc verwendet. Im
weiteren Verlauf wird dieser DOM als „HotSpot“ bezeichnet. Daraufhin werden oberhalb
und unterhalb des HotSpots nach weiteren DOMs gesucht, die sich innerhalb der erwarteten Ankunftszeit5 plus einer akzeptablen zeitlichen Abweichung befinden. Falls mehrere
aufeinanderfolgende DOMs keine Pulse besitzen (hier: 5), wird die Suche abgebrochen.
Zusätzlich wird jeder hinzugefügte DOM überprüft, ob die Pulsverteilung mit den bisherigen gefundenen DOMs zu einem Cherekov-Kegel passt. Bevor der String mit den
ausgewählten DOMs für den weiteren Verlauf verwendet wird, muss dieser nach dem
SANTA-Cleaning mindestens drei DOMs beinhalten, um eine minimale Rekonstruktionsgüte zu gewährleisten.
In Abbildung 5.3 ist das SANTA-Cleaning für einen String dargestellt. Die zuvor besprochene Herangehensweise ist in der Abbildung von links oben nach rechts unten zu verfolgen. Durch das SANTA-Cleaning werden ein Großteil der Ereignisse verworfen.
Abbildung 5.3: Die Abfolge des SANTA-Cleanings. [52]
Nach dem SANTA-Cleaning wurden Ereignisse ohne irgendwelche gestreuten Photonen
heraussortiert und können jetzt mit der Rekonstruktion fortfahren. Der Algorithmus benutzt eine χ2 -Anpassung6 für 2 Hypothesen in zwei unterschiedlichen Modi. Im Einzelstringmodus, indem jeder String einzeln angepasst wird, werden die zwei Hypothesen,
ob es eine Spur oder eine Kaskade ist, getestet. Im Gegensatz zu Spuren haben Kaska4
Es wird der Median aller Zeiten der ausgewählten Pulse bestimmte und alle Pulse, die in
einem Zeitfenstern von [-1000 ns ∨ 2000 ns] um den Median liegen, werden genommen.
5
Zeit, die eine Photon von DOM zu DOM braucht: Abstand
c/nice .
6
Für Kaskaden wird eine Parabel angepasst und für Spuren eine Hyperbel. Für die genauere
Berechnung siehe [53].
5.2. SANTA - S INGLE
STRING
ANTARES - INSPIRED A NALYSIS
31
den keine richtige Richtung7 , wegen ihrer sphärischen Ausbreitung (s. Abschnitt 3.2.),
womit die Beschreibung auf drei Variablen reduziert wird. Falls pro Ereignis mehrere
Strings vorhanden sind, kann die Anpassung im Mehrstringmodus durchgeführt werden,
wodurch der Azimut zusätzlich als Parameter angepasst werden kann. In Abbildung 5.4
ist eine Anpassung im Einzelstringmodus durchgeführt worden.
Abbildung 5.4: Einzelstring-Anpassung für den 83. String: In rot sind die ausgewählten
DOMs (die Größe gibt die Menge an Ladung an) eingetragen. Die zwei Hypothesen, ob
es eine Spur (grün) oder eine Kaskade (rot) ist, wurden angepasst. Zum Vergleich sind die
Monte-Carlo Erwartung für Spuren (blau) und Kaskaden (pink) als gestrichelte Linien
hinzugefügt [52].
Ein sehr nützliches Tool vom SANTA-Algorithmus ist die Unterscheidung zwischen Kaskaden und Spuren. Mit den Anpassungen für Spuren und Kaskaden werden die χ2 -Werte
miteinander verglichen, um zu unterscheiden, ob ein Ereignis kaskadenartiger oder spurartiger ist. In Abbildung 5.5 wurde für Elektronneutrinos und Myonneutrinos8 das Verhältnis der reduzierten χ2 -Werte (χ2 -Wert durch die Anzahl der Freiheitsgrade) der beiden
Hypothesen (Kaskade durch Spur) für jeweils Einzelstring und Mehrstring aufgetragen.
Für kaskadenartige Ereignisse bildet sich eine spitze Verteilung um 1 aus und für spurartige Ereignisse ist die Verteilung im Bereich < 1 mehr oder weniger flach. Im Bereich < 1
befinden sich hauptsächlich lange Spuren und im rechten Bereich kurze Spuren, die den
Kaskaden ähneln. Im Einzelstringmodus weisen die Verteilung für Kaskaden und Spuren
keine besondere Merkmale auf.
7
Es gibt eine Vorzugsrichtung, allerdings im Niederenergiebereich ist sie gering.
Die verwendete Datensätze liefen schon eine Ereignisselektion speziell für eine Oszillationsanalyse durch und können in [54] nachgeschaut werden.
8
32
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
Abbildung 5.5: χ2 -Verhältnis der beiden Hypothesen (Kaskade durch Spur) für Elektronneutrinos (oben) und Myonneutrinos (unten) für jeweils Einzelstring(blau) und Mehrstring (rot) [modifizierte Version von [52]].
Die verwendeten Variablen, die für den BDT genutzt werden, sind jeweils der reduzierte
χ2 - Wert für die Spuranpassung (Santachi2_track) und für die Kaskadenanpassung (Santachi2_cascade) im Mehrstringmodus. Zusätzlich wird das Verhältnis der reduzierten χ2 Werten (Santachi2_ratio) zum BDT hinzugefügt.
5.3
Log-Likelihood Berechnung basierend auf den
unterschiedlichen Propagationsweg von Licht
für Spuren und Kaskaden
In diesem Abschnitt werden drei Variablen für den BDT vorgestellt, die speziell für die
Kaskadenunterdrückung entwickelt wurden. Die erste Variable ist „Q_early“, die auf der
Idee von John Groh [55] basiert. Zum Schluss werden zwei weitere Variablen „LogLRa-
5.3. L OG -L IKELIHOOD B ERECHNUNG
FÜR
S PUREN
UND
K ASKADEN
33
tio_Track“ und „LogLRatio_Cascade“, die eine erweiterte und verbesserte Betrachtung
aufweisen.
5.3.1
„Frühe Treffer“
Bevor wir uns mit den Variablen befassen, werden die Merkmale von Spuren und Kaskaden kurz aufgelistet. In IceCube werden Spuren durch geladene Myonen erzeugt, die
Cherenkov Licht emittieren. Zusätzlich wird im Wechselwirkungspunkt (Vertex) eine hadronische Startkaskade erzeugt, die sich aus der initialen Wechselwirkung entwickelt. Bei
niederenergetischen Myonen (< 50 GeV) sind die Spurlängen klein gegenüber der hadronischen Kaskade, wodurch diese in der Kaskade überdeckt werden und nicht mehr so leicht
unterschieden werden können. Für Kaskaden sind Elektronneutrinoereignisse und Tauneutrinoereignisse, sowie NC-Wechselwirkungen aller Neutrino-Flavor-Sorten in IceCube verantwortlich (s. Abschnitt 3.2.). Im weiteren Verlauf werden diese Ereignisse unter
dem Begriff „Kaskade“ geführt. Wie bei Spuren kann auch in Kaskaden Cherenkov-Licht
durch die erzeugten Sekundärteilchen emittiert werden.
Abbildung 5.6: Skizzierte Betrachtung der unterschiedlichen Propagation von Kaskaden (grün) und Myonen (blau). tpropagation ist die Zeit für die Ausbreitung des geladenen
Teilchens bevor das Cherenkov-Photon emittiert wird und tCherenkov ist die Zeit, die das
Photon im Eis zum DOM braucht.
Die Definition der Variable „Q_early“ ist eine einfache Betrachtung der unterschiedlichen
Propagationswege von Photonen. Die Annahme ist, dass Photonen aus Kaskaden mit der
Lichtgeschwindigkeit des Medium c/nice aus dem Vertex zu den Lichtsensoren propagieren und Photonen aus Spuren nach der Propagation des geladenen Teilchens mit der
Lichtgeschwindigkeit unter dem Cherenkov-Winkel θc emittiert werden. In Abbildung 5.6
ist diese Betrachtung gezeigt. Obwohl der geometrische Abstand für Photonen aus dem
Vertex zum DOM kürzer ist als der Weg für Photonen durch Erzeugung einer Spur, kann
das geladene Teilchen mit der Lichtgeschwindigkeit die Distanz schneller überbrücken,
sodass das Photon nur noch eine kleine Strecke zurücklegen muss. Um die Kaskaden und
Spuren zu unterscheiden wird das Zeitresiduum mit der Erwartung, dass alle gemessenen
34
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
Photonen aus dem Vertex kommen, bestimmt:
nice · Abstand(Vertex,DOM)
(Kaskadenhypothese) , (5.3)
∆T = tgemessen − tvertex −
c
wobei tvertex die Zeit des Vertizes aus der Taupede-Rekonstruktion ist.
Zu jedem Pulse wird die relative Ladung vom Ereignis als Gewicht hinzugefügt, damit
Pulse, die mehr Ladung besitzen, stärker in die ∆T -Verteilung eingehen als Pulse mit
wenig Ladung. Für Kaskaden wird ein Wert ∆T ≥ 0 erwartet (aufgrund von gestreuten
Photonen verlängert sich die Ankunftszeit) und für Spuren ein Wert ∆T ≤ 0 (Photonen
werden entlang der Spur emittiert). Jedoch sind negative ∆T - Werte für Kaskaden auf
Grund von Cherenkov Licht in der Kaskade und positive ∆T - Wert für Spuren durch
die Startkaskade im Vertex möglich. Diese Berechnungen benötigen eine präzise Bestimmung des Vertizes, um eine eindeutige Unterscheidung zu machen. Für die Monte-CarloWahrheit (MC-Wahrheit) sind in Abbildung 5.7 die ∆T - Verteilungen für alle Pulse aus
allen Ereignissen in Kaskaden und Spuren aufgetrennt dargestellt. Im positiven Bereich
sind die Verteilung ähnlich, daher wird nur der negative Bereich zur Berechnung der Variable „Q_early„ verwendet. Q_early ist definiert als die Summe über die Ladung der Pulse
pro Ereignis, die sich im Zeitfenster ∆t befinden. Erwartet wird, dass mehr Ladung für
Spuren gemessen wird als für Kaskaden.
Abbildung 5.7: Flächennormierte ∆T - Verteilung für die Kaskadenhypothese aufgetrennt in Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit)
Um die Variable ein wenig zu stärken, wurden für den BDT zwei unterschiedliche Zeitfenster zur Berechnung der Variable genommen. „Q_early1000“ für das Zeitfenster ∆t ∈
[−3 ns, − 1000 ns] und dementsprechend „Q_early500“ berechnet. Abbildung 5.8 zeigt
die Q_early1000-Verteilung zwischen Kaskaden und Spuren für die MC-Wahrheit. Bis
ungefähr 80 PE fällt die Verteilungen für Kaskaden sehr stark ab, danach treten nur noch
vereinzelt Ereignisse auf. Für Spuren geht die Verteilung bis hin zu 140 PE mit einer konstanten Abnahme.
5.3. L OG -L IKELIHOOD B ERECHNUNG
FÜR
S PUREN
UND
K ASKADEN
35
Abbildung 5.8: „Q_early1000“- Verteilung für Kaskaden (grün) und Spuren (blau).
(Monte-Carlo-Wahrheit)
5.3.2
Log-Likelihood Berechnung
Im Folgenden wird eine Likelihood basierende Methode besprochen. Als Erstes wird
das Zeitresiduum der Photonen bestimmt. Anschließend wird die Wahrscheinlichkeit bestimmt, ob das Ereignis eine Kaskade oder eine Spur ist. Als erste Vorstellung der Ausbreitung von Photonen, wurde die Laufzeit vom Vertex zum DOM mit der Lichtgeschwindigkeit des Mediums betrachtet. Zusätzlich wird der Cherenkov-Effekt berücksichtigt, wodurch Photonen unter dem Cherenkov-Winkel entlang einer Spur emittiert werden (s. Abb.
5.6). Mit der Formel
∆T = tgemessen − tvertex − (tpropagation + tcherenkov ) (Spurhypothese) ,
(5.4)
kann für die Spurhypothese die ∆T - Verteilungen erstellt werden, die im weiteren Verlauf als PDF für die Spurhypothese dient (s. Abb. 5.9). tpropagation ist die Zeit, die das
geladene Teilchen mit der Lichtgeschwindigkeit gebraucht hat bevor ein Photon unter
dem Cherenkov-Winkel emittiert wird und tcherenkov ist die Zeit, wie lange das Photon
zum DOM braucht. Für die Spurhypothese wird die Vertex-Zeit tvertex aus der FiniteRecoRekonstruktion entnommen.
Für Kaskaden befinden sich kleine Unterschiede am Rande der Verteilung gegenüber der
Spur. Außerdem sind die Spitzen der beiden Verteilungen Spuren und Kaskaden zu einander versetzt. Diese Ähnlichkeit kann für die weitere Betrachtung problematisch werden.
36
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
Abbildung 5.9: Flächennormierte ∆T - Verteilung für die Spurhypothese aufgetrennt in
Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit)
Es existieren zwei Wahrscheinlichkeitsdichtefunktionen (PDF) PSpur und PKaskade für jeweils 2 Hypothesen (Gl. 5.3 und Gl. 5.4). Für jeden Puls im Ereignis wird zuerst das
Zeitresiduum für die beiden Hypothesen ausgerechnet. Für die Spurhypothese (s. Gl. 5.4)
werden die PDFs PSpur und PKaskade aus Abbildung 5.9 für die Berechnung der logarithmischen Likelihoods benutzt (dementsprechend für die Hypothese der Kaskade):
X
LogL(Hypothese) =
qi · ln(PKaskade (∆Ti |Hypothese))
i=i-ter Pulse des Ereignisses
X
LogL(Hypothese) =
(5.5)
qi · ln(PSpur (∆Ti |Hypothese)) ,
i=i-ter Pulse des Ereignisses
wobei qi die Ladung des i-ten Pulses ist. Damit ergeben sich vier logarithmische Likelihoods LogL(Hypothese, PDF):
• LogL(Spur, PSpur )
• LogL(Spur, PKaskade )
• LogL(Kaskade, PSpur )
• LogL(Kaskade, PKaskade )
5.3. L OG -L IKELIHOOD B ERECHNUNG
FÜR
S PUREN
UND
K ASKADEN
37
Daraus werden zwei Differenzen bzw. der Logarithmus des Verhältnisses der Wahrscheinlichkeiten gebildet (LogLRatio), die als Unterscheidung zwischen Kaskaden und Spuren
dienen sollen:
[Spur, PSpur ]
LogLRatio_T rack = LogL
[Spur, PKaskade ]
(5.6)
[Kaskade, PSpur ]
.
LogLRatio_Cascade = LogL
[Kaskade, PKaskade ]
In Abbildung 5.10 und 5.11 sind jeweils für Spurhypothese und Kaskadenhypothese die
LogLRatios für die MC-Wahrheit aufgetragen. Ein negativer LogLRatio-Wert bedeutet,
dass das Ereignis eine größere Wahrscheinlichkeit für eine Kaskade hat als für eine Spur
und somit als ein kaskadenartiges Ereignisse gedeutet werden kann. Ein LogLRatio-Wert
von Null weist auf ein ununterscheidbares Ereignis auf. Im Fall der Spurhypothese (s. Abb.
5.10) kann die große Anhäufung um Null auch durch die sehr ähnlichen PDF-Verteilung
hervorgerufen werden. Das Maximum der spurartige Ereignisse bei Null ist etwas unterhalb von ≈ 3 · 10−5 , also nicht so hoch wie für Kaskaden. Wie erwartet, ist die Verteilung
für spurartige Ereignisse in den positiven Bereich verschoben. Für die Kaskadenhypothese (s. Abb. 5.11) ist eine Trennung zwischen Kaskaden und Spuren erkennbar.
Abbildung 5.10: LogLRatio für die Spurhypothese unterteilt in Kaskaden (grün) und
Spuren (blau). (Monte-Carlo-Wahrheit)
38
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
Abbildung 5.11: LogLRatio für die Kaskadenhypothese unterteilt in Kaskaden (grün)
und Spuren (blau). (Monte-Carlo-Wahrheit)
Die Unterscheidung wurde im Ganzen auf der MC-Wahrheit angeschaut und führt zu
anschaulichen Ergebnissen, dass die Separation auf Rekonstruktionen erfolgreich sein
kann. Nun ist es interessant zu wissen wie dies mit Rekonstruktionen aussieht und ob
die Trennung auch noch sichtbar sein wird. Die PDFs, unter der Verwendung der Rekonstruktionen (s. Abb. 5.12 und 5.13) für die Berechnung der LogLRatios, sehen für beide
Hypothesen sehr ähnlich aus. Sogar für die Kaskadenhypothese zeigen sich nur kleine
Variationen in der Verteilung, obwohl sie für die MC-Wahrheit sehr gut aussah. Ein sehr
merkwürdige Struktur weist die PDF für die Spurhypothese auf. Einen zweiten Hochpunkt ist im positiven Bereich zu erkennen und konnte im Umfang dieser Arbeit nicht
ausführlich untersucht werden. Durch die Ähnlichen PDFs ist die Erwartung nicht hoch,
dass die Trennung erfolgreich wird. In Abbildung 5.14 und 5.15 sind die ausgerechneten
LogLRatios zu sehen. Für die Spurhypothese ist in den Verteilungen für Kaskaden und
Spuren keine Trennung sichtbar und für die Kaskadenhypothese ist nur eine unterschiedliche Breite der Verteilung um 0 zu erkennen. Im nächsten Kapitel wird das Signal „Spur“
für Oszillationsanalysen angepasst, was vielleicht eine Verbesserung der Separation bewirkt.
5.3. L OG -L IKELIHOOD B ERECHNUNG
FÜR
S PUREN
UND
K ASKADEN
39
Abbildung 5.12: Flächennormierte ∆T - Verteilung für die Spurhypothese aufgetrennt
in Kaskaden (grün) und Spuren (blau).
Abbildung 5.13: Flächennormierte ∆T - Verteilung für die Kaskadenhypothese aufgetrennt in Kaskaden (grün) und Spuren (blau).
40
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
Abbildung 5.14: LogLRatio für die Spurhypothese unterteilt in Kaskaden (grün) und
Spuren (blau).
Abbildung 5.15: LogLRatio für die Kaskadenhypothese unterteilt in Kaskaden (grün)
und Spuren (blau).
5.4. V ERWENDETE VARIABLEN
5.4
IM
BDT
41
Verwendete Variablen im BDT
Im vorherigen Abschnitt wurden viele Variablen vorgestellt. Allerdings werden nicht alle
Variablen verwendet bzw. so verwendet wie sie vorgestellt wurden. Die Variablen „QLatePulse“ und „NLateDoms“ werden etwas modifiziert, indem alle Pulse, die nach einer
bestimmten Zeit auftreten, nicht mehr berücksichtigt werden, sodass mögliche RauschTreffer zu späten Zeiten vermieden werden. „QLatePulseDiff“ und „NLateDomsDiff“
sind die neuen Variablen und sind definiert als die gesamt Ladung bzw. die Anzahl der
DOMs im Zeitfenster von 75 ns bis 300 ns. Weiterhin werden nicht alle vier einzelnen Likelihoods verwendet, da in der „Q_early“ Variable die Kaskadenhypothese enthalten ist,
werden die Variablen „LogL_Cascade_Track“ und „LogL_Cascade_Cascade“ weggelassen.
Als kleine Zusammenfassung, welche Variablen für den BDT verwendet werden, folgt
nun eine Auflistung:
- costheta_SPEFit
- QMax_QTot
- recoR
- Santachi2_Track
- LDir
- Santachi2_Cascade
- bayesDiff
- Santachi2_ratio
- QLatePulseDiff
- Q_early1000
- NLateDomsDiff
- Q_early500
- LogL_Track_Track
- LogL_Track_Cascade
- LogLRatio_Track
- LogLRatio_Cascade
42
K APITEL 5. VARIABLEN
ZUR
T RENNUNG
VON
K ASKADEN
Kapitel 6
Analyse
Im vorherigen Kapitel wurden die Variablen zur Trennung von Kaskaden und Spuren
vorgestellt. Im Folgenden wird die Funktionsweise eines „Boosted Decision Trees“ und
deren Einstellungen erläutert.
6.1
Boosted Decision Trees
Ein „Boosted Decision Tree“ (BDT) [56] ist ein Entscheidungsbaum zur Trennung von
zwei Sorten von Ereignissen (Signal, Untergrund). Ein Entscheidungsbaum (s. Abb. 6.1)
besteht aus „Knoten“, in welchen Entscheidungen getroffen werden, und „Blättern“, in
welchen die Ereignisse nach der Entscheidung hineinkommen. Mit dem gesamten Datensatz (die Wurzel) wird die erste Entscheidung beschlossen, wodurch die erste Tiefe des
Baumes gebildet wird. Nach jeder Entscheidung kann jedes Blatt weiter als ein Knoten
betrachtet werden, solange bis ein Abbruchkriterium erreicht wird. Mit Hilfe mehrerer
Variablen wird eine binäre Klassifizierung durchgeführt. Für diese Klassifizierung wird
das sogenannte Trainieren verwendet, wo ein Datensatz mit bekannten Signalereignissen
und bekannten Untergrundereignissen benutzt wird. Im jeden Knoten des Baumes wird
für jede Variable ein Histogramm mit Signal und Untergrund erstellt, mit Hilfe dessen ein
Schnitt für eine Variable ermittelt wird, welcher das Signal vom Untergrund am effektivsten trennt. Hierzu wird der Gini-Index:
S(p) = p · (1 − p)
(6.1)
genutzt, wobei p die Reinheit ist, also der Anteil an Signal zum gesamten Datensatz (im
betrachteten Knoten, bzw. Blatt). Um den größtmöglichen Gewinn durch die Separation
zu bekommen, wird
∆S = WK · S(pK ) − WL · S(pL ) − WR · S(pR )
(6.2)
maximiert, wobei W = ωSignal + ωUntergrund die gesamt Gewicht ist. Die Indizes stehen
jeweils für den Knoten und die beiden Zweige (Links und Rechts).
Das Trainieren wird solange durchgeführt bis eine bestimmte Anzahl an Ereignisse in den
Blättern oder eine bestimmte Tiefe des Baumes erreicht wird. Wenn das Abbruchriterium
erfühlt ist, wird mittels der Reinheit p entschieden, ob es ein Signal- oder Untergrundblatt
ist.
43
44
K APITEL 6. A NALYSE
Abbildung 6.1: Funktionsweise eines Entscheidungsbaum [modifizierte Version von
[57]]. x stellt die verwendete Variable dar und c den Schnittwert.
Damit die Trennung effizient funktioniert, wird eine große Anzahl von Bäumen betrachtet.
Nach jedem Trainieren eines Baumes wird jedem Ereignis ein neues Gewicht gegeben,
sodass jeder Baum nicht gleich trainiert wird. Die Gewichte werden mit
1−e
αZ(i)
ωi → ωi · e
mit α = β · ln
,
(6.3)
e
berechnet. e ist die Fehlerwahrscheinlichkeit eines Baumes, dass ein Ereignis nach dem
Trainieren falsch zugeordnet wurde. β = [0,1] ist der „boosting“ Faktor (in dieser Arbeit
ist β = 0,7) und gibt an wie stark die Ereignisse im BDT1 umgewichtet werden. Z(i) ist
1 falls das Ereignis i falsch zugeordnet wurde oder 0, wenn das Ereignis i richtig zugeordnet wurde. Zum Schluss werden die Gewichte normiert, sodass die Summe über ωi gleich
1 ist. Diese Methode nennt man „Adaptives Boosting“.
Für die Unterscheidung, ob es sich um ein Signalereignis oder ein Untergrundereignis handelt, wird ein BDT-Wert si für jedes Ereignis i ausgerechnet. Dieser BDT-Wert liegt zwischen -1 und +1. Signalereignisse weisen einen höheren BDT-Wert auf als Untergrundereignisse. Der BDT-Wert für das i-te Ereignis nach dem Trainieren des Waldes lässt sich
durch
P
α ·s
P m i,m
(6.4)
si = m
m αm
berechnen, wobei si,m ∈ {−1, + 1} die Zuweisung, ob das i-te Ereignis im m-ten Baum
als Signal (1) oder als Untergrund (-1) eingeteilt wurde.
1
Der allererste Baum ist unberührt vom „boosting“.
6.1. B OOSTED D ECISION T REES
6.1.1
45
Einstellungen des BDTs
Anzahl der Schnitte
Wie vorhin erwähnt, wird im jeden Knoten für jede Variable ein Histogramm mit Signal
und Untergrund erstellt, um den besten Schnitt zu bestimmen. Die Anzahl der Schnitte beschreibt die Anzahl der Bins in die Verteilungen der Variablen. Eine zu große Anzahl an
Bins hat zur Folge, dass den Verteilung eine zu feine Struktur aufweist, was zum Übertrainieren (s. unten) führt. Für eine kleine Anzahl an Bins verliert die Variable an Trennkraft.
Anzahl der Bäume
Für die Anzahl der Bäume, die für den BDT verwendet wird, werden typischerweise zwischen 100 - 500 Bäume genommen.
Maximale Tiefe / Mindestanzahl der Ereignisse
Für die Entscheidung, wann die Unterteilung des Baumes aufhören soll, kann die maximale Tiefe des Baumes und die minimale Anzahl an Ereignisse im Knoten benutzt werden.
Die minimale Anzahl an Ereignissen im Knoten wurde auf 20 Ereignisse festgesetzt.
Pruning-Stärke
Mit Hilfe des Prunings (pruning = zurückschneiden) kann das Übertrainieren reduziert
werden. Es gibt den prozentuellen Anteil der Knoten an, die weggeschnitten werden sollen. Die Bestimmung, welche Knoten bleiben, wird wie folgt berechnet:
ρ=
∆S
,
nBlätter − 1
(6.5)
wobei nBlätter die Anzahl an Blättern im Unterbaum des betrachteten Knoten ist. Alles
unterhalb des Knotens, der den kleinsten Wert ρ besitzt, wird weggeschnitten und dieser
Knoten wird zum Blatt.
Zusätzlich gibt es noch zwei weitere Parameter, die für das Trainieren eingestellt werden
können. Die Anzahl an Variablen, die in einem Knoten benutzt werden sollen, und der Anteil an Ereignisse, die in einem Baum benutzt werden sollen, können zusätzlich eingestellt
werden. Welche Variablen oder Ereignisse genutzt werden, werden zufällig ausgewählt.
In dieser Arbeit wurde in jedem Knoten und jedem Baum alle Variablen und alle Ereignisse verwendet.
46
6.2
K APITEL 6. A NALYSE
Optimierung und Robustheit des BDTs
Im vorherigen Abschnitt wurde schon das Übertrainieren erwähnt. Durch das zu starke
Trainieren versucht der BDT jedes einzelne Ereignis richtig zu bestimmen, sodass im extrem Fall jedes Ereignis in einem Blatt liegt. Jedoch wird das Verhalten der Verteilungen
(hier die BDT-Verteilung) für Signal und Untergrund somit nicht mehr richtig wiedergegeben, weil ein Signalereignis vielleicht eher wie ein Untergrundereignis betrachtet werden soll, allerdings im BDT als Signal identifiziert wird. Für diese Überprüfung wird der
Signal- und der Untergrunddatensatz jeweils in ein Teil zum Trainieren des BDTs und
in ein Teil zum Testen, ob die BDT-Verteilung nach dem Trainieren sich nicht zu stark
geändert hat (s. Abb. 6.3), aufgetrennt. Zur Bestimmung der Übereinstimmung der BDTVerteilungen wird der Kolmogorow-Smirnow-Test (KS-Test) [58] verwendet. Dieser gibt
ein p-Wert aus, mit welcher Wahrscheinlichkeit zwei Datensätze von der gleichen Verteilung entstammen [56]. Dabei bedeutet ein p-Value von 1, dass die Verteilungen identisch
sind. p-Werte von ≤ 0,10 führen zum Übertrainieren des BDTs.
Die Signalereignisse, die dem BDT gegeben werden, sind Myonneutrinos aus der CCWechselwirkung unterhalb von 50 GeV (s. Kapitel 4.2.1) und die Untergrundereignisse
sind Myonneutrinos aus der NC-Wechselwirkung und Elektronneutrinos.
Eine wichtige Größe ist die Signifikanz
# Signal
,
S=p
#νµ + #νe + # Corsika
(6.6)
die jeweils für einen bestimmten BDT-Wert ausgerechnet wird. Durch das Maximum der
Signifikanz und der Betrachtung des KS-Testes werden die BDT-Parameter optimiert. Exemplarisch ist in Abbildung 6.2 die Signifikanz gegen den BDT-Wert aufgetragen.
6.2. O PTIMIERUNG
UND
R OBUSTHEIT
DES
BDT S
47
Abbildung 6.2: Signifikanz gegen den BDT-Wert für die BDT-Einstellungen: 350 Bäume, zwei Tiefen und 50 % Pruning. Die grüne Linie markiert das Maximum der Verteilung.
Die einstellbaren Parameter sind die Anzahl der Bäume, die zwischen 100 und 500 Bäumen in Abständen von 50 Bäumen ausgewertet wird, und die Tiefe der Bäume für zwei,
drei und vier Tiefen. Die „Pruning-Stärke“ wird auf 0, 30 und 50 eingestellt. Die Werte des
KS-Testes und das Maximum der Signifikanz werden für jede Einstellung ausgerechnet.
In den folgenden Tabellen werden die Ergebnisse für die drei unterschiedlichen Tiefen
(2,3,4) gegen die Anzahl der Bäumen ohne Pruning dargestellt (für restliche Einstellmöglichkeiten s. Anhang B).
Tabelle 6.2: Für eine Tiefe von drei Ebenen und ohne Pruning wird der KS-Test und die
maximale Signifikanz für eine unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
43,42 / 4,09
22,02 / 11,83
20,47 / 10,42
15,87 / 21,40
10,68 / 41,44
9,74 / 24,39
6,43 / 40,22
14,89 / 43,11
2,72 / 61,57
max. Signifikanz
85,72
85,80
85,81
85,84
85,92
85,99
86,01
86,03
86,03
48
K APITEL 6. A NALYSE
Tabelle 6.1: Für eine Tiefe von zwei Ebenen und ohne Pruning wird der KS-Test und
die maximale Signifikanz für eine unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
21,28 / 3,53
33,94 / 1,77
57,17 / 1,89
68,42 / 53,51
75,49 / 34,33
53,37 / 40,92
71,06 / 34,96
57,27 / 48,87
54,69 / 36,49
max. Signifikanz
85,85
85,78
85,85
85,86
85,86
85,85
85,85
85,86
85,86
Tabelle 6.3: Für eine Tiefe von vier Ebenen und ohne Pruning wird der KS-Test und die
maximale Signifikanz für eine unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
11,54 / 5,71
4,96 / 17,05
8,56 / 5,94
5,81 / 21,08
5,13 / 19,58
4,77 / 21,35
5,49 / 20,74
6,41 / 22,21
5,82 / 20,59
max. Signifikanz
85,91
86,15
86,16
86,19
86,16
86,17
86,16
86,18
86,18
Für unterschiedliche Einstellungen zeigt sich kein großer Unterschiede im Maximum der
Signifikanz, was zeigt, dass die Signifikanz im Großen und Ganzen stabil ist. Es zeigt
sich, wenn auch nur geringfügig, dass viel Pruning die Signifikanz nur in einigen Fällen steigert. Zur Optimierung der BDT-Einstellungen wird gefordert, dass der KS-Test
für Untergrund und Signal mindestens 10 % beträgt, wodurch die Einstellung von vier
Ebenen ausgeschlossen wird. Da alle übrig gebliebenen Einstellungen geeignet sind und
eine Einstellung ausgewählt werden muss, werden diese untereinander mit verfeinerten
Bedingungen verglichen2 . Es wird die Einstellung mit 350 Bäume, zwei Tiefen und 50 %
Pruning verwendet.
In Abbildung 6.3 ist das dazugehörige Kontrolldiagramm für das Übertrainieren gezeigt.
Gezeigt ist die relative Häufigkeit für Signal und Untergrund, die jeweils für den Datensatz zum Trainieren (Linie) und zum Testen (Punkte) aufgetragen sind (Achtung: linke
y-Achse für Untergrund (rot) und rechte y-Achse für Signal (blau)). Unterhalb ist das Verhältnis zwischen den beiden Datensätzen aufgetragen. Die großen Fehlerbalken werden
durch die geringe Statistik verursacht.
2
Für einige Einstellungen wurde auch die BDT-Verteilungen angeschaut, um sich für eine BDTEinstellung zu entscheiden.
UND
R OBUSTHEIT
DES
Abbildung 6.3: Kontrolldiagramm für das Übertrainieren mit den BDT-Einstellungen: 350 Bäumen, zwei Tiefen und 50 % Pruning. Links
ist eine lineare und rechts eine logarithmische Auftragung der relativen Häufigkeit von Signal (blau) und Untergrund (rot). Unterhalb ist das
Verhältnis zwischen dem Datensatz zum Testen (Punkte) und zum Trainieren (Linie) jeweils für Signal und Untergrund aufgetragen.
6.2. O PTIMIERUNG
BDT S
49
50
K APITEL 6. A NALYSE
Als nächstes werden die Variablen nach dem Trainieren des BDTs und ihre Relevanz im
BDT betrachtet. Um herauszufinden wie wichtig eine Variable im BDT ist, kann die Häufigkeit, an wie vielen Knoten eine Variable im BDT verwendet wurde, ausgegeben werden,
wobei 1 bedeutet, dass nur diese Variable zur Trennung im BDT verwendet wurde.
Die Tabelle 6.4 zeigt die Bedeutung der Variable im BDT. Auffällig sind die beiden Variablen QLatePulseDiff und NLateDomsDiff, die in 37,1 % und 20,4 % der Knoten verwendet wurden. Wie erwartet fällt die Variable LogLRatio_Track schlechter aus als LogLRatio_Cascade. Bis auf die letzten vier Variablen sind die anderen Variablen im einstelligen
Bereich. Insgesamt sind die Variablen relativ gut ausgeglichen im BDT.
Tabelle 6.4: Relevanz der Variablen im BDT.
Variablen
QLatePulseDiff
NLateDomsDiff
Q_early1000
LogLRatio_Cascade
bayesDiff
recoR
Santachi2_ratio
Santachi2_track
LogL_Track_Cascade
LogL_Track_Track
LDir
QMax_QTot
costheta_SPEFit
Santachi2_cascade
LogLRatio_Track
Q_early500
Relevanz [%]
37,1
20,4
8,7
8,6
6,6
4,5
3,4
2,5
2,4
1,7
1,2
1,1
0,7
0,6
0,3
0,3
Im Folgenden werden einige Variablen vor und nach den BDT angeschaut und diskutiert.
Im Kapitel 4 konnte die Differenz der logarithmischen Likelihoods unter Verwendung der
Rekonstruktionen keine Trennung zwischen νµ (CC) und νe + νµ (NC) zeigen. Mit der neuen Signaldefinition (νµ (CC) < 50 GeV) weisen die Verteilungen am Rande Unterschiede
auf, wodurch der BDT die Untergrundereignisse erkennt und sie aussortiert (s. Abb. 6.4).
In Abbildung 6.5 ist die Verteilung der Variable NLateDomsDiff, die am häufigsten im
BDT verwendet wurde, zu sehen. Vor dem BDT ist ein Unterschied zwischen Untergrund
(Kaskaden, violett) und Signal (νµ (CC) < 50 GeV, rot) zu höheren Werten zu erkennen.
Nach dem BDT wurde der hintere Teil der Verteilung für Untergrund weggeschnitten und
liegt nun unterhalb der Verteilung des Signals. Außerdem wurde durch den Schnitt die
Signalverteilung kaum verändert.
Zum Schluss schauen wir uns die Variable Santachi2_track an, die als Zehnerlogarithmus aufgetragen wird (s. Abb. 6.6). Hierzu muss man beachten, dass durch das SANTACleaning nicht alle Ereignisse ein χ2 -Wert aus der SANTA-Rekonstruktion besitzen, weswegen diese Ereignisse einen sehr schlechten (also großen) χ2 -Wert bekommen, wodurch
der hohe Bin bei 3,5 entsteht. Man erkennt nach dem BDT sehr schön die Reduzierungen des Untergrundes, ohne dass die Signalverteilung sehr stark beschnitten wird. Die
6.2. O PTIMIERUNG
UND
R OBUSTHEIT
DES
BDT S
restlichen Variablen können im Anhang C betrachtet werden.
51
K APITEL 6. A NALYSE
52
Abbildung 6.4: Zeigt die Verteilung der Variable LogLRatio_Cascade vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt die logarithmische Darstellung.
UND
R OBUSTHEIT
DES
BDT S
Abbildung 6.5: Zeigt die Verteilung der Variable QLatePulseDiff vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt die logarithmische Darstellung.
6.2. O PTIMIERUNG
53
K APITEL 6. A NALYSE
54
Abbildung 6.6: Zeigt die Verteilung der Variable Santachi2_cascade vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt die logarithmische Darstellung. Auf der x-Achse ist jeweils der Zehnerlogarithmus aufgetragen.
6.2. O PTIMIERUNG
UND
R OBUSTHEIT
DES
BDT S
55
In Abbildung 6.7 und 6.8 ist die Korrelationsmatrix für Signal und Untergrund der verwendeten Variablen nach dem Trainieren des BDTs zu sehen. Auffällig ist natürlich die
starke Korrelation unter den „Santa“-Variablen, unter den Variablen der logarithmischen
Likelihoods und unter den „Q_early“ Variablen zu sehen. Außerdem ist eine Korrelation
zwischen „Q_early“ und den Likelihoods zu erkennen, die indirekt durch die Berechnung
der Zeitresiduen verbunden sind. Im Allgemeinen ist eine Korrelation für den BDT nicht
schlimm, da wie schon oben erwähnt, jede Variable separat für jeden Knoten betrachtet
wird.
Abbildung 6.7: Korrelationsmatrix für die Signalereignisse. Die Farbskala gibt den Korrelationskoeffizienten an.
56
K APITEL 6. A NALYSE
Abbildung 6.8: Korrelationsmatrix für die Untergrundereignisse. Die Farbskala gibt den
Korrelationskoeffizienten an.
6.3
Ergebnisse der Trennung
Im Folgenden wird die Qualität der Trennung zwischen Kaskaden und Spuren durch den
BDT betrachtet. In Abbildung 6.9 ist die BDT-Verteilung mit den ausgearbeiteten Einstellungen aus dem vorherigen Kapitel (350 Bäume, zwei Tiefen und 50 % Pruning) gezeigt.
Eine senkrechte grün-gestrichelte Linie kennzeichnet den verwendeten BDT-Schnitt mit
der maximalen Signifikanz (Abb. 6.2).
Die BDT-Verteilung für Signal und Untergrund sind leicht zueinander verschoben. Außerdem ist in der logarithmischen Darstellung die Dominanz des Untergrundes für kleine
BDT-Werte deutlich zu sehen. Zu größeren BDT-Werten werden signalartige Ereignisse erwartet, was in der BDT-Verteilung zu sehen ist. Der Vollständigkeit halber sind die
Verteilung für atmosphärische Myonen (Corsika, magenta), die restlichen Myonneutrinos
nach der Signaldefinition (gelb-grün) und alle Myonneutrinos aus der CC-Wechselwirkung
(blau) eingezeichnet. Diese sind auch in den darauffolgenden Diagrammen gezeigt.
Als nächster Schritt wird die Effizienz und die Reinheit gegen den BDT-Wert aufgetragen,
sodass die Stärke des BDTs bewertet werden kann. Die Effizienz und die Reinheit werden
jeweils für die unterschiedlichen Datensätze x (s. Abb. 6.9) für jeweils einen BDT-Wert
berechnet (s. Gl. 6.7 , 6.8), d. h. alle dargestellten Linien müssen nicht zusammen 100 %
ergeben.
# xakzeptiert
(6.7)
Effizienz =
(#νµ + #νe + # Corsika)(gesamt)
DER
Abbildung 6.9: BDT-Verteilung für die Einstellungen: 350 Bäume, zwei Tiefen, 50 % Pruning. Rechts ist die logarithmische Darstellung
gezeigt und die grün-gestrichelte Linie markiert den verwendeten BDT-Schnitt mit der maximalen Signifikanz.
6.3. E RGEBNISSE
T RENNUNG
57
58
K APITEL 6. A NALYSE
Reinheit =
#x
#νµ + #νe + # Corsika
(6.8)
Abbildung 6.10 und 6.11 zeigen die Effizienz und die Reinheit gegen den BDT-Wert.
Für BDT-Werte oberhalb von 0,2 weisen die Verteilungen für die Reinheit Sprünge auf,
die durch eine geringe Statistik hervorgerufen werden. Auch die Effizenzkurve für den
Corsika-Datensatz weist eine unstetige Verteilung auf, da der initiale Datensatz nur 63 Ereignisse beinhaltet. Für den optimierten BDT-Schnitt kann die Effizienz bzw. die Reinheit
jeweils für Signal und Untergrund durch die grüne Linie abgelesen werden.
Für den optimierten BDT-Schnitt von -0,0945 beträgt die Effizienz für Signal 97 % und
für Untergrund 81 %. Die dazugehörige Reinheit beträgt für Signal 57,9 % und für Untergrund 22,4 %. Mit diesem BDT kann der Untergrund um 19 % reduziert werden, wobei
der Großteil an Signal beibehalten wird. Um zu überprüfen, wie stark die Unterdrückung
des Untergrundes von der BDT-Einstellung abhängt, wurden die prozentuelle Schwankung zu den anderen möglichen BDT-Einstellungen3 bestimmt. Die Reduzierung des Untergrundes um 19 % weist eine prozentuelle Schwankung von 3,7 % auf und liefert somit
eine robuste Aussage. Für die Signaleffizienz ergab sich eine prozentuelle Schwankung
von maximal 1,2 %.
Abbildung 6.10: Effizienz gegen den BDT-Wert für die BDT-Einstellung: 350 Bäume, zwei Tiefen und 50 % Pruning. Die grüne Linie kennzeichnet den optimierten BDTSchnitt.
3
Einstellungen, die im oberen Abschnitt auch für den BDT geeignet waren.
6.3. E RGEBNISSE
DER
T RENNUNG
59
Abbildung 6.11: Reinheit gegen den BDT-Wert für die BDT-Einstellung: 350 Bäume, zwei Tiefen und 50 % Pruning. Die grüne Linie kennzeichnet den optimierten BDTSchnitt.
6.3.1
Überprüfung der Oszillationshypothese
Zum Abschluss wird eine Monte-Carlo (MC) Studie für die Hypothese der Neutrinooszillation durchgeführt.
Für den Ausschluss der Nullhypothese wird der gesamte Monte-Carlo-Datensatz (νe , νµ ,
ντ ) in zwei Teile aufgeteilt. Die eine Hälfte dient als „experimentelle“ Daten und die
andere Hälfte als MC-Daten. Zusätzlich wird, aufgrund geringer Statistik, der gesamte
Corsika-Datensatz in beide Teilen hinzugefügt. Wie schon im Kapitel 2 gezeigt wurde,
wird die Oszillationswahrscheinlichkeit durch das Verhältnis zwischen der Oszillationslänge und der Energie des Neutrinos beschrieben. Für die unterschiedlichen Datensätze
(νe , νµ , ντ , Corsika, exp. Daten) werden Histogramme für dieses Verhältnis erstellt.
Die rekonstruierte Energie kann mit der Ahnnahme, dass das Myon nur durch Ionisatiosverluste Energie veliert, durch die Gleichung [59]
Ereco = 0,2
GeV
· lreco + EKaskade
m
(6.9)
berechnet werden. EKaskade ist die Energie der hadronischen Kaskade und wird mit Monopod4 bestimmt. lreco ist die rekonstruierte Spurlänge aus FiniteReco (s. Kapitel 4.1).
4
Monopod ist ein Teil der IceCube-Software aus Millipede [60]. Dieser Algorithmus läuft nur
auf Pulse, die vermutlich nicht zu der Spur passen.
60
K APITEL 6. A NALYSE
Für die Berechnung der Oszillationlänge wird die Formel 2.10 mit dem rekonstruierten
Zenith-Winkel aus MPEFit benutzt.
Um die Nullhypothese zu überprüfen, werden die erzeugten Verteilungen für νe , νµ , ντ
und Corsika einmal mit und einmal ohne den erwarteten Oszillationswahrscheinlichkeiten
gewichtet. Anschließend werden sie jeweils gegen die „experimentellen“ Daten, die mit
den erwarteten Oszillationswahrscheinlichkeiten gewichtet werden, angepasst, indem die
logarithmische Likelihood-Funktion maximiert wird. Für die Anpassung wird die Normalisierung der Nuisance Parameter genutzt. Aus den beiden berechneten logarithmischen
Likelihoods kann mit dem Wilks’ Theorem [61] die statistische Signifikanz bestimmt werden.
In Abbildung 6.12 ist die Signifikanz gegen den BDT-Wert dargestellt. Aufgrund der geringeren Statistik bricht die Kurve bei einem BDT-Wert unterhalb von 0,2 ab und weist
einen Abfall zu größeren BDT-Werten auf. Man erhält für den optimierten BDT-Schnitt
von -0,0945 eine statistische Signifikanz von 5,2 Sigma. Mit einer Abweichung von 5,2
Sigma kann die Nullhypothese ausgeschlossen werden.
Abbildung 6.12: Die Signifikanz zwischen den beiden Hypothesen Oszillation und keine Oszillation gegen den BDT-Wert. Die grüne Linie kennzeichnet den optimierten BDTSchnitt.
Kapitel 7
Fazit
In dieser Arbeit wurde für die Oszillationsanalyse eine Methode zur Unterdrückung kaskadenartiger Ereignisse entwickelt.
Es wurden neue Variablen zur Trennung von Kaskaden und Spuren entwickelt und getestet. Die Trennkraft der Variablen zwischen Kaskaden und Spuren auf der Monte-CarloWahrheit sahen viel versprechend aus. Jedoch konnte durch die Anwendung der Rekonstruktionen die erwünschte Trennung nicht erreicht werden. Von den neuen Variablen haben Q_early1000 (8,7 %) und LogLRatio_Cascade (8,6 %) die größte Relevanz im BDT.
Die Variablen NLateDomsDiff (20,4 %) und QLatePulseDiff (37,1 %) sind von allen Variablen am stärksten im BDT vertreten. Insgesamt sind die Variablen relativ gut ausgeglichen im BDT.
Im zweiten Teil der Arbeit wurde ein BDT mit ausgewählten Variablen benutzt und dieser zur Trennung von Kaskaden und Spuren optimiert. Durch die Optimierung des BDTs
zeigte sich, dass sich die Signifikanz (s. Gl. 6.6) für unterschiedliche BDT-Einstellungen
im Promillebereich änderte. Auf der einen Seite ist das Maximum der Signifikanz unabhängig von der BDT-Einstellung positiv zu sehen und liefert ein robustes Ergebnis. Für
unterschiedliche BDT-Einstellungen liegt die prozentuelle Schwankung für die Reduzierung der Kaskadenereignisse bei 3,7 %. Jedoch ergibt sich kein großer Spielraum, um die
Reduzierung der Kaskaden zu steigern, weil durch ein härteres Schneiden die Signifikanz,
sowie die Signaleffizienz stark abnehmen würde. Durch den BDT konnten die Kasakdenereignisse um 19 % reduziert werden. Dabei verringerte sich die Signaleffizienz nur um
3 %.
Zum Schluss der Arbeit wurde eine Monte-Carlo-Studie zur Überprüfung der Oszillationshypothese durchgeführt. Es wurde gezeigt, dass die Nullhypothese mit 5,2 Sigma ausgeschlossen werden kann. Jedoch muss beachtet werden, dass diese Aussage auf Basis
von Monte-Carlo-Daten zu erwarten war und der Test auf experimentellen Daten anderes
aussehen wird. Mit dem BDT konnte die statistische Signifikanz um 1,0 Sigma gesteigert
werden.
Die Bedeutung der Unterdrückung der kaskadenartigen Ereignisse wird für zukünftige Oszillationsanalysen wichtig bleiben. In der Oszillationsanalyse von Juan-Pablo Yanez [62]
wird der SANTA-Algorithmus zur Aussortierung von Ereignissen, die keine gestreuten
Photonen aufweisen, benutzt. Durch den SANTA-Algorithmus wird ein Großteil der Ereignisse verworfen und bewirkt eine starke Reduzierung der kaskadenartigen Ereignissen. In anderen Analysen, wo solch eine starke Ereignisselektion nicht durchgeführt wird,
spielt die Unterdrückung der kaskadenartigen Ereignisse eine große Rolle, da die kas61
62
K APITEL 7. FAZIT
kadenartigen Ereignisse die Neutrinooszillation verschmieren. Daher ist es wichtig die
Unterdrückung der Kaskadenereignisse zu verbesseren, sodass ein Datensatz mit einer
hohen Reinheit an Myonneutrinos (CC) erreicht wird. Durch den Vergleich zwischen der
Monte-Carlo-Wahrheit und der Rekonstruktion zeigten die entwickelten Variablen in dieser Arbeit, dass eine Verbesserung der Ereignisrekonstruktion die Trennung zwischen
Kaskaden und Spuren verbessern würde (s. Kapitel 5.3).
Die geplante Erweiterung von DeepCore ist der PINGU-Detektor (Precision Icecube Next
Generation Upgrade) [63], welcher für zukünftige Oszillationsanalyse eine große Rolle
spielen wird. PINGU weist eine dichtere Instrumentierung auf, welche in Deepcore intrigiert wird, und senkt die Energieschwelle zur Detektion von Neutrinos auf einige GeV
herab. PINGU ist ausgelegt für die Erforschung der Massenhierarchie und der Oszillation
der Neutrinos. Für die Analyse der Massenhierarchie ist die Messung der y1 -Verteilung
wichtig, da sie bei der Bestimmung des Neutrino zu Anti-Neutrino Verhältnisses hift. Für
die Messung der y-Verteilung ist eine Unterscheidung zwischen kaskadenartigen und spurartigen Ereignissen essenziell. Außerdem können durch die dichteren Instrumentierung
von PINGU die Ereignisse genauer rekonstruiert werden, wodurch die Trennkraft der Variablen in dieser Arbeit gesteigert werden kann, sodass die Trennung zwischen Kaskaden
und Spuren effizienter wird.
1
y gibt den Kaskadenanteil im Ereignis an. y ≡
Eνµ −Eµ
Eν µ
Anhang A
Herleitung der Wahrscheinlichkeit für die 2-FlavorNäherung
|νµ i
c23 s23
|ν2 i
=
·
|ντ i
−s23 c23
|ν3 i
sin(2x) = 2 sin(x) cos(x)
1 − cos(2x) = 2 sin2 (x)
cos(x) =
P (νµ → ντ ) =
=
=
=
=
=
1
· e−ix + eix)
2
2
X
2
∗
−iL(mi /2E) Uµi Uτ i · e
i
2
∗
−iL(m22 /2E)
∗
−iL(m23 /2E) U
U
·
e
+
U
U
·
e
µ2 τ 2
µ3 τ 3
2
2
2
−c23 s23 · e−iL(m2 /2E) + s23 c23 · e−iL(m3 /2E) 2
2
2
c223 s223 · e−iL(m3 /2E) − e−iL(m2 /2E) 2 2
−iL(m23 /2E)
−iL(m22 /2E)
iL(m23 /2E)
iL(m22 /2E)
c23 s23 · e
−e
· e
−e
1 −iL((m23 /2E)−(m22 /2E))
iL((m23 /2E)−(m22 /2E))
2 2
+e
2c23 s23 · 1 − · e
2
s.o.
= 2c223 s223 · (1 − cos(L/2E · (m23 − m22 )))
s.o.
= 4c223 s223 · sin2 (L/4E · (m23 − m22 ))
s.o.
= sin2 (2θ23 ) · sin2 (∆m232 · L/4E)
Umrechnung von natürlichen Einheiten in das SI-Einheitensystem:
∆m232 L
4E
→
=
~c=1
=
∆m232
ev2
∆m232
eV2
L eV m · eV
·
·
m E
4
L GeV m · eV
·
·
·
· 10−6
km E
4
∆m232 L GeV
1,269 ·
·
·
eV2 km E
·
63
64
K APITEL 7. FAZIT
Anhang B
BDT-Einstellungen
Tabelle 7.1: Für eine Tiefe von zwei Ebenen und mit 30 % Pruning wird der KS-Test
und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
21,28 / 3,53
33,94 / 1,77
57,17 / 1,89
68,42 / 53,51
75,49 / 34,33
53,37 / 40,92
71,06 / 34,96
57,27 / 48,87
54,69 / 36,49
max. Signifikanz
85,8512
85,7814
85,8497
85,8635
85,8589
85,8524
85,8455
85,8596
85,8612
Tabelle 7.2: Für eine Tiefe von zwei Ebenen und mit 50 % Pruning wird der KS-Test
und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
0,29 / 10−5
13,45 / 0,13
62,95 / 3,47
24,34 / 46,91
32,28 / 78,50
45,47 / 75,30
45,37 / 77,66
23,64 / 77,58
29,06 / 90,65
65
max. Signifikanz
85,7201
85,6920
85,6943
85,7220
85,8936
85,8857
85,9366
85,9365
85,9523
66
K APITEL 7. FAZIT
Tabelle 7.3: Für eine Tiefe von drei Ebenen und mit 30 % Pruning wird der KS-Test und
die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
46,72 / 23,93
13,98 / 19,80
18,43 / 9,99
3,82 / 6,07
25,63 / 21,21
25,53 / 4,54
21,82 / 54,94
7,65 / 21,50
3,41 / 6,99
max. Signifikanz
85,6854
85,7200
85,8392
85,9122
86,0134
86,1017
86,0756
86,1218
86,1191
Tabelle 7.4: Für eine Tiefe von drei Ebenen und mit 50 % Pruning wird der KS-Test und
die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
7,07 / 18,07
74,88 / 0,02
31,30 / 15,13
17,47 / 41,20
6,89 / 37,04
11,76 / 39,95
12,42 / 36,23
13,00 / 44,18
24,43 / 60,01
max. Signifikanz
85,8441
85,8118
85,9078
85,8743
85,9892
85,9920
85,9914
85,9954
86,0125
67
Tabelle 7.5: Für eine Tiefe von vier Ebenen und mit 30 % Pruning wird der KS-Test und
die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
40,70 / 0,07
21,77 / 2,41
23,07 / 1,99
13,07 / 1,69
11,48 / 1,24
5,90 / 20,04
4,29 / 30,34
7,06 / 27,46
5,54 / 31,15
max. Signifikanz
85,9517
85,9756
85,9879
86,0678
86,0688
86,0681
86,1557
86,1596
86,1640
Tabelle 7.6: Für eine Tiefe von vier Ebenen und mit 50 % Pruning wird der KS-Test und
die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt.
NTrees
100
150
200
250
300
350
400
450
500
KS-Test (Signal/Untergrund) [%]
0,18 / 3,92
3,94 / 6,44
8,53 / 0,60
10,99 / 10−3
1,12 / 0,94
10−3 / 10−3
3,57 / 11,17
6,75 / 11,98
7,04 / 6,54
max. Signifikanz
85,7937
85,8176
85,8196
85,8236
85,8349
85,8617
85,9826
85,9736
86,0736
68
K APITEL 7. FAZIT
Anhang C
Variabeln vor und nach dem BDT-Schnitt
Im Folgenden werden die restlichen Variablen in der Reihenfolge ihre Wichtigkeit im
BDT aufgelistet.
Die verwendeten BDT-Einstellungen sind: 350 Bäume, zwei Tiefen und 50 % Pruning.
69
K APITEL 7. FAZIT
70
Abbildung 7.1: Zeigt die Verteilung der Variable NLateDomsDiff vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt jeweils die logarithmische Darstellung.
Abbildung 7.2: Zeigt die Verteilung der Variable Q_early1000 vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt
jeweils die logarithmische Darstellung.
71
K APITEL 7. FAZIT
72
Abbildung 7.3: Zeigt die Verteilung der Variable bayesDiff vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt
jeweils die logarithmische Darstellung.
Abbildung 7.4: Zeigt die Verteilung der Variable recoR vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm jeweils zeigt
die logarithmische Darstellung.
73
K APITEL 7. FAZIT
74
Abbildung 7.5: Zeigt die Verteilung der Variable Santachi2_ratio vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt die logarithmische Darstellung. Auf der x-Achse ist jeweils der Zehnerlogarithmus aufgetragen.
Abbildung 7.6: Zeigt die Verteilung der Variable Santachi2_track vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt die logarithmische Darstellung. Auf der x-Achse ist jeweils der Zehnerlogarithmus aufgetragen.
75
K APITEL 7. FAZIT
76
Abbildung 7.7: Zeigt die Verteilung der Variable LogL_Track_Cascade vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung.
Abbildung 7.8: Zeigt die Verteilung der Variable LogL_Track_Track vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt jeweils die logarithmische Darstellung.
77
K APITEL 7. FAZIT
78
Abbildung 7.9: Zeigt die Verteilung der Variable LDir vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils
die logarithmische Darstellung.
Abbildung 7.10: Zeigt die Verteilung der Variable QMax_QTot vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt
jeweils die logarithmische Darstellung.
79
K APITEL 7. FAZIT
80
Abbildung 7.11: Zeigt die Verteilung der Variable costheta_SPEFit vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt jeweils die logarithmische Darstellung.
Abbildung 7.12: Zeigt die Verteilung der Variable Q_early500 vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt
jeweils die logarithmische Darstellung.
81
K APITEL 7. FAZIT
82
Abbildung 7.13: Zeigt die Verteilung der Variable LogLRatio_Track vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm
zeigt jeweils die logarithmische Darstellung.
Literaturverzeichnis
[1] R. DAVIS , D. S. H ARMER , AND K. C. H OFFMAN. Search for Neutrinos from
the Sun. Phys. Rev. Lett. 20, doi: 10.1103/PhysRevLett.20.1205, (1968).
[2] B. P ONTECORVO. "Mesonium and anti-mesonium. Sov.Phys.JETP 6 (1957) 429,
(1957).
[3] E. A KHMEDOV. Neutrino physics. arXiv:hep-ph/0001264, (2000). http://
arxiv.org/pdf/hep-ph/0001264v2.pdf.
[4] G. Z. J.A. F ORMAGGIO. From eV to EeV: Neutrino Cross Sections Across
Energy Scales. arXiv:1305.7513 [hep-ex], (2013). http://arxiv.org/abs/
1305.7513.
[5] P ROF. C. W IEBUSCH. AstroTeilchenphysik. RWTH-Aachen: Vorlesungsskript,
(2010).
[6] H. T. M ARKUS A HLERS , A NDREAS R INGWALD. Cosmic rays at ultra high energies (Neutrinos!). arXiv:astro-ph/0506698v1, (2005). http://arxiv.org/
pdf/astro-ph/0506698v1.pdf.
[7] V ICTOR F. H ESS. Über Beobachtungen der durchdringenden Strahlung bei
sieben Freiballonfahrten. Physikalische Zeitschrift 13, (1912). http://www.
mpi-hd.mpg.de/hfm/HESS/public/HessArticle.pdf.
[8] C LAUS G RUPEN. Astroparticle physics. Springer, 2005.
[9] J. B ERINGER ET AL . (PARTICLE DATA G ROUP ). Review of particle physics. Phys.
Rev. D86, 010001 (2012) and 2013 partial update for the 2014 edition, (2012).
PDG1.
[10] T. S TANEV. High Energy Cosmic Rays. Springer Berlin Heidelberg, 2nd ed.,
2009.
[11] Y. F UKUDA ET AL . (S UPER -K AMIOKANDE C OLLABORATION ). Evidence for
Oscillation of Atmospheric Neutrinos. Phys. Rev. Lett. 81, doi: 10.1103/PhysRevLett.81.1562, (1998).
[12] C. E . A . A MSLER. Standard Model and Related Topics. Physics Letters
B, vol. 667(1-5), (2008). http://www.sciencedirect.com/science/
article/pii/S0370269308008526.
83
84
L ITERATURVERZEICHNIS
[13] M. N. Z IRO M AKI AND S. S AKATA. Remarks on the Unified Model of Elementary Particles. Prog. Theor. Phys. (1962) 28 (5), (1962). http://ptp.
oxfordjournals.org/content/28/5/870.
[14] S. E ULER. Observation of oscillations of atmospheric neutrinos with the IceCube Neutrino Observatory. RWTH Aachen, (2013). Doktorarbeit Sebastian Euler.
[15] K. K RINGS. Studies on the Measurement of Atmospheric Neutrino Oscillations
with the PINGU Detector. RWTH Aachen, (2013). Masterarbeit Kai Krings.
[16] P. A DAMSON ET AL . (MINOS C OLLABORATION ). Measurement of Neutrino
and Antineutrino Oscillations Using Beam and Atmospheric Data in MINOS.
Phys. Rev. Lett. 110, doi: 10.1103/PhysRevLett.110.251801, (2013).
[17] S PENCER R. K LEIN FOR THE I CE C UBE C OLLABORATION. Recent Highlights
from IceCube. arXiv:1311.6519 [astro-ph.HE], (2013). http://arxiv.org/
pdf/1311.6519v1.pdf.
[18] I CE C UBE C OLLABORATION. First Year Performance of The IceCube Neutrino Telescope. arXiv:astro-ph/0604450v2, (2006). http://arxiv.org/pdf/
astro-ph/0604450.pdf.
[19] B ERKELEY L AB.
Aufbau eines digitalen optischen Moduls.
(2010).
http://newscenter.lbl.gov/wp-content/uploads/sites/2/
2010/12/DOM-schema.jpg.
[20] U NIVERSITY OF W ISCONSIN -M ADISON. IceCube: Digitales optisches Modul. . http://www.psl.wisc.edu/wp-content/themes/default/
images/projects/dom.jpg.
[21] J OHN T OON. IceCube Neutrino Observatory Explores Origin of Cosmic Rays.
Georgia College of Tech Sciences, (2012). IceCube Model.
[22] I CE C UBE C OLLABORATION. The Design and Performance of IceCube DeepCore. arXiv:1109.6096 [astro-ph.IM], (2011). http://arxiv.org/pdf/1109.
6096v1.pdf.
[23] L AUREL N ORRIS BACQUE. IceCube DeepCore oscillations. (2012). DeepCore
Schema.
[24] I CE C UBE C OLLABORATION. Geometry figures. IceCube wiki, (2011). IC79String-Konfiguration.
[25] J. A. ET AL . (I CE C UBE C OLLABORATION ). IceCube Preliminary Design
Document. (2001). https://icecube.wisc.edu/icecube/static/
reports/IceCubeDesignDoc.pdf.
[26] W. D EMTRÖDER. Experimentalphysik 4: Kern-, Teilchen- und Astrophysik,
2.Auflage. Springer-Verlag, 2004.
[27] I. TAMM. Radiation emitted by uniformly moving electrons. J. Phys.(USSR) 1,
439, (1939).
L ITERATURVERZEICHNIS
85
[28] P.B. P RICE UND K. W OSCHNAGG.
Role of group and phase velocity in high-energy neutrino observatories.
Astroparticles Physics,
(2001). http://icecube.berkeley.edu/~bprice/publications/
group.phase.vel.pdf.
[29] L. R ÄDEL UND P ROF. C. W IEBUSCH. Calculation of the Cherenkov light yield
from low energetic secondary particles accompanying high-energy muons in ice
and water with Geant4 simulations. arXiv:1206.5530v2 [astro-ph.IM], (2012).
http://arxiv.org/pdf/1206.5530.pdf.
[30] U NI -F REIBURG.
Experimente zum Nachweis kosmischer Strahlung in
Form von Myonen. . http://hep.uni-freiburg.de/Kamiokanne/
cherenkov.png.
[31] V. S TENGER. Track Fitting For Dumand II Octagon Array. DUMAND External
Reports, (1990).
[32] J.-P. H ÜLSS. Search for Neutrinos from the Direction of the Galactic Center
with the IceCube Neutrino Telescope. RWTH Aachen, (2010). Doktorarbeit JanPatrick Hülß .
[33] I. C OLLABORATION. Improvement in Fast Particle Track Reconstruction with
Robust Statistics. arXiv:1308.5501 [astro-ph.IM], (2013).
[34] J. L. ET AL . Light tracking through ice and water – Scattering and absorption
in heterogeneous media with Photonics. arXiv:astro-ph/0702108, (2007). http:
//arxiv.org/pdf/astro-ph/0702108v2.pdf.
[35] M. L EUERMANN. Untersuchungen zur Messung von Oszillationen atmosphärischer Neutrinos mit IceCube-DeepCore. RWTH Aachen, (2011). Bachelorarbeit
Martin Leuermann.
[36] P. H ALLEN. On the Measurement of High-Energy Tau Neutrinos with IceCube.
RWTH Aachen, (2013). Masterarbeit Patrick Hallen.
[37] I. C OLLABORATION. Energy Reconstruction Methods in the IceCube Neutrino
Telescope. arXiv:1311.4767 [physics.ins-det], (2014). http://arxiv.org/
pdf/1311.4767v3.pdf.
[38] I. C OLLABORATION. The IceCube Data Acquisition System: Signal Capture,
Digitization, and Timestamping. arXiv:0810.4930 [physics.ins-det], (2009).
http://arxiv.org/ftp/arxiv/papers/0810/0810.4930.pdf.
[39] I. C OLLABORATION.
SLC hit cleaning.
IceCube Wiki,
(2013).
https://wiki.icecube.wisc.edu/index.php?title=SLC_hit_
cleaning&oldid=126846#New_Seeded_RT-cleaning.
[40] T. D. M ICHAEL L ARSON , JASON KOSKINEN.
Removing Pure Noise Events With TrackEngine. Collabration Meeting, (2011). https:
//events.icecube.wisc.edu/getFile.py/access?contribId=
58&sessionId=20&resId=0&materialId=slides&confId=36.
86
L ITERATURVERZEICHNIS
[41] J. P. Y. NEZ. Corridor Cut removing sneaky muons.
(2012). https:
//docushare.icecube.wisc.edu/dsweb/Get/Document-62713/
Yanez_CorridorCut_Oct2012.pdf.
[42] D. C. FOR THE I CE C UBE COLLABORATION. Neutrino search with IceCube. IceCube Internal Report, (2008).
[43] M. V EHRING. Update on the new IC79 Oscillation Analysis. IceCube Aachen
Wiki, (2013).
[44] A. I. UND S HIGERU YOSHIDA. Note on neutrino-generator und juliet: Effective
area and event rate using event weighing technique. IceCube internal Report,
(2006).
[45] I. C OLLABORATION. The GENIE Neutrino Monte Carlo Generator. arXiv:0905.2517v2 [hep-ph],
(2009).
http://arxiv.org/pdf/0905.
2517v2.pdf.
[46] J. H. U . W. K. T. E . A . H. L. L AIF. Global QCD Analysis of Parton Structure
of the Nucleon: CTEQ5 Parton Distributions. arXiv:hep-ph/9903282v3, (1999).
[47] I. C OLLABORATION. PPC. IceCube wiki, (2010). https://wiki.icecube.
wisc.edu/index.php/PPC.
[48] C. KOPPER. CLSim. IceCube, (2014). http://code.icecube.wisc.edu/
svn/projects/clsim/.
[49] I. C OLLABORATION. Measurement of South Pole ice transparency with the
IceCube LED calibration system. arXiv:1301.5361v1 [astro-ph.IM], (2013).
http://arxiv.org/pdf/1301.5361v1.pdf.
[50] I. C OLLABORATION. Extensive Air Shower Simulation with CORSIKA: A
User’s Guide. Forschungszentrum Karlsruhe: Technik und Welt, (1998).
[51] M. G EISLER. On the Measurement of Atmospheric Muon-Neutrino Oscillations with IceCube-DeepCore. RWTH Aachen, (2010). Diplomarbeit Matthias
Geisler.
[52] J.-P. Y. U . M. D . W. J ÜRGEN B RUNNER. SANTA algorithm. IceCube Wiki, (2014). https://wiki.icecube.wisc.edu/index.php/SANTA_
algorithm.
[53] A. C OLLABORATION. A Fast Algorithm for Muon Track Reconstruction and
its Application to the ANTARES Neutrino Telescope. arXiv:1105.4116 [astroph.IM], (2011). http://arxiv.org/pdf/1105.4116v1.pdf.
[54] J.-P. YANEZ. IC86 oscillations event selection. IceCube Wiki, (2013). https:
//wiki.icecube.wisc.edu/index.php/IC86_oscillations_
event_selection.
[55] J. G ROH. PID for νµ Events via "Faster than c/n"Hits. PINGU wiki, (2013).
PINGU conference call.
L ITERATURVERZEICHNIS
87
[56] M. R ICHMAN. Metaproject documentation - pybdt. IceCube Collaboration,
(2013). http://software.icecube.wisc.edu/icerec/projects/
pybdt/index.html.
[57] H. E VANS.
PHYSICS P411/P610: Decision Trees.
Indiana University,
(2011). http://hep.physics.indiana.edu/~hgevans/p411-p610/
material/11_classify/bdt.html#boost.
[58] W IKIPEDIA. Kolmogorov - Smirnov test. Wikipedia, the free encyclopedia, (2014). http://en.wikipedia.org/wiki/Kolmogorov%E2%80%
93Smirnov_test.
[59] J.-P. Y. ROLF NAHNHAUER , A NDRII T ERLIUK. Energy reconstruction of νµ
events in DeepCore. IceCube Internal Report, (2013).
[60] N. W. E MANUEL JACOBI , M EIKE DE W ITH. millipede. IceCube, (2014). http:
//code.icecube.wisc.edu/svn/projects/millipede/.
[61] S. S. W ILKS. The large-sample distribution of the likelihood ratio for testing
composite hypotheses. Ann. Math. Statist. 9 60-62, (1938).
[62] J.-P. YANEZ. DESY oscillation analysis - muon disappearance. IceCube wiki,
(2014).
[63] I.-P. C OLLABORATION. Letter of Intent: The Precision IceCube Next Generation Upgrade (PINGU). arXiv:1401.2046 [physics.ins-det], (2014).
88
L ITERATURVERZEICHNIS
Danksagung
Ich bedanke mich bei der gesamten Arbeitsgruppe IceCube für das angenehme Arbeitsklima.
Ein großes Dankeschön geht an Prof. Christopher Wiebusch, der mir diese Arbeit ermöglicht hat.
Außerdem danke ich Prof. Achim Stahl, der sich als Zweitprüfer zur Verfügung gestellt
hat.
Für eine hilfreiche und gute Betreuung bedanke ich mich sehr bei Markus Vehring. Bei
ihm konnte ich immer um Rat fragen. Ob es um Programmierproblemen oder um Verständnisfragen ging, war er bereit mir zu helfen.
Danke an Martin Bissok, der für Verständnisfragen immer da war.
Ein Dankeschön geht auch an Sebastian Schönen, Leif Rädel und Christian Haack, die
für allgemeine Frage immer ein offenes Ohr hatten.
Weiterhin bedanke ich mich bei Marius Wallraff und Jan Blumenthal, die sich als Korreturleser zur Verfügung gestellt haben.
Der größte Dank geht an meine Eltern und meinem Bruder, die mich immer unterstützt
haben. Sie haben mich immer ermuntert durchzuhalten und immer mein Bestes zu geben.
Zu Hause haben sie mir Aufgaben abgenommen, sodass ich mich vollkommen auf das
Studium konzentrieren konnte.
Herzlichen Dank nochmal.
89
Erklärung
Ich versichere, dass ich die Arbeit selbstständig verfasst und keine anderen
als die angegebenen Quellen und Hilfsmittel benutzt sowie Zitate kenntlich
gemacht habe.
Aachen, den 10. September 2014
Christian Wichary
Herunterladen