Zur Identifikation von kaskadenartigen Untergrund für die Messung von Oszillationen atmosphärischer Neutrinos mit I CE C UBE von Christian Wichary Masterarbeit in Physik vorgelegt der Fakultät für Mathematik, Informatik und Naturwissenschaften der RWTH Aachen im September 2014 angefertigt im III. Physikalisches Institut B bei Prof. Dr. Christopher Wiebusch II Inhaltsverzeichnis 1 Einleitung 1 2 Theorie 2.1 Neutrinos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Neutrinooszillation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 2-Flavor-Näherung . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 5 3 I CE C UBE Neutrino Observatorium 9 3.1 Detektoraufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3.2 Detektionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4 Ereignisselektion für die Oszillationsanalyse in I CE C UBE 17 4.1 Rekonstruktionen in I CE C UBE . . . . . . . . . . . . . . . . . . . . . . . 17 4.2 Ereignisselektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2.1 Verwendete Daten für den „Boosted Decision Trees“ . . . . . . . 25 5 Variablen zur Trennung von Kaskaden 5.1 Vordefinierte Größen . . . . . . . . . . . . . . . . . . 5.2 SANTA - Single string ANTares-inspired Analysis . . 5.3 Log-Likelihood Berechnung für Spuren und Kaskaden 5.3.1 „Frühe Treffer“ . . . . . . . . . . . . . . . . . 5.3.2 Log-Likelihood Berechnung . . . . . . . . . . 5.4 Verwendete Variablen im BDT . . . . . . . . . . . . . 6 7 Analyse 6.1 Boosted Decision Trees . . . . . . . . . . . . . 6.1.1 Einstellungen des BDTs . . . . . . . . 6.2 Optimierung und Robustheit des BDTs . . . . . 6.3 Ergebnisse der Trennung . . . . . . . . . . . . 6.3.1 Überprüfung der Oszillationshypothese Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 27 28 32 33 35 41 . . . . . 43 43 45 46 56 59 61 Anhang A 63 Anhang B 65 Anhang C 69 i ii Literaturverzeichnis I NHALTSVERZEICHNIS 83 Kapitel 1 Einleitung Das I CE C UBE-Experiment ist mit einem Detektionsvolumen von ca. 1 km3 das größte Neutrinoteleskop der Welt. Es liegt zwischen 1450 m bis 2450 m tief im antarktischen Gletschereis des geographischen Südpols und wurde im Dezember 2010 fertiggestellt. IceCube wurde entwickelt zur Suche von hochenergetischen extragalaktischen Neutrinos, die aus kosmischen Quellen (Quasare, Supernova-Explosionen, ...) entstammen. Die ungeladenen Neutrinos sind geeignete Teilchen, um die kosmischen Quellen und deren Ursprung zu finden. Zudem kann IceCube zur Erforschung von physikalischen Phänomenen wie Dunkler Materie und Neutrinooszillationen genutzt werden. 1968 hat das Pionierexperiment H OMESTAKE [1] ein Verschwinden von Elektronneutrinos aus der Sonnen entdeckt. Dies wurde auf das Phänomen der Neutrinooszillation zurückgeführt, wodurch sich die drei Neutrinosorten (νe , νµ , ντ ) ineinander umwandeln können, was B. Pontecorvo [2] 1957 postulierte. Mit der Niederenergieerweiterung DeepCore, die die Energieschwelle von I CE C UBE von 100 GeV auf 10 GeV herabsenkt, können Neutrinooszillationen studiert werden. Basierend auf atmosphärischen Myonneutrinos, die aus Luftschauern erzeugt werden, wird das Verschwinden der Myonneutrinos gemessen, wodurch eine Aussage über die Oszillation der Myonneutrinos gemacht werden kann. Myonneutrinos können durch die Wechselwirkung im Eis Myonen erzeugen, die als Spuren im Eis durch den Cherenkov-Effekt detektiert werden können. Im Gegensatz zu Myonneutrinos erzeugen Elektronneutrinos kaskadenartige Ereignisse im Eis, welche die Beobachtbarkeit der Neutrinooszillation verschmieren. Außerdem sehen diese zwei Sorten von Ereignissen im betrachteten Energiebereich von 10 GeV bis 100 GeV ähnlich aus, wodurch die Unterscheidung eine Herausforderung ist. In dieser Arbeit soll ein Verfahren zur Unterdrückung dieser kaskadenartigen Ereignissen entwickelt werden. Zur Trennung von Kaskaden und Spuren wird ein „Boosted Decision Trees“ verwendet. Zusätzlich werden neue Variablen zur Trennung von kaskadenartigen und spurartigen Ereignissen entwickelt und dem „Boosted Decision Trees“ mitgegeben, sodass dieser optimiert werden kann. Zum Abschluss dieser Arbeit wird eine Monte-Carlo-Studie zur Bestimmung der statistischen Signifikanz der Oszillationshypothese durchgeführt. 1 2 K APITEL 1. E INLEITUNG Kapitel 2 Theorie 2.1 Neutrinos Neutrinos sind elektrisch neutrale Elementarteilchen mit Spin 1/2 und gehören zur Familie der Leptonen. Sie kommen in drei verschiedenen Sorten vor, sogenannte FlavorZustände (νe , νµ , ντ ). Die ungeladenen Neutrinos nehmen nur an der schwachen Wechselwirkung teil und zwar nur die linkshändigen Neutrinos und die rechtshändigen AntiNeutrinos [3]. Durch ihren kleinen Wirkungsquerschnitt [4] sind Neutrinos schwer zu detektieren. Die Gravitation ist auf Grund ihre geringe Masse (mν ∝ eV) vernachlässigbar klein. In Abbildung 2.1 sind die zu erwarteten Neutrinoflüsse gegen ihre Energie gezeigt und aus welchen Quellen sie kommen. Abbildung 2.1: Die zu erwarteten Neutrinoflüsse aus unterschiedlichen Quellen [5]. 3 4 K APITEL 2. T HEORIE Im Niederenergie-Bereich (< 1 eV) dominieren die kosmologischen Hintergrund-Neutrinos aus dem Urknall. Im MeV-Bereich kommen Neutrinos aus Kernprozessen unserer Sonne und aus Supernova-Explosionen und in der GeV-TeV-Region sind atmosphärische Neutrinos, die aus Wechselwirkungen in der Atmosphäre entstehen, stark vertreten. Bei hohen Energien von > 100 TeV werden Neutrions aus kosmischen Beschleunigern (AGN, Quasare, ...) erwartet [5]. Für die höchsten Energien im EeV-Bereich erwartet man, dass Neutrinos aus Zerfällen geladener Pionen entstehen (GZK-Effekt) [6]. Für diese Arbeit sind atmosphärische Myonneutrinos relevant, die aus Luftschauern entstehen und im Energiebereich von 10 GeV bis 100 GeV liegen. Durch die Wechselwirkung von hochenergetischen kosmischen Teilchen mit den Molekülen in der Atmosphäre entstehen Luftschauern, die aus einer hadronischen und einer elektromagnetischen Komponente bestehen. Die kosmische Strahlung wurde 1912 von Victor Hess durch Ballonexperimenten entdeckt [7] und besteht aus 98 % aus Atomkernen 1 und 2 % aus Elektronen [8]. Aus diesen erzeugten Luftschauern werden Pionen und Kaonen produziert, die weiter zerfallen können [9]: K+ K− −→ −→ µ + + νµ µ− + ν̄µ K+ K− π+ π− −→ −→ −→ −→ −→ −→ µ + + νµ µ− + ν̄µ e+ + νe + ν̄µ + νµ (63,55 %) e− + ν̄e + νµ + ν̄µ (63,55 %) π + + π 0 (20,66 %) π − + π 0 (20,66 %) −→ −→ e+ + νe + ν̄µ + νµ (99,99 %) e− + ν̄e + νµ + ν̄µ (99,99 %) Aus den entstanden Kaonen zerfallen sie zu 63,55 % direkt in Myonen und Neutrinos und in 20,66 % der Fälle zerfallen sie in neutrale und geladenen Pionen. Die geladenen Pionen zerfallen zu fast 100 % in Myonen und Neutrinos und die neutralen Pionen zerfallen instantan in zwei Photonen, die den elektromagnetischen Anteil des Schauers ausmachen. Außerdem zerfallen die Myonen, falls die Energie nicht ausreicht um bis zur Erde zu gelangen, ausschließlich in Elektronen und weiteren Neutrinos. Das Verhältnis der Neutrinosorten ist aus den obigen Zerfallskanälen ablesbar2 : N (νµ , ν̄µ ) ≈2 N (νe , ν̄e ) (2.1) In erster Ordnung erwartet man, dass keine Tauneutrinos vorkommen und dass die Produktion von Teilchen und Anti-Teilchen gleich groß ist. Auf der Erde wird ein Neutrinofluss von Φν ≈ 1 cm−2 s−1 erwartet. [10]. 2.2 Neutrinooszillation Im Jahre 1968 wurde der Elektronneutrinofluss mit dem Experiment H OMESTAKE [1] gemessen und es wurde ein geringerer Fluss beobachtet, als man erwartete. Damals war man sich nicht sicher, ob die Sonnenmodelle richtig waren oder die Neutrinophysik noch nicht gut erforscht war. Die Lösung des Problems war, dass sich die Neutrinos ineinander 1 2 85 % Protonen, 12 % Helium und 3 % schwerere Atomkernen Solange alle Myonen zerfallen. 2.2. N EUTRINOOSZILLATION 5 umwandeln können, was von Bruno Pontecorvo [2] schon 1957 vorhergesagt wurde. Im Jahre 1998 konnte das S UPER K AMIOKANDE-Experiment das Phänomen der Neutrinooszillation bestätigen [11]. Durch diese Beobachtung, dass Neutrino-Flavor-Zustände sich ineinander umwandeln können, wird eine Massendifferenz gefordert (s. unten), sodass Neutrinos eine Masse zugeordnet wird. Um die Oszillation zu beschreiben [12], geht man von drei Masseneigenzuständen |νj i (j=1,2,3) der Neutrinos aus, die als Linearkombination die Flavor-Zustände |να i (α = e,µ,τ ) ergeben: X X ∗ |να i = Uαj |νj i ⇐⇒ |νj i = Uαj |να i (2.2) α j U ist die Pontecorvo-Maki-Nakagawa-Sakata-Matrix (PMNS-Matrix) und ist außerdem unitär (U · U ∗ = 1) [13]. Die PMNS-Matrix ist eine Zusammenstellung aus drei Rotationsmatrizen mit jeweils einem Rotationswinkel θjk : U = U23 · U13 · U12 . 1 0 0 c13 0 s13 eiδ c12 s12 0 1 0 · −s12 c12 0 , U = 0 c23 s23 · 0 (2.3) iδ 0 −s23 c23 −s13 e 0 c13 0 0 1 wobei cjk ≡ cos(θjk ), sjk ≡ sin(θjk ) und δ die Phase der CP-Verletzung 3 beschreiben (im Folgenden ist δ = 0) [3]. Die zeitliche (t) und örtliche (x) Entwicklung der Flavor-Zustände wird durch die Schrödinger-Gleichung beschrieben und kann durch X ∗ −i(Ej t−~ pj ~ x) |να (t, ~x)i = Uαj e |νj i (2.4) j gelöst werden, wobei Ej die Energie und pj der Impuls für den Masseneigenzustand |νj i ist. Mit den Annahmen, dass die Energie der Flavor-Zustände E gleich der Energie der Masseneigenzustände ist und die Massen der Neutrinos klein sind: q q (2.5) E = Ej −→ pj = Ej2 − m2j = E 1 − m2j /E 2 ≈ E + m2j /2E , kann mit der Gleichung 2.2 und 2.4 die Wahrscheinlichkeit, dass ein Flavor α sich in ein Flavor β umwandelt, durch [3] 2 X 2 ∗ P (να → νβ ) = |hνβ |να (t, ~x)i|2 = Uαj Uβj e−iL(mj /2E) (2.6) j gegeben, wobei t ' |~x| = L mit c = 1 und L die Propagationslänge des Neutrinos ist. 2.2.1 2-Flavor-Näherung Da in dieser Arbeit atmosphärische Myonen betrachtet werden, können einige Näherungen durchgeführt werden4 . Aus Experimenten ist bekannt, dass sin2 (θ13 ) klein ist, wodurch man die Matrix U13 vernachlässigen kann. Durch die Auswertung von Gleichung 3 4 C=Ladungskonjugation: ˆ +q → −q und P=Parität: ˆ +r → −r. Im Allgemeinen sind diese Näherungen nicht gültig. 6 K APITEL 2. T HEORIE 2.6 und Vernachlässigung von Termen in der Größenordnung von 10−3 fallen die Terme mit U12 wegen ∆m212 ∝ 10−5 eV2 weg [9]. Daher beschränken wir uns auf das 2-FlavorModel, wo die Oszillation zwischen zwei Neutrinosorten (z. B. µ und τ 5 ) betrachtet wird. Im 2-Flavor-Model gilt: c23 s23 U= . (2.7) −s23 c23 Mit den Gleichungen 2.6 und 2.7 ist die Wahrscheinlichkeit (s. Herleitung im Anhang A) in Abhängigkeit der Energie E und der Propagationslänge L der Neutrinos durch ∆m232 L GeV 2 2 · · (2.8) P (νµ → ντ ) = sin (2θ23 ) · sin 1,27 · eV2 km E gegeben, wobei ∆m232 = m23 − m22 ist. Durch die Umrechnung aus den natürlichen Einheiten in das SI-Einheitensystem entsteht der Vorfaktor 1,27. In Abbildung 2.2 ist die Wahrscheinlichkeit, dass ein Myonneutrino in ein Tauneutrino oszilliert in Abhängigkeit von L / E dargestellt. Die Oszillationsamplitude ist durch sin2 (2θ23 ) gegeben und der Abstand zwischen zwei Maxima bzw. Minima ist durch die Oszillationslänge Losci definiert: Losci = 4πE . ∆m232 (2.9) Für eine maximale Umwandlung in einen anderen Flavor-Zustand ist L = 12 Losci . Der Oszillationseffekt ist im Grenzfall L Losci nicht zu beobachten und für L Losci können schon kleine relative Änderungen mehrere Oszillationslängen beinhalten, sodass der Oszillationseffekt verschmiert. Bei einem Wert L / E von größer 100 km/GeV sollten Oszillationen beobachtbar werden. Der Wert L / E beträgt 400 km/GeV für ein Neutrino, dass die Strecke L = 12000 km (Erddurchmesser: 12756 km [9]) mit einer Energie von 30 GeV durchläuft. Mit dem Neutrinoteleskop IceCube/DeepCore ist es möglich, diese Oszillation zu beobachten. Die Berechnung der Propagationslänge in IceCube hängt vom Zenit-Winkel θ des Teilchens ab und kann berechnet werden durch 12 rdet · sin(π − θ) 2 2 , (2.10) L = ratm + rdet − 2ratm rdet · cos θ − arcsin ratm wobei ratm = 6391 km der Abstand vom Erdmittelpunkt bis zum Rand der Atmosphäre und rdet = 6369 km der Abstand vom Erdmittelpunkt bis zum Detektor ist. Der zweite Messparameter für die Oszillationsberechnung ist die Energie des Myonneutrinos, wobei die Energie ungefähr proportional zur Myonenenergie ist, welches aus der Wechselwirkung des Myonneutrinos im IceCube-Detektor (s. nächstes Kapitel) erzeugt wird. Die Myonenergie kann durch die Spurlänge des Myons bestimmt werden, weil die Energieverluste im betrachteten Energiebereich (< 100 GeV) für Myonen hauptsächlich durch Ionisation (≈ 2 MeV cm2 /g [9]) entstehen. [14] Aus unterschiedlichen Experimenten wurden in Abbildung 2.3 die Resultate für |∆m232 | und sin2 (2θ23 ) zusammengefasst. Die besten Resultate erzielen die Experimente MINOS [16] und S UPER -K AMIOKANDE [11]. Man erkennt auch, dass IceCube sich mit den Jahren ständig verbessert hat. 5 Es können auch die Oszillationen zwischen νe und νµ oder νe und ντ betrachtet werden 2.2. N EUTRINOOSZILLATION 7 Abbildung 2.2: Oszillationswahrscheinlichkeit für ein Myonneutrino in ein Tauneutrino gegen L · E −1 . Oszillationsparameter: sin2 (2θ23 ) = 1 und ∆m232 = 2,5 · 10−3 eV2 [15]. Abbildung 2.3: Ergebnisse aus unterschiedlichen Experimenten für |∆m232 | und sin2 (2θ23 ) [17]. IceCube-86 ist der vollständige IceCube-Detektor und IceCube-79 nur ein Teil des Detektors (s. nächstes Kapitel). 8 K APITEL 2. T HEORIE Kapitel 3 I CE C UBE Neutrino Observatorium 3.1 Detektoraufbau Das I CE C UBE-Experiment [18] ist ein Neutrino-Detektor am Südpol und befindet sich mit einem Detektionsvolumen von 1 km3 in einer Tiefe von 1450 m bis 2450 m im Eis (s. Abb. 3.2). Am 18. Dezember 2010 wurde der Detektor fertiggestellt und besteht aus 86 Kabelsträngen (Abstand zwischen Kabelsträngen: ca. 125 m), sogenannten Strings, mit jeweils 60 digitalen optischen Modulen (DOMs). Jeder DOM ist ein kugelförmiges Glasgehäuse. In der oberen Hälfte des DOMs ist die Stromversorgung sowie die Ausleseelektronik eingebaut, und in der unteren Hälfte befindet sich ein 25 cm großer Photomultiplier, welcher das emittierte Licht der Teilchen im Eis detektiert (s. Abb. 3.1). Die Messparameter von IceCube sind die Zeiten und die Positionen jedes einzelnen getroffenen DOMs im Eis. Die Anzahl der ankommenden Photonen wird in Photoelektronen (PE) gemessen, die im Mittel die gemessene Ladung eines Photontreffers im DOM entspricht. Zusätzlich befindet sich an der Oberfläche ein Luftschauer-Array („IceTop“) aus 324 optischen Lichtsensoren. An 81 Strings sind jeweils zwei „IceTop“-Tanks, die atmosphärische Schauer detektieren und somit als Veto für IceCube dienen können. Jeder „IceTop“-Tank beinhaltet zwei DOMs, die im Wasser eingefroren sind. IceCube wurde in der 80-StringKonfiguration für Energien größer als 100 GeV konstruiert. Abbildung 3.1: Links: Schematischer Aufbau eines digitalen optischen Moduls [19]. Rechts: Ein echter IceCube-DOM [20]. 9 10 K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM Abbildung 3.2: Schematischer Aufbau des IceCube-Detektors [21]. Die Niederenergieerweiterung DeepCore [22] im Jahre 2009/2010 hat die Energieschwelle im Inneren von IceCube auf 10 GeV reduziert, wodurch Neutrinooszillation beobachtbar werden. DeepCore wird durch 7 IceCube-Strings und 8 weitere Strings definiert. Die zusätzlichen 8 Strings werden im Zentrum (um den 36. String) zwischen den IceCubeStrings platziert, wobei sechs der Strings mit 60 DOMs ausgestattet sind, die eine höhere Quanteneffizienz besitzen, wodurch die DOMs eine 30 % - 40 % höhere optische Sensitivität haben. In einer Tiefe von 2100 m bis 2450 m unterhalb des „Dust Layers“1 , wo das Eis am klarsten ist, werden 50 DOMs angebracht mit einem vertikalen Abstand von 7 m. Die restlichen 10 DOMs wurden oberhalb des Dust Layers in einer Tiefe von 1750 m bis 1850 m als Veto-Detektor für DeepCore mit einem vertikalen Abstand von 10 m angebracht (IceCube: 17 m). Der horizontale Abstand zwischen den sechs Strings, die symmetrisch um den IceCube-String liegen, beträgt 72 m. 2010/2011 wurden die letzten zwei DeepCore-Strings mit einem horizontalen Abstand von 42 m installiert (s. Abb. 3.3). 1 Eine Staubschicht im Eis, die eine stärkere Streuung und Absorption des Lichtes verursacht. (s. Abb. 3.3) 3.1. D ETEKTORAUFBAU 11 In dieser Analyse werden Daten verwendet, die mit der 79-String-Konfiguration gemessen wurden (s. Abb. 3.4). Abbildung 3.3: Aufbau des DeepCore-Detektors [23]. 12 K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM Abbildung 3.4: IC79-String-Konfiguration mit 73 Standard IceCube-Strings und 6 DeepCore-Strings [24]. 3.2 Detektionsprinzip Neutrinos wechselwirken selten mit Materie, dementsprechend braucht man ein großes Detektionsvolumen, um die Neutrinos zur Wechselwirkung zu bringen. Neutrinos können auf zwei Arten mit den Nukleonen N im Eis wechselwirken: 1. Eine Wechselwirkung über geladene Ströme (Charged Current, CC), wobei ein W ± zwischen dem Neutrino und dem Nukleon ausgetauscht wird und ein Lepton und eine hadronische Kaskade X entstehen: [3] νl /ν̄l + N −→ l± + X 2. Eine Wechselwirkung über ungeladene Ströme (Neutral Current, NC), wobei ein Z 0 zwischen dem Neutrino und dem Nukleon ausgetauscht wird und nur eine hadronische Kaskade X im Detektor zurück bleibt: [3] νl /ν̄l + N −→ νl /ν̄l + X mit l = e, µ, τ 3.2. D ETEKTIONSPRINZIP 13 Um eine Vorstellung davon zu bekommen, wie solche Ereignisse im IceCube-Detektor aussehen, wird kurz auf die verschiedenen Wechselwirkungen eingegangen. Ein hochenergetisches Myon aus der CC-Wechselwirkung erzeugt im Detektor eine lange Spur, welche sich von den Signaturen von Elektronen und Tau-Leptonen unterscheidet. Jedoch gilt dies nicht für niederenergetische Myonen von ≤100 GeV, weil dann die hadronische Kaskade dominiert und sich die Ereignisse von Elektronneutrinos und Tauneutrinos, die im Detektor Kaskaden erzeugen, kaum unterscheiden. Für NC-Wechselwirkungen sehen die Ereignisse für alle Neutrinosorten im Detektor gleich aus, da nur eine hadronische Kaskade entsteht und das Neutrino durch das Eis weiter propagiert. In Abbildung 3.5 sieht man, wie die Teilchen (e, µ, τ ) in IceCube aussehen würden, allerdings bei höheren Energie als in dieser Arbeit betrachtet wird. (a) Myonneutrino: 10 TeV Myonspur (b) Elektronneutrino: 375 TeV Kaskade (c) Tauneutrino: 1 PeV Doppel-Kaskade Abbildung 3.5: Ereignissignaturen in IceCube. Rot = frühe Treffer, blau = späte Treffer [25]. Diese sekundären Teilchen können durch den Cherenkov-Effekt nachgewiesen werden. Geladene Teilchen, die sich durch das Medium schneller als die Lichtgeschwindigkeit des Mediums c0 = nc ausbreiten, können das Medium kurzzeitig polarisieren (s. Abb. 3.7) und unter einem bestimmten Winkel (genannt Cherenkov-Winkel) Cherenkov-Licht 14 K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM emittieren. Für den Cherenkov-Winkel θc gilt (s. Abb. 3.6) cos(θc ) = 1 c0 = , v nβ (3.1) wobei β = vc sei [26]. Die Bedingung, damit Photonen emittiert werden, ist, dass Teilchen β·n > 1 erfüllen müssen. Für diese Bedingung kann mittels der Frank-Tamm-Formel [27] die Anzahl an Cherenkov-Photonen pro Spurlänge pro Wellenlänge durch 2παz 2 d2 N = · sin2 (θc ) dxdλ λ2 (3.2) angegeben werden, wobei z die Ladung des Teilchens und α die Feinstrukturkonstante ist. Für ein relativistisches Teilchen im Eis (β ≈ 1, n ≈ 1,32 [28]) ist der Cherenkov-Winkel θc ≈ 40,7◦ . Daraus folgt, dass die Anzahl an optischen Photonen N ≈ 250 cm−1 beträgt in einem Wellenlängen-Bereich von 300 nm bis 500 nm, wo IceCube mit der Photonendetektion sensitiv ist [29]. Abbildung 3.6: Illustration des Cherenkov-Effektes [15]. 3.2. D ETEKTIONSPRINZIP 15 Abbildung 3.7: Durch ein geladenes Teilchen polarisiertes Medium. Links: Das Teilchen ist langsamer als die Lichtgeschwindigkeit im Medium c0 , sodass die symmetrische Verteilung der Dipole keine Netto-Polarisation verursacht. Rechts: Das Teilchen ist schneller als c0 , sodass eine asymmetrische Verteilung der Dipole entsteht und elektromagnetische Strahlung abgestrahlt wird [30]. 16 K APITEL 3. I CE C UBE N EUTRINO O BSERVATORIUM Kapitel 4 Ereignisselektion für die Oszillationsanalyse in I CE C UBE Die verwendeten Daten, die für diese Arbeit verwendete werden, durchliefen einen Trennvorgang aus mehreren Schritten (Ereignisselektion). Bevor diese Ereignisselektion vorgestellt wird, werden einige Rekonstruktionsalgorithmen, die in IceCube benutzt werden, erläutert. 4.1 Rekonstruktionen in I CE C UBE • „LineFit“ Die einfachste Anpassung für ein spurartiges Ereignis ist der „LineFit“ [31]. Mittels einer χ2 -Minimierung wird eine unendliche Gerade durch die getroffenen DOMs durchgeführt. Die Minimierung wird in den Variablen ~v und r~0 ausgeführt. NHit X χ = (~ xi − (~ xi + ~v · ti ))2 2 (4.1) i Die Parameter aus dem „LineFit“ werden als Ausgangspunkt für den „SPEFit“ bzw. „MPEFit“ genutzt. • „SPEFit“ / „MPEFit“ Im Gegensatz zu einer χ2 -Minimierung wird hier eine negative logarithmische Likelihood-Funktion minimiert [32], wobei der „improved LineFit“ [33] als Ausgangspunkt („Seed“) verwendet wird, der eine verbesserte Version des „LineFits“ ist. L=− N X ln(pi (di , ∆ti )), (4.2) i wobei N die Anzahl der getroffenen DOMs ist. Mit der angenommenen Spur vom „improved LineFit“ ist di der Abstand vom DOM zur Spur und ∆ti = ttreffer − tgeometrie ist das Zeitresiduum zwischen der gemessenen Zeit ttreffer und der erwartenden Zeit auf Grund der Geometrie tgeometrie , die durch die Projektion auf die Spur unter dem Cherenkov-Winkel berechnet wird (s. Abb. 4.1). Die Wahrscheinlichkeitsdichtefunktion pi ist die „Pandel-Funktion“, die die Wahrscheinlichkeit für einen 17 18K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE Treffer im Abstand di zur Zeitdifferenz ∆ti angibt. Die Pandel-Funktion berücksichtig unter anderem Effekte wie Bremsstrahlung, Streuung auf Grund von Eiseigenschaften, sowie Rauschtreffer in IceCube, die nicht mit der Spur in Verbindung gebracht werden können. Es gibt zwei Varianten wie die Likelihood-Funktion ausgerechnet werden kann. Die erste Möglichkeit ist, dass nur das erste Photoelektron in jedem getroffen DOM betrachtet wird, dem sogenannten „Single-Photo-Electron“ Likelihood-Fit (SPEFit [32]), welcher eine schnelle Durchführung bietet, und die physikalisch korrektere Formulierung, dass jedes Photoelektron im einem DOM benutzt wird, dem sogenannten „Multi-Photo-Electron“ Likelihood-Fit (MPEFit [32]). Abbildung 4.1: Spurrekonstruktion einer unendlichen Spur, wodurch der Anfangspunkt und der Endpunkt mittels Cherenkov-Projektion bestimmt wird [32]. • „FiniteReco“ Die ersten zwei vorgestellten Rekonstruktionen gehen von einer unendlichen Gerade aus und rekonstruieren nur die Spurrichtung. Der „FiniteReco“-Algorithmus [14] kann den Start- und Stopppunkt für eine gegebene unendliche Spur (hier „MPEFit“) berechnen, sodass eine endliche Spur mit einer definierten Spurlänge bestimmt werden kann. Für die erste Abschätzung werden alle getroffenen DOMs um die Rekonstruierte Spur in einem Zylinder mit einem Radius R ausgewählt (hier R = 200 m). Unter dem Cherenkov-Winkel werden die ausgewählten DOMs auf die Spur projiziert. Die äußersten projizierten DOMs definieren den Start- und Stopppunkt der Spur (s. Abb. 4.1). Für die genauere Bestimmung wird eine Maximierung der Likelihood-Funktion durchgeführt. Zur Berechnung werden zwei Likelihoods benötigt, die zwei unterschiedliche Annahmen voraussetzen. In Gleichung 4.3 ist die Wahrscheinlichkeit, dass kein Treffer (NoHit) detektiert wurde, obwohl die Spur unendlich ist, gegeben. Gleichung 4.4 gibt die Wahrscheinlichkeit, dass kein Treffer detektiert wurde, mit der Annahme, dass die Spur endlich sei und somit wirklich der Startpunkt bzw. Endpunkt ist. 4.1. R EKONSTRUKTIONEN IN I CE C UBE 19 Abbildung 4.2: Illustration der Auswahl der nicht getroffenen DOMs in einem Zylinder zur Berechnung der „NoHit“-Wahrscheinlichkeit [14]. P (noHit|track) = N Y p∗i (noHit|track) und (4.3) i P (noHit|noTrack) = N Y p∗i (noHit|noTrack), (4.4) i wobei N die Anzahl der nicht getroffenen DOMs ist, die sich im Zylinder vor dem Startpunkt bzw. hinter dem Endpunkt befinden (s. Abb. 4.2). Die „NoHit“Wahrscheinlichkeit p∗i hängt vom Abstand der DOMs zu der rekonstruierten Spur ab und der Photonenausbreitung auf Grund der Eiseigenschaften. Diese Berechnungen werden mit Hilfe des Software-Paketes „Photonics“ [34] durchgeführt. Mit welchem die erwartete Anzahl an Photoelektronen für jeden DOM berechnet wird. Mit der Poisson-Statistik kann die „NoHit“-Wahrscheinlichkeit durch pλ (noHit) = pλ (0) = λ0 −λ · e = e−λ 0! (4.5) ausgerechnet werden, wobei λ die erwartete Anzahl an Photoelektronen ist. Zur Bestimmung des Startpunktes wird das Verhältnis der beiden Likelihoods (4.3 und 4.4) maximiert. Umgekehrt gilt dies für den Endpunkt, sodass „FiniteReco“ jeweils ein Startpunkt und ein Endpunkt ausgibt und somit die Spurlänge durch die beiden Punkte definiert ist. [35] • „Taupede“ „Taupede“ [36] wurde für die Rekonstruktion von geladenen Tau-Leptonen entwickelt und ist eine abgewandelte Version von „Millipede“. Die Energierekonstruktion „Millipede“ [37] berücksichtigt die Eiseigenschaften, Streuungen, sowie Absorptionen und den Cherenkov-Effekt für die Photonenausbreitung im Eis. Für jeden DOM wird die Energiedeposition und somit eine Energie für das Ereignis bestimmt. Durch die Betrachtung, dass bei einer Wechselwirkung eines Tauneutrinos 20K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE über CC-Wechselwirkung eine hadronische Kaskade und ein Tau entsteht, wobei das Tau nach einer sehr kurzen Wegstrecke in eine weitere hadronische Kaskade zerfällt, werden mit Taupede zwei Kaskaden mit einem Abstand zueinander, die sich in die gleiche Richtung ausbreiten, angepasst. Für beide Kaskaden wird jeweils „Millipede“ für die Energiedeposition verwendet. In dieser Analyse wird „Taupede“ für eine Kaskadenrekonstruktion benutzt, wegen der genaueren Vertexrekonstruktion, die im nächsten Kapitel verwendet wird. Vorhin wurden die unterschiedlichen Rekonstruktionen für die Richtung und die Länge der Spur, sowie die Energiedeposition entlang der Spur besprochen, allerdings sind für diese Analyse die Raum-Zeit-Koordinaten des Vertizes von großer Bedeutung. Im Kapitel 5 werden die Raum-Zeit-Koordinaten des Vertizes für Kaskaden mit „Taupede“ und für Spuren mit „FiniteReco“ bestimmt. 4.2 Ereignisselektion Bevor die Ereignisselektion besprochen wird, werden die Bedingungen für das Auslösen der Datenaufnahme eines Ereignisses in DeepCore (wegen der Energieregion der Oszillationsanalyse) vorgestellt. In IceCube wird zwischen zwei Arten von Treffern unterschieden: Hard Local Coincidence (HLC) und Soft Local Coincidence (SLC). Ein HLC-Treffer liegt vor, wenn in zwei oder mehr DOMs in den benachbarten DOMs (am gleichen String) ein Photosignal in einem Zeitfenster von ± 1 µs aufgenommen wird. Ein Photosignal wird als SLC-Treffer bezeichnet, wenn die HLC-Bedingung nicht erfüllt ist und eine gewisse Schwelle von 0,25 PE [38] überschritten wird. Für die Datenaufnahme in DeepCore ist der SMT3-Trigger zuständig. Dieser löst aus bei Ereignissen, die mindestens drei HLC-Treffer in einem Zeitfenster von 2,5 µs in DeepCore und in den benachbarten IceCube-Strings unterhalb von 2100 m (Oberen Kante von DeepCore) besitzen. Danach werden Photosignal im ganzen Detektor, die in einem Zeitfenster von ± 10 µs um die Triggerzeit liegen und nicht die HLC-Bedingung erfüllen (also SLC-Treffer), aufgenommen. [22] Eine Ereignisselektion besteht aus mehreren Schritten (Leveln) und werden für Analysen angepasst. Für die Oszillationsanalyse sind aufwärtslaufende Myonen das Signal, die aus der Wechselwirkung eines Myonneutrino erzeugt wurden. Allerdings können in DeepCore koinzidente Myonen (s. Abb. 4.4) aus Luftschauern ein Signal verfälschen, indem sie als ein aufwärtslaufendes Myon falsch rekonstruiert werden. Diese Fehlrekonstruktionen können auch durch Rausch-Treffern oder durch eine falsche Anpassung1 hervorgerufen werden. Während der Aufnahme der Ereignisse in DeepCore werden die Daten zum DeepCore Online-Filter weitergeleitet, welcher signalartige Ereignisse vorselektiert. Dieser Schritt wird als Level2 bezeichnet. Im Algorithmus werden nur HLC-Treffer berücksichtigt und der IceCube-Detektor um DeepCore als Veto-Region benutzt. Als Erstes wird der ladungsgewichtete Schwerpunkt aller Treffer (Center of Gravity (COG)) in DeepCore bestimmt. 1 Ursachen können zu wenige Treffer im Detektor oder Ereignisse am Rande des Detektors sein. 4.2. E REIGNISSELEKTION 21 Als Nächstes wird für jeden HLC-Treffer (rHLC , tHLC ) im umliegenden IceCube-Detektor die hypothetische Geschwindigkeit v zum COG (rCOG , tCOG ) berechnet (s. GL. 4.6). v= rCOG − rHLC tCOG − tHLC (4.6) Für atmosphärische Myonen würde man eine Geschwindigkeit von v = c erwarten, mit der sie zum DeepCore-Detektor gelangen. Falls mindestens ein Treffer eine Geschwindigkeit zwischen 0,25 m/ns und 0,4 m/ns besitzt, wird das Ereignis weggeworfen. Für den weiteren Verlauf der Ereignisselektion werden zwei Algorithmen, die für das Entfernen von Untergrund-Treffer in IceCube zuständig sind, besprochen. · classicRT cleaning [39] Der Algorithmus verwendet alle Photosignale und sucht in einem Radius R und einem Zeitfenster T benachbarte Treffer (Standardeinstellung: R = 150 m und T = 1000 ns). Falls Treffer in der Umgebung keinen benachbarten Treffer finden, wird davon ausgegangen, dass es ein Rausch-Treffer war, der daher in der weiteren Rekonstruktion nicht berücksichtigt wird. · seededRT cleaning [39] Im Gegensatz zum classicRT cleaning wird für jeden HLC-Treffer in einer RTUmgebung (Standardeinstellung: R=150 m und T=1000 ns) nach SLC-Treffer gesucht. Des Weiteren kann für jeden hinzugefügten SLC-Treffer die RT-Bedingung nochmal angewandt werden und nach weiteren SLC-Treffer gesucht. Dies kann beliebig oft durchgeführt werden. Alle andere SLC-Treffer werden weggeworfen. Im nächsten Schritt, Level3, wird das vorher besprochene classicRT cleaning2 mit den Einstellungen R=200 m und T=700 ns und für den DeepCore-Bereich RDC =100 m und TDC =400 ns angewandt. Danach wird gefordert, dass keine Treffer in der Veto-Region3 zeitlich vor dem SMT3-Trigger registriert wurden und in DeepCore mindestens fünf Treffer vorhanden sind. - NChan DC ≥ 5 - NChan Veto = 0 Auf Level4 wird ein NoiseEngine [40] Algorithmus genutzt, um Rausch-Treffer herauszufiltern, die fälschlicherweise als HLC-Treffer identifiziert wurden. Dabei werden die Treffer pro Ereignis in mögliche Paare eingeteilt und nach Korrelationen in der Zenitund Azimut-Richtung gesucht. Rausch-Treffer weisen eine zufällige Richtung der PaarTreffer auf, wobei eine Myonspur eine klare Richtung aufweisen würde [14]. Des Weiteren wird gefordert, dass der erste HLC-Treffer sich nicht in der unteren oder oberen Lage der DOMs in DeepCore befindet, um Ereignisse aus dem DustLayer oder aus dem Felsboden zu entfernen. In der Veto-Region soll die Anzahl an Photoelektronen in einer RT-Umgebung nicht mehr als 3 PE betragen, sodass Ereignisse keine Strukturen in dieser Veto-Region aufweisen (RTVeto). Zusätzlich sollen sneaky (eng. heimtückische) Myonen 2 Bevor das Cleaning angewandt wird, werden SLC-Treffer, die innerhalb von 1000 ns aufeinander folgen, zusammen gepackt, sodass SLC-Treffer keine Selbst-Koinzidenz verursachen, wodurch sie das Cleaning überleben können. 3 Der IceCube-Detektor um DeepCore (s.o.) 22K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE entfernt werden, die sich zwischen den IceCube-String bis zum DeepCore-Detektor durchschleusen und dort ihre Ladung deponieren. Um diese Ereignisse wegzuwerfen, wird der Corridor Cut verwendet [41]. Es wird nach einem Korridor (die Korridore sind für jeden String unterschiedlich) (s. Abb. 4.3) gesucht zu dem die meisten Treffern zugewiesen werden können. Falls dieser Korridor einen direkten Treffer besitzt, wird dieses Event verworfen. Abbildung 4.3: Beispiele für Korridore für den 86. String [modifizierte Version von [24]]. Level5 ist darauf optimiert koinzidente Myonen zu entfernen, d. h. Events, die aus mehreren Primär-Wechselwirkungen bestehen. Die Herausforderung ist koinzidente Myonen zu erkennen, da diese anderenfalls durch die Annahme einer einzelnen Spur falsch interpretiert werden (s. Abb. 4.4). Hierzu wird der topologische Trigger [42] verwendet, welcher entwickelt wurde um zeitlich und räumlich nach Strukturen (Cluster) zu suchen, die eine Mindestanzahl an Treffer aufweisen muss. Es wird gefordert, dass immer nur ein Cluster gefunden wird. Auf Level6 und Level7 werden hauptsächlich neue Variablen berechnet und einige Rekonstruktionen (SANTA, FiniteReco) durchgeführt, die für die weitere Analyse wichtig sind. 4.2. E REIGNISSELEKTION 23 Abbildung 4.4: Ein koinzidentes Ereignis in IceCube. Zwei abwärtslaufende atmosphärische Myonen werden als ein aufwärtslaufendes Myon rekonstruiert [14]. Rot=früh und blau=spät. Das „Kausalitätsveto“ [14] versucht in einer zeitlichen und örtlichen Umgebung Ereignisse zu finden, die nicht im DeepCore-Detektor gestartet sind. In Abbildung 4.5 ist die Situation dargestellt. Auf der y-Achse ist die Zeitdifferenz zwischen dem 3. HLC-Treffer in DeepCore (Aktivierte den SMT3-Trigger von DeepCore) und den Treffer, die zum Ereignis gehören, und auf der x-Achse ist der Abstand zum 3. HLC-Treffer aufgetragen. Teilchen, die von außerhalb in den DeepCore-Detektor einfliegen, haben positive Zeitdifferenzen und rauslaufende Teilchen haben negative Zeitdifferenzen. In der Abbildung sind die einlaufende und die auslaufende Teilchen jeweils durch die orangen Flächen unterhalb der diagonalen, gestrichelten Linien eingezeichnet, die durch die Propagation mit der Lichtgeschwindigkeit definiert sind. Die Veto-Region ist durch die schraffierte Fläche definiert. Die obere diagonale Grenze ist parallel zur gestrichelten Linie und die untere diagonale Linie ist parallel dazu mit einen Abstand von 2 µs. Die rechte Grenze ist durch die Größe von IceCube begrenzt, wodurch alles was links von der Grenze liegt als ein Veto-Treffer gesehen wird. Die letzte Begrenzung ist die linke Linie, hierbei werden Teichen unterhalb dieser Linie als potentiell auslaufend gedeutet. In den vorherigen Levels wurde hauptsächlich auf den eindeutigen Untergrund geschnitten und keine harte Schnitte genutzt. In Level8 wird die Anwendung eines Multivariate Verfahrens („Boosted Decision Trees“ (BDT)) zur weiteren Reduktion des Untergrundes durch Myonen aus Luftschauern herangezogen. Als Erstes wird eine Vorselektion vorgenommen bevor die Trennung des Untergrundes durchgeführt wird. Diese Vorselektion soll 24K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE Abbildung 4.5: Darstellung der zeitlichen und örtlichen Umgebung zum SMT3-Trigger (Nullpunkt). Die schraffierte Fläche ist die Veto-Region [43]. in den verwendeten Variablen die Ränder in den Verteilung, wo wenig Statistik vorhanden ist, wegschneiden, damit der BDT hinsichtlich der Unterscheidung zwischen Untergrund und Signal nicht in die Irre geführt wird. Die verwendeten Schnitte sind • maxCausalityVetoLaunches = 10 • LDir < 350 m • maxCausalityVetoCharge = 10 • recoR < 270 m • -700 m < recoVetexZ < -170 m • cos(θMPEFit ) < 0 • QDir < 100 • bayesDiff < 5 „maxCausalityVetoLaunches“ ist die maximale Anzahl an akzeptablen Treffer in der VetoRegion (s. Abb. 4.5) und „maxCausalityVetoCharge“ die maximale akzeptablen Ladung in der Veto-Region. „recoVertexZ“ ist die Tiefe des horizontalen Abstandes zum Zentrum von Deepcore (recoR) und „QDir“ ist die gesamt Ladung aller direkter Treffer4 . Die restlichen Variablen werden im nächsten Kapitel besprochen. Das Ergebnis aus dem „Boosted Decision Trees“ (s. nächstes Kapitel) wird für diese Analyse weiter verwendet. In Abbildung 4.6 ist die Veränderung der Raten nach jedem Level aufgetragen. Zu Beginn übertriffen die atmosphärischen Myonen (Corsika) alle anderen Komponenten, jedoch wird sie durch die Vorselektion stark reduziert, sodass der Corsika-Anteil auf dem 4 Treffer, die ungestreut detektiert wurden und in einem gewissen Zeitfenster liegen (s. nächstes Kapitel) 4.2. E REIGNISSELEKTION 25 finalen Level nur noch 3,48 % des Datensatzes ausmacht. Im Datensatz sind Elektronneutrinos mit 17,46 % und die Myonneutrinos mit 79,06 % vertreten. Zusätzlich befinden sich in den Myonneutrinos noch 9,66 % Myonneutrinos aus der NC-Wechselwirkung, die auch kaskadenartige Ereignisse erzeugen. Daraus folgt, dass die Kontamination des Untergrunds auf 25,1 % ansteigt. Die Herausforderung in dieser Arbeit ist die Unterdrückung dieser kaskadenartigen Ereignissen. Abbildung 4.6: Ratenvergleich nach jedem Level für Myonneutrinos (blau), Elektronneutrinos (lila) und Corsika (pink). In schwarz sind die experimentellen Daten eingezeichnet. 4.2.1 Verwendete Daten für den „Boosted Decision Trees“ Im Folgenden werden die simulierten Monte-Carlo-Datensätze (MC-Daten), die für diese Arbeit verwendet werden, vorgestellt. Zum Schluss werden die Daten aufgeteilt und erläutert, welche dem „Boosted Decision Trees“ (s. nächstes Kapitel) gegeben werden. Für die Simulation der Neutrinosorten (νe , νµ , ντ ) werden zwei Simulationsgeneratoren verwendet, die für unterschiedliche Energiebereiche geeignet sind. N U G EN („Neutrino Generator“) [44] ist für die hochenergetischen Neutrinos ab 10 GeV bis in den PeV-Bereich geeignet. Der zweite Simulationsgenerator GENIE („Generates Events for Neutrino Interaction Experiments“) [45] ist für den Niederenergiebereich von 100 MeV bis einigen 100 GeV optimiert. Für jedes Neutrino wird die Überlebenswahrscheinlichkeit unter Berücksichtigung von Propagationseffekten bis zum Detektor berechnet. Die verwendeten Wirkungsquerschnitte der Neutrinos zur Berechnung der Propagation durch die Erde werden von der Gruppe CTEQ [46] benutzt. Alle Neutrino-Datensätze wurden mit einem Energiespektrum E −2 und einer DOM-Effizienz von 100 % simuliert. Außerdem wird die Propagation der (Cherenkov) Photonen innerhalb des Detektors mit 26K APITEL 4. E REIGNISSELEKTION FÜR DIE O SZILLATIONSANALYSE IN I CE C UBE PPC („Photon Propagation Code“) [47], CLSim [48] und mit dem Eis-Modell SPICEM IE („South Pole ICE“) [49] berechnet. Für die Tauneutrinos existiert nur ein GENIEDatensatz. Der Untergrund an atmosphärischen Myonen in IceCube wird mit dem Simulationsprogramm CORSIKA (COsmic Ray SImulations for KAscade) [50] simuliert. CORSIKA wurde für die Simulation von ausgedehnten Luftschauern bis hin zu 1020 eV entwickelt. Simuliert werden Wechselwirkungen der Primärteilchen, sowie Zerfällen von Kernen, Hadronen, Myonen, Elektronen und Photonen in der Atmosphäre. Zum Vergleich der MC-Daten wird ein „Burnsample“5 verwendet, welches ein Zehntel der experimentellen Daten aus dem Jahre 2010/2011 (≈ 33 T age) beinhaltet. Zur Übereinstimmung zwischen experimentellen Daten und MC-Daten werden die atmosphärische Myonen (CORSIKA) hinzugefügt, aber nicht in der Analyse betrachtet, da dieser Untergrund schon stark in der Vorselektion reduziert wurde (s. vorheriges Kapitel). In Tabelle 4.1 sind die Energiebereich der verwendeten Daten gezeigt. Tabelle 4.1: Energiebereiche der verwendeten Datensätze Datensatz GENIE N U G EN Neutrinosorte νe νµ ντ νe νµ Energiebereich [GeV] 3 - 195 3 - 150 3 - 195 50 - 109 50 - 109 Nun werden aus den Datensätzen das Signal und der Untergrund für diese Analyse definiert und eingeteilt. Das Signal sind Myonneutrinos (CC-Events), die eine maximale Energie von 50 GeV haben sollen, da in diesem Bereich die Oszillation der Neutrinos sichtbar wird. Außerdem wird gefordert, dass das erzeugte Myon eine minimale Energie von 5 GeV und mindestens 50 % der Myonneutrinoenergie besitzt, sodass das Myon genügend Energie besitzt zur Erzeugung einer Spur und die hadronische Kaskade nicht die dominante Komponente ist. Der Untergrund sind kaskadenartige Ereignisse, die durch CC-Wechselwirkung der Elektronneutrinos, sowie durch die NC-Wechselwirkung aus allen Neutrinosorten erzeugt werden. Weil N U G EN und GENIE-Datensätze zusammen verwendet werden und ihre Energiebereiche sich überschneiden, muss eine lineare Umgewichtung im Überlappungsbereich durchgeführt werden, damit sie miteinander kompatibel werden. Dementsprechend müssen die Wirkungsquerschnitte in den N U G EN-Datensätzen für die Myonneutrinos6 zu den kleinen Energien angepasst werden, da der Wirkungsquerschnitt [4] zu niedrigen Energien sinkt. 5 6 Dies ist ein Teil der experimentelle Daten, die nur zum Testen genutzt werden. Für Elektronneutrinos existieren keine Korrekturen. Kapitel 5 Variablen zur Trennung von Kaskaden Für diese Analyse wird ein „Boosted Decision Trees“ (BDT) verwendet (s. nächstes Kapitel), um Kaskadenereignisse von Spurereignisse zu trennen. Im diesen Kapitel werden die verwendeten Variablen für den BDT erklärt und gegebenenfalls kurz diskutiert. 5.1 Vordefinierte Größen • costheta_SPEFit costheta_SPEFit steht für den Kosinus des Zenit-Winkels der „SPEFit“ Rekonstruktion, wobei cos(θSPEFit ) > 0 ein abwärtslaufendes Teilchen und cos(θSPEFit ) < 0 ein aufwärtslaufendes Teilchen ist. • recoR recoR ist der horizontale Abstand zwischen den rekonstruierten Vertex und den Zentrum von DeepCore1 . p (5.1) recoR = (xFiniteReco − 46,29 m)2 + (yFiniteReco − 34,88 m)2 • LDir LDir beschreibt die Länge, die durch die direkten Treffern2 definiert wird. In dieser Arbeit wird das Zeitfenster C3 von -15 ns bis 75 ns verwendet. • bayesDiff bayesDiff ist die Differenz aus zwei Log-Likelihoods (LogL). Dabei wird der erste LogL aus der Spurrekonstruktion (hier MPEFit) genommen. Für den zweiten LogL wird die Rekonstruktion gezwungen ein abwärtslaufendes Teilchen zu rekonstruieren. Der Vergleich dieser beiden LogL beschreibt wie stabil eine Spurrekonstruktion ist. [51] bayesDif f = loglMPEFit − loglbayes (5.2) 1 Damit ist näherungsweise der 36. String gemeint. Treffer, die ungestreut detektiert wurden und in einem gewissen Zeitfenster liegen 3 In der IceCube-Software gibt es 4 Zeitfenstern. A: [-15 ns,15 ns]; B: [-15 ns,25 ns]; D: [-15 ns,125 ns] 2 27 28 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN • QLatePulses QLatePulses gibt die gesamt Ladung der Pulse nach den Zeitfenster C an, wobei die Zahl in PE (Photoelektronen) angegeben wird. • NLateDoms NLateDoms bestimmt die Anzahl der getroffenen DOMs nach dem Zeitfenster C. • QMax_QTot QMax_QTot ist definiert als die maximale Ladung eines DOMs durch die gesamt Ladung des Ereignisses. 5.2 SANTA - Single string ANTares-inspired Analysis Die „Single string ANTares-inspired Analysis“ (SANTA) [52] ist eine Spur- und Kaskadenrekonstruktion, die auf einer Methode von ANTARES [53] beruht. Dieser Algorithmus beinhaltet eine Ereignisselektion, eine Winkelrekonstruktion und einen Spur/Kaskaden Diskriminator. Im Folgenden wird das Prinzip hinter dem SANTA-Algorithmus besprochen und anschließend wird der SANTA-Algorithmus beschrieben. Ein geladenes Teilchen erzeugt entlang der Spur einen Cherenkov-Kegel mit einem spezifischen Öffnungswinkel θc (Cherenkov-Winkel). Ausgehend von einem String, welcher vom Cherenkov-Kegel gekreuzt wird, wird die Postion des kleinsten Abstandes zur Spur bestimmt und entlang des kleinsten Abstandes auf den String projiziert (s. Abb. 5.1). Hierdurch wird das Problem rotationssymmetrisch (keine Azimutabängigkeit). Abbildung 5.1: Links ist die Darstellung zwischen der Spur (blau) und dem String (grün) von oben gezeigt. Rechts ist die Seitenansicht in Richtung des kleinsten Abstandes dc dargestellt [52]. Durch die Projektion entlang dc kann das Problem durch vier Größen beschrieben werden: 5.2. SANTA - S INGLE STRING ANTARES - INSPIRED A NALYSIS 29 - dc : Der kleinste Abstand zwischen String und Spur - zenith: Der Winkel zwischen String und Spur - tc : Die zeitliche Position des kleinsten Abstandes - zc : Die z-Koordinate (also die Tiefe) des kleinsten Abstandes In Abbildung 5.2 sind drei unterschiedliche Hyperbeln dargestellt, wobei zc und tc festgehalten wurden. Durch die Variation des Zenits wird die Ausrichtung der Hyperbeln gedreht und durch die Verringerung von dc wird die Spitze der Hyperbel schärfer. Abbildung 5.2: Für drei unterschiedliche Zenitwerte, sowie Variation des kleinsten Abstandes, (in verschiedenen Farben) werden in Abhängigkeit der Tiefe und der Zeit die erwarteten Treffer für einen String gezeigt [52]. In der obigen Betrachtung wurden für die Berechnung Effekte wie die Ausbreitung des Lichts im Eis nicht berücksichtigt, wodurch die Photonenpropagation geradlinig angenommen wird und Verschmierungen des Cherenkov-Kegels durch Sekundärteilchen ausgeschlossen werden. Durch die Ereignisselektion des SANTA-Algorithmus kann dies gewährleistet werden, wodurch Ereignisse, die diese Kriterien nicht erfüllen, aussortiert werden. Das Entfernen der ungewünschten Treffer/DOMs wird als „SANTA-Cleaning“ bezeichnet. Das SANTA-Cleaning ist eine Abfolge von Auswahlkriterien, die jeweils für einen String unabhängig von den anderen Strings betrachtet wird. Als Erstes wird ein String gesucht, der mindestens drei getroffene DOMs besitzt. Im zweiten Schritt wird für jeden DOM die gesamt Ladung aller Photosignale (Pulse) und die frühste Ankunftszeit bestimmt, wobei die Pulse eine bestimmte Schwelle überschreiten müssen. Das dritte Kriterium wirft alle Pulse weg, die nicht in einem vordefinierten Zeit- 30 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN fenster liegen4 . Im vierten Schritt wird nach einem Puls mit der größten Ladung gesucht und der dazugehörige DOM als Ausgangspunkt zur Abschätzung von zc verwendet. Im weiteren Verlauf wird dieser DOM als „HotSpot“ bezeichnet. Daraufhin werden oberhalb und unterhalb des HotSpots nach weiteren DOMs gesucht, die sich innerhalb der erwarteten Ankunftszeit5 plus einer akzeptablen zeitlichen Abweichung befinden. Falls mehrere aufeinanderfolgende DOMs keine Pulse besitzen (hier: 5), wird die Suche abgebrochen. Zusätzlich wird jeder hinzugefügte DOM überprüft, ob die Pulsverteilung mit den bisherigen gefundenen DOMs zu einem Cherekov-Kegel passt. Bevor der String mit den ausgewählten DOMs für den weiteren Verlauf verwendet wird, muss dieser nach dem SANTA-Cleaning mindestens drei DOMs beinhalten, um eine minimale Rekonstruktionsgüte zu gewährleisten. In Abbildung 5.3 ist das SANTA-Cleaning für einen String dargestellt. Die zuvor besprochene Herangehensweise ist in der Abbildung von links oben nach rechts unten zu verfolgen. Durch das SANTA-Cleaning werden ein Großteil der Ereignisse verworfen. Abbildung 5.3: Die Abfolge des SANTA-Cleanings. [52] Nach dem SANTA-Cleaning wurden Ereignisse ohne irgendwelche gestreuten Photonen heraussortiert und können jetzt mit der Rekonstruktion fortfahren. Der Algorithmus benutzt eine χ2 -Anpassung6 für 2 Hypothesen in zwei unterschiedlichen Modi. Im Einzelstringmodus, indem jeder String einzeln angepasst wird, werden die zwei Hypothesen, ob es eine Spur oder eine Kaskade ist, getestet. Im Gegensatz zu Spuren haben Kaska4 Es wird der Median aller Zeiten der ausgewählten Pulse bestimmte und alle Pulse, die in einem Zeitfenstern von [-1000 ns ∨ 2000 ns] um den Median liegen, werden genommen. 5 Zeit, die eine Photon von DOM zu DOM braucht: Abstand c/nice . 6 Für Kaskaden wird eine Parabel angepasst und für Spuren eine Hyperbel. Für die genauere Berechnung siehe [53]. 5.2. SANTA - S INGLE STRING ANTARES - INSPIRED A NALYSIS 31 den keine richtige Richtung7 , wegen ihrer sphärischen Ausbreitung (s. Abschnitt 3.2.), womit die Beschreibung auf drei Variablen reduziert wird. Falls pro Ereignis mehrere Strings vorhanden sind, kann die Anpassung im Mehrstringmodus durchgeführt werden, wodurch der Azimut zusätzlich als Parameter angepasst werden kann. In Abbildung 5.4 ist eine Anpassung im Einzelstringmodus durchgeführt worden. Abbildung 5.4: Einzelstring-Anpassung für den 83. String: In rot sind die ausgewählten DOMs (die Größe gibt die Menge an Ladung an) eingetragen. Die zwei Hypothesen, ob es eine Spur (grün) oder eine Kaskade (rot) ist, wurden angepasst. Zum Vergleich sind die Monte-Carlo Erwartung für Spuren (blau) und Kaskaden (pink) als gestrichelte Linien hinzugefügt [52]. Ein sehr nützliches Tool vom SANTA-Algorithmus ist die Unterscheidung zwischen Kaskaden und Spuren. Mit den Anpassungen für Spuren und Kaskaden werden die χ2 -Werte miteinander verglichen, um zu unterscheiden, ob ein Ereignis kaskadenartiger oder spurartiger ist. In Abbildung 5.5 wurde für Elektronneutrinos und Myonneutrinos8 das Verhältnis der reduzierten χ2 -Werte (χ2 -Wert durch die Anzahl der Freiheitsgrade) der beiden Hypothesen (Kaskade durch Spur) für jeweils Einzelstring und Mehrstring aufgetragen. Für kaskadenartige Ereignisse bildet sich eine spitze Verteilung um 1 aus und für spurartige Ereignisse ist die Verteilung im Bereich < 1 mehr oder weniger flach. Im Bereich < 1 befinden sich hauptsächlich lange Spuren und im rechten Bereich kurze Spuren, die den Kaskaden ähneln. Im Einzelstringmodus weisen die Verteilung für Kaskaden und Spuren keine besondere Merkmale auf. 7 Es gibt eine Vorzugsrichtung, allerdings im Niederenergiebereich ist sie gering. Die verwendete Datensätze liefen schon eine Ereignisselektion speziell für eine Oszillationsanalyse durch und können in [54] nachgeschaut werden. 8 32 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN Abbildung 5.5: χ2 -Verhältnis der beiden Hypothesen (Kaskade durch Spur) für Elektronneutrinos (oben) und Myonneutrinos (unten) für jeweils Einzelstring(blau) und Mehrstring (rot) [modifizierte Version von [52]]. Die verwendeten Variablen, die für den BDT genutzt werden, sind jeweils der reduzierte χ2 - Wert für die Spuranpassung (Santachi2_track) und für die Kaskadenanpassung (Santachi2_cascade) im Mehrstringmodus. Zusätzlich wird das Verhältnis der reduzierten χ2 Werten (Santachi2_ratio) zum BDT hinzugefügt. 5.3 Log-Likelihood Berechnung basierend auf den unterschiedlichen Propagationsweg von Licht für Spuren und Kaskaden In diesem Abschnitt werden drei Variablen für den BDT vorgestellt, die speziell für die Kaskadenunterdrückung entwickelt wurden. Die erste Variable ist „Q_early“, die auf der Idee von John Groh [55] basiert. Zum Schluss werden zwei weitere Variablen „LogLRa- 5.3. L OG -L IKELIHOOD B ERECHNUNG FÜR S PUREN UND K ASKADEN 33 tio_Track“ und „LogLRatio_Cascade“, die eine erweiterte und verbesserte Betrachtung aufweisen. 5.3.1 „Frühe Treffer“ Bevor wir uns mit den Variablen befassen, werden die Merkmale von Spuren und Kaskaden kurz aufgelistet. In IceCube werden Spuren durch geladene Myonen erzeugt, die Cherenkov Licht emittieren. Zusätzlich wird im Wechselwirkungspunkt (Vertex) eine hadronische Startkaskade erzeugt, die sich aus der initialen Wechselwirkung entwickelt. Bei niederenergetischen Myonen (< 50 GeV) sind die Spurlängen klein gegenüber der hadronischen Kaskade, wodurch diese in der Kaskade überdeckt werden und nicht mehr so leicht unterschieden werden können. Für Kaskaden sind Elektronneutrinoereignisse und Tauneutrinoereignisse, sowie NC-Wechselwirkungen aller Neutrino-Flavor-Sorten in IceCube verantwortlich (s. Abschnitt 3.2.). Im weiteren Verlauf werden diese Ereignisse unter dem Begriff „Kaskade“ geführt. Wie bei Spuren kann auch in Kaskaden Cherenkov-Licht durch die erzeugten Sekundärteilchen emittiert werden. Abbildung 5.6: Skizzierte Betrachtung der unterschiedlichen Propagation von Kaskaden (grün) und Myonen (blau). tpropagation ist die Zeit für die Ausbreitung des geladenen Teilchens bevor das Cherenkov-Photon emittiert wird und tCherenkov ist die Zeit, die das Photon im Eis zum DOM braucht. Die Definition der Variable „Q_early“ ist eine einfache Betrachtung der unterschiedlichen Propagationswege von Photonen. Die Annahme ist, dass Photonen aus Kaskaden mit der Lichtgeschwindigkeit des Medium c/nice aus dem Vertex zu den Lichtsensoren propagieren und Photonen aus Spuren nach der Propagation des geladenen Teilchens mit der Lichtgeschwindigkeit unter dem Cherenkov-Winkel θc emittiert werden. In Abbildung 5.6 ist diese Betrachtung gezeigt. Obwohl der geometrische Abstand für Photonen aus dem Vertex zum DOM kürzer ist als der Weg für Photonen durch Erzeugung einer Spur, kann das geladene Teilchen mit der Lichtgeschwindigkeit die Distanz schneller überbrücken, sodass das Photon nur noch eine kleine Strecke zurücklegen muss. Um die Kaskaden und Spuren zu unterscheiden wird das Zeitresiduum mit der Erwartung, dass alle gemessenen 34 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN Photonen aus dem Vertex kommen, bestimmt: nice · Abstand(Vertex,DOM) (Kaskadenhypothese) , (5.3) ∆T = tgemessen − tvertex − c wobei tvertex die Zeit des Vertizes aus der Taupede-Rekonstruktion ist. Zu jedem Pulse wird die relative Ladung vom Ereignis als Gewicht hinzugefügt, damit Pulse, die mehr Ladung besitzen, stärker in die ∆T -Verteilung eingehen als Pulse mit wenig Ladung. Für Kaskaden wird ein Wert ∆T ≥ 0 erwartet (aufgrund von gestreuten Photonen verlängert sich die Ankunftszeit) und für Spuren ein Wert ∆T ≤ 0 (Photonen werden entlang der Spur emittiert). Jedoch sind negative ∆T - Werte für Kaskaden auf Grund von Cherenkov Licht in der Kaskade und positive ∆T - Wert für Spuren durch die Startkaskade im Vertex möglich. Diese Berechnungen benötigen eine präzise Bestimmung des Vertizes, um eine eindeutige Unterscheidung zu machen. Für die Monte-CarloWahrheit (MC-Wahrheit) sind in Abbildung 5.7 die ∆T - Verteilungen für alle Pulse aus allen Ereignissen in Kaskaden und Spuren aufgetrennt dargestellt. Im positiven Bereich sind die Verteilung ähnlich, daher wird nur der negative Bereich zur Berechnung der Variable „Q_early„ verwendet. Q_early ist definiert als die Summe über die Ladung der Pulse pro Ereignis, die sich im Zeitfenster ∆t befinden. Erwartet wird, dass mehr Ladung für Spuren gemessen wird als für Kaskaden. Abbildung 5.7: Flächennormierte ∆T - Verteilung für die Kaskadenhypothese aufgetrennt in Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit) Um die Variable ein wenig zu stärken, wurden für den BDT zwei unterschiedliche Zeitfenster zur Berechnung der Variable genommen. „Q_early1000“ für das Zeitfenster ∆t ∈ [−3 ns, − 1000 ns] und dementsprechend „Q_early500“ berechnet. Abbildung 5.8 zeigt die Q_early1000-Verteilung zwischen Kaskaden und Spuren für die MC-Wahrheit. Bis ungefähr 80 PE fällt die Verteilungen für Kaskaden sehr stark ab, danach treten nur noch vereinzelt Ereignisse auf. Für Spuren geht die Verteilung bis hin zu 140 PE mit einer konstanten Abnahme. 5.3. L OG -L IKELIHOOD B ERECHNUNG FÜR S PUREN UND K ASKADEN 35 Abbildung 5.8: „Q_early1000“- Verteilung für Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit) 5.3.2 Log-Likelihood Berechnung Im Folgenden wird eine Likelihood basierende Methode besprochen. Als Erstes wird das Zeitresiduum der Photonen bestimmt. Anschließend wird die Wahrscheinlichkeit bestimmt, ob das Ereignis eine Kaskade oder eine Spur ist. Als erste Vorstellung der Ausbreitung von Photonen, wurde die Laufzeit vom Vertex zum DOM mit der Lichtgeschwindigkeit des Mediums betrachtet. Zusätzlich wird der Cherenkov-Effekt berücksichtigt, wodurch Photonen unter dem Cherenkov-Winkel entlang einer Spur emittiert werden (s. Abb. 5.6). Mit der Formel ∆T = tgemessen − tvertex − (tpropagation + tcherenkov ) (Spurhypothese) , (5.4) kann für die Spurhypothese die ∆T - Verteilungen erstellt werden, die im weiteren Verlauf als PDF für die Spurhypothese dient (s. Abb. 5.9). tpropagation ist die Zeit, die das geladene Teilchen mit der Lichtgeschwindigkeit gebraucht hat bevor ein Photon unter dem Cherenkov-Winkel emittiert wird und tcherenkov ist die Zeit, wie lange das Photon zum DOM braucht. Für die Spurhypothese wird die Vertex-Zeit tvertex aus der FiniteRecoRekonstruktion entnommen. Für Kaskaden befinden sich kleine Unterschiede am Rande der Verteilung gegenüber der Spur. Außerdem sind die Spitzen der beiden Verteilungen Spuren und Kaskaden zu einander versetzt. Diese Ähnlichkeit kann für die weitere Betrachtung problematisch werden. 36 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN Abbildung 5.9: Flächennormierte ∆T - Verteilung für die Spurhypothese aufgetrennt in Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit) Es existieren zwei Wahrscheinlichkeitsdichtefunktionen (PDF) PSpur und PKaskade für jeweils 2 Hypothesen (Gl. 5.3 und Gl. 5.4). Für jeden Puls im Ereignis wird zuerst das Zeitresiduum für die beiden Hypothesen ausgerechnet. Für die Spurhypothese (s. Gl. 5.4) werden die PDFs PSpur und PKaskade aus Abbildung 5.9 für die Berechnung der logarithmischen Likelihoods benutzt (dementsprechend für die Hypothese der Kaskade): X LogL(Hypothese) = qi · ln(PKaskade (∆Ti |Hypothese)) i=i-ter Pulse des Ereignisses X LogL(Hypothese) = (5.5) qi · ln(PSpur (∆Ti |Hypothese)) , i=i-ter Pulse des Ereignisses wobei qi die Ladung des i-ten Pulses ist. Damit ergeben sich vier logarithmische Likelihoods LogL(Hypothese, PDF): • LogL(Spur, PSpur ) • LogL(Spur, PKaskade ) • LogL(Kaskade, PSpur ) • LogL(Kaskade, PKaskade ) 5.3. L OG -L IKELIHOOD B ERECHNUNG FÜR S PUREN UND K ASKADEN 37 Daraus werden zwei Differenzen bzw. der Logarithmus des Verhältnisses der Wahrscheinlichkeiten gebildet (LogLRatio), die als Unterscheidung zwischen Kaskaden und Spuren dienen sollen: [Spur, PSpur ] LogLRatio_T rack = LogL [Spur, PKaskade ] (5.6) [Kaskade, PSpur ] . LogLRatio_Cascade = LogL [Kaskade, PKaskade ] In Abbildung 5.10 und 5.11 sind jeweils für Spurhypothese und Kaskadenhypothese die LogLRatios für die MC-Wahrheit aufgetragen. Ein negativer LogLRatio-Wert bedeutet, dass das Ereignis eine größere Wahrscheinlichkeit für eine Kaskade hat als für eine Spur und somit als ein kaskadenartiges Ereignisse gedeutet werden kann. Ein LogLRatio-Wert von Null weist auf ein ununterscheidbares Ereignis auf. Im Fall der Spurhypothese (s. Abb. 5.10) kann die große Anhäufung um Null auch durch die sehr ähnlichen PDF-Verteilung hervorgerufen werden. Das Maximum der spurartige Ereignisse bei Null ist etwas unterhalb von ≈ 3 · 10−5 , also nicht so hoch wie für Kaskaden. Wie erwartet, ist die Verteilung für spurartige Ereignisse in den positiven Bereich verschoben. Für die Kaskadenhypothese (s. Abb. 5.11) ist eine Trennung zwischen Kaskaden und Spuren erkennbar. Abbildung 5.10: LogLRatio für die Spurhypothese unterteilt in Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit) 38 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN Abbildung 5.11: LogLRatio für die Kaskadenhypothese unterteilt in Kaskaden (grün) und Spuren (blau). (Monte-Carlo-Wahrheit) Die Unterscheidung wurde im Ganzen auf der MC-Wahrheit angeschaut und führt zu anschaulichen Ergebnissen, dass die Separation auf Rekonstruktionen erfolgreich sein kann. Nun ist es interessant zu wissen wie dies mit Rekonstruktionen aussieht und ob die Trennung auch noch sichtbar sein wird. Die PDFs, unter der Verwendung der Rekonstruktionen (s. Abb. 5.12 und 5.13) für die Berechnung der LogLRatios, sehen für beide Hypothesen sehr ähnlich aus. Sogar für die Kaskadenhypothese zeigen sich nur kleine Variationen in der Verteilung, obwohl sie für die MC-Wahrheit sehr gut aussah. Ein sehr merkwürdige Struktur weist die PDF für die Spurhypothese auf. Einen zweiten Hochpunkt ist im positiven Bereich zu erkennen und konnte im Umfang dieser Arbeit nicht ausführlich untersucht werden. Durch die Ähnlichen PDFs ist die Erwartung nicht hoch, dass die Trennung erfolgreich wird. In Abbildung 5.14 und 5.15 sind die ausgerechneten LogLRatios zu sehen. Für die Spurhypothese ist in den Verteilungen für Kaskaden und Spuren keine Trennung sichtbar und für die Kaskadenhypothese ist nur eine unterschiedliche Breite der Verteilung um 0 zu erkennen. Im nächsten Kapitel wird das Signal „Spur“ für Oszillationsanalysen angepasst, was vielleicht eine Verbesserung der Separation bewirkt. 5.3. L OG -L IKELIHOOD B ERECHNUNG FÜR S PUREN UND K ASKADEN 39 Abbildung 5.12: Flächennormierte ∆T - Verteilung für die Spurhypothese aufgetrennt in Kaskaden (grün) und Spuren (blau). Abbildung 5.13: Flächennormierte ∆T - Verteilung für die Kaskadenhypothese aufgetrennt in Kaskaden (grün) und Spuren (blau). 40 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN Abbildung 5.14: LogLRatio für die Spurhypothese unterteilt in Kaskaden (grün) und Spuren (blau). Abbildung 5.15: LogLRatio für die Kaskadenhypothese unterteilt in Kaskaden (grün) und Spuren (blau). 5.4. V ERWENDETE VARIABLEN 5.4 IM BDT 41 Verwendete Variablen im BDT Im vorherigen Abschnitt wurden viele Variablen vorgestellt. Allerdings werden nicht alle Variablen verwendet bzw. so verwendet wie sie vorgestellt wurden. Die Variablen „QLatePulse“ und „NLateDoms“ werden etwas modifiziert, indem alle Pulse, die nach einer bestimmten Zeit auftreten, nicht mehr berücksichtigt werden, sodass mögliche RauschTreffer zu späten Zeiten vermieden werden. „QLatePulseDiff“ und „NLateDomsDiff“ sind die neuen Variablen und sind definiert als die gesamt Ladung bzw. die Anzahl der DOMs im Zeitfenster von 75 ns bis 300 ns. Weiterhin werden nicht alle vier einzelnen Likelihoods verwendet, da in der „Q_early“ Variable die Kaskadenhypothese enthalten ist, werden die Variablen „LogL_Cascade_Track“ und „LogL_Cascade_Cascade“ weggelassen. Als kleine Zusammenfassung, welche Variablen für den BDT verwendet werden, folgt nun eine Auflistung: - costheta_SPEFit - QMax_QTot - recoR - Santachi2_Track - LDir - Santachi2_Cascade - bayesDiff - Santachi2_ratio - QLatePulseDiff - Q_early1000 - NLateDomsDiff - Q_early500 - LogL_Track_Track - LogL_Track_Cascade - LogLRatio_Track - LogLRatio_Cascade 42 K APITEL 5. VARIABLEN ZUR T RENNUNG VON K ASKADEN Kapitel 6 Analyse Im vorherigen Kapitel wurden die Variablen zur Trennung von Kaskaden und Spuren vorgestellt. Im Folgenden wird die Funktionsweise eines „Boosted Decision Trees“ und deren Einstellungen erläutert. 6.1 Boosted Decision Trees Ein „Boosted Decision Tree“ (BDT) [56] ist ein Entscheidungsbaum zur Trennung von zwei Sorten von Ereignissen (Signal, Untergrund). Ein Entscheidungsbaum (s. Abb. 6.1) besteht aus „Knoten“, in welchen Entscheidungen getroffen werden, und „Blättern“, in welchen die Ereignisse nach der Entscheidung hineinkommen. Mit dem gesamten Datensatz (die Wurzel) wird die erste Entscheidung beschlossen, wodurch die erste Tiefe des Baumes gebildet wird. Nach jeder Entscheidung kann jedes Blatt weiter als ein Knoten betrachtet werden, solange bis ein Abbruchkriterium erreicht wird. Mit Hilfe mehrerer Variablen wird eine binäre Klassifizierung durchgeführt. Für diese Klassifizierung wird das sogenannte Trainieren verwendet, wo ein Datensatz mit bekannten Signalereignissen und bekannten Untergrundereignissen benutzt wird. Im jeden Knoten des Baumes wird für jede Variable ein Histogramm mit Signal und Untergrund erstellt, mit Hilfe dessen ein Schnitt für eine Variable ermittelt wird, welcher das Signal vom Untergrund am effektivsten trennt. Hierzu wird der Gini-Index: S(p) = p · (1 − p) (6.1) genutzt, wobei p die Reinheit ist, also der Anteil an Signal zum gesamten Datensatz (im betrachteten Knoten, bzw. Blatt). Um den größtmöglichen Gewinn durch die Separation zu bekommen, wird ∆S = WK · S(pK ) − WL · S(pL ) − WR · S(pR ) (6.2) maximiert, wobei W = ωSignal + ωUntergrund die gesamt Gewicht ist. Die Indizes stehen jeweils für den Knoten und die beiden Zweige (Links und Rechts). Das Trainieren wird solange durchgeführt bis eine bestimmte Anzahl an Ereignisse in den Blättern oder eine bestimmte Tiefe des Baumes erreicht wird. Wenn das Abbruchriterium erfühlt ist, wird mittels der Reinheit p entschieden, ob es ein Signal- oder Untergrundblatt ist. 43 44 K APITEL 6. A NALYSE Abbildung 6.1: Funktionsweise eines Entscheidungsbaum [modifizierte Version von [57]]. x stellt die verwendete Variable dar und c den Schnittwert. Damit die Trennung effizient funktioniert, wird eine große Anzahl von Bäumen betrachtet. Nach jedem Trainieren eines Baumes wird jedem Ereignis ein neues Gewicht gegeben, sodass jeder Baum nicht gleich trainiert wird. Die Gewichte werden mit 1−e αZ(i) ωi → ωi · e mit α = β · ln , (6.3) e berechnet. e ist die Fehlerwahrscheinlichkeit eines Baumes, dass ein Ereignis nach dem Trainieren falsch zugeordnet wurde. β = [0,1] ist der „boosting“ Faktor (in dieser Arbeit ist β = 0,7) und gibt an wie stark die Ereignisse im BDT1 umgewichtet werden. Z(i) ist 1 falls das Ereignis i falsch zugeordnet wurde oder 0, wenn das Ereignis i richtig zugeordnet wurde. Zum Schluss werden die Gewichte normiert, sodass die Summe über ωi gleich 1 ist. Diese Methode nennt man „Adaptives Boosting“. Für die Unterscheidung, ob es sich um ein Signalereignis oder ein Untergrundereignis handelt, wird ein BDT-Wert si für jedes Ereignis i ausgerechnet. Dieser BDT-Wert liegt zwischen -1 und +1. Signalereignisse weisen einen höheren BDT-Wert auf als Untergrundereignisse. Der BDT-Wert für das i-te Ereignis nach dem Trainieren des Waldes lässt sich durch P α ·s P m i,m (6.4) si = m m αm berechnen, wobei si,m ∈ {−1, + 1} die Zuweisung, ob das i-te Ereignis im m-ten Baum als Signal (1) oder als Untergrund (-1) eingeteilt wurde. 1 Der allererste Baum ist unberührt vom „boosting“. 6.1. B OOSTED D ECISION T REES 6.1.1 45 Einstellungen des BDTs Anzahl der Schnitte Wie vorhin erwähnt, wird im jeden Knoten für jede Variable ein Histogramm mit Signal und Untergrund erstellt, um den besten Schnitt zu bestimmen. Die Anzahl der Schnitte beschreibt die Anzahl der Bins in die Verteilungen der Variablen. Eine zu große Anzahl an Bins hat zur Folge, dass den Verteilung eine zu feine Struktur aufweist, was zum Übertrainieren (s. unten) führt. Für eine kleine Anzahl an Bins verliert die Variable an Trennkraft. Anzahl der Bäume Für die Anzahl der Bäume, die für den BDT verwendet wird, werden typischerweise zwischen 100 - 500 Bäume genommen. Maximale Tiefe / Mindestanzahl der Ereignisse Für die Entscheidung, wann die Unterteilung des Baumes aufhören soll, kann die maximale Tiefe des Baumes und die minimale Anzahl an Ereignisse im Knoten benutzt werden. Die minimale Anzahl an Ereignissen im Knoten wurde auf 20 Ereignisse festgesetzt. Pruning-Stärke Mit Hilfe des Prunings (pruning = zurückschneiden) kann das Übertrainieren reduziert werden. Es gibt den prozentuellen Anteil der Knoten an, die weggeschnitten werden sollen. Die Bestimmung, welche Knoten bleiben, wird wie folgt berechnet: ρ= ∆S , nBlätter − 1 (6.5) wobei nBlätter die Anzahl an Blättern im Unterbaum des betrachteten Knoten ist. Alles unterhalb des Knotens, der den kleinsten Wert ρ besitzt, wird weggeschnitten und dieser Knoten wird zum Blatt. Zusätzlich gibt es noch zwei weitere Parameter, die für das Trainieren eingestellt werden können. Die Anzahl an Variablen, die in einem Knoten benutzt werden sollen, und der Anteil an Ereignisse, die in einem Baum benutzt werden sollen, können zusätzlich eingestellt werden. Welche Variablen oder Ereignisse genutzt werden, werden zufällig ausgewählt. In dieser Arbeit wurde in jedem Knoten und jedem Baum alle Variablen und alle Ereignisse verwendet. 46 6.2 K APITEL 6. A NALYSE Optimierung und Robustheit des BDTs Im vorherigen Abschnitt wurde schon das Übertrainieren erwähnt. Durch das zu starke Trainieren versucht der BDT jedes einzelne Ereignis richtig zu bestimmen, sodass im extrem Fall jedes Ereignis in einem Blatt liegt. Jedoch wird das Verhalten der Verteilungen (hier die BDT-Verteilung) für Signal und Untergrund somit nicht mehr richtig wiedergegeben, weil ein Signalereignis vielleicht eher wie ein Untergrundereignis betrachtet werden soll, allerdings im BDT als Signal identifiziert wird. Für diese Überprüfung wird der Signal- und der Untergrunddatensatz jeweils in ein Teil zum Trainieren des BDTs und in ein Teil zum Testen, ob die BDT-Verteilung nach dem Trainieren sich nicht zu stark geändert hat (s. Abb. 6.3), aufgetrennt. Zur Bestimmung der Übereinstimmung der BDTVerteilungen wird der Kolmogorow-Smirnow-Test (KS-Test) [58] verwendet. Dieser gibt ein p-Wert aus, mit welcher Wahrscheinlichkeit zwei Datensätze von der gleichen Verteilung entstammen [56]. Dabei bedeutet ein p-Value von 1, dass die Verteilungen identisch sind. p-Werte von ≤ 0,10 führen zum Übertrainieren des BDTs. Die Signalereignisse, die dem BDT gegeben werden, sind Myonneutrinos aus der CCWechselwirkung unterhalb von 50 GeV (s. Kapitel 4.2.1) und die Untergrundereignisse sind Myonneutrinos aus der NC-Wechselwirkung und Elektronneutrinos. Eine wichtige Größe ist die Signifikanz # Signal , S=p #νµ + #νe + # Corsika (6.6) die jeweils für einen bestimmten BDT-Wert ausgerechnet wird. Durch das Maximum der Signifikanz und der Betrachtung des KS-Testes werden die BDT-Parameter optimiert. Exemplarisch ist in Abbildung 6.2 die Signifikanz gegen den BDT-Wert aufgetragen. 6.2. O PTIMIERUNG UND R OBUSTHEIT DES BDT S 47 Abbildung 6.2: Signifikanz gegen den BDT-Wert für die BDT-Einstellungen: 350 Bäume, zwei Tiefen und 50 % Pruning. Die grüne Linie markiert das Maximum der Verteilung. Die einstellbaren Parameter sind die Anzahl der Bäume, die zwischen 100 und 500 Bäumen in Abständen von 50 Bäumen ausgewertet wird, und die Tiefe der Bäume für zwei, drei und vier Tiefen. Die „Pruning-Stärke“ wird auf 0, 30 und 50 eingestellt. Die Werte des KS-Testes und das Maximum der Signifikanz werden für jede Einstellung ausgerechnet. In den folgenden Tabellen werden die Ergebnisse für die drei unterschiedlichen Tiefen (2,3,4) gegen die Anzahl der Bäumen ohne Pruning dargestellt (für restliche Einstellmöglichkeiten s. Anhang B). Tabelle 6.2: Für eine Tiefe von drei Ebenen und ohne Pruning wird der KS-Test und die maximale Signifikanz für eine unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 43,42 / 4,09 22,02 / 11,83 20,47 / 10,42 15,87 / 21,40 10,68 / 41,44 9,74 / 24,39 6,43 / 40,22 14,89 / 43,11 2,72 / 61,57 max. Signifikanz 85,72 85,80 85,81 85,84 85,92 85,99 86,01 86,03 86,03 48 K APITEL 6. A NALYSE Tabelle 6.1: Für eine Tiefe von zwei Ebenen und ohne Pruning wird der KS-Test und die maximale Signifikanz für eine unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 21,28 / 3,53 33,94 / 1,77 57,17 / 1,89 68,42 / 53,51 75,49 / 34,33 53,37 / 40,92 71,06 / 34,96 57,27 / 48,87 54,69 / 36,49 max. Signifikanz 85,85 85,78 85,85 85,86 85,86 85,85 85,85 85,86 85,86 Tabelle 6.3: Für eine Tiefe von vier Ebenen und ohne Pruning wird der KS-Test und die maximale Signifikanz für eine unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 11,54 / 5,71 4,96 / 17,05 8,56 / 5,94 5,81 / 21,08 5,13 / 19,58 4,77 / 21,35 5,49 / 20,74 6,41 / 22,21 5,82 / 20,59 max. Signifikanz 85,91 86,15 86,16 86,19 86,16 86,17 86,16 86,18 86,18 Für unterschiedliche Einstellungen zeigt sich kein großer Unterschiede im Maximum der Signifikanz, was zeigt, dass die Signifikanz im Großen und Ganzen stabil ist. Es zeigt sich, wenn auch nur geringfügig, dass viel Pruning die Signifikanz nur in einigen Fällen steigert. Zur Optimierung der BDT-Einstellungen wird gefordert, dass der KS-Test für Untergrund und Signal mindestens 10 % beträgt, wodurch die Einstellung von vier Ebenen ausgeschlossen wird. Da alle übrig gebliebenen Einstellungen geeignet sind und eine Einstellung ausgewählt werden muss, werden diese untereinander mit verfeinerten Bedingungen verglichen2 . Es wird die Einstellung mit 350 Bäume, zwei Tiefen und 50 % Pruning verwendet. In Abbildung 6.3 ist das dazugehörige Kontrolldiagramm für das Übertrainieren gezeigt. Gezeigt ist die relative Häufigkeit für Signal und Untergrund, die jeweils für den Datensatz zum Trainieren (Linie) und zum Testen (Punkte) aufgetragen sind (Achtung: linke y-Achse für Untergrund (rot) und rechte y-Achse für Signal (blau)). Unterhalb ist das Verhältnis zwischen den beiden Datensätzen aufgetragen. Die großen Fehlerbalken werden durch die geringe Statistik verursacht. 2 Für einige Einstellungen wurde auch die BDT-Verteilungen angeschaut, um sich für eine BDTEinstellung zu entscheiden. UND R OBUSTHEIT DES Abbildung 6.3: Kontrolldiagramm für das Übertrainieren mit den BDT-Einstellungen: 350 Bäumen, zwei Tiefen und 50 % Pruning. Links ist eine lineare und rechts eine logarithmische Auftragung der relativen Häufigkeit von Signal (blau) und Untergrund (rot). Unterhalb ist das Verhältnis zwischen dem Datensatz zum Testen (Punkte) und zum Trainieren (Linie) jeweils für Signal und Untergrund aufgetragen. 6.2. O PTIMIERUNG BDT S 49 50 K APITEL 6. A NALYSE Als nächstes werden die Variablen nach dem Trainieren des BDTs und ihre Relevanz im BDT betrachtet. Um herauszufinden wie wichtig eine Variable im BDT ist, kann die Häufigkeit, an wie vielen Knoten eine Variable im BDT verwendet wurde, ausgegeben werden, wobei 1 bedeutet, dass nur diese Variable zur Trennung im BDT verwendet wurde. Die Tabelle 6.4 zeigt die Bedeutung der Variable im BDT. Auffällig sind die beiden Variablen QLatePulseDiff und NLateDomsDiff, die in 37,1 % und 20,4 % der Knoten verwendet wurden. Wie erwartet fällt die Variable LogLRatio_Track schlechter aus als LogLRatio_Cascade. Bis auf die letzten vier Variablen sind die anderen Variablen im einstelligen Bereich. Insgesamt sind die Variablen relativ gut ausgeglichen im BDT. Tabelle 6.4: Relevanz der Variablen im BDT. Variablen QLatePulseDiff NLateDomsDiff Q_early1000 LogLRatio_Cascade bayesDiff recoR Santachi2_ratio Santachi2_track LogL_Track_Cascade LogL_Track_Track LDir QMax_QTot costheta_SPEFit Santachi2_cascade LogLRatio_Track Q_early500 Relevanz [%] 37,1 20,4 8,7 8,6 6,6 4,5 3,4 2,5 2,4 1,7 1,2 1,1 0,7 0,6 0,3 0,3 Im Folgenden werden einige Variablen vor und nach den BDT angeschaut und diskutiert. Im Kapitel 4 konnte die Differenz der logarithmischen Likelihoods unter Verwendung der Rekonstruktionen keine Trennung zwischen νµ (CC) und νe + νµ (NC) zeigen. Mit der neuen Signaldefinition (νµ (CC) < 50 GeV) weisen die Verteilungen am Rande Unterschiede auf, wodurch der BDT die Untergrundereignisse erkennt und sie aussortiert (s. Abb. 6.4). In Abbildung 6.5 ist die Verteilung der Variable NLateDomsDiff, die am häufigsten im BDT verwendet wurde, zu sehen. Vor dem BDT ist ein Unterschied zwischen Untergrund (Kaskaden, violett) und Signal (νµ (CC) < 50 GeV, rot) zu höheren Werten zu erkennen. Nach dem BDT wurde der hintere Teil der Verteilung für Untergrund weggeschnitten und liegt nun unterhalb der Verteilung des Signals. Außerdem wurde durch den Schnitt die Signalverteilung kaum verändert. Zum Schluss schauen wir uns die Variable Santachi2_track an, die als Zehnerlogarithmus aufgetragen wird (s. Abb. 6.6). Hierzu muss man beachten, dass durch das SANTACleaning nicht alle Ereignisse ein χ2 -Wert aus der SANTA-Rekonstruktion besitzen, weswegen diese Ereignisse einen sehr schlechten (also großen) χ2 -Wert bekommen, wodurch der hohe Bin bei 3,5 entsteht. Man erkennt nach dem BDT sehr schön die Reduzierungen des Untergrundes, ohne dass die Signalverteilung sehr stark beschnitten wird. Die 6.2. O PTIMIERUNG UND R OBUSTHEIT DES BDT S restlichen Variablen können im Anhang C betrachtet werden. 51 K APITEL 6. A NALYSE 52 Abbildung 6.4: Zeigt die Verteilung der Variable LogLRatio_Cascade vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt die logarithmische Darstellung. UND R OBUSTHEIT DES BDT S Abbildung 6.5: Zeigt die Verteilung der Variable QLatePulseDiff vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt die logarithmische Darstellung. 6.2. O PTIMIERUNG 53 K APITEL 6. A NALYSE 54 Abbildung 6.6: Zeigt die Verteilung der Variable Santachi2_cascade vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt die logarithmische Darstellung. Auf der x-Achse ist jeweils der Zehnerlogarithmus aufgetragen. 6.2. O PTIMIERUNG UND R OBUSTHEIT DES BDT S 55 In Abbildung 6.7 und 6.8 ist die Korrelationsmatrix für Signal und Untergrund der verwendeten Variablen nach dem Trainieren des BDTs zu sehen. Auffällig ist natürlich die starke Korrelation unter den „Santa“-Variablen, unter den Variablen der logarithmischen Likelihoods und unter den „Q_early“ Variablen zu sehen. Außerdem ist eine Korrelation zwischen „Q_early“ und den Likelihoods zu erkennen, die indirekt durch die Berechnung der Zeitresiduen verbunden sind. Im Allgemeinen ist eine Korrelation für den BDT nicht schlimm, da wie schon oben erwähnt, jede Variable separat für jeden Knoten betrachtet wird. Abbildung 6.7: Korrelationsmatrix für die Signalereignisse. Die Farbskala gibt den Korrelationskoeffizienten an. 56 K APITEL 6. A NALYSE Abbildung 6.8: Korrelationsmatrix für die Untergrundereignisse. Die Farbskala gibt den Korrelationskoeffizienten an. 6.3 Ergebnisse der Trennung Im Folgenden wird die Qualität der Trennung zwischen Kaskaden und Spuren durch den BDT betrachtet. In Abbildung 6.9 ist die BDT-Verteilung mit den ausgearbeiteten Einstellungen aus dem vorherigen Kapitel (350 Bäume, zwei Tiefen und 50 % Pruning) gezeigt. Eine senkrechte grün-gestrichelte Linie kennzeichnet den verwendeten BDT-Schnitt mit der maximalen Signifikanz (Abb. 6.2). Die BDT-Verteilung für Signal und Untergrund sind leicht zueinander verschoben. Außerdem ist in der logarithmischen Darstellung die Dominanz des Untergrundes für kleine BDT-Werte deutlich zu sehen. Zu größeren BDT-Werten werden signalartige Ereignisse erwartet, was in der BDT-Verteilung zu sehen ist. Der Vollständigkeit halber sind die Verteilung für atmosphärische Myonen (Corsika, magenta), die restlichen Myonneutrinos nach der Signaldefinition (gelb-grün) und alle Myonneutrinos aus der CC-Wechselwirkung (blau) eingezeichnet. Diese sind auch in den darauffolgenden Diagrammen gezeigt. Als nächster Schritt wird die Effizienz und die Reinheit gegen den BDT-Wert aufgetragen, sodass die Stärke des BDTs bewertet werden kann. Die Effizienz und die Reinheit werden jeweils für die unterschiedlichen Datensätze x (s. Abb. 6.9) für jeweils einen BDT-Wert berechnet (s. Gl. 6.7 , 6.8), d. h. alle dargestellten Linien müssen nicht zusammen 100 % ergeben. # xakzeptiert (6.7) Effizienz = (#νµ + #νe + # Corsika)(gesamt) DER Abbildung 6.9: BDT-Verteilung für die Einstellungen: 350 Bäume, zwei Tiefen, 50 % Pruning. Rechts ist die logarithmische Darstellung gezeigt und die grün-gestrichelte Linie markiert den verwendeten BDT-Schnitt mit der maximalen Signifikanz. 6.3. E RGEBNISSE T RENNUNG 57 58 K APITEL 6. A NALYSE Reinheit = #x #νµ + #νe + # Corsika (6.8) Abbildung 6.10 und 6.11 zeigen die Effizienz und die Reinheit gegen den BDT-Wert. Für BDT-Werte oberhalb von 0,2 weisen die Verteilungen für die Reinheit Sprünge auf, die durch eine geringe Statistik hervorgerufen werden. Auch die Effizenzkurve für den Corsika-Datensatz weist eine unstetige Verteilung auf, da der initiale Datensatz nur 63 Ereignisse beinhaltet. Für den optimierten BDT-Schnitt kann die Effizienz bzw. die Reinheit jeweils für Signal und Untergrund durch die grüne Linie abgelesen werden. Für den optimierten BDT-Schnitt von -0,0945 beträgt die Effizienz für Signal 97 % und für Untergrund 81 %. Die dazugehörige Reinheit beträgt für Signal 57,9 % und für Untergrund 22,4 %. Mit diesem BDT kann der Untergrund um 19 % reduziert werden, wobei der Großteil an Signal beibehalten wird. Um zu überprüfen, wie stark die Unterdrückung des Untergrundes von der BDT-Einstellung abhängt, wurden die prozentuelle Schwankung zu den anderen möglichen BDT-Einstellungen3 bestimmt. Die Reduzierung des Untergrundes um 19 % weist eine prozentuelle Schwankung von 3,7 % auf und liefert somit eine robuste Aussage. Für die Signaleffizienz ergab sich eine prozentuelle Schwankung von maximal 1,2 %. Abbildung 6.10: Effizienz gegen den BDT-Wert für die BDT-Einstellung: 350 Bäume, zwei Tiefen und 50 % Pruning. Die grüne Linie kennzeichnet den optimierten BDTSchnitt. 3 Einstellungen, die im oberen Abschnitt auch für den BDT geeignet waren. 6.3. E RGEBNISSE DER T RENNUNG 59 Abbildung 6.11: Reinheit gegen den BDT-Wert für die BDT-Einstellung: 350 Bäume, zwei Tiefen und 50 % Pruning. Die grüne Linie kennzeichnet den optimierten BDTSchnitt. 6.3.1 Überprüfung der Oszillationshypothese Zum Abschluss wird eine Monte-Carlo (MC) Studie für die Hypothese der Neutrinooszillation durchgeführt. Für den Ausschluss der Nullhypothese wird der gesamte Monte-Carlo-Datensatz (νe , νµ , ντ ) in zwei Teile aufgeteilt. Die eine Hälfte dient als „experimentelle“ Daten und die andere Hälfte als MC-Daten. Zusätzlich wird, aufgrund geringer Statistik, der gesamte Corsika-Datensatz in beide Teilen hinzugefügt. Wie schon im Kapitel 2 gezeigt wurde, wird die Oszillationswahrscheinlichkeit durch das Verhältnis zwischen der Oszillationslänge und der Energie des Neutrinos beschrieben. Für die unterschiedlichen Datensätze (νe , νµ , ντ , Corsika, exp. Daten) werden Histogramme für dieses Verhältnis erstellt. Die rekonstruierte Energie kann mit der Ahnnahme, dass das Myon nur durch Ionisatiosverluste Energie veliert, durch die Gleichung [59] Ereco = 0,2 GeV · lreco + EKaskade m (6.9) berechnet werden. EKaskade ist die Energie der hadronischen Kaskade und wird mit Monopod4 bestimmt. lreco ist die rekonstruierte Spurlänge aus FiniteReco (s. Kapitel 4.1). 4 Monopod ist ein Teil der IceCube-Software aus Millipede [60]. Dieser Algorithmus läuft nur auf Pulse, die vermutlich nicht zu der Spur passen. 60 K APITEL 6. A NALYSE Für die Berechnung der Oszillationlänge wird die Formel 2.10 mit dem rekonstruierten Zenith-Winkel aus MPEFit benutzt. Um die Nullhypothese zu überprüfen, werden die erzeugten Verteilungen für νe , νµ , ντ und Corsika einmal mit und einmal ohne den erwarteten Oszillationswahrscheinlichkeiten gewichtet. Anschließend werden sie jeweils gegen die „experimentellen“ Daten, die mit den erwarteten Oszillationswahrscheinlichkeiten gewichtet werden, angepasst, indem die logarithmische Likelihood-Funktion maximiert wird. Für die Anpassung wird die Normalisierung der Nuisance Parameter genutzt. Aus den beiden berechneten logarithmischen Likelihoods kann mit dem Wilks’ Theorem [61] die statistische Signifikanz bestimmt werden. In Abbildung 6.12 ist die Signifikanz gegen den BDT-Wert dargestellt. Aufgrund der geringeren Statistik bricht die Kurve bei einem BDT-Wert unterhalb von 0,2 ab und weist einen Abfall zu größeren BDT-Werten auf. Man erhält für den optimierten BDT-Schnitt von -0,0945 eine statistische Signifikanz von 5,2 Sigma. Mit einer Abweichung von 5,2 Sigma kann die Nullhypothese ausgeschlossen werden. Abbildung 6.12: Die Signifikanz zwischen den beiden Hypothesen Oszillation und keine Oszillation gegen den BDT-Wert. Die grüne Linie kennzeichnet den optimierten BDTSchnitt. Kapitel 7 Fazit In dieser Arbeit wurde für die Oszillationsanalyse eine Methode zur Unterdrückung kaskadenartiger Ereignisse entwickelt. Es wurden neue Variablen zur Trennung von Kaskaden und Spuren entwickelt und getestet. Die Trennkraft der Variablen zwischen Kaskaden und Spuren auf der Monte-CarloWahrheit sahen viel versprechend aus. Jedoch konnte durch die Anwendung der Rekonstruktionen die erwünschte Trennung nicht erreicht werden. Von den neuen Variablen haben Q_early1000 (8,7 %) und LogLRatio_Cascade (8,6 %) die größte Relevanz im BDT. Die Variablen NLateDomsDiff (20,4 %) und QLatePulseDiff (37,1 %) sind von allen Variablen am stärksten im BDT vertreten. Insgesamt sind die Variablen relativ gut ausgeglichen im BDT. Im zweiten Teil der Arbeit wurde ein BDT mit ausgewählten Variablen benutzt und dieser zur Trennung von Kaskaden und Spuren optimiert. Durch die Optimierung des BDTs zeigte sich, dass sich die Signifikanz (s. Gl. 6.6) für unterschiedliche BDT-Einstellungen im Promillebereich änderte. Auf der einen Seite ist das Maximum der Signifikanz unabhängig von der BDT-Einstellung positiv zu sehen und liefert ein robustes Ergebnis. Für unterschiedliche BDT-Einstellungen liegt die prozentuelle Schwankung für die Reduzierung der Kaskadenereignisse bei 3,7 %. Jedoch ergibt sich kein großer Spielraum, um die Reduzierung der Kaskaden zu steigern, weil durch ein härteres Schneiden die Signifikanz, sowie die Signaleffizienz stark abnehmen würde. Durch den BDT konnten die Kasakdenereignisse um 19 % reduziert werden. Dabei verringerte sich die Signaleffizienz nur um 3 %. Zum Schluss der Arbeit wurde eine Monte-Carlo-Studie zur Überprüfung der Oszillationshypothese durchgeführt. Es wurde gezeigt, dass die Nullhypothese mit 5,2 Sigma ausgeschlossen werden kann. Jedoch muss beachtet werden, dass diese Aussage auf Basis von Monte-Carlo-Daten zu erwarten war und der Test auf experimentellen Daten anderes aussehen wird. Mit dem BDT konnte die statistische Signifikanz um 1,0 Sigma gesteigert werden. Die Bedeutung der Unterdrückung der kaskadenartigen Ereignisse wird für zukünftige Oszillationsanalysen wichtig bleiben. In der Oszillationsanalyse von Juan-Pablo Yanez [62] wird der SANTA-Algorithmus zur Aussortierung von Ereignissen, die keine gestreuten Photonen aufweisen, benutzt. Durch den SANTA-Algorithmus wird ein Großteil der Ereignisse verworfen und bewirkt eine starke Reduzierung der kaskadenartigen Ereignissen. In anderen Analysen, wo solch eine starke Ereignisselektion nicht durchgeführt wird, spielt die Unterdrückung der kaskadenartigen Ereignisse eine große Rolle, da die kas61 62 K APITEL 7. FAZIT kadenartigen Ereignisse die Neutrinooszillation verschmieren. Daher ist es wichtig die Unterdrückung der Kaskadenereignisse zu verbesseren, sodass ein Datensatz mit einer hohen Reinheit an Myonneutrinos (CC) erreicht wird. Durch den Vergleich zwischen der Monte-Carlo-Wahrheit und der Rekonstruktion zeigten die entwickelten Variablen in dieser Arbeit, dass eine Verbesserung der Ereignisrekonstruktion die Trennung zwischen Kaskaden und Spuren verbessern würde (s. Kapitel 5.3). Die geplante Erweiterung von DeepCore ist der PINGU-Detektor (Precision Icecube Next Generation Upgrade) [63], welcher für zukünftige Oszillationsanalyse eine große Rolle spielen wird. PINGU weist eine dichtere Instrumentierung auf, welche in Deepcore intrigiert wird, und senkt die Energieschwelle zur Detektion von Neutrinos auf einige GeV herab. PINGU ist ausgelegt für die Erforschung der Massenhierarchie und der Oszillation der Neutrinos. Für die Analyse der Massenhierarchie ist die Messung der y1 -Verteilung wichtig, da sie bei der Bestimmung des Neutrino zu Anti-Neutrino Verhältnisses hift. Für die Messung der y-Verteilung ist eine Unterscheidung zwischen kaskadenartigen und spurartigen Ereignissen essenziell. Außerdem können durch die dichteren Instrumentierung von PINGU die Ereignisse genauer rekonstruiert werden, wodurch die Trennkraft der Variablen in dieser Arbeit gesteigert werden kann, sodass die Trennung zwischen Kaskaden und Spuren effizienter wird. 1 y gibt den Kaskadenanteil im Ereignis an. y ≡ Eνµ −Eµ Eν µ Anhang A Herleitung der Wahrscheinlichkeit für die 2-FlavorNäherung |νµ i c23 s23 |ν2 i = · |ντ i −s23 c23 |ν3 i sin(2x) = 2 sin(x) cos(x) 1 − cos(2x) = 2 sin2 (x) cos(x) = P (νµ → ντ ) = = = = = = 1 · e−ix + eix) 2 2 X 2 ∗ −iL(mi /2E) Uµi Uτ i · e i 2 ∗ −iL(m22 /2E) ∗ −iL(m23 /2E) U U · e + U U · e µ2 τ 2 µ3 τ 3 2 2 2 −c23 s23 · e−iL(m2 /2E) + s23 c23 · e−iL(m3 /2E) 2 2 2 c223 s223 · e−iL(m3 /2E) − e−iL(m2 /2E) 2 2 −iL(m23 /2E) −iL(m22 /2E) iL(m23 /2E) iL(m22 /2E) c23 s23 · e −e · e −e 1 −iL((m23 /2E)−(m22 /2E)) iL((m23 /2E)−(m22 /2E)) 2 2 +e 2c23 s23 · 1 − · e 2 s.o. = 2c223 s223 · (1 − cos(L/2E · (m23 − m22 ))) s.o. = 4c223 s223 · sin2 (L/4E · (m23 − m22 )) s.o. = sin2 (2θ23 ) · sin2 (∆m232 · L/4E) Umrechnung von natürlichen Einheiten in das SI-Einheitensystem: ∆m232 L 4E → = ~c=1 = ∆m232 ev2 ∆m232 eV2 L eV m · eV · · m E 4 L GeV m · eV · · · · 10−6 km E 4 ∆m232 L GeV 1,269 · · · eV2 km E · 63 64 K APITEL 7. FAZIT Anhang B BDT-Einstellungen Tabelle 7.1: Für eine Tiefe von zwei Ebenen und mit 30 % Pruning wird der KS-Test und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 21,28 / 3,53 33,94 / 1,77 57,17 / 1,89 68,42 / 53,51 75,49 / 34,33 53,37 / 40,92 71,06 / 34,96 57,27 / 48,87 54,69 / 36,49 max. Signifikanz 85,8512 85,7814 85,8497 85,8635 85,8589 85,8524 85,8455 85,8596 85,8612 Tabelle 7.2: Für eine Tiefe von zwei Ebenen und mit 50 % Pruning wird der KS-Test und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 0,29 / 10−5 13,45 / 0,13 62,95 / 3,47 24,34 / 46,91 32,28 / 78,50 45,47 / 75,30 45,37 / 77,66 23,64 / 77,58 29,06 / 90,65 65 max. Signifikanz 85,7201 85,6920 85,6943 85,7220 85,8936 85,8857 85,9366 85,9365 85,9523 66 K APITEL 7. FAZIT Tabelle 7.3: Für eine Tiefe von drei Ebenen und mit 30 % Pruning wird der KS-Test und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 46,72 / 23,93 13,98 / 19,80 18,43 / 9,99 3,82 / 6,07 25,63 / 21,21 25,53 / 4,54 21,82 / 54,94 7,65 / 21,50 3,41 / 6,99 max. Signifikanz 85,6854 85,7200 85,8392 85,9122 86,0134 86,1017 86,0756 86,1218 86,1191 Tabelle 7.4: Für eine Tiefe von drei Ebenen und mit 50 % Pruning wird der KS-Test und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 7,07 / 18,07 74,88 / 0,02 31,30 / 15,13 17,47 / 41,20 6,89 / 37,04 11,76 / 39,95 12,42 / 36,23 13,00 / 44,18 24,43 / 60,01 max. Signifikanz 85,8441 85,8118 85,9078 85,8743 85,9892 85,9920 85,9914 85,9954 86,0125 67 Tabelle 7.5: Für eine Tiefe von vier Ebenen und mit 30 % Pruning wird der KS-Test und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 40,70 / 0,07 21,77 / 2,41 23,07 / 1,99 13,07 / 1,69 11,48 / 1,24 5,90 / 20,04 4,29 / 30,34 7,06 / 27,46 5,54 / 31,15 max. Signifikanz 85,9517 85,9756 85,9879 86,0678 86,0688 86,0681 86,1557 86,1596 86,1640 Tabelle 7.6: Für eine Tiefe von vier Ebenen und mit 50 % Pruning wird der KS-Test und die maximale Signifikanz für unterschiedliche Anzahl an Bäume gezeigt. NTrees 100 150 200 250 300 350 400 450 500 KS-Test (Signal/Untergrund) [%] 0,18 / 3,92 3,94 / 6,44 8,53 / 0,60 10,99 / 10−3 1,12 / 0,94 10−3 / 10−3 3,57 / 11,17 6,75 / 11,98 7,04 / 6,54 max. Signifikanz 85,7937 85,8176 85,8196 85,8236 85,8349 85,8617 85,9826 85,9736 86,0736 68 K APITEL 7. FAZIT Anhang C Variabeln vor und nach dem BDT-Schnitt Im Folgenden werden die restlichen Variablen in der Reihenfolge ihre Wichtigkeit im BDT aufgelistet. Die verwendeten BDT-Einstellungen sind: 350 Bäume, zwei Tiefen und 50 % Pruning. 69 K APITEL 7. FAZIT 70 Abbildung 7.1: Zeigt die Verteilung der Variable NLateDomsDiff vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. Abbildung 7.2: Zeigt die Verteilung der Variable Q_early1000 vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. 71 K APITEL 7. FAZIT 72 Abbildung 7.3: Zeigt die Verteilung der Variable bayesDiff vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. Abbildung 7.4: Zeigt die Verteilung der Variable recoR vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm jeweils zeigt die logarithmische Darstellung. 73 K APITEL 7. FAZIT 74 Abbildung 7.5: Zeigt die Verteilung der Variable Santachi2_ratio vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt die logarithmische Darstellung. Auf der x-Achse ist jeweils der Zehnerlogarithmus aufgetragen. Abbildung 7.6: Zeigt die Verteilung der Variable Santachi2_track vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt die logarithmische Darstellung. Auf der x-Achse ist jeweils der Zehnerlogarithmus aufgetragen. 75 K APITEL 7. FAZIT 76 Abbildung 7.7: Zeigt die Verteilung der Variable LogL_Track_Cascade vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. Abbildung 7.8: Zeigt die Verteilung der Variable LogL_Track_Track vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. 77 K APITEL 7. FAZIT 78 Abbildung 7.9: Zeigt die Verteilung der Variable LDir vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. Abbildung 7.10: Zeigt die Verteilung der Variable QMax_QTot vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. 79 K APITEL 7. FAZIT 80 Abbildung 7.11: Zeigt die Verteilung der Variable costheta_SPEFit vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. Abbildung 7.12: Zeigt die Verteilung der Variable Q_early500 vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. 81 K APITEL 7. FAZIT 82 Abbildung 7.13: Zeigt die Verteilung der Variable LogLRatio_Track vor dem BDT (oben) und nach dem BDT (unten). Das linke Diagramm zeigt jeweils die logarithmische Darstellung. Literaturverzeichnis [1] R. DAVIS , D. S. H ARMER , AND K. C. H OFFMAN. Search for Neutrinos from the Sun. Phys. Rev. Lett. 20, doi: 10.1103/PhysRevLett.20.1205, (1968). [2] B. P ONTECORVO. "Mesonium and anti-mesonium. Sov.Phys.JETP 6 (1957) 429, (1957). [3] E. A KHMEDOV. Neutrino physics. arXiv:hep-ph/0001264, (2000). http:// arxiv.org/pdf/hep-ph/0001264v2.pdf. [4] G. Z. J.A. F ORMAGGIO. From eV to EeV: Neutrino Cross Sections Across Energy Scales. arXiv:1305.7513 [hep-ex], (2013). http://arxiv.org/abs/ 1305.7513. [5] P ROF. C. W IEBUSCH. AstroTeilchenphysik. RWTH-Aachen: Vorlesungsskript, (2010). [6] H. T. M ARKUS A HLERS , A NDREAS R INGWALD. Cosmic rays at ultra high energies (Neutrinos!). arXiv:astro-ph/0506698v1, (2005). http://arxiv.org/ pdf/astro-ph/0506698v1.pdf. [7] V ICTOR F. H ESS. Über Beobachtungen der durchdringenden Strahlung bei sieben Freiballonfahrten. Physikalische Zeitschrift 13, (1912). http://www. mpi-hd.mpg.de/hfm/HESS/public/HessArticle.pdf. [8] C LAUS G RUPEN. Astroparticle physics. Springer, 2005. [9] J. B ERINGER ET AL . (PARTICLE DATA G ROUP ). Review of particle physics. Phys. Rev. D86, 010001 (2012) and 2013 partial update for the 2014 edition, (2012). PDG1. [10] T. S TANEV. High Energy Cosmic Rays. Springer Berlin Heidelberg, 2nd ed., 2009. [11] Y. F UKUDA ET AL . (S UPER -K AMIOKANDE C OLLABORATION ). Evidence for Oscillation of Atmospheric Neutrinos. Phys. Rev. Lett. 81, doi: 10.1103/PhysRevLett.81.1562, (1998). [12] C. E . A . A MSLER. Standard Model and Related Topics. Physics Letters B, vol. 667(1-5), (2008). http://www.sciencedirect.com/science/ article/pii/S0370269308008526. 83 84 L ITERATURVERZEICHNIS [13] M. N. Z IRO M AKI AND S. S AKATA. Remarks on the Unified Model of Elementary Particles. Prog. Theor. Phys. (1962) 28 (5), (1962). http://ptp. oxfordjournals.org/content/28/5/870. [14] S. E ULER. Observation of oscillations of atmospheric neutrinos with the IceCube Neutrino Observatory. RWTH Aachen, (2013). Doktorarbeit Sebastian Euler. [15] K. K RINGS. Studies on the Measurement of Atmospheric Neutrino Oscillations with the PINGU Detector. RWTH Aachen, (2013). Masterarbeit Kai Krings. [16] P. A DAMSON ET AL . (MINOS C OLLABORATION ). Measurement of Neutrino and Antineutrino Oscillations Using Beam and Atmospheric Data in MINOS. Phys. Rev. Lett. 110, doi: 10.1103/PhysRevLett.110.251801, (2013). [17] S PENCER R. K LEIN FOR THE I CE C UBE C OLLABORATION. Recent Highlights from IceCube. arXiv:1311.6519 [astro-ph.HE], (2013). http://arxiv.org/ pdf/1311.6519v1.pdf. [18] I CE C UBE C OLLABORATION. First Year Performance of The IceCube Neutrino Telescope. arXiv:astro-ph/0604450v2, (2006). http://arxiv.org/pdf/ astro-ph/0604450.pdf. [19] B ERKELEY L AB. Aufbau eines digitalen optischen Moduls. (2010). http://newscenter.lbl.gov/wp-content/uploads/sites/2/ 2010/12/DOM-schema.jpg. [20] U NIVERSITY OF W ISCONSIN -M ADISON. IceCube: Digitales optisches Modul. . http://www.psl.wisc.edu/wp-content/themes/default/ images/projects/dom.jpg. [21] J OHN T OON. IceCube Neutrino Observatory Explores Origin of Cosmic Rays. Georgia College of Tech Sciences, (2012). IceCube Model. [22] I CE C UBE C OLLABORATION. The Design and Performance of IceCube DeepCore. arXiv:1109.6096 [astro-ph.IM], (2011). http://arxiv.org/pdf/1109. 6096v1.pdf. [23] L AUREL N ORRIS BACQUE. IceCube DeepCore oscillations. (2012). DeepCore Schema. [24] I CE C UBE C OLLABORATION. Geometry figures. IceCube wiki, (2011). IC79String-Konfiguration. [25] J. A. ET AL . (I CE C UBE C OLLABORATION ). IceCube Preliminary Design Document. (2001). https://icecube.wisc.edu/icecube/static/ reports/IceCubeDesignDoc.pdf. [26] W. D EMTRÖDER. Experimentalphysik 4: Kern-, Teilchen- und Astrophysik, 2.Auflage. Springer-Verlag, 2004. [27] I. TAMM. Radiation emitted by uniformly moving electrons. J. Phys.(USSR) 1, 439, (1939). L ITERATURVERZEICHNIS 85 [28] P.B. P RICE UND K. W OSCHNAGG. Role of group and phase velocity in high-energy neutrino observatories. Astroparticles Physics, (2001). http://icecube.berkeley.edu/~bprice/publications/ group.phase.vel.pdf. [29] L. R ÄDEL UND P ROF. C. W IEBUSCH. Calculation of the Cherenkov light yield from low energetic secondary particles accompanying high-energy muons in ice and water with Geant4 simulations. arXiv:1206.5530v2 [astro-ph.IM], (2012). http://arxiv.org/pdf/1206.5530.pdf. [30] U NI -F REIBURG. Experimente zum Nachweis kosmischer Strahlung in Form von Myonen. . http://hep.uni-freiburg.de/Kamiokanne/ cherenkov.png. [31] V. S TENGER. Track Fitting For Dumand II Octagon Array. DUMAND External Reports, (1990). [32] J.-P. H ÜLSS. Search for Neutrinos from the Direction of the Galactic Center with the IceCube Neutrino Telescope. RWTH Aachen, (2010). Doktorarbeit JanPatrick Hülß . [33] I. C OLLABORATION. Improvement in Fast Particle Track Reconstruction with Robust Statistics. arXiv:1308.5501 [astro-ph.IM], (2013). [34] J. L. ET AL . Light tracking through ice and water – Scattering and absorption in heterogeneous media with Photonics. arXiv:astro-ph/0702108, (2007). http: //arxiv.org/pdf/astro-ph/0702108v2.pdf. [35] M. L EUERMANN. Untersuchungen zur Messung von Oszillationen atmosphärischer Neutrinos mit IceCube-DeepCore. RWTH Aachen, (2011). Bachelorarbeit Martin Leuermann. [36] P. H ALLEN. On the Measurement of High-Energy Tau Neutrinos with IceCube. RWTH Aachen, (2013). Masterarbeit Patrick Hallen. [37] I. C OLLABORATION. Energy Reconstruction Methods in the IceCube Neutrino Telescope. arXiv:1311.4767 [physics.ins-det], (2014). http://arxiv.org/ pdf/1311.4767v3.pdf. [38] I. C OLLABORATION. The IceCube Data Acquisition System: Signal Capture, Digitization, and Timestamping. arXiv:0810.4930 [physics.ins-det], (2009). http://arxiv.org/ftp/arxiv/papers/0810/0810.4930.pdf. [39] I. C OLLABORATION. SLC hit cleaning. IceCube Wiki, (2013). https://wiki.icecube.wisc.edu/index.php?title=SLC_hit_ cleaning&oldid=126846#New_Seeded_RT-cleaning. [40] T. D. M ICHAEL L ARSON , JASON KOSKINEN. Removing Pure Noise Events With TrackEngine. Collabration Meeting, (2011). https: //events.icecube.wisc.edu/getFile.py/access?contribId= 58&sessionId=20&resId=0&materialId=slides&confId=36. 86 L ITERATURVERZEICHNIS [41] J. P. Y. NEZ. Corridor Cut removing sneaky muons. (2012). https: //docushare.icecube.wisc.edu/dsweb/Get/Document-62713/ Yanez_CorridorCut_Oct2012.pdf. [42] D. C. FOR THE I CE C UBE COLLABORATION. Neutrino search with IceCube. IceCube Internal Report, (2008). [43] M. V EHRING. Update on the new IC79 Oscillation Analysis. IceCube Aachen Wiki, (2013). [44] A. I. UND S HIGERU YOSHIDA. Note on neutrino-generator und juliet: Effective area and event rate using event weighing technique. IceCube internal Report, (2006). [45] I. C OLLABORATION. The GENIE Neutrino Monte Carlo Generator. arXiv:0905.2517v2 [hep-ph], (2009). http://arxiv.org/pdf/0905. 2517v2.pdf. [46] J. H. U . W. K. T. E . A . H. L. L AIF. Global QCD Analysis of Parton Structure of the Nucleon: CTEQ5 Parton Distributions. arXiv:hep-ph/9903282v3, (1999). [47] I. C OLLABORATION. PPC. IceCube wiki, (2010). https://wiki.icecube. wisc.edu/index.php/PPC. [48] C. KOPPER. CLSim. IceCube, (2014). http://code.icecube.wisc.edu/ svn/projects/clsim/. [49] I. C OLLABORATION. Measurement of South Pole ice transparency with the IceCube LED calibration system. arXiv:1301.5361v1 [astro-ph.IM], (2013). http://arxiv.org/pdf/1301.5361v1.pdf. [50] I. C OLLABORATION. Extensive Air Shower Simulation with CORSIKA: A User’s Guide. Forschungszentrum Karlsruhe: Technik und Welt, (1998). [51] M. G EISLER. On the Measurement of Atmospheric Muon-Neutrino Oscillations with IceCube-DeepCore. RWTH Aachen, (2010). Diplomarbeit Matthias Geisler. [52] J.-P. Y. U . M. D . W. J ÜRGEN B RUNNER. SANTA algorithm. IceCube Wiki, (2014). https://wiki.icecube.wisc.edu/index.php/SANTA_ algorithm. [53] A. C OLLABORATION. A Fast Algorithm for Muon Track Reconstruction and its Application to the ANTARES Neutrino Telescope. arXiv:1105.4116 [astroph.IM], (2011). http://arxiv.org/pdf/1105.4116v1.pdf. [54] J.-P. YANEZ. IC86 oscillations event selection. IceCube Wiki, (2013). https: //wiki.icecube.wisc.edu/index.php/IC86_oscillations_ event_selection. [55] J. G ROH. PID for νµ Events via "Faster than c/n"Hits. PINGU wiki, (2013). PINGU conference call. L ITERATURVERZEICHNIS 87 [56] M. R ICHMAN. Metaproject documentation - pybdt. IceCube Collaboration, (2013). http://software.icecube.wisc.edu/icerec/projects/ pybdt/index.html. [57] H. E VANS. PHYSICS P411/P610: Decision Trees. Indiana University, (2011). http://hep.physics.indiana.edu/~hgevans/p411-p610/ material/11_classify/bdt.html#boost. [58] W IKIPEDIA. Kolmogorov - Smirnov test. Wikipedia, the free encyclopedia, (2014). http://en.wikipedia.org/wiki/Kolmogorov%E2%80% 93Smirnov_test. [59] J.-P. Y. ROLF NAHNHAUER , A NDRII T ERLIUK. Energy reconstruction of νµ events in DeepCore. IceCube Internal Report, (2013). [60] N. W. E MANUEL JACOBI , M EIKE DE W ITH. millipede. IceCube, (2014). http: //code.icecube.wisc.edu/svn/projects/millipede/. [61] S. S. W ILKS. The large-sample distribution of the likelihood ratio for testing composite hypotheses. Ann. Math. Statist. 9 60-62, (1938). [62] J.-P. YANEZ. DESY oscillation analysis - muon disappearance. IceCube wiki, (2014). [63] I.-P. C OLLABORATION. Letter of Intent: The Precision IceCube Next Generation Upgrade (PINGU). arXiv:1401.2046 [physics.ins-det], (2014). 88 L ITERATURVERZEICHNIS Danksagung Ich bedanke mich bei der gesamten Arbeitsgruppe IceCube für das angenehme Arbeitsklima. Ein großes Dankeschön geht an Prof. Christopher Wiebusch, der mir diese Arbeit ermöglicht hat. Außerdem danke ich Prof. Achim Stahl, der sich als Zweitprüfer zur Verfügung gestellt hat. Für eine hilfreiche und gute Betreuung bedanke ich mich sehr bei Markus Vehring. Bei ihm konnte ich immer um Rat fragen. Ob es um Programmierproblemen oder um Verständnisfragen ging, war er bereit mir zu helfen. Danke an Martin Bissok, der für Verständnisfragen immer da war. Ein Dankeschön geht auch an Sebastian Schönen, Leif Rädel und Christian Haack, die für allgemeine Frage immer ein offenes Ohr hatten. Weiterhin bedanke ich mich bei Marius Wallraff und Jan Blumenthal, die sich als Korreturleser zur Verfügung gestellt haben. Der größte Dank geht an meine Eltern und meinem Bruder, die mich immer unterstützt haben. Sie haben mich immer ermuntert durchzuhalten und immer mein Bestes zu geben. Zu Hause haben sie mir Aufgaben abgenommen, sodass ich mich vollkommen auf das Studium konzentrieren konnte. Herzlichen Dank nochmal. 89 Erklärung Ich versichere, dass ich die Arbeit selbstständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel benutzt sowie Zitate kenntlich gemacht habe. Aachen, den 10. September 2014 Christian Wichary