Arbeit zur Erlangung des akademischen Grades Bachelor of Science Untersuchung likelihood-basierter Teststatistiken zur Bestimmung von oberen Ausschlussgrenzen Lukas Calefice Juni 2017 Lehrstuhl für Experimentelle Physik V Fakultät Physik Technische Universität Dortmund Erstgutachter: Zweitgutachter: Abgabedatum: Dr. Johannes Albrecht Prof. Dr. Kevin Kröninger 29. Juni 2017 Kurzfassung Diese Bachelorarbeit untersucht die Konstruktion von Konfidenzintervallen oder oberen Ausschlussgrenzen mit likelihood-basierten Teststatistiken, die gegenüber einigen etablierten Methoden den Vorteil haben negative obere Ausschlussgrenzen zu vermeiden und diese effizient zu berechnen. Dazu werden die Verteilungen der Ausschlussgrenzen und die Coverage der Teststatistiken untersucht. Es wird dabei ein physikalisches Modell zur Anwendung dieser Methoden auf Verzweigungsverhältnisse seltener Zerfälle anhand der Suche nach dem Zerfall π΅π 0 → π− π+ π− π+ entwickelt. Die Ergebnisse dieser Arbeit zeigen, dass die Methoden für einen großen Bereich an möglichen Untergrundereignissen, Coverage oder Overcoverage haben und konservativ betrachtet zuverlässig Ausschlussgrenzen setzen, jedoch für kleine Untergründe bei kleinen Signalstärken Undercoverage haben. Abstract This bachelor thesis investigates the construction of confidence intervals or upper limits with likelihood based test statistics, which in comparison with established methods, have the advantage of excluding negative upper limits and calculating them efficiently. Therefore the upper limits distributions and the coverage of the test statistics are examined. Furthermore a physical model for the application of these methods on branching ratios of rare decays based on the search for the decay π΅π 0 → π− π+ π− π+ is developed. The results of the thesis show that for a great range of possible background events the methods have coverage or overcoverage. From a conservative point of view that means that the test statistics reliably determine upper limits for those cases. However, for less background and low signal yield they undercover. iii Inhaltsverzeichnis 1 Einleitung 1 2 Experimenteller Hintergrund 2.1 Das Standardmodell der Elementarteilchenphysik . . . . . . . . . . . 2.2 Seltene Zerfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Das LHCb-Experiment am Large Hadron Collider . . . . . . . . . . 2 2 3 4 3 Statistische Grundlagen 3.1 Konfidenzintervalle und obere Ausschlussgrenzen . 3.2 Berechnung von Konfidenzintervallen mit p-Werten 3.3 Likelihood-Funktion . . . . . . . . . . . . . . . . . 3.4 Coverage . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 7 . . . . . . . . 4 Einführung in die untersuchten Teststatistiken 4.1 Methoden zur Konstruktion von Konfidenzintervallen Ausschlussgrenzen . . . . . . . . . . . . . . . . . . . . 4.2 Untersuchte Teststatistiken . . . . . . . . . . . . . . . 4.3 Wald-Approximation / Wilks-Theorem . . . . . . . . . . . . . . . . . . . . . und . . . . . . . . . . . . . . . . . . . . . . . . . . . . . oberen . . . . . . . . . . . . . . . 8 8 9 10 5 Untersuchung der Teststatistiken 5.1 Ausschlussgrenze für die Anzahl an Signalkandidaten bei festem Untergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Ausschlussgrenze auf ein Verzweigungsverhältnis bei festem Untergrund 5.3 Einführung einer Unsicherheit auf die Normierungskonstante . . . . 5.4 Unsicherheit auf den erwarteten Untergrund im Signalfenster . . . . 13 6 Zusammenfassung und Ausblick 25 Literatur 26 iv 13 18 19 22 1 Einleitung In der Elementarteilchenphysik lassen sich einige Phänomene am Standardmodell der Elementarteilchenphysik [11, 16, 19] erklären. Ein großer Teil der Forschung in der Teilchenphysik ist jedoch auf neue Physik, die über die Grenzen des Standardmodells hinausgeht, ausgerichtet, denn dieses lässt Fragen zur Materie-AntimaterieAsymmetrie und zur Dunklen Materie bzw. Dunklen Energie offen und kann weder die Gravitation noch die Massen der Teilchen erklären. Daher wird nach Schwächen des Standardmodells gesucht, um Ansätze für neue Modelle zu bekommen, die diese Fragen klären. Besonders geeignet zur Suche nach möglicher neuer Physik sind Suchen nach seltenen Zerfällen. Immer wenn im untersuchten Signalbereich keine Signale gemessen werden können, werden seltene Zerfälle untersucht, indem obere Ausschlussgrenzen für die Verzweigungsverhältnisse der Zerfälle bestimmt werden. Das Bestimmen dieser Ausschlussgrenzen erfordert zuverlässige statistische Methoden, die zu einer definierten Sicherheit jene Grenzen setzen. Es gibt bereits einige Methoden, die zur Bestimmung von Ausschlussgrenzen gut geeignet sind, jedoch auch einige Nachteile mit sich bringen. Ziel dieser Arbeit ist es, alternative likelihood-basierte Methoden [7] im Vergleich zum Profile-Likelihood-Ratio zu untersuchen und ihre Anwendbarkeit auf Verzweigungsverhältnisse zu überprüfen. Die Methoden sollen in das Framework GammaCombo [2] eigebaut werden, das einige Methoden zur Bestimmung von Ausschlussgrenzen enthält und mit den in dieser Arbeit untersuchten Methoden erweitert werden soll. Das in dieser Arbeit verwendete Anwendungsbeispiel zur Bestimmung der oberen Ausschlussgrenzen wird anhand der Suche nach dem seltenen Zerfall π΅π 0 → π− π+ π− π+ [1, 5] validiert, um möglichst realistische Tests durchzuführen. 1 2 Experimenteller Hintergrund In diesem Kapitel werden kurz das Standardmodell der Elementarteilchenphysik, seltene Zerfälle und das LHCb-Experiment beschrieben, um einen Überblick über das experimentelle Umfeld zu geben, in dem diese Arbeit Anwendung finden soll. 2.1 Das Standardmodell der Elementarteilchenphysik Das Standardmodell der Elementarteilchenphysik ist eine Theorie, welche die Elementarteilchen und die Wechselwirkungen zwischen diesen beschreibt [11, 16, 19]. Die Abbildung 2.1 zeigt diese. Sie heißen Elementarteilchen, da sie die einzigen sind, die nach dem Standardmodell nicht weiter zusammengesetzt sind und somit die gesamte Materie bilden. Es wird primär zwischen den 12 Spin- 12 -Fermionen mit deren dazugehörigen Antiteilchen, den 5 Eichbosonen mit Spin 1 und dem Higgs-Boson mit Spin 0 unterschieden. Abbildung 2.1: Die Elementarteilchen des Standardmodells gruppiert in Quarks, Leptonen, Eichbosonen und das Higgs-Boson. [20] Wie Abbildung 2.1 zeigt, sind die Fermionen im Weiteren in 6 Quarks und 6 Leptonen aufgeteilt, die wiederum in drei Generationen angeordnet sind. Die Quarks tragen sowohl eine elektrische Ladung als auch eine Farbladung, während die 3 2 2.2 Seltene Zerfälle geladenen Leptonen, das Elektron π− , das Myon π− und das Tau π − , nur eine elektrische Ladung und die 3 ungeladenen Leptonen, die Neutrinos ππ , ππ , ππ , nur eine schwache Ladung tragen. Alle Fermionen tragen einen schwachen Isospin. Die Wechselwirkung zwischen Teilchen im Standardmodell findet über den Austausch von Eichbosonen statt. Dabei koppelt das Gluon π an die Farbladung und vermittelt damit die starke Wechselwirkung. Die elektromagnetische Wechselwirkung findet durch den Austausch von Photonen πΎ, die an die elektrische Ladung koppeln, statt und die schwache Wechselwirkung wird durch die an den schwachen Isospin koppelnde π ± - und π 0 -Bosonen beschrieben. Das Higgs-Boson π» wechselwirkt über den Higgs-Mechanismus [12]. Quarks können nur in gebundenen Zuständen, die Hadronen genannt werden, auftreten, da die Kopplung der starken Wechselwirkung mit wachsendem Abstand der Quarks stark ansteigt (Confinement). Es wird dabei zwischen Baryonen, die aus drei Quarks oder drei Antiquarks bestehen, und Mesonen, die aus einem Quark-Antiquark-Paar bestehen, unterschieden. 2.2 Seltene Zerfälle Seltene Zerfälle sind Zerfälle, die im Standardmodell stark unterdrückt sind. Sie eignen sich besonders gut um das Standardmodell der Elementarteilchenphysik zu testen. Wenn das Verzweigungsverhältnis für einen Zerfall nach dem Standardmodell verschwindend gering ist und dieser trotzdem gemessen wird, kann dies ein Hinweis für neue Physik sein. Dementsprechend sind Beiträge neuer Physik bei seltenen Zerfällen besonders leicht zu sehen. Solch ein seltener Zerfall ist der Zerfall π΅π 0 → π− π+ π− π+ . Die theoretische Vorhersage für das Verzweigungsverhältnis nach dem Standardmodell [9] liegt bei β¬SM (π΅π 0 → π− π+ π− π+ ) < 3,5 ⋅ 10−11 . (2.1) Da dies noch viel zu klein ist, um den Zerfall zu messen, wird eine obere Ausschlussgrenze für dessen Verzweigungsverhältnis bestimmt. Bei der Suche nach π΅π 0 → π− π+ π− π+ wurde diese Ausschlussgrenze auf Run 1 Daten bei einer integrierten Luminosität von 1/fb zu [1] β¬SM (π΅π 0 → π− π+ π− π+ ) < 2,5 ⋅ 10−9 . (2.2) bei einem Konfidenzlevel von 95 % bestimmt. Gegen das Standardmodell wird MSSMPhysik getestet, für die nach theoretischer Vorhersage Beiträge bis zu β¬SM (π΅π 0 → ππ ) ≈ 10−4 [8] möglich sind. Diese kann durch die bestimmte Auschlussgrenze für diesen Zerfall abgelehnt werden. Der Zerfall π΅π 0 → π− π+ π− π+ soll in dieser Arbeit als Realbeispiel dienen, um daran das Bestimmen von Ausschlussgrenzen 3 2 Experimenteller Hintergrund realistisch zu entwickeln. Die Abbildung 2.2 zeigt die Feynman-Graphen der beiden Zerfallsmöglichkeiten. Abbildung 2.2: Die nicht-resonanten Zerfallsmöglichkeiten des Zerfalls π΅0π → π− π+ π− π+ : auf der linken Seite der nicht-resonante Zerfall nach dem Standardmodell mit dem FCNC π → π ; auf der rechten Seite der Zerfall über ein skalares π und ein pseudoskalares π Sgoldstino nach dem Minimal Supersymmetrischen Modell. [1] 2.3 Das LHCb-Experiment am Large Hadron Collider Das LHCb-Experiment ist neben ATLAS, CMS und ALICE eines der vier großen Experimente des Large Hadron Colliders (LHC) am CERN. Am LHC werden vor allem Protonen miteinander kollidiert, um nach neuen Teilchen zu suchen oder physikalische Eigenschaften bekannter Teilchen präzise zu vermessen. Bei den ProtonProton-Kollisionen werden Schwerpunktsenergien von aktuell 13 TeV erreicht. Zur Untersuchung der Teilchen, die bei den Proton-Proton-Kollisionen entstehen, werden Detektoren benötigt. Der LHCb-Detektor [3] ist ein Vorwärtsspektrometer und konzentriert sich auf Präzisionsmessungen und seltene Zerfälle. Eines der Ziele des Experimentes ist die Untersuchung seltener Zerfälle von Hadronen, die b-Quarks enthalten. Vom Wechselwirkungspunkt der beiden Protonen fliegen die produzierten Teilchen zunächst durch den Vertex Locator, ein Spurdetektor, der zur präzisen Messung des Ortes an dem die Teilchen zerfallen, dient. Hinter dem Vertex Locator befinden sich Detektorkomponenten, die zur Spurfindung oder zur Teilchenidenfikation verwendet werden. Dazu gehören die beiden Δerenkov-Detektoren RICH1 und RICH2 zur Bestimmung der Masse über das Messen der Teilchengeschwindigkeit, der Magnet, der die Teilchen je nach Impuls unterschiedlich stark ablenkt, weitere Spurdetektoren TT, T1, T2, T3, das elektronische Kalorimeter ECAL und hadronische Kalorimeter HCAL zur Energiemessung und die 5 Myon-Kammern M1–M5 zum Nachweis von Myonen. 4 3 Statistische Grundlagen In diesem Kapitel werden statistische Grundkonzepte, auf denen diese Arbeit aufgebaut ist, eingeführt. Es werden zunächst die Konfidenzintervalle und die Bestimmung dieser über den p-Wert erläutert. Danach werden das Konzept der LikelihoodFunktion und der Begriff Coverage erklärt. Diese Einführung in die Statistik basiert auf den Ausführungen von V. Blobel und E. Lohrmann [4] sowie G. Cowan [6, 7]. 3.1 Konfidenzintervalle und obere Ausschlussgrenzen Ein Konfidenzintervall ist ein geschätztes Intervall für den wahren Wert πw eines unbekannten Parameters π. Es lässt sich basierend auf einem Messwert πgem für diesen Parameter konstruieren. Zur Bestimmung des Intervalls gibt es zwei verschiedene Zugänge. Es wird dabei zwischen dem bayesschen und dem frequentistischen Ansatz unterschieden. Der bayessche Ansatz geht davon aus, dass ein Konfidenzintervall zu einer festgelegten Wahrscheinlichkeit den wahren Wert des Parameters enthält und nennt dieses Kredibilitätsintervall. Aus frequentistischer Sicht werden Konfidenzintervalle mit den Konfidenzgrenzen πa und πb so konstruiert, dass der wahre Wert des zu schätzenden Parameters zu einer definierten Häufigkeit, dem Konfidenzlevel 1 − πΌ, in den konstruierten Intervallen enthalten sein soll. ∫ πb π(π|πgem )dπ = 1 − πΌ. (3.1) πa Dabei beschreibt π(π|πgem ) die Wahscheinlichkeitsdichtefunktion für den unbekannten Parameter π unter der Bedingung, dass πgem gemessen wird. Es werden in dieser Arbeit ausschließlich frequentistische Methoden untersucht und zentrale Konfidenzintervalle konstruiert. Letzteres bedeutet, dass der wahre Wert des Parameters zu gleicher Häufigkeit πΌ/2 überhalb der oberen bzw. unterhalb der unteren Konfidenzgrenze zu finden ist. Obere Ausschlussgrenzen πoben sind die Grenzen von einseitig nach oben begrenzten Konfidenzintervallen mit dem Konfidenzlevel 1 − πΌ, wobei ∫ πoben π(π|πgem )dπ = 1 − πΌ (3.2) −∞ die Ausschlussgrenze festlegt. 5 3 Statistische Grundlagen 3.2 Berechnung von Konfidenzintervallen mit p-Werten f(Tµ |µ) Für die Berechnung der Intervallgrenzen wird eine Teststatistik ππ benötigt, welche verschiedene Hypothesen π für den unbekannten Parameter testet. Eine solche Teststatistik hängt dabei von der Hypothese und dem Messwert πgem ab. Die Verteilung der Statistik unter der Annahme der Hypothese π kann durch eine Wahrscheinlichkeitsdichtefunktion π(ππ |π) beschrieben werden. Über diese lässt sich der p-Wert, der bestimmt, wann π verworfen wird, berechnen. Der p-Wert beschreibt die Wahrscheinlichkeit einen Messwert πgem oder einen extremeren als diesen zu erhalten unter der Annahme, dass die Hypothese π für die gemessene Größe wahr ist. Extremer soll dabei heißen, dass die Abweichung zur getroffenen Hypothese größer ist als bei πgem , wie die Abbildung 3.1 zeigt. f(Tµ |µ) pµ 0.8 0.6 0.4 0.2 0 0.5 Tgem 1 1.5 2.0 2.5 3.0 3.5 4.0 4.5 Tµ Abbildung 3.1: Veranschaulichung des p-Wertes als Integral über die Verteilung aller extremeren Werte für ππ als πgem der Teststatistik. Kleine p-Werte sprechen gegen die Hypothese. Sobald der p-Wert unter ein Signifikanzniveau πΌ sinkt, wird eine Konfidenzgrenze gesetzt. Die in dieser Arbeit verwendeten Teststatistiken werden in Kapitel 4.2 eingeführt. Der funktionale Zusammenhang für den p-Wert ππ ergibt sich zu ∞ ππ = ∫ πgem 6 π(ππ |π)dππ . (3.3) 3.3 Likelihood-Funktion 3.3 Likelihood-Funktion Eine Likelihood-Funktion β(π₯1 , ..., π₯n |π, π) beschreibt die Wahrscheinlichkeit unter den Parametern π und π = {π1 , ..., ππ } die Stichprobe π₯1 , ..., π₯n zu erhalten. Dabei soll π für den zu untersuchenden Parameter von physikalischer Relevanz stehen und das Parameterset π alle weiteren Parameter, von denen die Verteilungen π(π₯π |π, π) der gemessenen Größen π₯1 , ..., π₯n abhängen, einschließen. Eine Likelihood-Funktion berechnet sich mit π β(π₯1 , ..., π₯π |π) = ∏ π(π₯π |π, π). (3.4) π=1 Μ }, die die Likelihood-Funktion maximieren, Die Parameter πΜ und π Μ = {π1Μ , ..., ππ werden Maximum-Likelihod-Schätzer genannt und mit der Forderung dβ(πgem |π, π) β£ dπ ! = 0, (3.5) π=πΜ analog für π, berechnet. 3.4 Coverage Die Coverage1 -Wahrscheinlichkeit πΆ gibt an, wie viele der konstruierten Konfidenzintervalle zum Konfidenzlevel 1 − πΌ tatsächlich den wahren Wert des zu schätzenden Parameters enthalten. Diese Wahrscheinlichkeit kann vom Konfidenzlevel verschieden sein. Der Fall, dass πΆ mit dem Konfidenzlevel übereinstimmt, πΆ = 1 − πΌ, wird Coverage genannt. Außerdem sind Undercoverage als πΆ < 1 − πΌ und Overcoverage als πΆ > 1 − πΌ definiert. Undercoverage bedeutet, dass die zu untersuchende Größe stärker eingeschränkt wird als das Konfidenzlevel vorgibt, Overcoverage, dass die Ausschlussgrenzen konservativer gesetzt werden als gefordert. Einige Methoden zur Bestimmung der Ausschlussgrenzen haben konzeptionell bedingte Einschränkungen der Coverage. Deswegen ist es wichtig, die in dieser Arbeit untersuchten Teststatistiken auf Coverage zu überprüfen, um die Grenzen der Methoden zu analysieren. 1 In der fachspezifischen Literatur hat sich der Begriff Coverage etabliert. Es werden in dieser Arbeit durchgehend die Begriffe Coverage, Overcoverage und Undercoverage ebenso wie der Ausdruck Coverage haben verwendet, da für diese im Deutschen keine passenden Entprechungen existieren. 7 4 Einführung in die untersuchten Teststatistiken In diesem Kapitel wird ein kurzer Überblick über die herkömmlichen Methoden zur Konstruktion von Konfidenzintervallen und deren Einschränkungen gegeben. Außerdem werden die in dieser Arbeit verwendeten Teststatistiken erläutert. 4.1 Methoden zur Konstruktion von Konfidenzintervallen und oberen Ausschlussgrenzen Aus frequentistischer Sicht gibt es drei verbreitete Methoden Konfidenzintervalle zu konstruieren: Das Profile-Likelihood-Ratio [14], die Feldman-Cousins-Methode [10] und die πΆπΏπ -Methode [15]. Die Konstruktion der Methoden basiert auf der in Kapitel 3.2 beschriebenen Methode über den p-Wert. Für das Profile-LikelihoodRatio wird aus den in Kapitel 3.3 definierten Likelihood-Funktionen ein Quotient von der Hypothese π des zu messenden Parameters zu dem besten MaximumLikelihood-Schätzer πΜ gebildet. Es ergibt sich daraus eine spezielle Teststatistik, die im Folgenden π‘π genannt wird. Μ β(π, π)Μ π‘π = −2 ln . β(π,Μ π)Μ (4.1) Μ Die Parameter πΜ und π Μ sind die zuvor erklärten Maximum-Likelihood-Schätzer, π Μ maximiert die Likelihood-Funktion für die jeweilige Hypothese π. Diese Teststatistik soll in dieser Arbeit als Vergleich zu den analysierten Teststatistiken dienen. Das Profile-Likelihood-Ratio lässt negative Werte für den Parameter π zu. Oft werden jedoch physikalische Größen, wie in dieser Arbeit das Verzweigungsverhältnis, untersucht, für die nur positive Werte zulässig sind. Ein weiterer Nachteil dieser Methode ist, dass sie für eine kleine Anzahl an gemessenen Ereignissen keine Coverage hat. In der Feldman-Cousins-Methode wird eine Konstruktion nach Neyman [13] verwendet und um einen Likelihood-Quotient-basierten Ordnungsparameter erweitert. Diese Neyman-Konstruktion stellt für die Messgröße πgem Akzeptanzintervalle mit dem Konfidenzlevel 1 − πΌ zu jeder möglichen Hypothese π für den gesuchten Parameter wie in 3.1 auf. Die Grenzen πa und πb des Akzeptanzintervalls unterliegen dem Ordnungsparameter π , mit π (πa ) = π (πb ) 8 für π = Μ β(π, π)Μ , β(π,Μ π)Μ (4.2) 4.2 Untersuchte Teststatistiken der sich wieder aus einem Likelihood-Ratio ergibt. Die Feldman-Cousins-Methode hat den Vorteil, dass sie durch die Neyman-Konstruktion konzeptionell Coverage hat. Allerdings ist sie sehr rechenaufwändig, da die Akzeptanzintervalle alle numerisch unter der Bedingung (4.2) berechnet werden müssen. Die πΆπΏπ -Methode [15] normiert den mit der Profile-Likelihood-Methode berechneten p-Wert ππ . Die Normierung erfolgt durch den p-Wert πbkg , bei dem nur Untergrund angenommen wird. Dadurch kann die Abhängigkeit der Auschlussgrenzen von Untergrundfluktuationen vermindert werden. Es ergibt sich wie in Gleichung (4.3) ein neuer p-Wert πΆπΏπ , der gegen das Signifikanzniveau πΌ getestet wird. πΆπΏπ = ππ . 1 − πbkg (4.3) Die πΆπΏπ -Methode hat konzeptionell immer Overcoverage. 4.2 Untersuchte Teststatistiken Die in dieser Arbeit untersuchten Teststatistiken ΜΜ β§−2 ln β(π,π(π)) { Μ β(0,π(0)) π‘πΜ = ΜΜ β¨ {−2 ln β(π,π(π)) β© β(π,Μ π)Μ πΜ < 0 πΜ ≥ 0 ΜΜ β§−2 ln β(π,π(π)) { Μ β(0,π(0)) { ΜΜ und ππΜ = −2 ln β(π,π(π)) β¨ β(π,Μ π)Μ { { 0 β© πΜ < 0 0 ≤ πΜ ≤ π , (4.4) πΜ > π eingeführt von G. Cowan et al. als die Asymptotic formulae[..][7], sind Erweiterungen des Profile-Likelihood-Ratios und sollen negative Ausschlussgrenzen für beschränkte Parameter mit π ≥ 0 vermeiden. Des Weiteren bieten diese eine Alternative zur Feldman-Cousins-Methode, da sie deutlich schneller zu berechnen sind. In dieser Arbeit werden die mit diesen Statistiken konstruierten Ausschlussgrenzen und deren Coverage untersucht. Die Teststatistik π‘πΜ ist zur Konstruktion von zweiseitigen Konfidenzintervallen gedacht, soll in dieser Arbeit jedoch auch auf die Anwendbarkeit für obere Ausschlussgrenzen untersucht werden, um Fehler beim Konfidenzlevel zu vermeiden, wenn nach dem Bestimmen der oberen Ausschlussgrenze auch die untere gefragt ist. Wie in (4.4) zu sehen, funktioniert diese Methode für πΜ > 0 wie das ProfileLikelihood-Ratio. Für den Fall, in dem negative Schätzer auftreten, werden diese im Nenner des Ratios mit 0 gleichgesetzt. Das bedeutet, dass wenn, wie in dieser Arbeit der Parameter π das Verzweigungsverhältnis eines untersuchten Zerfalls beschreibt, in diesem Fall ausschließlich Untergrund gemessen wird. Es ist dementsprechend zu erwarten, dass bei der Bestimmung von Ausschlussgrenzen für eine geringe Anzahl 9 4 Einführung in die untersuchten Teststatistiken an Signal- und Untergrundereignissen diese Teststatistik höhere Ausschlussgrenzen liefert als das Profile-Likelihood-Ratio. Die ebenfalls in (4.4) zu findende Teststatistik ππΜ ist für die Konstruktion von oberen Ausschlussgrenzen konzipiert. Sie fordert zusätzlich zu π‘πΜ , dass die Ausschlussgrenze für den wahren Parameter nicht geringer sein darf, als der beste Schätzer πΜ für diesen. Durch diese Ausschlusskriterien ist zu erwarten, dass die Teststatistiken π‘πΜ und ππΜ für viele Untergrundereignisse Overcoverage haben. 4.3 Wald-Approximation / Wilks-Theorem Zur Berechnung der p-Werte werden die Verteilungen π(ππ |π) und Verteilungsfunktionen πΉ (ππ |π) der Teststatistiken benötigt. Um für diese eine analytische Form zu finden, wird die Approximation ΜΜ β(π, π(π)) (π − π)Μ 2 1 − 2 ln = + πͺ( √ ) 2 Μ π π β(π,Μ π) (4.5) nach A. Wald [18] bzw. S. Wilks [21] verwendet, wobei π der Gesamtanzahl an Ereignissen entspricht. Dabei beschreibt π den Fehler auf den Maximum-LikelihoodSchätzer π.Μ Aus der Approximation folgt, dass die Werte π‘π des Profile-LikelihoodRatio einer π2 -Verteilung mit einem Freiheitsgrad wie in Gleichung (4.6) folgen. Es ergibt sich der Zusammenhang für die dazugehörige Verteilungsfunktion. 1 1 − π‘π π(π‘π |π) = √ e 2 2π √π‘π (4.6) πΉ (π‘π |π) = 2Φ (√π‘π ) − 1 Dabei entspricht die Funktion Φ dem Gaußschen Fehlerintegral. Die Verteilungen der anderen Teststatistiken sind durch die getroffenen Erweiterungen nicht mehr π2 -verteilt. Für die Teststatistiken π‘πΜ und ππΜ folgen mit der Approximation β§ √ 1 e−π‘πΜ { { 2π√π‘πΜ Μ π(π‘π |π) = β¨ Μ −π‘π 1 { + { 2√2π√π‘ Μ e π β© π‘πΜ ≤ π2 /π2 −1 1 2 √ e 2π(2π/π) Μ +π2 /π2 )2 (π‘π (2π/π)2 Μ β§ √ 1 e−π‘π { Μ 2 2π√π‘π 1 π(ππΜ |π) = πΏ(ππΜ ) + (ππ Μ +π2 /π2 )2 β¨ 2 −1 2 (2π/π)2 {√ 1 e β© 2π(2π/π) π‘πΜ > π2 /π2 0 < ππΜ ≤ π2 /π2 , , (4.7) (4.8) ππΜ > π2 /π2 die in den Abbildungen 4.1a und 4.1b gezeigt sind. Die Abbildungen 4.1a und 4.1b verifizieren die angenommenen Verteilungen und deren Implementierung, indem sie 10 4.3 Wald-Approximation / Wilks-Theorem zeigen, dass die analytischen Verteilungen mit den generierten Statistiken übereinstimmen. Für die Verteilungsfunktionen der Teststatistiken π‘πΜ und ππΜ ergeben sich durch Integration β§2Φ (√π‘ Μ ) − 1 π‘πΜ ≤ π2 /π2 { π β¨Φ (π‘ Μ ) + Φ ( π‘πΜ +π2 π2 ) π‘ Μ > π2 /π2 , { π π 2ππ β© β§ 0 < ππΜ ≤ π2 /π2 {2Φ (√ππΜ ) πΉ (ππΜ |π) = . ππ Μ +π2 π2 β¨ 2 /π 2 { Φ ( ) π Μ > π π 2ππ β© (4.9) 1.4 Nnorm Nnorm πΉ (π‘πΜ |π) = f(tΜ µ |µ) tΜ µ 1.2 1.2 1.0 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0.0 0 1 2 3 4 Μ (a) Verteilung von π‘π 5 6 tΜ µ χ 2 − Verteilung qΜ µ 1.4 1.0 0.0 (4.10) 0 1 2 3 4 5 6 qΜ µ (b) Verteilung von ππΜ Μ und Vergleich mit der analytiAbbildung 4.1: (a) Verteilung der Teststatistik π‘π schen Funktion der Verteilung aus Gleichung (4.7); (b) Verteilung der Teststastitik ππΜ , bei der alle Werte mit πΜ > π herausgenommen wurden, sodass die restlichen ππΜ > 0 wieder eine π2 -Verteilung bilden. πnorm steht dabei für die Anzahl an Einträgen in einem Bin. Die Verteilungen wurden jeweils so normiert, dass Produkte von Binbreite und Binlänge summiert 1 ergeben. Die Abbildung 4.2 zeigt die Verteilung der Teststatistik π‘π mit dem naiven Ansatz den untersuchten Parameter π beim Generieren auf positive Werte zu beschränken. Es ist dabei zu erkennen, dass die erhaltene Verteilung der Teststatistik π‘π keiner π2 -Verteilung mehr entspricht, da das Wilks-Theorem lediglich für unbeschränkte Parameter gültig ist. Dementsprechend ist dieser naive Ansatz nicht sinnvoll, um den untersuchten Parameter auf π > 0 zu beschränken. 11 Nnorm 4 Einführung in die untersuchten Teststatistiken χ 2 − Verteilung tµ 1.4 1.2 1.0 0.8 0.6 0.4 0.2 0.0 0 1 2 3 4 5 6 tµ Abbildung 4.2: Verteilung von π‘π mit dem naiven Ansatz, den Parameter zu beschränken. πnorm steht dabei für die Anzahl an Einträgen in einem Bin. Die Verteilung wurde so normiert, dass Produkte von Binbreite und Binlänge summiert 1 ergeben. 12 5 Untersuchung der Teststatistiken Dieses Kapitel widmet sich den Ergebnissen der Untersuchung der einzelnen Teststatistiken. Die Untersuchung ist dabei so aufgebaut, dass die Wahrscheinlichkeitsdichtefunktion des gemessenen Wertes πgem immer weiter erweitert wird. Die Ergebnisse werden dabei zunächst am Modell, bei dem eine Grenze auf die Anzahl an Signalkandidaten bei einem bekannten Untergrund bestimmt wird, erklärt und danach die Veränderungen der Ergebnisse unter Erweiterung der Verteilung gezeigt. 5.1 Ausschlussgrenze für die Anzahl an Signalkandidaten bei festem Untergrund Die Basis der Untersuchungen besteht darin, die Anzahl an gemessenen Ereignissen πgem in einem gewählten Signalfenster zu zählen. Zählexperimente folgen immer einer Poisson-Verteilung. Da die Anzahl an Signalkandidaten πsig nicht direkt gezählt werden kann, wird eine obere Ausschlussgrenze für diese aus π = πsig + πbkg bestimmt. Dabei wird die Anzahl an Untergrundereignissen πbkg im Signalfenster zunächst als bekannt angenommen. Abbildung 5.1: Die Massenverteilung der π΅0 - bzw. π΅0π -Mesonen beim Zerfall in vier Myonen. Die rote Kurve kennzeichnet die Anzahl an erwarteten UntergrundEreignissen. Die gestrichelten Linien grenzen das Signalfenster für die beiden Mesonen ein. In dieser Arbeit wird nicht zwischen nahen und fernen Seitenbändern unterschieden, sondern Gesamtseitenbänder betrachtet. [1] 13 5 Untersuchung der Teststatistiken Das Signalfenster ist der Massenbereich, in dem nach dem Mutterteilchen eines Zerfalls gesucht wird und ist in der Abbildung 5.1 veranschaulicht. Die Methoden zur Bestimmung der oberen Ausschlussgrenzen für die Anzahl an Signalkandidaten sind so implementiert, dass zunächst zufällig ein Messwert πgem nach der zugrunde liegenden Poisson-Verteilung mit dem angenommenen wahren Wert πw generiert wird. Basierend auf diesem Messwert wird mit Hilfe eines Maximum-Likelihood-Fits die wahrscheinlichste Anzahl an Signalkandidaten πΜ geschätzt. Damit können die Teststatistiken aus Kapitel 4.2 für beliebige Hypothesen π für die wahre Anzahl an Signalkandidaten aufgestellt werden. Die Berechnung der p-Werte wird mit der Formel (3.3) durchgeführt. Die obere Ausschlussgrenze wird dann gesetzt, wenn ππ < πΌ ist, wobei in dieser Arbeit ein πΌ = 5 % verwendet wird. Um die Coverage bei verschiedenen wahren Werten πw zu erhalten, wird die relative Häufigkeit von Ausschlussgrenzen, die größer sind als πw , zu der gesamten Anzahl an bestimmten Ausschlussgrenzen gebildet. Die Ausschlussgrenzen sind dabei wie in den Abbildungen 5.2a und 5.2b verteilt. 0 2 4 6 8 10 µt12 0 5 10 15 20 25 30 µt35 0 2 4 6 8 10 µtΜ12 5 0 5 10 15 20 25 30 µtΜ35 160 140 120 100 80 60 40 20 0 5 0 5 10 15 20 25 30 µqΜ35 NBin 2 NBin 300 250 200 150 100 50 0 160 140 120 100 80 60 40 20 0 5 NBin 2 NBin 300 250 200 150 100 50 0 160 140 120 100 80 60 40 20 0 NBin NBin 300 250 200 150 100 50 0 2 0 2 4 6 8 (a) 1 Untergrundereignis 10 µqΜ12 (b) 20 Untergrundereignisse Abbildung 5.2: Verteilungen der oberen Ausschlussgrenzen der drei TeststatistiΜ , ππΜ für die wahre Anzahl an Signalkandidaten πw = 1 bei verschiedenen ken π‘π , π‘π Untergründen: (a) πbkg = 1 und (b) πbkg = 20. Für diese Verteilungen wurden für jede Methode jeweils 1000 Ausschlussgrenzen gesetzt. πBin steht für die Anzahl an Ausschlussgrenzen in einem Bin. Für 1 Untergrundereignis ist die Verteilung in 28 Bins, für 20 Untergrundereignisse in 32 Bins aufgeteilt. 14 5.1 Ausschlussgrenze für die Anzahl an Signalkandidaten bei festem Untergrund µΜ Die Forderungen an die untersuchten Teststatistiken sind in den Abbildungen 5.2a und 5.2b zu erkennen. Während bei der Teststatistik π‘π aus Gleichung 4.1 noch obere Ausschlussgrenzen π < 0 auftreten, sind diese in den erweiterten Statistiken π‘πΜ und ππΜ aus Gleichung 4.4 nicht mehr zu erkennen. Die Verteilungen der Ausschlussgrenzen zeigen außerdem, dass sich für eine höhere Anzahl an Untergrundereignissen die Grenzen nach oben verschieben. In den Verteilungen zu πbkg zeigen sich noch Werte aus dem diskreten Spektrum, die sich von der restlichen Verteilung jeweils abheben, deren genauer Ursprung im Rahmen dieser Arbeit jedoch nicht erklärt werden kann. Zur weiteren Untersuchung werden die Mittelwerte πΜ der gesetzten Ausschlussgrenzen für wachsenden Untergrund betrachtet. Der Verlauf ist in Abbildung 5.3 zu sehen. 25 20 15 tµ tΜ µ qΜ µ 10 5 0 0 20 40 60 80 100 Nbkg Abbildung 5.3: Verlauf des Mittelwertes πΜ der bestimmten Ausschlussgrenzen in Abhängigkeit der Anzahl an Untergrundereignissen πbkg . Die Abbildung zeigt, dass die Mittelwerte der erhaltenen Ausschlussgrenzen von π‘πΜ über denen von π‘π liegen. Dieses Verhalten kommt dadurch zustande, dass negative Grenzen für π‘πΜ ausgeschlossen und somit nach oben geschoben werden. Die Ausschlussgrenzen von ππΜ müssen kleiner sein, da diese Teststatistik ausschließlich zur Bestimmung einseitiger Konfidenzintervalle gedacht ist, während π‘π und π‘πΜ für zweiseitige konzipiert sind. Wie diese Abbildung außerdem zeigt, nimmt der Mittelwert der bestimmten oberen Ausschlussgrenzen für die Anzahl der Signalkandidaten bei steigender Anzahl an Untergrundkandidaten in Form einer Wurzelfunktion zu. Dies lässt sich damit erklären, dass die Grenzen über den p-Wert mit der Vertei- 15 5 Untersuchung der Teststatistiken C in % lung der Observable π √ zusammenhängen, welche eine Poisson-Verteilung ist. Diese verbreitert sich mit π für mehr Ereignisse, sodass auch die Ausschlussgrenze dieser Abhängigkeit folgt. Zur Untersuchung der Coverage werden für verschiedene Untergrundgrößen je 200 obere Ausschlussgrenzen bestimmt und dafür analysiert, ob der wahre Wert πw < πoben ist. Die erreichten Coverage-Wahrscheinlichkeiten für die verschiedenen Teststatistiken sind in Abbildung 5.4 gezeigt. 100 95 90 1−α 85 tµ tΜ µ 80 C in % 75 10 0 10 1 10 2 Nbkg 100 95 90 85 1−α 80 75 qΜ µ 10 0 10 1 10 2 Nbkg Μ und Abbildung 5.4: Coverage-Wahrscheinlichkeiten für die Teststatistiken π‘π , π‘π ππΜ in Abhängigkeit der Anzahl an Untergrundereignissen. Die wahre Anzahl an Signalereignissen wurde zu πw = 1 definiert. 16 5.1 Ausschlussgrenze für die Anzahl an Signalkandidaten bei festem Untergrund Für die Berechnung der Coverage-Wahrscheinlichkeit wird die bayessche Formel πΆ= π+1 π+2 mit der Varianz π (πΆ) = (π + 1)(π + 2) (π + 1)2 − (π + 2)(π + 3) (π + 2)2 (5.1) µΜ oben nach [17] verwendet, wobei π die Anzahl an Ausschlussgrenzen ist, für die der wahre Wert kleiner ist als die bestimmte Grenze, und π die gesamte Anzahl an bestimmten Ausschlussgrenzen. Diese Berechnung ermöglicht es auch einen Fehler auf die Effizienz bei πΆ = 0 und πΆ = 1 zuzulassen. Es ist auch sinnvoll beliebige positive Dezimalzahlen für πbkg anzunehmen, da diese Anzahl an Ereignissen erwarteten Untergründen entsprechen, die aus dem Fit der Seitenbänder auf das Signalfenster übertragen werden. Wie die Coverage-Wahrscheinlichkeiten für das Beispiel πw = 1 zeigen, haben alle drei Teststatistiken für den Bereich πbkg ≥ 2 Coverage oder Overcoverage. Außerdem fällt auf, dass die Teststatistik π‘πΜ immer Overcoverage hat. Es treten auch nicht erklärbare Sprünge für πΆ auf. Ab Untergründen mit weniger als zwei Ereignissen sinkt die Coverage-Wahrscheinlichkeit, sodass die Methoden π‘π und ππΜ dort Undercoverage oder, wie für die beiden Werte von π‘π für πbkg < 0, Overcoverage haben, weil das Wilks-Theorem nicht mehr anwendbar ist. 30 25 20 15 tµ tΜ µ qΜ µ 10 5 0 2 4 6 8 10 12 14 16 µw Abbildung 5.5: Verlauf des Mittelwertes auf die bestimmten Ausschlussgrenzen in Abhängigkeit von der wahren Anzahl an Signalereignissen πw bei πbkg = 10 Untergrundereignissen im Signalfenster. Die Fehler auf den Mittelwert sind dabei sehr klein und daher schwer zu erkennen. Um das Bestimmen der Ausschlussgrenzen mit den Teststatistiken zu verstehen, 17 5 Untersuchung der Teststatistiken ist es wichtig zu beobachten, wie diese sich bei steigender wahrer Anzahl an Signalkandidaten πw entwickelt. Der Verlauf des Mittelwertes πoben der bestimmten Ausschlussgrenzen in Abhängigkeit der Signalereignisse πw ist in der Abbildung 5.5 gezeigt. An den Verläufen der Mittelwerte ist zu erkennen, dass die beiden Teststatistiken π‘π und π‘πΜ sich sehr ähnlich verhalten, jedoch deutlich über den Mittelwerten der Teststatistik ππΜ liegen. Es lässt sich allerdings vermuten, dass sich π‘π und π‘πΜ für wenig Signalereignisse unterscheiden und für viele ineinander übergehen, da dort keine negativen Schätzer πΜ mehr auftreten. Deshalb ist es sinnvoll die gemittelte Differenz πt − πtΜ der Ausschlussgrenzen zwischen π‘πΜ und π‘π zu betrachten, welche in 5.6 gezeigt ist. µt − µtΜ 1.5 1.0 0.5 0.0 0.5 0 2 4 6 8 10 12 14 µw16 Abbildung 5.6: Verlauf der Differenz der Mittelwerte auf die bestimmten AusΜ in Abhängigkeit der Anzahl an Signalereignissen π schlussgrenzen mit π‘π und π‘π bei festem Untergrund πbkg = 10. Die Abbildung zeigt einen klaren Trend dafür, dass sich für größere Signalstärken die Teststatistiken π‘π und π‘πΜ angleichen. Bei festem Untergrund πbkg = 10 verhalten diese sich ab ca. π = 7 nahezu gleich. 5.2 Ausschlussgrenze auf ein Verzweigungsverhältnis bei festem Untergrund Um Aussagen darüber treffen zu können, wie wahrscheinlich ein Zerfall ist, werden obere Ausschlussgrenzen auf Verzweigungsverhältnisse bestimmt. Dafür müssen die zuvor bestimmten Ausschlussgrenzen auf die Anzahl an Signalereignissen durch Multiplikation mit einer Normierungskonstante πΌ, die für den jeweiligen Zerfall variiert, in Ausschlussgrenzen für das dazugehörige Verzweigungsverhältnis umgerechnet 18 5.3 Einführung einer Unsicherheit auf die Normierungskonstante werden. Die Normierungskonstante [5] πΌ= πnorm β¬norm πnorm πsig πnorm πsig (5.2) beinhaltet die Effizienz der Selektion des Zerfalls πsig , für den die obere Ausschlussgrenze des Verzweigungsverhältnisses bestimmt werden soll, und die Effizienz der Selektion des Zerfalls πnorm , der als Normierung verwendet wird. Des Weiteren ist das Verhältnis der Hadronierungswahrscheinlichkeiten πnorm und πsig in πΌ enthalten. Außerdem gibt β¬norm das Verzweigungsverhältnis und πnorm die Anzahl an Signalkandidaten des normierenden Zerfalls an. Für diese Arbeit wird der seltende Zerfall π΅π 0 → π− π+ π− π+ als Beispiel zugrunde gelegt, um die Untersuchung auf ein Verzweigungsverhältnis zu adaptieren. Bei der Analyse dieses Zerfalls [5] wurde der Zerfall π΅+ → π½ /π(→ π+ π− )πΎ + als Normierung gewählt. Die daraus erhaltene Normierungskonstante ergibt sich nach [5] zu πΌπ = (8,66 ± 0,80) ⋅ 10−10 . (5.3) Die Observable zur Bestimmung der Ausschlussgrenzen ist weiterhin die Anzahl an gemessenen Ereignissen π. Sie setzt sich jetzt jedoch aus dem Verzweigungsverhältnis β¬sig geteilt durch die Normierungskonstante πΌπ und der Anzahl an Untergrundereignissen πbkg zusammen, sodass diese Observable durch die Poisson-Verteilung π(π |β¬) = π(π β£ β¬ + πbkg ) πΌπ (5.4) beschrieben wird. Dabei ist zunächst nur das Verzweigungsverhältnis β¬ variabel. Die Anwendung der Teststatistiken zur Bestimmung der oberen Ausschlussgrenzen auf das Verzweigungsverhältnis zeigen hier außer der Skalierung noch keine Veränderungen zu den Ergebnissen aus Kapitel 5.1, da die Normierungskonstante konstant gehalten wird. 5.3 Einführung einer Unsicherheit auf die Normierungskonstante Die Normierungskonstante πΌπ ist eine experimentell gemessene Größe, die im Rahmen einer Unsicherheit wie in (5.3) genau bestimmt ist. Die zur Bestimmung der Ausschlussgrenzen zugrunde liegende Verteilung soll die Unsicherheit auf die Normierungskonstante ππΌπ berücksichtigten, weshalb jene unter Annahme einer 19 5 Untersuchung der Teststatistiken Gaußverteilung G für die Normierungskonstante mit Erwartungswert πΌπ und Varianz 2 erweitert wird. Daraus ergibt sich dementsprechend die Verteilung ππΌ π π(π , πΌπ ,gem |β¬, πΌπ ) = π(π β£ β¬ 2 ), + πbkg ) ⋅ πΊ(πΌπ ,gem |πΌπ , ππΌ π πΌπ (5.5) die zwei Observablen beschreibt und bei der neben dem Verzweigungsverhältnis, der relevanten Parameter für die Ausschlussgrenze, auch die Normierungskonstante πΌπ geschätzt werden muss. 150 100 50 0 2 0 2 4 6 8 10 12 14 150 100 50 2 0 2 4 6 8 10 12 14 0 5 10 15 20 25 30 µt35 120 100 80 60 40 20 0 5 0 5 10 15 20 25 30 µtΜ35 5 0 5 10 15 20 25 30 µqΜ35 NBin µtΜ NBin 200 150 100 50 0 120 100 80 60 40 20 0 5 NBin µt NBin 200 0 120 100 80 60 40 20 0 NBin NBin 200 2 0 2 4 6 8 10 (a) 1 Untergrundereignis 12 14 µqΜ (b) 20 Untergrundereignisse Abbildung 5.7: Verteilung der oberen Ausschlussgrenzen der drei TeststatisΜ , ππΜ für das Verzweigungsverhältnis zum Vergleich mit Kapitel 5.1 tiken π‘π , π‘π umgerechnet auf die Signalkandidaten bei 1000 bestimmten Grenzen. Für ein Untergrundereignis und 20 Untergrundereignisse wurden jeweis 32 Bins gewählt. Bei der Anwendung der Teststatistiken π‘π , π‘πΜ und ππΜ auf die erweiterte Verteilung aus (5.5) ergeben sich Verteilungen der oberen Ausschlussgrenzen wie in den Abbildungen 5.7a und 5.7b. Die Verteilungen der bestimmten Ausschlussgrenzen zeigen, dass für π‘π weiterhin negative Werte auftreten und dies bei π‘πΜ und ππΜ unterbunden wird. Durch die Berücksichtigung der Unsicherheit der Normierungskonstante verändert sich die Verteilung der Ausschlussgrenzen so, dass diese nicht mehr wie in 5.2a und 5.2b diskret ist. Außerdem verbreitert sich die Verteilung. Die Auswirkungen 20 5.3 Einführung einer Unsicherheit auf die Normierungskonstante C in % auf die Coverage-Wahrscheinlichkeit bei Berücksichtigung der Unsicherheit auf die Normierungskonstante sind in der Abbildung 5.8 gezeigt. 100 95 90 1−α 85 tµ tΜ µ 80 C in % 75 10 0 10 1 10 2 Nbkg 100 95 90 85 1−α 80 75 qΜ µ 10 0 10 1 10 2 Nbkg Μ Abbildung 5.8: Coverage-Wahrscheinlichkeiten für die Teststatistiken π‘π , π‘π und ππΜ in Abhängigkeit der Anzahl an Untergrundereignissen bei umgerechnet πsig = 1 und Berücksichtigung der Unsicherheit auf die Normierungskonstante πΌπ . Die Coverage-Wahrscheinlichkeiten zeigen, dass sich das Verhalten der Teststatistik π‘πΜ durch die Hinzunahme der Unsicherheit von πΌπ nicht verändert hat und weiterhin durchgehend Overcoverage hat. Bei Vergleich der Verläufe für die Teststatistiken π‘π und ππΜ mit denen aus der Abbildung 5.4 fällt auf, dass für große Untergründe diese 21 5 Untersuchung der Teststatistiken sich wie zuvor verhalten, für kleine Untergründe die Coverage-Wahrscheinlichkeiten unter Betrachtung der Unsicherheit aus πΌπ jedoch größer sind als zuvor. Die Methoden haben zwar immer noch Undercoverage für kleine Untergründe, jedoch deutlich weniger als ohne Berücksichtigung der Unsicherheit. Außerdem ist zu erkennen, dass die Sprünge in der Coverage-Wahrscheinlichkeit für ππΜ verschwinden. Dies kann in dieser Arbeit jedoch nicht begründet werden. 5.4 Unsicherheit auf den erwarteten Untergrund im Signalfenster Als letzter Schritt zur Untersuchung der Teststatistiken wird eine Unsicherheit auf die Anzahl an erwarteten Untergrundereignissen im Signalfenster zugelassen. Die Anzahl an Untergrundereignissen im Signalfenster ist nicht fest bestimmbar, da nur die Summe aller Ereignisse gemessen werden kann. Deswegen muss von den Ereignissen in den Seitenbändern, also den Bereichen außerhalb des Signalfensters, in denen nur Untergrund ist, auf die Anzahl an Untergrundereignissen in diesem geschlossen werden. Die Anzahl an Ereignissen in den Seitenbändern πΜ kann gezählt werden und unterliegt damit einer Poisson-Verteilung P, die Umrechnungskonstante π von Seitenbändern zum Signalfenster ist eine messbare Größe, für deren Unsicherheit wiederum eine Gaußverteilung mit Varianz ππ2 angenommen wird. Sie lässt sich bestimmen, indem die Exponentialfunktion für den kombinatorischen Untergrund mit den Messwerten in den Seitenbändern gefittet wird und dieser somit auch für das Signalfenster bekannt ist. Die Umrechnungskonstante π ergibt sich dann durch das Verhältnis von Untergrund im Signalfenster zu Untergrund in den Seitenbändern. Die Steigung der Exponentialfunktion variiert innerhalb eines Fehlers. Um den Fehler von π zu erhalten, werden alle Verhältnisse der Untergründe im Rahmen des Fehlers der Steigung berechnet und der größte Abstand zum besten Fit als Fehler ππ der Umrechnungskonstante π genommen. Die durch die Erweiterung resultierende Verteilung Μ , πgem |β¬, πΌπ , πΜ , ππ ) π(π , πΌπ ,gem , πgem = π(π β£ β¬ 2 )π(πΜ 2 Μ + ππΜ )πΊ(πΌπ ,gem |πΌπ , ππΌ gem |π )πΊ(πgem |π, ππ ) π πΌπ (5.6) hängt nun von vier Observablen und vier zu schätzenden Parametern ab. Die Verwendung der mit den Unsicherheiten auf die Anzahl der erwarteten Untergrundereignisse im Signalfenster erweiterten Verteilung auf die Teststatistiken π‘π , π‘πΜ und ππΜ führt zu den in den Abbildungen 5.9a und 5.9b gezeigten Verteilungen der bestimmten 22 5.4 Unsicherheit auf den erwarteten Untergrund im Signalfenster oberen Ausschlussgrenzen. Im Vergleich zu den Verteilungen in Kapitel 5.3 fällt auf, dass die Verteilungen sich weiter verbreitern und kontinuierlicher werden. Dieses Verhalten ist zu erwarten, denn durch die Kombination von mehreren Parametern mit einer Unsicherheit vermischen sich diese, sodass mehr mögliche Ergebnisse in den Berechnungen von ππ und damit auch für die Ausschlussgrenzen möglich sind. Es ist außerdem an den Verteilungen zu erkennen, dass sich für eine hohe Anzahl an Untergrundereignissen die drei Methoden Verteilungen der Ausschlussgrenzen liefern, die sich stärker ähneln als zuvor. 0 2 4 6 8 10 12 14 µt 0 2 4 6 8 10 12 14 µtΜ 0 10 20 30 µt40 10 0 10 20 30 µtΜ40 120 100 80 60 40 20 0 10 0 10 20 30 µqΜ40 NBin NBin 140 120 100 80 60 40 20 0 120 100 80 60 40 20 0 10 NBin NBin 140 120 100 80 60 40 20 0 120 100 80 60 40 20 0 NBin NBin 140 120 100 80 60 40 20 0 0 2 4 6 8 10 12 (a) 1 Untergrundereignis 14 µqΜ (b) 20 Untergrundereignisse Abbildung 5.9: Verteilung der oberen Ausschlussgrenzen der drei TeststatisΜ , ππΜ für das Verzweigungsverhältnis zum Vergleich mit Kapitel 5.1 tiken π‘π , π‘π umgerechnet auf die Signalkandidaten bei 1000 bestimmten Grenzen. Für ein Untergrundereignis wurden 32 Bins und für 20 Untergrundereignissen 30 Bins gewählt. Die Mittelwerte der Verteilungen lassen sich hier berechnen, um einen Vergleich mit der in der Analyse zu π΅π 0 → π− π+ π− π+ herzustellen. Wie bereits in Kapitel 5.2 gezeigt wurde, steigt der Mittelwert der Ausschlussgrenze mit steigender Anzahl an Untergrundereignissen. Für die Verteilung in Abbildung 5.9a liegt der Mittelwert umgerechnet auf das Verzweigungsverhältnis bei πΜ ≈ 4,34 ⋅ 10−9 . Dies liegt bereits in der Größenordnung der Ausschlussgrenze aus der Analyse in Gleichung 2.2. In der Analyse wurde die Anzahl an erwarteten Untergrundereignissen im Signalfenster zu πbkg = 0.47 ± 0.23 ± 0.48, bestimmt [5]. Wenn dieser Wert als erwarteter 23 5 Untersuchung der Teststatistiken C in % Untergrund im Signalfenster angenommen wird, ergibt sich der Mittelwert der Ausschlussgrenze für das Verzweigungsverhältnis zu πΜ (πbkg = 0.47) = 2,08 ⋅ 10−9 , wobei der Fehler auf den Mittelwert um drei Größenordnungen kleiner ist bei 1000 bestimmten Ausschlussgrenzen. In der Abbildung 5.10 ist schließlich die Auswirkung der erweiterten Verteilung auf die Coverage-Wahrscheinlichkeit gezeigt. Es lässt sich daran erkennen, dass die Teststatistik π‘πΜ weiterhin durchgehend Overcoverage hat, jedoch nicht mehr ausschließlich die maximal mögliche. Für ππΜ und π‘π hat sich die Coverage-Wahrscheinlichkeit im Vergleich zu Kapitel 5.3 nicht bedeutend verändert, lediglich ein wenig verbessert. 100 95 90 1−α 85 tµ tΜ µ 80 C in % 75 10 0 10 1 10 2 Nbkg 100 95 90 85 1−α 80 75 qΜ µ 10 0 10 1 10 2 Nbkg Μ Abbildung 5.10: Coverage-Wahrscheinlichkeiten für die Teststatistiken π‘π , π‘π und ππΜ in Abhängigkeit von der Anzahl an Untergrundereignissen bei umgerechnet πsig = 1 und Berücksichtigung der Unsicherheiten auf die Normierung und den Untergrund. 24 6 Zusammenfassung und Ausblick Zur Bestimmung von oberen Ausschlussgrenzen gibt es bereits Methoden, wie in Kapitel 4 diskutiert, die jedoch einige Nachteile mit sich bringen. Einer dieser Nachteile ist, dass für positive beschränkte Parameter negative obere Ausschlussgrenzen zugelassen werden. Dieser Aspekt trifft vor allem auf das Profile-Likelihood-Ratio π‘π zu. Als Lösung dafür können die Asymptotic formulae [...] [7] π‘πΜ und ππΜ verwendet, die die Einschränkung des Parameters bei der Bestimmung der oberen Ausschlussgrenze berücksichtigen. Wie in den Verteilungen der Ausschlussgrenzen in der Abbildung 5.2b gezeigt wurde, treten negative Ausschlussgrenzen bei wenigen Signalereignissen, aber vielen Untergrundereignissen, auf und werden durch die untersuchten Statistiken erfolgreich vermieden. Obere Ausschlussgrenzen werden in der Teilchenphysik unter anderem zur Bestimmung von Verzweigungsverhältnissen benötigt. Die im Rahmen dieser Arbeit implementierten Methoden sind für die Anwendung auf seltene Zerfälle ausgelegt. Bei diesen können für den Fall, dass im Signalfenster keine Signale gemessen werden, über das Verzweigungsverhältnis trotzdem Aussagen über die Wahrscheinlichkeit des Zerfalls machen. Dazu wurden die gesetzen Ausschlussgrenzen sowie die Coverage der Teststatistiken untersucht. Die Untersuchungen der Coverage-Wahrscheinlichkeiten in den Abbildungen 5.4, 5.8 und 5.10 ergeben, dass alle Teststatistiken für viele Untergrundereignisse Coverage oder Overcoverage haben. Dabei fällt auf, dass π‘πΜ immer Overcoverage hat. Auf der Stabilität der Teststatistik π‘πΜ lässt sich die Vermutung anstellen, dass diese mit einem festgesetzten Konfidenzlevel von 90 % durchgehend Coverage für 95 % liefert. Für wenige Signal- und Untergrundereignisse haben die Methoden wie erwartet Undercoverage. Der Grund dafür ist die nicht mehr gegebene Anwendbarkeit des Wilks-Theorems. Die Betrachtung von Unsicherheiten hat keinen bedeutenden Einfluss auf die Coverage-Wahrscheinlichkeit. Es wurde außerdem gezeigt, dass die Verteilungen der gesetzten Ausschlussgrenzen für eine zunehmende Anzahl an Untergrundereignissen breiter werden. Dies gilt auch für die Hinzunahme von Unsicherheiten in der Normierungskonstante und des erwarteten Untergrunds im Signalfenster. Des Weiteren werden die Verteilungen für diese beiden Fälle kontinuierlich. Die Abbildung 5.5 zeigt, dass die Teststatistiken π‘π und π‘πΜ bei einer zunehmenden Anzahl an Signalereignissen ineinander übergehen. Die Ergebnisse zeigen, dass sich die untersuchten Teststatistiken zum Bestimmen von oberen Ausschlussgrenzen für Verzweigungsverhältnisse eignen. Diese bieten im Vorteil zu anderen Methoden, dass sie eine effiziente Berechnung von Ausschlussgrenzen ermöglichen. Basierend auf dieser Arbeit werden die Methoden in das Framework GammaCombo eingearbeitet und LHCb zur Verfügung gestellt. 25 Literatur [1] R. Aaij et al. „Search for decays of neutral beauty mesons into four muons“. In: Journal of High Energy Physics 2017.3 (2017), S. 1. [2] T. Karbach et al. GammaCombo Framework. 2017. url: https://gammacombo. github.io/. [3] The LHCb Collaboration: A. Augusto Alves Jr. et al. „The LHCb Detector at the LHC“. In: Journal of Instrumentation 3.08 (2008), S08005. [4] Volker Blobel und Erich Lohrmann. Statistische und numerische Methoden der Datenanalyse. 1. Auflage. Teubner-Studienbücher, 1998. [5] The LHCb Collaboration. „Search for the rare decay π΅π0 → π+ π− π+ π− “. In: LHCb-ANA-2015-040 (2016). [6] Glen Cowan. Statistical Data Analysis. 1st Edition. Oxford University Press, 1998. [7] Glen Cowan et al. „Asymptotic formulae for likelihood-based tests for new physics“. In: The European Physical Journal C 71.2 (2011), S. 1554. [8] S. V. Demidov und D. S. Gorbunov. „Flavor violating processes with sgoldstino pair production“. In: Phys. Rev. D 85 (7 Apr. 2012), S. 077701. [9] Yusuf Dinçer und L.M. Sehgal. „Electroweak effects in the double Dalitz decay Bs→l+l−l+l−“. In: Physics Letters B 556.3 (2003), S. 169–176. [10] Gary J. Feldman und Robert D. Cousins. „Unified approach to the classical statistical analysis of small signals“. In: Phys. Rev. D 57 (7 Apr. 1998), S. 3873– 3889. [11] S.L. Glashow. „Partial-symmetries of weak interactions“. In: Nuclear Physics 22.4 (1961), S. 579–588. [12] Peter W. Higgs. „Broken Symmetries and the Masses of Gauge Bosons“. In: Phys. Rev. Lett. 13 (16 Okt. 1964), S. 508–509. [13] J. Neyman. A Selection of Early Statistical Papers on J. Neyman. Series A. University of California Press, 1967. [14] C.Particle Data Group: C. Patrignani et al. Patrignani. „The Review of Particle Physics: 39. Statistics“. In: Chinese Physics C 40 (2016). [15] A. L. Read. „Modified frequentist analysis of search results (the CLs method)“. In: 1st Workshop on Confidence Limits, CERN, Geneva, Switzerland (2000). [16] A. Salam und J. C. Ward. „Weak and Electromagnetic Interactions“. In: Il Nuovo Cimento (1955-1965) 11.4 (1959), S. 568–577. 26 Literatur [17] T. Ullrich und Z. Xu. „Treatment of Errors in Efficiency Calculations“. In: ArXiv Physics e-prints: physics/0701199 (2007). [18] Abraham Wald. „Tests of Statistical Hypotheses Concernig Several Parameters When the Number of Observations is Large“. In: Transactions of the American Mathematical Society 54 (3 Nov. 1943), S. 426–482. [19] S. Weinberg. „A Model of Leptons“. In: Phys. Rev. Lett. 19 (21 Nov. 1967), S. 1264–1266. [20] Wikipedia: Standard Model. Juni 2017. url: https://en.wikipedia.org/ wiki/Standard_Model. [21] Samuel S. Wilks. „The large-sample distribution of the likelihood ratio for testing composite hypotheses“. In: Ann. Math. Statist. 9 (60-2 1938). 27 Danksagung Zum Abschluss dieser Bachelorarbeit möchte ich all den Leuten einen Dank aussprechen, die durch ihre Unterstützung zum Enstehen der Arbeit beigetragen haben. Zunächst möchte ich mich bei Johannes Albrecht bedanken, der mir die Möglichkeit gegeben hat meine Bachelorarbeit zu einem sehr interessanten Thema in seiner Arbeitsgruppe schreiben zu können und stets darum bemüht ist alle Bachelorstudenten in den Alltag des Lehrstuhls einzugliedern. Dadurch konnte ich in Form der Gruppenbesprechungen und zwei Tagen auf der DPG-Woche Erfahrungen in der Zusammenarbeit und Diskussion mit anderen Studenten sammeln. Ein weiterer Dank gilt vor allem Titus und Alex, die mir immer dabei geholfen haben durch die Thematik der Bachelorarbeit durchzublicken und diese zu diskutieren. Außerdem bedanke ich mich dafür, dass ihr mich durch zahlreiche Kommentare und Ideen zum Gelingen von Vorträgen und der Bachelorarbeit unterstützt habt. Des Weiteren möchte ich mich bei Professor Kröninger bedanken, der sich nicht nur dazu bereit erklärt hat meine Arbeit als Zweitgutachter zu bewerten, sondern auch durch eine Vorlesung mein Interesse an der Teilchenphysik weiter gefördert hat. Die Zusammenarbeit mit den anderen Bachelorstudenten möchte ich außerdem herausheben, denn diese war eine gelungene Kombination von Unterstützung untereinander und entspannter Arbeitsathmosphäre. Dabei bedanke ich mich vor allem bei Lukas und Hubi, die meine Arbeit Korrektur gelesen haben, genauso wie bei Lars. Dieser Dank gilt auch Niklas, der mich um viele Kommentare bereichert hat und sich die Mühe gemacht hat, möglichst alles meiner Bachelorarbeit nachzuvollziehen. Zuletzt möchte ich mich bei Emma, Hannah und Philipp sowie meinen Eltern bedanken, die mich zusätzlich immer motiviert haben und bei Fragen fachlicher oder stilistischer Art immer zur Verfügung standen. 28 Eidesstattliche Versicherung Ich versichere hiermit an Eides statt, dass ich die vorliegende Abschlussarbeit mit dem Titel „Untersuchung likelihood-basierter Teststatistiken zur Bestimmung von oberen Ausschlussgrenzen“ selbstständig und ohne unzulässige fremde Hilfe erbracht habe. Ich habe keine anderen als die angegebenen Quellen und Hilfsmittel benutzt, sowie wörtliche und sinngemäße Zitate kenntlich gemacht. Die Arbeit hat in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde vorgelegen. Ort, Datum Unterschrift Belehrung Wer vorsätzlich gegen eine die Täuschung über Prüfungsleistungen betreffende Regelung einer Hochschulprüfungsordnung verstößt, handelt ordnungswidrig. Die Ordnungswidrigkeit kann mit einer Geldbuße von bis zu 50 000 € geahndet werden. Zuständige Verwaltungsbehörde für die Verfolgung und Ahndung von Ordnungswidrigkeiten ist der Kanzler/die Kanzlerin der Technischen Universität Dortmund. Im Falle eines mehrfachen oder sonstigen schwerwiegenden Täuschungsversuches kann der Prüfling zudem exmatrikuliert werden (§ 63 Abs. 5 Hochschulgesetz –HG–). Die Abgabe einer falschen Versicherung an Eides statt wird mit Freiheitsstrafe bis zu 3 Jahren oder mit Geldstrafe bestraft. Die Technische Universität Dortmund wird ggf. elektronische Vergleichswerkzeuge (wie z. B. die Software „turnitin“) zur Überprüfung von Ordnungswidrigkeiten in Prüfungsverfahren nutzen. Die oben stehende Belehrung habe ich zur Kenntnis genommen. Ort, Datum Unterschrift