Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 6 Jan Friedrich 7.12.2010 Auswertung von Stichproben I χ2 -Verteilung → vorige Vorlesung I Parameter-Anpassung Parameter-Anpassung (“Fitten”) Die Wahrscheinlichkeitsdichte der Zufallsgrößen xi habe die Form f = f (xi , λj ) mit unbekannten (bzw. anpassbaren) Parametern λj . Für jede Stichprobe (Ereignis) k (aus einer Reihe der Länge N) ist die aufgrund von f zugeordnete Wahrscheinlichkeit (k) dP(k) = f (xi , λj )dx und für die gesamte Stichproben-Reihe dP = N Y k=1 (k) f (xi , λj )dx Likelihood-Funktion Maximum Likelihood (k) Da die f (xi , λj ) > 0 und ln(x) monoton steigend, kann anstelle der Likelihood-Funktion selbst deren Logarithmus maximiert werden: ` = ln L = N X (k) ln f (xi , λj ) und k=1 d` dλj N X d (k) = ln f (xi , λj ) dλj k=1 = N X (k) d dλj f (xi , λj ) k=1 (k) f (xi , λj ) ! = 0 Interpretation von `0 Falls die Likelihood-Schätzung erwartungstreu ist, d.h. für große N das λ ohne Verzerrung (Bias) liefert, so folgt aus der Informationsungleichung (Behandlung der Empfindlichkeit der Messung auf λ, s. z.B. Brandt, loc. cit., und Zitate dort) d` 1 = 2 (λ − E(λ)) dλ σ Verallgemeinerung auf mehrere Parameter liefert Verfahren zur Auffindung der Kovarianzmatrix. Beispiel I: Verschiedene σi Dieselbe Größe λ wird durch verschiedene Messungen i bestimmt, welche um λ gaußisch mit verschiedenen σi streuen. f (x(k) , λ)dx = √ 1 (k) 2 2 e−(x −λ) /2σi dx 2πσi Die zugehörige Likelihood-Gleichung hat die Lösung x(k) k=1 σ 2 k PN 1 k=1 σ 2 k PN λ| d` =0 = dλ (vgl. Summation verschiedener Beiträge in der Fehlerfortpflanzung) Beispiel II: Binomialverteilung n k L(k, λ) = λ (1 − λ)n−k k n ` = k ln λ + (n − k) ln(1 − λ) + ln k d` n k = −λ dλ λ(1 − λ) n → wahrscheinlichster Wert für λ ist k/n → maximum Likelihood ist erwartungstreu → Varianz λ(1 − λ)/n Gaußsche Streuung xi seien Messwerte für die (unbekannte) Größe x, die mit gaußschen Abweichungen behaftet sind, fi dx = 1 2 2 √ e−(xi −x) /2σi dx σi 2π mit der Log-Likelihood `=− n X (xi − x)2 i=1 2σi2 + const, d.h. Maximierung von ` bedeutet Minimierung von M= n X (xi − x)2 i=1 2σi2 “kleinste Quadrate” Methode der kleinsten Quadrate Für einen allgemeinen Zusammenhang f (x, λj ) von Messwerten fi , xi mit gesuchten Parametern λj ist M= n X (f (xi , λj ) − fi )2 i=1 2σf2i in Abhängigkeit von λj zu minimieren. I allgemeine Lösungsstrategie mit großem praktischen Wert I Limitierung: Messwerte fi müssen gaußisch streuen, Methode z.B. nicht anwendbar auf Histogramme mit kleiner Statistik ↔ asymmetrische Fehler (insb. an Bins mit 0, 1, ...<10 Einträgen) Beispiel: lineare Regression Falls f (x, λ) = λ0 + λ1 x, so liefert die Methode ∂M ∂λ0 = ∂M ∂λ1 = n X fi − (λ0 + λ1 xi ) i=1 n X i=1 2σf2i ! · (−1) = 0 fi − (λ0 + λ1 xi ) ! · (−xi ) = 0 2σf2i P P P x2i /vi · fi /vi − xi /vi · xi fi /vi /d P P P P λ1 = ( xi fi /vi · 1/vi − xi /vi · fi /vi ) /d λ0 = mit d = P P x2i /vi · P 1/vi − P xi /vi · P xi /vi und vi = σf2i