und Teilchenphysik - Vorlesung 6 - Physik

Werbung
Computergestützte Datenanalyse
in der Kern- und Teilchenphysik
Vorlesung 6
Jan Friedrich
23.11.2009
Auswertung von Stichproben
I
χ2 -Verteilung → vorige Vorlesung
I
Parameter-Anpassung
Parameter-Anpassung (“Fitten”)
Die Wahrscheinlichkeitsdichte der Zufallsgrößen xi habe die
Form
f = f (xi , λj )
mit unbekannten (bzw. anpassbaren) Parametern λj . Für jede
Stichprobe (Ereignis) k (aus einer Reihe der Länge N) ist die
aufgrund von f zugeordnete Wahrscheinlichkeit
(k)
dP(k) = f (xi , λj )dx
und für die gesamte Stichproben-Reihe
dP =
N
Y
k=1
(k)
f (xi , λj )dx Likelihood-Funktion
Maximum Likelihood
(k)
Da die f (xi , λj ) > 0 und ln(x) monoton steigend, kann anstelle
der Likelihood-Funktion selbst deren Logarithmus maximiert
werden:
` = ln L =
N
X
(k)
ln f (xi , λj )
und
k=1
d`
dλj
N
X
d
(k)
=
ln f (xi , λj )
dλj
k=1
=
N
X
(k)
d
dλj f (xi , λj )
k=1
(k)
f (xi , λj )
!
= 0
Interpretation von `0
Falls die Likelihood-Schätzung erwartungstreu ist,
d.h. für große N das λ ohne Verzerrung (Bias) liefert,
so folgt aus der Informationsungleichung
(Behandlung der Empfindlichkeit der Messung auf λ,
s. z.B. Brandt, loc. cit., und Zitate dort)
d`
1
= 2 (λ − E(λ))
dλ
σ
Verallgemeinerung auf mehrere Parameter liefert Verfahren zur
Auffindung der Kovarianzmatrix.
Beispiel I: Verschiedene σi
Dieselbe Größe λ wird durch verschiedene Messungen i
bestimmt, welche um λ gaußisch mit verschiedenen σi streuen.
f (x(k) , λ)dx = √
1
(k)
2
2
e−(x −λ) /2σi dx
2πσi
Die zugehörige Likelihood-Gleichung hat die Lösung
x(k)
k=1 σ 2
k
PN 1
k=1 σ 2
k
PN
λ| d` =0 =
dλ
(vgl. Summation verschiedener Beiträge in der
Fehlerfortpflanzung)
Beispiel II: Binomialverteilung
n k
L(k, λ) =
λ (1 − λ)n−k
k
n
` = k ln λ + (n − k) ln(1 − λ) + ln
k
d`
n
k
=
−λ
dλ
λ(1 − λ) n
→ wahrscheinlichster Wert für λ ist k/n
→ maximum Likelihood ist erwartungstreu
→ Varianz λ(1 − λ)/n
Gaußsche Streuung
xi seien Messwerte für die (unbekannte) Größe x, die mit
gaußschen Abweichungen behaftet sind,
fi dx =
1
√
σi 2π
e−(xi −x)
2 /2σ 2
i
dx
mit der Log-Likelihood
`=−
n
X
(xi − x)2
i=1
2σi2
+ const,
d.h. Maximierung von ` bedeutet Minimierung von
M=
n
X
(xi − x)2
i=1
2σi2
“kleinste Quadrate”
Methode der kleinsten Quadrate
Für einen allgemeinen Zusammenhang f (x, λj ) von
Messwerten fi , xi mit gesuchten Parametern λj ist
M=
n
X
(f (xi , λj ) − fi )2
i=1
2σf2i
in Abhängigkeit von λj zu minimieren.
I
allgemeine Lösungsstrategie mit großem praktischen Wert
I
Limitierung: Messwerte fi müssen gaußisch streuen,
Methode z.B. nicht anwendbar auf Histogramme mit kleiner
Statistik ↔ asymmetrische Fehler (insb. an Bins mit 0, 1, ...<10
Einträgen)
Beispiel: lineare Regression
Falls f (x, λ) = λ0 + λ1 x, so liefert die Methode
∂M
∂λ0
=
∂M
∂λ1
=
n
X
fi − (λ0 + λ1 xi )
i=1
n
X
i=1
2σf2i
!
· (−1) = 0
fi − (λ0 + λ1 xi )
!
· (−xi ) = 0
2σf2i
P
P
P
x2i /vi · fi /vi − xi /vi · xi fi /vi /d
P
P
P
P
λ1 = ( xi fi /vi · 1/vi − xi /vi · fi /vi ) /d
λ0 =
mit d =
P
P
x2i /vi ·
P
1/vi −
P
xi /vi ·
P
xi /vi und vi = σf2i
Herunterladen