Vorlesung 2 - Physik

Werbung
Computergestützte Datenanalyse
in der Kern- und Teilchenphysik
Vorlesung 2
Jan Friedrich
2.11.2010
Wahrscheinlichkeit und Statistik
I
Ergebnis eines Experiments: “Stichprobe”
I
I
Stichprobenraum:
Menge aller möglichen Experimentausgänge E, ggf.
Übermenge
Abbildung auf diskrete oder kontinuierliche
(Zufalls-)Variable
Wahrscheinlichkeit und Statistik
I
Ergebnis eines Experiments: “Stichprobe”
I
I
I
Stichprobenraum:
Menge aller möglichen Experimentausgänge E, ggf.
Übermenge
Abbildung auf diskrete oder kontinuierliche
(Zufalls-)Variable
Wahrscheinlichkeit
I
praktische Definition über relative Häufigkeit
P(A) = lim
N→∞
I
n(A)
N
axiomatisch (Kolmogorov):
Maß im Ereignisraum:
(I) P(E) = 1, (II) für alle Ereignistypen A ist P(A) ≥ 0,
(III) falls AB = 0, dann P(A+B)=P(A)+P(B)
Wahrscheinlichkeit und Statistik
P(AB)
P(A)
I
Bedingte Wahrscheinlichkeit P(B|A) =
I
Unabhängigkeit von A und B: P(B|A) = P(B)
Denksport: Hinter einer von drei Türen wartet ein Gewinn.
Nach Auswahl einer Tür wird eine der beiden anderen Türen
geöffnet, und hinter dieser Tür befindet sich der Gewinn nicht.
Erhöht man nun seine Gewinnchance, wenn man die Tür
wechselt?
Zufallsvariablen & Verteilungsfunktionen
I
Verteilungsfunktion F(x)
I
d
Wahrscheinlichkeitsdichte f (x) = dx
F(x)
Charakteristische Parameter (auch falls F(x) nicht bekannt
ist)
I
I
Mittelwert (Erwartungswert)
Z
E(x) = x̂ =
∞
x f (x) dx
−∞
I
Momente um Mittelwert
µ` = E{(x − x̂)` }
I
Varianz µ2 , Schiefe µ3 , usw.
wahrscheinlichster Wert, Mittelwert, Median
Zwei Veränderliche
I
Zwei Zufallsvariablen haben eine
Wahrscheinlichkeitsverteilung f (x, y),
Z bZ
P(a < x < b, c < y < d) =
d
f (x, y)dy dx
a
c
I
x und y sind unabhängig wenn f (x, y) = g(x)h(y)
I
Erwartungswert einer Funktion H(x, y)
Z ∞
E(H) =
H(x, y)f (x, y)dx dy
−∞
I
Mittelwerte x̂ = E(x), ŷ = E(y)
Momente um (x̂, ŷ)
σx2 = E((x − x̂)2 )
σy2 = E((y − ŷ)2 )
cov(x, y) = E((x − x̂)(y − ŷ))
Kovarianz
Momente um (x̂, ŷ)
σx2
=
E((x − x̂)2 )
σy2
=
E((y − ŷ)2 )
cov(x, y)
=
ρ(x, y)
E((x − x̂)(y − ŷ))
Kovarianz
cov(x, y)
=
σx σy
Korrelationskoeffizient
Momente um (x̂, ŷ)
σx2
=
E((x − x̂)2 )
σy2
=
E((y − ŷ)2 )
cov(x, y)
=
ρ(x, y)
−1
E((x − x̂)(y − ŷ))
Kovarianz
cov(x, y)
=
σx σy
Korrelationskoeffizient
< ρ(x, y) < 1
x und y unabhängig → ρ(x, y) = 0 (unkorreliert)
Mehrere Veränderliche
I
Wahrscheinlichkeitsdichte für n Variable
f (x1 , x2 , ...xn ) =
∂n
F(x1 , x2 , ...xn )
∂x1 ∂x2 · · · ∂xn
I
Varianzen σx2i = E((xi − x̂i )2 )
I
Kovarianzen cij = E((xi − x̂i )(xj − x̂j )),


c11 c12 · · · c1n
 c21 c22 · · · c2n 


C= .
Kovarianzmatrix
..
.. 
.
.
.
 .
.
.
. 
cn1 cn2 · · ·
cnn
Vektorschreibweise
Vektorschreibweise



x = (x1 , x2 , x3 , ..., xn ), x = 

T
x1
x2
..
.
xn
C = E((x − x̂)(x − x̂)T )





Variablentransformation
Sei y = y(x) oder allgemein y = y(x), dann
dx dy und
g(y) = f (x),
dy = dx
dx
dy
für zwei Variable y1 (x1 , x2 ), y2 (x1 , x2 )
∂x1 ∂x2 x1 , x2
∂y1 ∂y1 dA = ∂x1 ∂x2 dy1 dy2 = J
dy1 dy2
∂y ∂y y1 , y2
2
und allgemein
2
Variablentransformation



x 
f
(x),
J
=
g(y) = J

y 
∂x1
∂y1
∂x1
∂y2
∂x2
∂y1
∂x2
∂y2
∂x1
∂yn
∂x2
∂yn
..
.
..
.
Jacobi-Determinante
···
···
..
.
···
∂xn
∂y1
∂xn
∂y2
..
.
∂xn
∂yn






Herunterladen