Wahrscheinlichkeitsverteilungen einer Variablen

Werbung
Datenanalyse
(PHY231)
Herbstsemester 2016
Olaf Steinkamp
36-J-22
[email protected]
044 63 55763
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS16
Verteilungen (2)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen I
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS16
Verteilungen (3)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Diskrete Verteilung: Kopf oder Zahl
Werfe eine Münze
●
gleiche Wahrscheinlichkeit für Ergebnisse Kopf und Zahl: P(K) = P(Z) = 1/2
Werfe vier Münzen
●
Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16
●
Wahrscheinlichkeit P(k) für k × Kopf:
●
●
k=4: 1 Möglichkeit (KKKK)
⇒ P(k=4) = 1/16
●
k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK)
⇒ P(k=3) = 4/16
●
k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK)
⇒ P(k=2) = 6/16
●
k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK)
⇒ P(k=1) = 4/16
●
k=0: 1 Möglichkeit (ZZZZ)
⇒ P(k=0) = 1/16
Wahrscheinlichkeit dafür, dass “irgendetwas” passiert:
4
∑k =0 P (k ) = 16/16
k = Zufallsvariable ; P(k) = Wahrscheinlichkeitsverteilung
Datenanalyse HS16
Verteilungen (4)
O. Steinkamp
Diskrete Zufallsverteilung
Ordne jedem möglichen Wert k der Zufallsvariable eine
Wahrscheinlichkeit P(k) zu
●
Normierung
∑ P (k )
= 1
k
●
Erwartungswert
⟨k ⟩ ≡
∑ { k ⋅P (k ) }
k
●
Varianz
V (k ) ≡ ⟨ (k −⟨k ⟩)2 ⟩ = ⟨k 2 ⟩ − ⟨k ⟩ 2
●
Erwartungswert und Varianz einer Funktion f(k) der Zufallsvariablen
⟨f (k )⟩ ≡
∑ { f (k )⋅P (k ) }
;
V (f ) ≡ ⟨f 2 ⟩ − ⟨f ⟩2
k
Datenanalyse HS16
Verteilungen (5)
O. Steinkamp
Gesetz grosser Zahlen
Experiment : werfe N × 4 Münzen
k=0
k=1
k=2
k=3
k=4
N = 16
erwarte
beobachte
1
1
4
7
6
2
4
5
1
1
N = 160
erwarte
beobachte
10
8
40
48
60
46
40
48
10
10
N = 1600
erwarte
beobachte
100
84
400
438
600
584
400
378
100
116
N = 16000
erwarte
beobachte
1000
1021
4000
4004
6000
5977
4000
3960
1000
1038
Datenanalyse HS16
Verteilungen (6)
O. Steinkamp
Gesetz grosser Zahlen
Die relative Häufigkeit eines Zufallsergebnisses nähert sich der
theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an,
je häufiger das Zufallsexperiment durchgeführt wird.
●
Erwartungswert der theoretischen Wahrscheinlichkeitsverteilung
⟨k ⟩ ≡
∑ k ⋅P (k )
k
●
führe Experiment N-mal durch → Mittelwert der Häufigkeitsverteilung
N
1
k ≡ ⋅
k
N i=1 i
∑
●
Gesetz großer Zahlen
k
●
→
N →∞
⟨k ⟩
Varianz der Häufigkeitsverteilung und Wahrscheinlichkeitsverteilung
k2 − k2 →
N →∞
Datenanalyse HS16
⟨k 2 ⟩ − ⟨k ⟩ 2
Verteilungen (7)
O. Steinkamp
Binomialverteilung
Experiment mit zwei möglichen Ergebnissen (z.B. “Kopf oder Zahl”)
●
konstante Wahrscheinlichkeit p für “positives” Ergebnis
 konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis
Führe das Experiment n-mal aus
●
die Experimente seien unabhänging voneinander
●
Wahrscheinlichkeit für k “positive” Ergebnisse aus n “Versuchen”
P (k ∣ p , n) = n p k (1−p )n−k
(k )
●
Erwartungswert
●
n!
n =
k ! (n−k )!
k
()
Varianz
⟨k ⟩ = n⋅ p
Datenanalyse HS16
mit
V (k ) = n ⋅p ⋅(1−p)
Verteilungen (8)
O. Steinkamp
Beweise Binomialverteilung
●
Normierung
n
n
∑ P (k ∣ p , n)
k =0
●
=
∑
k =0
{( )
n p k (1−p)n−k
k
}
n
= ( p + (1−p) ) = 1
Erwartungswert:
n
∑
⟨k ⟩ =
k =0
n
(n−1)!
n!
k
n−k
k −1
n−k
k⋅
p (1−p)
= n⋅ p ⋅
p
(1−p)
k !(n−k )!
k =1 (k −1)!(n−k )!
∑
n'
k ' ≡ k −1
n ' ≡ n−1
(n ' )!
k'
n ' −k '
p (1−p )
(k ' )!(n ' −k ' )!
= n⋅ p ⋅ ∑
⏟
k ' =0
●
= (p+(1− p))n' = 1
Varianz:
2
2
V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨ k 2 ⟩−⟨k ⟩+⟨k ⟩−⟨k ⟩2 = ⟨k
−k
⟩
+⟨k
⟩
−⟨k
⟩
⏟ ⏟ ⏟ = n ⋅ p⋅(1−p )
n ⋅(n−1)⋅ p
n
2
⟨k −k ⟩ = ⟨k⋅(k −1)⟩ =
∑
k =0
{
k⋅(k −1)⋅
n'
n ⋅p
2
(n⋅ p)
n!
k
n−k
p (1−p)
k !(n−k )!
}
k ' ≡ k −2
n ' ≡ n−2
{
}
⏟
= n ⋅(n−1)⋅ p ⋅ ∑
2
2
k ' =0
(n' )!
k'
n ' −k '
p (1−p)
(k ' )!(n ' −k ' )!
= (p+(1−p))n' = 1
Datenanalyse HS16
Verteilungen (9)
O. Steinkamp
Beispiele Binomialverteilung
Datenanalyse HS16
Verteilungen (10)
O. Steinkamp
Beispiel: Effizienz einer Funkenkammer
Messe Spuren geladener Teilchen (z.B. aus kosmische Strahlung)
●
parallele Metallplatten in Gasvolumen, dazwischen
elektrische Spannung kurz unterhalb Durchbruchspannung
●
geladenes Teilchen ionisiert Gas und löst Funken aus
●
Annahmen für Rechenbeispiel:
●
●
95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird
●
benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen
Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern
P (k =3 ∣ p=0.95 ,n=3) = 0.95 3 = 0.857
●
vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern
P (4 ∣ 0.95 , 4) + P (3 ∣ 0.95 ,4) = 0.815 + 0.171 = 0.986
●
fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern
P (5 ∣ 0.95 ,5) + P (4 ∣ 0.95 ,5) + P (3∣ 0.95 ,5) = 0.774 + 0.204 + 0.021 = 0.999
Datenanalyse HS16
Verteilungen (11)
O. Steinkamp
Poissonverteilung
Näherung der Binomialverteilung für große Anzahl Versuche (n → ∞)
●
Erwartungswert der Verteilung
μ ≡ n ⋅p
●
μ
n
k
( ) (
μ
1−
n
)
n−k
μ
1−
n
)
n−k
μ
→ 1−
n
(
)
n
→ e
−μ
Erwartungswert
und
n!
→ nk
(n−k )!
●
(
)
n−k
⇒
μk
P (k ∣μ) =
⋅e −μ
k!
Varianz
V (k ) = μ
⟨k ⟩ = μ
●
n!
1 μk
μ
=
⋅ k ⋅ ⋅ 1−
k!
(n−k )! n
n
für n → ∞
(
●
μ
n
einsetzen in Binomialverteilung
μ
n!
P (k ∣ p= , n) =
n
k ! (n−k )!
●
p =
⇒
benutze Poisson, wenn n >> μ und wenn nur μ bekannt ist, aber nicht n und p
●
z.B. Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle
Datenanalyse HS16
Verteilungen (12)
O. Steinkamp
Beweise Poissonverteilung
●
Normierung
∞
∑
∞
P (k ∣μ) =
k =0
●
k =0
{
}=e
⟨k ⟩ =
∑
k =0
{
∞
−μ
μk
= 1
k!
∑
k⏟
=0

=eμ
Erwartungswert:
∞
●
∑
μ k −μ
e
k!
μ k −μ
k⋅ e
k!
} = μe
∞
−μ
∑
k =1
μ k−1
= μ e −μ
(k −1)!
∞
μk '
= μ
(k ' )!
∑
k⏟
' =0
=e μ
vgl. Binomialverteilung
⟨k ⟩ = n⋅ p ≡ μ
●

Varianz:
V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨k 2 ⟩ − ⟨k ⟩ + ⟨k ⟩−⟨k ⟩2 = ⟨⏟
k 2 − k ⟩ + ⟨k
⏟⟩ − ⟨k
⏟⟩2 = μ
=μ 2
2
⟨k −k ⟩ = ⟨k (k −1)⟩ =
∞
∑
k =0
●
μ k −μ
k (k −1)⋅ e
k!
{
vgl. Binomialverteilung
}=μ
2
=μ
∞
e
−μ
=μ 2
μk − 2
= μ2
(k −2)!
∑
⏟
k =2
=eμ
n → ∞ ⇒ p = μ / n → 0 ⇒ 1−p → 1 ⇒ V (k ) = n ⋅ p ⋅(1−p ) → n ⋅ p ≡ μ
Datenanalyse HS16
Verteilungen (13)

O. Steinkamp
Beispiele Poissonverteilung
Poisson
Datenanalyse HS16
Binomial
Verteilungen (14)
Binomial
O. Steinkamp
Beispiel: tödliche Pferdetritte
Klassiker, seit 1898 in vielen Statistik-Textbüchern:
●
beobachte für 20 Jahre 10 Regimenter der preussischen Kavalerie
●
beobachtete Anzahl Todesfälle durch Pferdetritte pro Regiment pro Jahr:
●
k
0
1
2
3
4
≥5
beobachtet
109
65
22
3
1
0
im Mittel 122 / (20×10) = 0.61 Todesfälle pro Regiment pro Jahr
●
weiss nicht, wieviele Versuche n (Pferdetritte) stattgefunden haben
und wie groß die Wahrscheinlichkeit p für Erfolg (Reiter tot) ist
●
nehme an, dass n >> μ → Poissonverteilung mit Erwartungswert μ = 0.61
k
0
1
2
3
4
≥5
Poisson
(μ = 0.61)
108.7
66.3
20.2
4.1
0.63
0.07
Datenanalyse HS16
Verteilungen (15)
O. Steinkamp
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen I
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS16
Verteilungen (16)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Kontinuierliche Verteilung: radioaktiver Zerfall
Zerfallsgesetz: in festem Zeitintervall t zerfällt fester Bruchteil aktiver Kerne
Δ N / Δ t = −λ N
●
Anzahl der noch nicht zerfallenen Kerne als Funktion der Zeit t
d N (t )/d t = −λ N
●
⇒ N (t ) = N 0 ⋅e−λ t
Bruchteil der bereits zerfallenen Kerne als Funktion der Zeit t
N 0 − N (t )
= 1 − e−λ t
N0
●
Wahrscheinlichkeit, dass ein gegebener Kern nach der Zeit t zerfallen ist
P (t ) = 1 − e−λ t
●
kumulative Verteilungsfunktion
Wahrscheinlichkeit, dass ein gegebener Kern im Intervall dt nach t zerfällt
P (t +dt )−P (t ) = e−λ t − e−λ (t +dt )
●
für dt → 0 :
P (t +dt )−P (t )
dt
Datenanalyse HS16
→
dt →0
dP (t )
= λ ⋅e−λ t ≡ p (t )
dt
Verteilungen (17)
Wahrscheinlichkeitsdichte
O. Steinkamp
Kontinuierliche Zufallsverteilung
Wahrscheinlichkeitsdichte
p(x) ≡
●
Wahrscheinlichkeit f ü r Wert zwischen x und x +dx
dx
f ü r dx → 0
Wahrscheinlichkeit für einen Wert x zwischen x1 und x2:
x2
P ( x 1 ≤ x ≤ x 2) =
∫ p ( x ) dx
x1
●
Normierung:
∞
P (−∞ ≤ x ≤ ∞) =
●
p( x ) dx = 1
Erwartungswert:
●
∞
⟨x⟩ =
●
∫
−∞
Varianz:
∫
x ⋅ p ( x ) dx
∞
⟨f ( x )⟩ =
−∞
∫
f ( x )⋅ p ( x ) dx
−∞
2
2
V ( x ) ≡ ⟨ ( x −⟨ x ⟩) ⟩ = ⟨ x ⟩ − ⟨ x ⟩
Datenanalyse HS16
für Funktion f(x) der Zufallsvariablen
2
Verteilungen (18)
V (f ) = ⟨f 2 ( x )⟩ − ⟨f ( x )⟩2
O. Steinkamp
Kumulative Verteilungsfunktion
Wahrscheinlichkeit, dass die Zufallsvariable einen Wert < x annimmt
x
P (x ) =
●
∫
−∞
p ( x ' ) dx '
Wahrscheinlichkeit für einen Wert zwischen x1 und x2:
x =x 2
P ( x 1< x ≤ x 2) =
∫
p( x ) dx
⇔
P ( x 1< x ≤ x 2) = P ( x 2) − P ( x 1)
x =x 1
●
Beispiel: fallende Exponentialverteilung
p( x ) = λ e−λ
x
P ( x 1< x ≤ x 2)
Datenanalyse HS16
P ( x 2)
P ( x 1< x ≤ x 2)
P ( x 1)
Verteilungen (19)
P ( x ) = 1−e−λ x
O. Steinkamp
Exponentialverteilung
Wahrscheinlichkeitsdichte (ein Parameter: )
p ( x ∣ λ ) = λ ⋅e−λ⋅x
●
Normierung
∞
∫ λ ⋅e−λ⋅x dx
0
●
für x ≥ 0
∞
= λ ⋅∫ e −λ⋅x dx = 1
Erwartungswert
⏟
0
=1/ λ
∞
⟨x⟩ =
∫
x ⋅λ ⋅e−λ⋅x dx =
0
●
1
λ
Varianz
∞
V (x ) =
∫
0
1 2
1
( x − ) ⋅λ ⋅e −λ⋅x dx = 2
λ
λ
Kumulative Verteilungsfunktion
x
P ( x ) = λ ⋅∫ e−λ⋅x ' dx ' = 1−e−λ⋅x
0
Datenanalyse HS16
Verteilungen (20)
O. Steinkamp
Gaußverteilung
Wahrscheinlichkeitsdichte (zwei Parameter: ,)
1
⋅e
2
√2 π σ
p ( x ∣μ ,σ ) =
●
−
(x −μ )2
2 σ2
Erwartungswert
σ
∞
∫
⟨x⟩ =
x ⋅p ( x ∣ μ ,σ ) dx = μ
−∞
●
Varianz
∞
V (x ) =
∫ ( x −μ )2 ⋅ p( x ∣μ , σ ) dx
= σ2
−∞
Kumulative Verteilungsfunktion
1
P (x ) =
2
●
(
x −μ
1 + erf
√2 σ
(
))
mit “error function”
erf ( x ) ≡
2
⋅
√π
x
∫ e−x dx '
'2
0
erf(x) durch numerische Integration, unbest. Integral analytisch nicht lösbar
Datenanalyse HS16
Verteilungen (21)
O. Steinkamp
Beweise Gaußverteilung
●
Normierung
∞
1
∫
−∞ √ 2 π σ
2
e
−(x −μ )2
2 σ2
∞
1
⋅ e
√ 2 π σ 2 −∞
−x ' 2
2σ 2
dx '
∫
⏟
dx =
= 1
=√ 2 π σ 2
●
Erwartungswert
∞
⟨x⟩ =
x
∫
−∞ √ 2 π σ
2
e
−(x −μ )2
2 σ2
−( x−μ )2
2 σ2
∞
dx =
−( x −μ )2
2 σ2
∞
( x −μ )
1
e
dx + μ ⋅ ∫
e
dx
∫
−∞
2
π
σ
−∞
2
π
σ
√
√
⏟
⏟
2
2
= 0
●
= 1
Varianz
∞
V ( x ) = ⟨( x −μ )2 ⟩ =
●
= μ
∫
−∞
2
−( x−μ )2
2 σ2
2 n−1
−a x 2
( x−μ )
e
2
√ 2π σ
∞
dx =
1
2
⋅
x
'
e
2
√ 2 π σ −∞
∫
−x ' 2
2 σ2
dx = σ 2
verwendete bestimmte Integrale
∞
−a x 2
∫ e
−∞
dx =
Datenanalyse HS16
√
π
a
∞
∫
−∞
x
e
∞
dx = 0
Verteilungen (22)
2
x 2 e−a x dx =
∫
−∞
1
⋅ π
2a a
√
O. Steinkamp
“Errorfunction”
Häufig verwendete Werte (nützlich zu merken)
●
P (|x - μ| ≤ 1σ)
= 68.27 % (≈ 2/3)
●
P (|x - μ| ≤ 2σ)
= 95.45 %
●
P (|x - μ| ≤ 3σ)
= 99.73 %
●
P (|x - μ| ≤ 1.645σ) = 90 %
●
P (|x - μ| ≤ 1.960σ) = 95 %
●
P (|x - μ| ≤ 2.576σ) = 99 %
Datenanalyse HS16
Verteilungen (23)
O. Steinkamp
Zusammenhang zwischen
Exponentialverteilung und Poissonverteilung
●
betrachte einen Prozess, bei dem die Anzahl Ereignisse k pro Zeitintervall t
einer Poissonverteilung mit Erwartungswert  = ·t folgt
(λ⋅Δ t )k −(λ⋅Δ t )
P (k ∣μ ) = P (k ∣ λ⋅Δ t ) =
e
k!
●
●
zur Zeit t = 0 habe ein Zerfall stattgefunden → berechne Wahrscheinlichkeit,
dass der nächste Zerfall im Zeitintervall [ t , t+dt ] stattfindet
nächster Zerfall im Zeitintervall [ t , t+dt ]
= kein Zerfall im Intervall [ 0 , t ] & ein Zerfall im Intervall [ t , t+dt ]
p (t ) dt = P (0 ∣ λ⋅t ) × P (1 ∣ λ⋅dt ) = e−λ⋅t × λ⋅dt ⋅e−λ⋅dt
●
für dt → 0
e−λ⋅dt → 1
●
⇒
p (t ) dt → λ ⋅e−λ⋅t dt
⇔
p (t ) → λ ⋅e−λ⋅t
Zeitverteilung folgt einer Exponentialverteilung mit Erwartungswert 1/
Erwartungswert einer Exponentialverteilung
kann durch ein Zählexperiment bestimmt werden
Datenanalyse HS16
Verteilungen (24)
O. Steinkamp
Weitere wichtige Verteilungen
Gleichverteilung
p(x) =
{
●
Erwartungswert:
●
Varianz:
1
(b−a)
0
f ü r a≤x ≤b
sonst
⟨ x ⟩ = (a + b ) / 2
V ( x ) = (b − a)2 / 12
Breit-Wigner Verteilung (Resonanz-Kurve)
1
Gaußverteilung
mit gleichem FWHM
Γ/2
p ( x ∣ M , Γ) = π ⋅
( x −M )2 +(Γ /2)2
●
Erwartungswert: ⟨ x ⟩ = M
●
Varianz: nicht definiert ( ∫ x p ( x ) dx divergiert)
●
Full Width at Half Maximum: FWHM = 
2
Datenanalyse HS16
Verteilungen (25)
FWHM
O. Steinkamp
Python: from scipy import stats
Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung)
●
stats.expon.pdf
– Wahrscheinlichkeitsdichte
●
stats.expon.cdf
– kumulative Verteilungsfunktion
●
stats.expon.ppf
– inverse kumulative Verteilungsfunktion
Für diskrete Verteilungen (Beispiel Poissonverteilung)
●
stats.poisson.pmf
– Wahrscheinlichkeit
●
stats.poisson.cdf
– kumulative Verteilungsfunktion
●
stats.poisson.ppf
– inverse kumulative Verteilungsfunktion
Weitere wichtige Verteilungen
●
stats.binom.*
– Binomialverteilung
●
stats.norm.*
– Gaußverteilung (“normal distribution”)
●
stats.uniform.*
– Gleichverteilung (“uniform distribution”)
●
stats.cauchy.*
– Breit-Wigner Verteilung (“Cauchyverteilung”)
●
stats.chi2.*
– ²-Verteilung
Datenanalyse HS16
Verteilungen (26)
… und viele mehr, siehe
python Dokumentation
O. Steinkamp
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen I
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS16
Verteilungen (27)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Zentraler Grenzwertsatz
Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N)
●
jedes xi folgt einer beliebigen Wahrscheinlichkeitsverteilung
●
●
die Verteilung für xi habe den Erwartungswert μi und die Varianz σi²
definiere eine neue Zufallsvariable
N
X ≡ ∑ xi
i =1
●
für die Zufallsverteilung von X gilt:
●
sie hat den Erwartungswert
⟨ X ⟩ = ∑Ni =1 μ i
●
sie hat die Varianz
V (X ) =
●
sie strebt für N → ∞ einer Gaußverteilung entgegen
∑Ni =1 σ 2i
●
gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen
●
aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!!
Datenanalyse HS16
Verteilungen (28)
O. Steinkamp
Beweise zentraler Grenzwertsatz
●
Erwartungswert
⟨ X ⟩ = ⟨∑ x i ⟩ =
i
●
∑ ⟨ xi ⟩
=
i
∑ μi
i
Varianz
V ( X ) = ⟨ ( X − ⟨ X ⟩ )2 ⟩
2
⟨(
)⟩
= ∑ ( x −μ )
⟨(
)⟩
∑ x i − ∑ μi
=
i
i
2
i
=
i
i
( x i −μ i )2
∑
⟨
+
i
=
⟨ ( x i −μ i )2 ⟩
∑⏟
i
σ 2i
∑ ∑ ( x i −μ i )⋅( x j −μ j ) ⟩
i
+
j ≠i
⟨ ( x i −μ i )⋅( x j −μ j ) ⟩
∑∑⏟
i
j ≠i
cov (x i , x j )
xi und xj statistisch voneinander unabhängig  cov (xi,xj) = 0
Datenanalyse HS16
Verteilungen (29)
O. Steinkamp
Beispiel zentraler Grenzwertsatz
N unabhängige Zufallsvariablen, jede von 0 bis 1 gleichverteilt
------- Gaussverteilung mit μ = N / 2 und σ = √N / 12
Datenanalyse HS16
Verteilungen (30)
O. Steinkamp
Gaußverteilte Messunsicherheiten
Abweichung einer Messung vom “wahren” Wert hat meist viele Beiträge
●
●
z.B. Rauschsignal in Messelektronik
●
viele Bauteile (Widerstände, Kondensatoren,…)
●
zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile
●
gesamtes Rauschsignal ist Summe aller dieser Beiträge
wenn diese Beiträge statistisch unabhängig voneinander sind:
zentraler Grenzwertsatz

Abweichungen der Messwerte vom wahren Wert folgen einer Gaußverteilung
●
gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind
●
●
z.B. bei gemeinsamen systematischen Unsicherheiten
gilt NICHT, wenn eine einzelne Fehlerquelle die Abweichungen dominiert
Annahme gaußverteilter Abweichungen ist eine (nicht immer gute) Näherung
Datenanalyse HS16
Verteilungen (31)
O. Steinkamp
Gaußverteilte Messunsicherheiten
Fehlerbalken geben ± 1 Standardabweichung um den Messwert an
●
●
für gaußverteilte Messabweichungen vom wahren Wert
s. Folie 23
●
sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen
●
sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten
erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind
unterschätzt
Datenanalyse HS16
Messunsicherheit
korrekt
Verteilungen (32)
überschätzt
O. Steinkamp
Zugehörige Unterlagen
Herunterladen