Datenanalyse - physik.uzh.ch

Werbung
Datenanalyse
(PHY231)
Herbstsemester 2015
Olaf Steinkamp
36-J-22
[email protected]
044 63 55763
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS15
Verteilungen (2)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen I
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS15
Verteilungen (3)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Einfaches Beispiel: Kopf oder Zahl
Werfe eine Münze
●
gleiche Wahrscheinlichkeit für Ergebnisse Kopf und Zahl: P(K) = P(Z) = 1/2
Werfe gleichzeitig vier Münzen
●
Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16
●
Wahrscheinlichkeit P(k) für k × Kopf:
●
●
k=4: 1 Möglichkeit (KKKK)
⇒ P(k=4) = 1/16
●
k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK)
⇒ P(k=3) = 4/16
●
k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK)
⇒ P(k=2) = 6/16
●
k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK)
⇒ P(k=1) = 4/16
●
k=0: 1 Möglichkeit (ZZZZ)
⇒ P(k=0) = 1/16
Wahrscheinlichkeit dafür, dass “irgendetwas” passiert:
4
∑k =0 P (k ) = 16/16
P(k) ist eine Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen k
Datenanalyse HS15
Verteilungen (4)
O. Steinkamp
Diskrete Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeit muss normiert sein
∑ P (k )
= 1
k
Definitionen
●
Erwartungswert der Zufallsvariablen k
∑ { k ⋅P (k ) }
⟨k ⟩ ≡
k
●
Varianz der Zufallsvariablen k
2
2
V (k ) ≡ ⟨k ⟩ − ⟨k ⟩ =
∑ {k
2
⋅P (k ) } −
k
●
2
( ∑ { k ⋅P (k ) } )
k
für eine Funktion f(k) der Zufallsvariablen
⟨f (k )⟩ ≡
∑ { f (k )⋅P (k ) }
;
V (f ) ≡ ⟨f 2 ⟩ − ⟨f ⟩2
k
Datenanalyse HS15
Verteilungen (5)
O. Steinkamp
Gesetz grosser Zahlen
Beispiel: werfe N × 4 Münzen (Monte-Carlo Simulation am Computer)
k=0
k=1
k=2
k=3
k=4
N = 16
erwarte
beobachte
1
1
4
7
6
2
4
5
1
1
N = 160
erwarte
beobachte
10
8
40
48
60
46
40
48
10
10
N = 1600
erwarte
beobachte
100
84
400
438
600
584
400
378
100
116
N = 16000
erwarte
beobachte
1000
1021
4000
4004
6000
5977
4000
3960
1000
1038
Datenanalyse HS15
Verteilungen (6)
O. Steinkamp
Gesetz grosser Zahlen
Die relative Häufigkeit eines Zufallsergebnisses nähert sich der
theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an,
je häufiger das Zufallsexperiment durchgeführt wird.
●
Mittelwert einer gemessenen Häufigkeitsverteilung
N
1
k ≡ ⋅
k
N i=1 i
∑
●
Erwartungswert der zugrundeliegenden Wahrscheinlichkeitsverteilung
⟨k ⟩ ≡
∑ k ⋅P (k )
k
●
Gesetz großer Zahlen
k
●
→ ⟨k ⟩
N →∞
(N = Anzahl Wiederholungen)
Varianz der Häufigkeitsverteilung und Wahrscheinlichkeitsverteilung
k2 − k2 →
N →∞
Datenanalyse HS15
⟨k 2 ⟩ − ⟨k ⟩2
Verteilungen (7)
O. Steinkamp
Binomialverteilung
Experiment mit zwei möglichen Ergebnissen
●
konstante Wahrscheinlichkeit p für “positives” Ergebnis
=> konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis
●
z.B. “Kopf oder Zahl” (Kopf = positives Ergebnis, Zahl = negatives Ergebnis)
Führe das Experiment n-mal aus
●
die Experimente seien unabhänging voneinander
●
Wahrscheinlichkeit für insgesamt k “positive” Ergebnisse aus n “Versuchen”
P (k ∣ p , n) = n p k (1−p )n−k
(k )
●
Erwartungswert
●
n!
n =
k ! (n−k )!
k
()
Varianz
⟨k ⟩ = n⋅ p
Datenanalyse HS15
mit
V (k ) = n ⋅p ⋅(1−p)
Verteilungen (8)
O. Steinkamp
Beweise Binomialverteilung
●
Normierung
n
n
∑ P (k ∣ p , n)
k =0
●
=
∑
k =0
{( )
n p k (1−p)n−k
k
}
n
= ( p + (1−p) ) = 1
Erwartungswert:
n
∑
⟨k ⟩ =
k =0
n
(n−1)!
n!
k
n−k
k −1
n−k
k⋅
p (1−p)
= n⋅ p ⋅
p
(1−p)
k !(n−k )!
k =1 (k −1)!(n−k )!
∑
n'
k ' ≡ k −1
n ' ≡ n−1
(n ' )!
k'
n ' −k '
p (1−p )
(k ' )!(n ' −k ' )!
= n⋅ p ⋅ ∑
⏟
k ' =0
●
= (p+(1− p))n' = 1
Varianz:
2
2
V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨ k 2 ⟩−⟨k ⟩+⟨k ⟩−⟨k ⟩2 = ⟨k
−k
⟩
+⟨k
⟩
−⟨k
⟩
⏟ ⏟ ⏟ = n ⋅ p⋅(1−p )
n ⋅(n−1)⋅ p
n
2
⟨k −k ⟩ = ⟨k⋅(k −1)⟩ =
∑
k =0
{
k⋅(k −1)⋅
n'
n ⋅p
2
(n⋅ p)
n!
k
n−k
p (1−p)
k !(n−k )!
}
k ' ≡ k −2
n ' ≡ n−2
{
}
⏟
= n ⋅(n−1)⋅ p ⋅ ∑
2
2
k ' =0
(n' )!
k'
n ' −k '
p (1−p)
(k ' )!(n ' −k ' )!
= (p+(1−p))n' = 1
Datenanalyse HS15
Verteilungen (9)
O. Steinkamp
Beispiele Binomialverteilung
Datenanalyse HS15
Verteilungen (10)
O. Steinkamp
Beispiel: Effizienz einer Funkenkammer
Messe Spuren geladener Teilchen (z.B. aus kosmische Strahlung)
●
parallele Metallplatten in Gasvolumen, dazwischen
elektrische Spannung kurz unterhalb Durchbruchspannung
●
geladenes Teilchen ionisiert Gas und löst Funken aus
●
Annahmen für Rechenbeispiel:
●
●
95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird
●
benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen
Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern
P (k =3 ∣ p=0.95 ,n=3) = 0.95 3 = 0.857
●
vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern
P (4 ∣ 0.95 , 4) + P (3 ∣ 0.95 ,4) = 0.815 + 0.171 = 0.986
●
fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern
P (5 ∣ 0.95 ,5) + P (4 ∣ 0.95 ,5) + P (3∣ 0.95 ,5) = 0.774 + 0.204 + 0.021 = 0.999
Datenanalyse HS15
Verteilungen (11)
O. Steinkamp
Poissonverteilung
Näherung der Binomialverteilung für sehr große Anzahl Versuche n
●
Erwartungswert der Verteilung sei d.h.
μ = n⋅p
●
μ
n
k
( )(
μ
1−
n
)
n−k
μ
1−
n
)
n−k
μ
→ 1−
n
(
)
n
→ e
−μ
Erwartungswert
und
n!
→ nk
(n−k )!
●
(
)
n−k
⇒
μk
P (k ∣μ) =
⋅e −μ
k!
Varianz
V (k ) = μ
⟨k ⟩ = μ
●
n!
1 μk
μ
=
⋅ k ⋅ ⋅ 1−
k!
(n−k )! n
n
für n → ∞ und n >> 
(
●
μ
n
einsetzen in Binomialverteilung
n!
P (k ∣ μ /n , n) =
k ! (n−k )!
●
p =
⇔
benutze Poisson, wenn n >> μ und/oder wenn μ bekannt ist, aber nicht n und p
●
z.B. Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle
Datenanalyse HS15
Verteilungen (12)
O. Steinkamp
Beweise Poissonverteilung
●
Normierung
∞
∑
∞
P (k ∣μ) =
k =0
●
k =0
{
}=e
⟨k ⟩ =
∑
k =0
{
∞
−μ
μk
= 1
k!
∑
k⏟
=0

=eμ
Erwartungswert:
∞
●
∑
μ k −μ
e
k!
μ k −μ
k⋅ e
k!
} = μe
∞
−μ
∑
k =1
μ k−1
= μ e −μ
(k −1)!
∞
μk '
= μ
(k ' )!
∑
k⏟
' =0
=e μ
vgl. Binomialverteilung
⟨k ⟩ = n⋅ p ≡ μ
●

Varianz:
V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨k 2 ⟩ − ⟨k ⟩ + ⟨k ⟩−⟨k ⟩2 = ⟨⏟
k 2 − k ⟩ + ⟨k
⏟⟩ − ⟨k
⏟⟩2 = μ
=μ 2
2
⟨k −k ⟩ = ⟨k (k −1)⟩ =
∞
∑
k =0
●
μ k −μ
k (k −1)⋅ e
k!
{
vgl. Binomialverteilung
}=μ
2
=μ
∞
e
−μ
=μ 2
μk − 2
= μ2
(k −2)!
∑
⏟
k =2
=eμ
n → ∞ ⇒ p = μ / n → 0 ⇒ 1−p → 1 ⇒ V (k ) = n ⋅ p ⋅(1−p ) → n ⋅ p ≡ μ
Datenanalyse HS15
Verteilungen (13)

O. Steinkamp
Beispiele Poissonverteilung
Poisson
Datenanalyse HS15
Binomial
Verteilungen (14)
Binomial
O. Steinkamp
Beispiel: tödliche Pferdetritte
Klassiker, seit 1898 in vielen Statistik-Textbüchern:
●
●
●
●
beobachte für 20 Jahre 10 Regimenter der preussischen Kavalerie
●
registriere insgesamt 122 Todesfälle durch Pferdetritte
●
im Mittel 122 / (20·10) = 0.61 Todesfälle pro Regiment pro Jahr
beobachtete Häufigkeitsverteilung pro Regiment pro Jahr:
k
0
1
2
3
4
≥5
beobachtet
109
65
22
3
1
0
für Poissonverteilung mit Erwartungswert μ = 0.61
k
0
1
2
3
4
≥5
Poisson
(μ=0.61)
108.7
66.3
20.2
4.1
0.63
0.07
auch: Varianz der beobachteten Verteilung
4
2
V (k ) = k − k
2
=
∑
k =1
Datenanalyse HS15
{
N (k )
k ⋅
200
2
}−( )
Verteilungen (15)
122
200
2
= 0.608 ≈ μ

O. Steinkamp
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen I
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS15
Verteilungen (16)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Zufallsvariable x kontinuierlich verteilt
Definiere Wahrscheinlichkeitsdichte p(x)
p(x) ≡
●
Wahrscheinlichkeit f ü r Wert zwischen x und x +dx
dx
f ü r dx → 0
Wahrscheinlichkeit für einen Wert x zwischen x1 und x2:
x2
P ( x 1 ≤ x ≤ x 2) =
∫ p ( x ) dx
x1
●
Normierung:
∞
P (−∞ ≤ x ≤ ∞) =
●
∫
−∞
p( x ) dx = 1
Erwartungswert der Zufallsvariablen x und einer Funktion f(x):
∞
⟨x⟩ =
∫
∞
x ⋅p ( x ) dx
⟨f ( x )⟩ =
−∞
●
∫ f ( x )⋅ p ( x ) dx
−∞
Varianz der Zufallsvariablen x und einer Funktion f(x):
V ( x ) = ⟨ x 2 ⟩ − ⟨ x ⟩2
Datenanalyse HS15
V (f ) = ⟨f 2 ( x )⟩ − ⟨f ( x )⟩2
Verteilungen (17)
O. Steinkamp
Kumulative Verteilungsfunktion
Wahrscheinlichkeit, dass die Zufallsvariable einen Wert < x annimmt
x
P (x ) =
●
∫
−∞
p ( x ' ) dx '
Wahrscheinlichkeit, dass die Zufallsvariable einen Wert zwischen x1 und x2
annimmt:
x =x 2
P ( x 1< x ≤ x 2) =
∫
p( x ) dx
⇔
P ( x 1< x ≤ x 2) = P ( x 2) − P ( x 1)
x =x 1
●
Beispiel: fallende Exponentialverteilung
p( x ) = λ e−λ
x
P ( x 1< x ≤ x 2)
Datenanalyse HS15
P ( x 2)
P ( x 1)
Verteilungen (18)
x
P (x) = λ
e− λ x
∫
−∞
'
dx '
O. Steinkamp
Exponentialverteilung
Wahrscheinlichkeitsdichte
p ( x ∣ λ ) = λ ⋅e−λ⋅x
●
Normierung
∞
∫ λ ⋅e−λ⋅x dx
0
●
für x ≥ 0
∞
= λ ⋅∫ e −λ⋅x dx = 1
Erwartungswert
⏟
0
=1/ λ
∞
⟨x⟩ =
∫
x ⋅λ ⋅e−λ⋅x dx =
0
●
1
λ
Varianz
∞
V (x ) =
∫
0
1 2
1
( x − ) ⋅λ ⋅e −λ⋅x dx = 2
λ
λ
Kumulative Verteilungsfunktion
x
P ( x ) = λ ⋅∫ e−λ⋅x ' dx ' = 1−e−λ⋅x
0
Datenanalyse HS15
Verteilungen (19)
O. Steinkamp
Gaußverteilung
Wahrscheinlichkeitsdichte
p ( x ∣μ ,σ ) =
●
1
⋅e
2
√2 π σ
−
(x −μ )2
2 σ2
σ
Erwartungswert
∞
⟨x⟩ =
∫
x ⋅p ( x ∣ μ ,σ ) dx = μ
FWHM
−∞
●
Varianz
∞
V (x ) =
∫ ( x −μ )2 ⋅ p( x ∣μ , σ ) dx
= σ2
−∞
Full Width at Half Maximum (Breite der Verteilung auf halber Hohe)
p ( x = μ + √ 2 ln 2 ∣μ , σ ) = p ( x = μ − √ 2 ln 2 ∣μ ,σ ) = 1/ 2 × p ( x = μ ∣μ ,σ )
⇒
Datenanalyse HS15
FWHM = 2 √ 2 ln 2⋅σ ≈ 2.355 σ
Verteilungen (20)
O. Steinkamp
Beweise Gaußverteilung
●
Normierung
∞
1
∫
−∞ √ 2 π σ
2
e
−(x −μ )2
2 σ2
∞
1
⋅ e
√ 2 π σ 2 −∞
−x ' 2
2σ 2
dx '
∫
⏟
dx =
= 1
=√ 2 π σ 2
●
Erwartungswert
∞
⟨x⟩ =
x
∫
−∞ √ 2 π σ
2
e
−(x −μ )2
2 σ2
−( x−μ )2
2 σ2
∞
dx =
−( x −μ )2
2 σ2
∞
( x −μ )
1
e
dx + μ ⋅ ∫
e
dx
∫
−∞
2
π
σ
−∞
2
π
σ
√
√
⏟
⏟
2
2
= 0
●
= 1
Varianz
∞
V ( x ) = ⟨( x −μ )2 ⟩ =
●
= μ
∫
−∞
2
−( x−μ )2
2 σ2
2 n−1
−a x 2
( x−μ )
e
2
√ 2π σ
∞
dx =
1
2
⋅
x
'
e
2
√ 2 π σ −∞
∫
−x ' 2
2 σ2
dx = σ 2
verwendete bestimmte Integrale
∞
−a x 2
∫ e
−∞
dx =
Datenanalyse HS15
√
π
a
∞
∫
−∞
x
e
∞
dx = 0
Verteilungen (21)
2
x 2 e−a x dx =
∫
−∞
1
⋅ π
2a a
√
O. Steinkamp
“Errorfunction”
Kumulative Verteilungsfunktion der Gaußverteilung
●
unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar
●
●
berechne kumulative Verteilungsfunktion durch numerische Integration
Python: stats.norm.cdf (benötigt from scipy import stats)
1
P (x ) =
2
●
(
1 + erf
(
x −μ
√2 σ
))
mit
2
erf ( x ) = √ π ⋅
x
∫e
−x ' 2
dx '
0
häufig verwendete Werte
(nützlich zu merken)
●
P (|x - μ| ≤ 1σ)
= 68.27 % (≈ 2/3)
●
P (|x - μ| ≤ 2σ)
= 95.45 %
●
P (|x - μ| ≤ 3σ)
= 99.73 %
●
P (|x - μ| ≤ 1.645σ) = 90 %
●
P (|x - μ| ≤ 1.960σ) = 95 %
●
P (|x - μ| ≤ 2.576σ) = 99 %
Datenanalyse HS15
Verteilungen (22)
O. Steinkamp
Zusammenhang zwischen
Exponentialverteilung und Poissonverteilung
Zufallsvariable t folgt Exponentialverteilung mit Erwartungswert τ ↔
Anzahl Werte von t im Intervall ∆t folgt Poissonverteilung mit μ = t / 
●
●
Beispiel: radioaktives Präparat mit mittlerer Lebensdauer 
Annahme: die Anzahl k der Zerfälle in einem Zeitintervall t folgt einer
Poissonverteilung mit Erwartungswert  = t / :
(Δ t / τ )k −(Δ t / τ )
Δt
P (k ∣ τ , Δt ) = P (k ∣ τ ) =
e
k!
●
zur Zeit t = 0 habe ein Zerfall stattgefunden: Wahrscheinlichkeit p(t)dt, dass
der nächste Zerfall im Zeitintervall [ t,t+dt ] stattfindet = Wahrscheinlichkeit
für keinen Zerfall im Intervall [ 0,t ] und einen Zerfall im Intervall [ t,t+dt ]
t
dt
dt
p (t ) dt = P (0 ∣ τ ) × P (1 ∣ τ ) = e−t / τ × τ ⋅e−dt / τ
●
für dt → 0
e−dt / τ → 1
●
⇒
1
p (t ) dt → τ ⋅e−t / τ dt
⇔
1
p (t ) → τ ⋅e−t / τ
Zeitverteilung der Zerfälle folgt Exponentialverteilung mit Erwartungswert 
Datenanalyse HS15
Verteilungen (23)
O. Steinkamp
Weitere wichtige Verteilungen
Gleichverteilung
p(x) =
{
●
Erwartungswert:
●
Varianz:
1
(b−a)
0
f ü r a≤x ≤b
sonst
⟨ x ⟩ = (a + b ) / 2
V ( x ) = (b − a)2 / 12
Breit-Wigner Verteilung (Resonanz-Kurve)
1
Gaußverteilung
mit gleichem FWHM
Γ/2
p ( x ∣ M , Γ) = π ⋅
( x −M )2 +(Γ /2)2
●
Erwartungswert: ⟨ x ⟩ = M
●
Varianz nicht definiert ( ∫ x p ( x ) dx divergiert)
●
Full Width at Half Maximum: FWHM = 
2
Datenanalyse HS15
Verteilungen (24)
FWHM
O. Steinkamp
Python: from scipy import stats
Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung)
●
stats.expon.pdf
– Wahrscheinlichkeitsdichte
●
stats.expon.cdf
– kumulative Verteilungsfunktion
●
stats.expon.ppf
– inverse kumulative Verteilungsfunktion
Für diskrete Verteilungen (Beispiel Poissonverteilung)
●
stats.poisson.pmf
– Wahrscheinlichkeit
●
stats.poisson.cdf
– kumulative Verteilungsfunktion
●
stats.poisson.ppf
– inverse kumulative Verteilungsfunktion
Weitere wichtige Verteilungen
●
stats.binom.*
– Binomialverteilung
●
stats.norm.*
– Gaußverteilung (“normal distribution”)
●
stats.uniform.*
– Gleichverteilung (“uniform distribution”)
●
stats.cauchy.*
– Breit-Wigner Verteilung (“Cauchyverteilung”)
●
stats.chi2.*
– ²-Verteilung
Datenanalyse HS15
Verteilungen (25)
… und viele mehr, siehe
python Dokumentation
O. Steinkamp
Vorlesungsprogramm
●
●
●
●
●
●
●
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Kovarianz und Korrelation
Fehlerfortpflanzungsgesetz
Wahrscheinlichkeitsverteilungen I
- diskrete Verteilungen, kontinuierliche Verteilungen
- zentraler Grenzwertsatz
Monte-Carlo Methode
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
Interpretation von Messergebnissen
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse HS15
Verteilungen (26)
Beispielprogramme im
Verzeichnis
/disk/puma/da/vorl/vert
O. Steinkamp
Zentraler Grenzwertsatz
Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N)
●
z.B. x1 folgt einer Gleichverteilung, x2 folgt einer Gaussverteilung, usw.
●
die Zufallsverteilung für xi habe den Erwartungswert μi und die Varianz σi²
●
definiere eine neue Zufallsvariable
X ≡ ∑Ni=1 x i
●
●
für die Zufallsverteilung von X gilt:
sie hat den Erwartungswert
⟨ X ⟩ = ∑Ni =1 μ i
●
sie hat die Varianz
V (X ) =
●
sie strebt für N → ∞ einer Gaußverteilung entgegen
∑Ni =1 σ 2i
gilt für beliebige Zufallsverteilungen der xi
●
●
●
gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen
aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!!
Datenanalyse HS15
Verteilungen (27)
O. Steinkamp
Beweise zentraler Grenzwertsatz
●
Erwartungswert
⟨ X ⟩ = ⟨∑ x i ⟩ =
i
●
∑ ⟨ xi ⟩
=
i
∑ μi
i
Varianz
V ( X ) = ⟨ ( X − ⟨ X ⟩ )2 ⟩
2
⟨(
)⟩
= ∑ ( x −μ )
⟨(
)⟩
∑ x i − ∑ μi
=
i
i
2
i
=
i
i
( x i −μ i )2
∑
⟨
+
i
=
⟨ ( x i −μ i )2 ⟩
∑⏟
i
σ 2i
∑ ∑ ( x i −μ i )⋅( x j −μ j ) ⟩
i
+
j ≠i
⟨ ( x i −μ i )⋅( x j −μ j ) ⟩
∑∑⏟
i
j ≠i
cov (x i , x j )
xi und xj statistisch voneinander unabhängig  cov (xi,xj) = 0
Datenanalyse HS15
Verteilungen (28)
O. Steinkamp
Beispiel zentraler Grenzwertsatz
Summe von N voneinander unabhängigen Zufallsvariablen, jede
zwischen 0 und 1 gleichverteilt
nächste
●
gleichverteilte Zufallszahlen mit “Monte Carlo”-Methode erzeugt
●
------- Gaussverteilung mit μ = N/2 und σ = √N/12
Datenanalyse HS15
Verteilungen (29)
Woche
warum ?
O. Steinkamp
Gaußverteilte Messunsicherheiten
Abweichung einer Messung vom “wahren” Wert hat meist viele Beiträge
●
●
z.B. Rauschsignal in Messelektronik
●
viele Bauteile (Widerstände, Kondensatoren,…)
●
zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile
●
gesamtes Rauschsignal ist Summe aller dieser Beiträge
wenn diese Beiträge statistisch unabhängig voneinander sind:
zentraler Grenzwertsatz

Abweichungen der Messwerte vom wahren Wert folgen einer Gaußverteilung
●
gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind
●
●
z.B. bei gemeinsamen systematischen Unsicherheiten
gilt NICHT, wenn eine einzelne Fehlerquelle die Abweichungen dominiert
Annahme gaußverteilter Abweichungen ist eine (nicht immer gute) Näherung
Datenanalyse HS15
Verteilungen (30)
O. Steinkamp
Gaußverteilte Messunsicherheiten
Fehlerbalken geben ± 1 Standardabweichung um den Messwert an
●
●
für gaußverteilte Messabweichungen vom wahren Wert
s. Folie 22
●
sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen
●
sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten
erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind
unterschätzt
Datenanalyse HS15
Messunsicherheit
korrekt
Verteilungen (31)
überschätzt
O. Steinkamp
Herunterladen