Datenanalyse - physik.uzh.ch

Werbung
Datenanalyse
(PHY231)
Herbstsemester 2014
Olaf Steinkamp
Physik-Institut der Universität Zürich
Winterthurerstrasse 190
CH-8057 Zürich
[email protected]
Büro: 36-J-22
Tel.: 044-635.57.63
Vorlesungsprogramm
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
●
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Korrelation, Kovarianzmatrix
●
Fehlerfortpflanzungsgesetz
●
Wahrscheinlichkeitsverteilungen I
- Verteilungen einer Variablen
- zentraler Grenzwertsatz
●
Monte-Carlo Methode
●
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
●
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
●
Interpretation von Messergebnissen
Beispielprogramme im Verzeichnis
/disk/puma/da/vorl/vert
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse
Verteilungen (2/36)
PHY231 - HS 14
O.Steinkamp
Einfaches Beispiel: Kopf oder Zahl
Werfe eine Münze
●
gleiche Wahrscheinlichkeit für Ergebnis Kopf und Zahl:
P(K) = P(Z) = 1/2
Werfe gleichzeitig vier Münzen
●
Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16
●
Wahrscheinlichkeit P(k) für k × Kopf:
●
●
k=4: 1 Möglichkeit (KKKK)
⇒ P(4) = 1/16
●
k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK)
⇒ P(3) = 4/16
●
k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK)
⇒ P(2) = 6/16
●
k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK)
⇒ P(1) = 4/16
●
k=0: 1 Möglichkeit (ZZZZ)
⇒ P(0) = 1/16
Wahrscheinlichkeit dafür, dass “irgendetwas” passiert:
4
∑k=0 P(k) = 16 /16
P(k)  Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen k
Datenanalyse
PHY231 - HS 14
Verteilungen (3/36)
O.Steinkamp
Diskrete Wahrscheinlichkeitsverteilungen
Definitionen:
●
Wahrscheinlichkeit muss normiert sein
∑ P(k)
= 1
k
●
Erwartungswert der Zufallsvariablen k und einer Funktion f(k)
⟨k ⟩ =
∑ k⋅P(k)
k
●
Varianz der Zufallsvariablen k und einer Funktion f(k)
2
2
V(k) = ⟨k ⟩ − ⟨k⟩ =
2
2
(∑ k ⋅P(k)) − (∑ k⋅P(k))
k
●
k
genauso für eine Funktion f(k) der Zufallsvariablen
⟨ f(k)⟩ =
Datenanalyse
PHY231 - HS 14
∑ f(k)⋅P(k)
;
V( f) = ⟨ f2 ⟩ − ⟨ f⟩ 2
k
Verteilungen (4/36)
O.Steinkamp
Gesetz grosser Zahlen
Beispiel: werfe N × 4 Münzen
(Monte-Carlo Simulation)
k = 0
k = 1
k = 2
k = 3
k = 4
N = 16
erwarte
beobachte
1
1
4
7
6
2
4
5
1
1
N = 160
erwarte
beobachte
10
8
40
48
60
46
40
48
10
10
N = 1600
erwarte
beobachte
100
84
400
438
600
584
400
378
100
116
N = 16000
erwarte
beobachte
1000
1021
4000
4004
6000
5977
4000
3960
1000
1038
Datenanalyse
PHY231 - HS 14
Verteilungen (5/36)
O.Steinkamp
Einschub: Gesetz grosser Zahlen
Die relative Häufigkeit eines Zufallsergebnisses nähert sich der
theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an,
je häufiger das Zufallsexperiment durchgeführt wird.
Mittelwert und Erwartungswert:
●
●
●
Erwartungswert der Wahrscheinlichkeitsverteilung:
Mittelwert der gemessenen Häufigkeitsverteilung:
Gesetz grosser Zahlen:
k → ⟨k⟩
N→∞
●
⟨k⟩ = ∑k k ⋅P k 
k=
1
N
N
⋅∑i=1 ki
(N = Anzahl Wiederholungen)
Varianzen der Häufigkeitsverteilung und der Wahrscheinlichkeitsverteilung
k2 − k 2 →
N→∞
Datenanalyse
PHY231 - HS 14
⟨k2 ⟩ − ⟨k ⟩2
(N = Anzahl Wiederholungen)
Verteilungen (6/36)
O.Steinkamp
Binomialverteilung
Experiment mit zwei möglichen Ergebnissen
(Beispiel: Kopf oder Zahl)
●
konstante Wahrscheinlichkeit p für “positives” Ergebnis
●
konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis
warum ?
Führe das Experiment n-mal aus (“n Versuche”)
●
Wahrscheinlichkeit für insgesamt k “positive” Ergebnisse aus n Versuchen
P (k ∣ p ,n) =
●
()
p k (1−p)n −k
mit
n
k
()
=
n!
k ! (n−k)!
Normierung:
n
∑
P(k ∣ p ,n) =
k=0
●
n
k
n
∑(
k=0
n
k
)
k
n−k
p (1−p)
Erwartungswert:
●
n
= ( p+ (1−p) ) = 1 = 1

Varianz:
⟨k⟩ = n ⋅p
Datenanalyse
PHY231 - HS 14
n
Verteilungen (7/36)
V (k) = n ⋅p ⋅(1−p)
O.Steinkamp
Beweise: Erwartungswert und Varianz
der Binomialverteilung
Erwartungswert:
n
∑
⟨k ⟩ =
k⋅
k=0
n
= n ⋅p⋅ ∑
k=1
n!
k!(n−k )!
k
(n−1)!
(k−1)!(n−k)!
n'
(n ')!
= n ⋅p⋅ ∑
n−k
p (1−p)
p
k−1
n−k
(1−p)
∣
k ' = k−1
n ' = n−1
∣
k ' = k−2
n ' = n−2
pk ' (1−p)n'−k ' = n ⋅p
(k ')!(n '−k ')!
⏟
k '=0
= (p+(1−p))n ' = 1
Varianz:
n
n!
k
n−k
p (1−p)
∑ k⋅(k−1)⋅ k!(n−k)!
⟨k⋅(k−1)⟩ =
k=0
2
n'
= n⋅(n−1)⋅p ⋅ ∑
(n')!
k'
n '−k '
p (1−p)
(k ')!(n '−k ')!
⏟
k '=0
= (p+(1−p))n ' = 1
⇒
2
2
V (k) = ⟨k ⟩−⟨k ⟩ =
2
⟨k −k⟩
+ ⟨k ⟩ − ⟨k ⟩
2
= n ⋅(n−1)⋅p2 + n ⋅p − (n ⋅p)2 = n ⋅p⋅(1−p)
Datenanalyse
PHY231 - HS 14
Verteilungen (8/36)
O.Steinkamp
Beispiele Binomialverteilung
Datenanalyse
PHY231 - HS 14
Verteilungen (9/36)
O.Steinkamp
Beispiel Effizienz einer Funkenkammer
Messe Spuren geladener Elementarteilchen (z.B. kosmische Strahlung)
●
parallele Metallplatten in Gasvolumen, dazwischen
elektrische Spannung kurz unterhalb Durchbruchspannung
●
geladenes Teilchen ionisiert Gas und löst Funken aus
●
Annahmen für Rechenbeispiel:
●
●
95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird
●
benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen
Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern
3
P 3∣ 0.95 ,3 = 0.95 = 0.857
●
vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern
P 4 ∣ 0.95 , 4  P 3 ∣ 0.95 , 4 = 0.8150.171 = 0.986
●
fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern
P 5 ∣ 0.95 , 5  P 4 ∣ 0.95 , 5  P 3∣ 0.95 , 5 = 0.7740.2040.021 = 0.999
Datenanalyse
PHY231 - HS 14
Verteilungen (10/36)
O.Steinkamp
Poissonverteilung
Näherung der Binomialverteilung für sehr große Anzahl Versuche n
●
Erwartungswert: μ = n·p => p = μ/n
μ
P(k∣ , n) =
n
●
μ
k! (n−k)! n
k
μ
( ) (1− n )
n−k
=
n!
1
μk
⋅ k ⋅ ⋅ 1− μ
(n−k )! n
k!
n
(
)
n−k
für n → ∞:
(
●
n!
1−
μ
n
n−k
)
→ 1−
(
μ
n
n
)
→ e
−μ
und
n!
(n−k )!
→ n
k
⇒
P (k∣μ) =
μk
k!
⋅e −μ
benutze Poisson, wenn nur Erwartungswert μ bekannt ist, aber nicht n und p
●
Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle
●
Anzahl Studierende beim Mittagessen in der Mensa
●
Anzahl Druckfeller pro Folie einer Vorlesung
●
Anzahl Einträge in einem Histogramm
Datenanalyse
PHY231 - HS 14
Verteilungen (11/36)
Voraussetzungen:
n >> μ
p konstant
O.Steinkamp
●
Erwartungswert und Varianz
der Poissonverteilung
Erwartungswert
⟨k ⟩ = μ
vgl. Binomialverteilung:
⟨k ⟩ = n ⋅p

Varianz
V (k) = ⟨k 2 ⟩ − ⟨k⟩ 2 = μ
●
vgl. Binomialverteilung:
V (k) = n ⋅p ⋅(1−p)
n ≫ μ
Datenanalyse
PHY231 - HS 14
⇒
p ≪ 1 ⇒ (1−p) ≈ 1 ⇒ V (k) ≈ n ⋅p
Verteilungen (12/36)

O.Steinkamp
Beweise Poissonverteilung
●
Normierung
∞
∑
P(k∣μ) =
k=0
●
∑
k=0
μk
k!
e
= e
−μ
−μ
∞
∑
μk
k=0
k!
= e−μ e +μ = 1

Erwartungswert
∞
⟨k ⟩ = ∑ k ⋅
k=0
●
∞
μk
k!
e
−μ
=μe
−μ
∞
∑
k=1
μ k−1
(k −1)!
=μe
∞
−μ
∑
k '=0
μk'
(k ')!
= μ e −μ e +μ = μ

Varianz
∞
⟨k (k−1)⟩ = ∑ k (k−1)⋅
k=0
⇒
Datenanalyse
PHY231 - HS 14
μk
k!
e
−μ
2
=μ e
−μ
∞
∑
k=2
μ k−2
(k−2)!
= μ 2 e −μ e +μ = μ 2
⟨k 2 ⟩−⟨k⟩ 2 = ⟨k 2−k⟩ + ⟨K⟩−⟨k ⟩2 = μ 2 + μ − μ 2 = μ
Verteilungen (13/36)

O.Steinkamp
Beispiele Poissonverteilung
Poisson
Datenanalyse
PHY231 - HS 14
Binomial
Verteilungen (14/36)
Binomial
O.Steinkamp
Beispiel tödliche Pferdetritte
Klassiker, seit 1898 in vielen Statistik-Textbüchern:
●
●
beobachte über 20 Jahre 10 Regimenter der preussischen Kavalerie
●
registriere insgesamt 122 Todesfälle durch Pferdetritte
●
im Mittel 122 / (20·10) = 0.61 Todesfälle pro Regiment pro Jahr
aus Poissonverteilung mit Erwartungswert μ = 0.61
N(k) = 200 × P(k) = 200 ×
●
●
0.61k
k!
⋅e−0.61
beobachtete Häufigkeitsverteilung pro Regiment pro Jahr:
k
0
1
2
3
4
≥5
Poisson (μ=0.6)
108.7
66.3
20.2
4.1
0.63
0.07
beobachtet
109
65
22
3
1
0
Varianz der beobachteten Verteilung (Poisson: V(k) = μ)
2
2
V (k) = k − k =
Datenanalyse
PHY231 - HS 14
1
200
4
⋅ ∑ k 2⋅N(k) − 0.612 = 0.608
k=1
Verteilungen (15/36)

O.Steinkamp
Überlagerung zweier Poissonverteilungen
Beispiel: radioaktive Quelle mit zwei instabilen Isotopen A und B
●
●
erwarte im Mittel μA Zerfälle des Isotops A und μB Zerfälle des Isotops B
●
Anzahl Zerfälle kA des Isotops A poissonverteilt mit Erwartungswert μA
●
Anzahl Zerfälle kB des Isotops B poissonverteilt mit Erwartungswert μB
Wahrscheinlichkeitsverteilung für die gesamte Anzahl Zerfälle k = kA + kB
P (k) =
k
∑
kA=0
k
=
∑
P(k A ∣μ A ) ⋅ P((k−k A)∣μ B )
kA
(μ A )
kA !
kA=0
k
=
{
e
−μ A
k−kA
⋅
(μ B )
(k−k A )!
k!
e
−μ B
kA
μA
( kB = k - kA )
k−k A
μB
}
∑ k ! (k−k )! ⋅( μ + μ ) ⋅( μ + μ ) ⋅
k =0
⏟
μ
μ
=
+
(μ + μ μ + μ ) = 1
A
A
A
A
A
A
B
A
B
k!
⋅e
−(μ A + μ B )
k
B
B
A
(μ A + μ B )k
B
⇒ k = kA + kB poissonverteilt mit Erwartungswert μ = μA + μB
Datenanalyse
PHY231 - HS 14
Verteilungen (16/36)
O.Steinkamp
Kontinuierliche Wahrscheinlichkeitsverteilungen
Kontinuierliche Zufallsvariable x => Wahrscheinlichkeitsdichte p(x)
p(x) =
●
Wahrscheinlichkeit f ü r Wert zwischen x und x+dx
dx
Wahrscheinlichkeit für einen Wert x zwischen x1 und x2:
P (x 1 ≤ x ≤ x 2) =
●
f ür dx → 0
Normierung:
x2
∫ p( x) dx
x1
∞
P (−∞ ≤ x ≤ ∞) =
∫
p (x) dx = 1
−∞
●
Erwartungswert der Zufallsvariablen x und einer Funktion f(x):
⟨x⟩ =
∞
∫
x ⋅ p(x) dx
∞
⟨f(x)⟩ =
−∞
●
∫
f(x)⋅ p(x) dx
−∞
Varianz der Zufallsvariablen x und einer Funktion f(x):
V (x) = ⟨ x 2 ⟩ − ⟨ x ⟩ 2
Datenanalyse
PHY231 - HS 14
V( f) = ⟨ f2 (x)⟩ − ⟨ f(x)⟩ 2
Verteilungen (17/36)
O.Steinkamp
Kumulative Verteilungsfunktion
Integral über die Wahrscheinlichkeitsdichte
P (x 0 ) =
x0
p (x) dx
∫
−∞
●
P(x0) gibt die Wahrscheinlichkeit an, dass x einen Wert < x 0 annimmt
●
Wahrscheinlichkeit, dass x einen Wert zwischen x 1 und x2 annimmt:
P( x 1 < x ≤ x 2 ) =
●
x=x2
∫
p(x) dx
⇔
x=x1
P(x 1 < x ≤ x 2 ) = P(x 2 ) − P(x 1 )
Beispiel Exponentialverteilung
P  x2 
P x1  x ≤ x 2 
Datenanalyse
PHY231 - HS 14
P  x1 
Verteilungen (18/36)
O.Steinkamp
Exponentialverteilung
Wahrscheinlichkeitsdichte
p (x ∣ λ ) = λ ⋅e−λ⋅x
●
Erwartungswert
⟨x⟩ =
∞
∫
0
●
für x ≥ 0
1
x ⋅ λ ⋅e−λ⋅x dx = λ
Varianz
V (x) =
∞
∫
0
1 2
1
−λ⋅x
(x− λ ) ⋅λ ⋅e
dx = 2
λ
Kumulative Verteilungsfunktion
P x =
x
∫  ⋅e−⋅x ' dx '
= 1−e
−⋅x
0
Datenanalyse
PHY231 - HS 14
Verteilungen (19/36)
O.Steinkamp
Gaußverteilung
Wahrscheinlichkeitsdichte:
p x ∣  ,  =
●
−
1
2  
2
⋅e
 x− 2
2 2
Erwartungswert:
σ
∞
⟨x⟩ =
∫
x ⋅ p x ∣  ,   dx = 
FWHM
−∞
●
Varianz:
∞
V  x =
∫  x− 2 ⋅p x ∣  ,  dx
= 2
−∞
Full Width at Half Maximum (FWHM):
●
p(x) bei x = μ ± √ 2 ln 2⋅σ auf Hälfte des Wertes im Maximum abgefallen
⇒
Datenanalyse
PHY231 - HS 14
FWHM = 2  2 ln 2⋅ ≈ 2.355 
Verteilungen (20/36)
O.Steinkamp
Beweise Gaußverteilung
Normierung
∞
∫
−∞
−x−2
1
 2 
2
e
2 2
1
dx =
−x'2
∞
 2 
⋅∫ e
2
2 2
dx ' =
−∞
1
 2 

2
⋅
2


= 1
2
Erwartungswert
∞
⟨x ⟩ =
∫
−∞
−x−  2
x
 2 
2
e
22
−x− 2
∞
dx =
∞
22
x− 
−x−2
1
22
dx   ⋅ ∫
e
dx
∫ 2  e
 2 
−∞ 
−∞


2
2
=0
= 
=1
Varianz
∞
2
V x = ⟨ x−  ⟩ =
∫
−∞
x− 2
2  
2
−x− 2
e
22
dx =
1
 2 
−x '2
∞
2
⋅∫ x ' e
2
22
dx =  2
−∞
Dabei verwendete bestimmte Integrale
∞
−a x2
∫ e
dx =
−∞
Datenanalyse
PHY231 - HS 14


a
∞
∫ x
2n−1
−a x
e
2
dx = 0
−∞
Verteilungen (21/36)
∞
2
−a x 2
∫ x e
−∞
dx =
1
2a

⋅

a
O.Steinkamp
“Errorfunction”
Kumulative Verteilungsfunktion der Gaußverteilung
●
unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar
●
●
berechne kumulative Verteilungsfunktion durch numerische Integration
Python: stats.norm.cdf
P (x) =
●
1
2
(
1 + erf
(benötigt from scipy import stats)
x−μ
(√ ) )
2σ
mit
erf(x) =
2
√π
x
−x '2
⋅∫ e
dx '
0
wichtige Werte zum merken:
P (|x - μ| ≤ 1σ)
= 68.27 % (≈ 2/3)
P (|x - μ| ≤ 2σ)
= 95.45 %
P (|x - μ| ≤ 3σ)
= 99.73 %
P (|x - μ| ≤ 1.645σ) = 90 %
P (|x - μ| ≤ 1.960σ) = 95 %
P (|x - μ| ≤ 2.576σ) = 99 %
Datenanalyse
PHY231 - HS 14
Verteilungen (22/36)
O.Steinkamp
“Errorfunction”
Kumulative Verteilungsfunktion der Gaußverteilung
●
unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar
●
berechne kumulative Verteilungsfunktion durch numerische Integration
P (x) =
1
2
x−μ
( 1 + erf ( √ ) )
2σ
●
Python: stats.norm.cdf
●
wichtige Werte zum merken:
P (μ-σ ≤ x ≤ μ+σ)
mit
erf(x) =
2
√π
x
−x '
⋅∫ e
2
dx '
0
(benötigt from scipy import stats)
= 68.27 % (≈ 2/3)
P (μ-2σ ≤ x ≤ μ+2σ) = 95.45 %
P (μ-3σ ≤ x ≤ μ+3σ) = 99.73 %
P (μ-1.645σ ≤ x ≤ μ+1.645σ)
= 90 %
P (μ-1.960σ ≤ x ≤ μ+1.960σ)
= 95 %
P (μ-2.576σ ≤ x ≤ μ+2.576σ)
= 99 %
Datenanalyse
PHY231 - HS 14
Verteilungen (23/36)
O.Steinkamp
Exponential- und Poissonverteilung
Variable t exponentialverteilt  Anzahl Ereignisse in ∆t Poissonverteilt
●
Beipiel: radioaktives Präparat mit mittlerer Lebensdauer 
1
●
−t / τ
Zerfallszeiten sind exponentialverteilt: p( t) → τ ⋅e
●
Anzahl Zerfälle in Zeitintervall t poissonverteilt mit Erwartungswert ·t:
Δt
(Δ t / τ)k −(Δ t / τ )
P(k ∣ τ , Δ t) = P(k ∣ τ ) =
e
k!
●
Beweis (“rückwärts”):
●
Wahrscheinlichkeit p(t) dt für genau einen Zerfall im Intervall [t,t+dt]
= kein Zerfall im Intervall [0,t] und ein Zerfall im Intervall [t,t+dt]
●
Annahme: Anzahl Ereignisse in t poissonverteilt mit Erwartungswert ·t
t
dt
dt
p( t) dt = P( 0 ∣ τ ) × P(1∣ τ ) = e−t / τ × τ ⋅e−dt / τ
●
für dt → 0
e−dt / τ → 1
Datenanalyse
PHY231 - HS 14
⇒
1
p( t) dt → τ ⋅e−t/ τ dt
Verteilungen (24/36)
⇒
1
p( t) → τ ⋅e−t / τ
O.Steinkamp
Ausflug II: Totzeit eines Detektors
Nach Nachweis eines Ereignisses ist ein Detektor für Zeitspanne ∆t
nicht in der Lage, weitere Ereignisse nachzuweisen (Detektor “tot”)
●
Δt bestimmt z.B. durch Signalerzeugung im Detektor, Ausleseelektronik
●
Ereignisse während der Totzeit werden nicht nachgewiesen und
●
entweder: erzeugen selbst keine Totzeit (“nicht paralysierbare Totzeit”)
●
oder: erzeugen trotzdem auch wieder Totzeit (“paralysierbare Totzeit”)
Beispiel (Simulation):
∆t
●
Totzeit, nicht paralysierbar
●
Ereignisse
●
Totzeit, paralysierbar
∆t
Datenanalyse
PHY231 - HS 14
Verteilungen (25/36)
O.Steinkamp
Ausflug II: Totzeit eines Detektors
Nicht paralysierbare Totzeit
●
●
messe N Ereignisse in Messzeit t
gemessene Ereignisrate:
R = N / t
Paralysierbare Totzeit
●
tatsächliche Ereignisrate sei r
●
ein Ereignis wird nur nachgewiesen,
wenn im Zeitintervall ∆t vorher kein
●
N Ereignisse erzeugen Totzeit N·Δt
●
effektive Messzeit
anderes Ereignis stattgefunden hat
●
Wahrscheinlichkeit dafür:
t eff = t − N⋅ t = t ⋅1−R ⋅ t
●
tatsächliche Ereignisrate r:
P 0 ∣ r⋅ t = e−r⋅ t
●
r = N / t eff
●
⇔
●
R = r ⋅e
R ⋅t = r ⋅t eff ⇒ R = r ⋅1 − R ⋅  t
R =
für r → ∞
Datenanalyse
PHY231 - HS 14
r
1  r ⋅ t
gemessene Ereignisrate:
●
−r⋅ t
für r → ∞
R  0
R  1/ t
Verteilungen (26/36)
O.Steinkamp
Ausflug II: Totzeit eines Detektors
Gemessene Ereignisrate als Funktion der tatsächlichen Ereignisrate
●
Symbole: beim SINDRUM-II Experiment am PSI gemessen
●
Kurven: nach obigen Formeln berechnet (mit Totzeit ∆t = 1 ms)
keine Totzeit
nicht paralysierbare Totzeit
paralysierbare Totzeit
R → 1/∆t
R→0
Datenanalyse
PHY231 - HS 14
Verteilungen (27/36)
O.Steinkamp
Weitere wichtige Verteilungen
Gleichverteilung
p  x =
{
1
b−a 
●
Erwartungswert:
●
Varianz:
0
f ü r a≤x≤b
sonst
⟨ x ⟩ = a  b / 2
V x = b − a2 / 12
Breit-Wigner Verteilung (Resonanz-Kurve)
px ∣M,  =
mit gleichem FWHM
1
 /2
⋅
  x−M2  /22
●
Erwartungswert: ⟨ x ⟩ = M
●
Varianz nicht definiert (∫ x p(x) dx divergiert)
●
Full Width at Half Maximum: FWHM = 
2
Datenanalyse
PHY231 - HS 14
Gaußverteilung
Verteilungen (28/36)
FWHM
O.Steinkamp
Python: from scipy import stats
Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung):
●
stats.expon.pdf
- Wahrscheinlichkeitsdichte
●
stats.expon.cdf
- kumulative Verteilungsfunktion
●
stats.expon.ppf
- inverse kumulative Verteilungsfunktion
Für diskrete Verteilungen (Beispiel Poissonverteilung):
●
stats.poisson.pmf - Wahrscheinlichkeit
●
stats.poisson.cdf / stats.poisson.ppf
Weitere wichtige Verteilungen
●
stats.binom.*
- Binomialverteilung
●
stats.norm.*
- Gaußverteilung (“normal distribution”)
●
stats.uniform.*
- Gleichverteilung (“uniform distribution”)
●
stats.cauchy.*
- Breit-Wigner Verteilung (“Cauchyverteilung”)
●
stats.chi2.*
- ²-Verteilung
… und viele mehr: siehe docs.scipy.org/doc/scipy/reference/stats.html
Datenanalyse
Verteilungen (29/36)
O.Steinkamp
PHY231 - HS 14
Vorlesungsprogramm
●
Einführung, Messunsicherheiten, Darstellung von Messdaten
●
Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
- Mittelwert, Standardabweichung, Korrelation, Kovarianzmatrix
●
Fehlerfortpflanzungsgesetz
●
Wahrscheinlichkeitsverteilungen I
- Verteilungen einer Variablen
- zentraler Grenzwertsatz
●
Monte-Carlo Methode
●
Wahrscheinlichkeitsverteilungen II
- Faltung zweier Verteilungen
- Verteilungen zweier Variablen
●
Stichproben und Schätzfunktionen
- Maximum-Likelihood Methode
- Methode der kleinsten Quadrate
●
Interpretation von Messergebnissen
Beispielprogramme im Verzeichnis
/disk/puma/da/vorl/vert
- Konfidenzintervalle, Testen von Hypothesen
Datenanalyse
Verteilungen (30/36)
PHY231 - HS 14
O.Steinkamp
Zentraler Grenzwertsatz
Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N)
●
Zufallsverteilung für xi habe Erwartungswert μ i und Varianz σ i²
●
definiere neue Zufallsvariable X ≡ ∑Ni=1 x i
●
Zufallsverteilung für X:
●
●
●
●
hat die Varianz V  X =
∑Ni=1  2i
strebt für N → ∞ einer Gaußverteilung entgegen
gilt für beliebige Zufallsverteilungen der xi
●
●
hat den Erwartungswert ⟨ X ⟩ = ∑Ni=1  i
gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen
aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!!
Datenanalyse
PHY231 - HS 14
Verteilungen (31/36)
O.Steinkamp
Beweise zentraler Grenzwertsatz
Erwartungswert
⟨ X ⟩ = ⟨ ∑ xi⟩ =
∑ ⟨ xi ⟩
i
=
i
∑ i
i
Varianz
V  X =
2
⟨  X − ⟨X⟩  ⟩
2
⟨ ∑x −∑  ⟩
=
⟨  ∑  x −   ⟩
=
i
i
i
i
2
i
=
i
i
 x i− i 2
∑
⟨
⟩

∑
⟨ xi− i 2 ⟩

i
=
i
2
⟨ ∑ ∑  x − ⋅x −  ⟩
i
j≠i
i
i
j
j
∑∑
⟨  x i− i ⋅x j− j ⟩
i
j≠i
i
cov  x i , x j
xi, xj statistisch voneinander unabhängig ⇒ cov (xi,xj) = 0
Datenanalyse
PHY231 - HS 14
Verteilungen (32/36)
O.Steinkamp
Beispiel zentraler Grenzwertsatz
Summe von N Zufallsvariablen, jede zwischen 0 und 1 gleichverteilt
---- Gaussverteilung mit μ = N/2 und σ =
√N/12
warum ?
Datenanalyse
PHY231 - HS 14
Verteilungen (33/36)
gleichverteilte Zufallszahlen mit
“Monte Carlo”-Methode erzeugt
O.Steinkamp
Anwendungen zentraler Grenzwertsatz
Gaußverteilung als Näherung der Poissonverteilung
●
großer Erwartungswert : Poissonverteilung nähert sich Gaußverteilung
mit Erwartungswert μ =  und Standardabweichung σ =
●
√
Näherung in der Praxis meist gut genug für  > 5~10
Gaußverteilung als Näherung der Binomialverteilung
●
große Anzahl Versuche n: Binomialverteilung nähert sich Gaußverteilung
mit Erwartungswert μ = n·p und Standardabweichung σ =
●
√n·p·(1-p)
Näherung am schnellsten für p ≈ 0.5 (symmetrische Verteilung)
Datenanalyse
PHY231 - HS 14
Verteilungen (34/36)
O.Steinkamp
Gaußverteilte Messfehler
Unsicherheit auf einer Messung hat meistens viele Beiträge
●
●
z.B. Rauschsignal in Messelektronik
●
viele Bauteile (Widerstände, Kondensatoren,…)
●
zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile
●
gesamtes Rauschsignal ist Summe aller dieser Beiträge
wenn diese Beiträge statistisch unabhängig voneinander sind:
zentraler Grenzwertsatz

Abweichungen der Messwerte vom wahren Wert Gaußverteilt
●
aber AUFGEPASST !!!!!
●
gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind
●
gilt NICHT, wenn Messunsicherheit durch einen Einzelbeitrag dominiert ist
Datenanalyse
PHY231 - HS 14
Verteilungen (35/36)
O.Steinkamp
Gaußverteilte Messfehler
Fehlerbalken geben ± 1 Standardabweichung um den Messwert an
●
●
für gaußverteilte Messunsicherheiten
●
sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen
●
sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten
erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind
Unsicherheiten
unterschätzt
Datenanalyse
PHY231 - HS 14
Unsicherheiten
korrekt
Verteilungen (36/36)
Unsicherheiten
überschätzt
O.Steinkamp
Herunterladen