Datenanalyse (PHY231) Herbstsemester 2014 Olaf Steinkamp Physik-Institut der Universität Zürich Winterthurerstrasse 190 CH-8057 Zürich [email protected] Büro: 36-J-22 Tel.: 044-635.57.63 Vorlesungsprogramm ● Einführung, Messunsicherheiten, Darstellung von Messdaten ● Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Korrelation, Kovarianzmatrix ● Fehlerfortpflanzungsgesetz ● Wahrscheinlichkeitsverteilungen I - Verteilungen einer Variablen - zentraler Grenzwertsatz ● Monte-Carlo Methode ● Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen ● Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate ● Interpretation von Messergebnissen Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert - Konfidenzintervalle, Testen von Hypothesen Datenanalyse Verteilungen (2/36) PHY231 - HS 14 O.Steinkamp Einfaches Beispiel: Kopf oder Zahl Werfe eine Münze ● gleiche Wahrscheinlichkeit für Ergebnis Kopf und Zahl: P(K) = P(Z) = 1/2 Werfe gleichzeitig vier Münzen ● Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16 ● Wahrscheinlichkeit P(k) für k × Kopf: ● ● k=4: 1 Möglichkeit (KKKK) ⇒ P(4) = 1/16 ● k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK) ⇒ P(3) = 4/16 ● k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK) ⇒ P(2) = 6/16 ● k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK) ⇒ P(1) = 4/16 ● k=0: 1 Möglichkeit (ZZZZ) ⇒ P(0) = 1/16 Wahrscheinlichkeit dafür, dass “irgendetwas” passiert: 4 ∑k=0 P(k) = 16 /16 P(k) Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen k Datenanalyse PHY231 - HS 14 Verteilungen (3/36) O.Steinkamp Diskrete Wahrscheinlichkeitsverteilungen Definitionen: ● Wahrscheinlichkeit muss normiert sein ∑ P(k) = 1 k ● Erwartungswert der Zufallsvariablen k und einer Funktion f(k) 〈k 〉 = ∑ k⋅P(k) k ● Varianz der Zufallsvariablen k und einer Funktion f(k) 2 2 V(k) = 〈k 〉 − 〈k〉 = 2 2 (∑ k ⋅P(k)) − (∑ k⋅P(k)) k ● k genauso für eine Funktion f(k) der Zufallsvariablen 〈 f(k)〉 = Datenanalyse PHY231 - HS 14 ∑ f(k)⋅P(k) ; V( f) = 〈 f2 〉 − 〈 f〉 2 k Verteilungen (4/36) O.Steinkamp Gesetz grosser Zahlen Beispiel: werfe N × 4 Münzen (Monte-Carlo Simulation) k = 0 k = 1 k = 2 k = 3 k = 4 N = 16 erwarte beobachte 1 1 4 7 6 2 4 5 1 1 N = 160 erwarte beobachte 10 8 40 48 60 46 40 48 10 10 N = 1600 erwarte beobachte 100 84 400 438 600 584 400 378 100 116 N = 16000 erwarte beobachte 1000 1021 4000 4004 6000 5977 4000 3960 1000 1038 Datenanalyse PHY231 - HS 14 Verteilungen (5/36) O.Steinkamp Einschub: Gesetz grosser Zahlen Die relative Häufigkeit eines Zufallsergebnisses nähert sich der theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an, je häufiger das Zufallsexperiment durchgeführt wird. Mittelwert und Erwartungswert: ● ● ● Erwartungswert der Wahrscheinlichkeitsverteilung: Mittelwert der gemessenen Häufigkeitsverteilung: Gesetz grosser Zahlen: k → 〈k〉 N→∞ ● 〈k〉 = ∑k k ⋅P k k= 1 N N ⋅∑i=1 ki (N = Anzahl Wiederholungen) Varianzen der Häufigkeitsverteilung und der Wahrscheinlichkeitsverteilung k2 − k 2 → N→∞ Datenanalyse PHY231 - HS 14 〈k2 〉 − 〈k 〉2 (N = Anzahl Wiederholungen) Verteilungen (6/36) O.Steinkamp Binomialverteilung Experiment mit zwei möglichen Ergebnissen (Beispiel: Kopf oder Zahl) ● konstante Wahrscheinlichkeit p für “positives” Ergebnis ● konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis warum ? Führe das Experiment n-mal aus (“n Versuche”) ● Wahrscheinlichkeit für insgesamt k “positive” Ergebnisse aus n Versuchen P (k ∣ p ,n) = ● () p k (1−p)n −k mit n k () = n! k ! (n−k)! Normierung: n ∑ P(k ∣ p ,n) = k=0 ● n k n ∑( k=0 n k ) k n−k p (1−p) Erwartungswert: ● n = ( p+ (1−p) ) = 1 = 1 Varianz: 〈k〉 = n ⋅p Datenanalyse PHY231 - HS 14 n Verteilungen (7/36) V (k) = n ⋅p ⋅(1−p) O.Steinkamp Beweise: Erwartungswert und Varianz der Binomialverteilung Erwartungswert: n ∑ 〈k 〉 = k⋅ k=0 n = n ⋅p⋅ ∑ k=1 n! k!(n−k )! k (n−1)! (k−1)!(n−k)! n' (n ')! = n ⋅p⋅ ∑ n−k p (1−p) p k−1 n−k (1−p) ∣ k ' = k−1 n ' = n−1 ∣ k ' = k−2 n ' = n−2 pk ' (1−p)n'−k ' = n ⋅p (k ')!(n '−k ')! ⏟ k '=0 = (p+(1−p))n ' = 1 Varianz: n n! k n−k p (1−p) ∑ k⋅(k−1)⋅ k!(n−k)! 〈k⋅(k−1)〉 = k=0 2 n' = n⋅(n−1)⋅p ⋅ ∑ (n')! k' n '−k ' p (1−p) (k ')!(n '−k ')! ⏟ k '=0 = (p+(1−p))n ' = 1 ⇒ 2 2 V (k) = 〈k 〉−〈k 〉 = 2 〈k −k〉 + 〈k 〉 − 〈k 〉 2 = n ⋅(n−1)⋅p2 + n ⋅p − (n ⋅p)2 = n ⋅p⋅(1−p) Datenanalyse PHY231 - HS 14 Verteilungen (8/36) O.Steinkamp Beispiele Binomialverteilung Datenanalyse PHY231 - HS 14 Verteilungen (9/36) O.Steinkamp Beispiel Effizienz einer Funkenkammer Messe Spuren geladener Elementarteilchen (z.B. kosmische Strahlung) ● parallele Metallplatten in Gasvolumen, dazwischen elektrische Spannung kurz unterhalb Durchbruchspannung ● geladenes Teilchen ionisiert Gas und löst Funken aus ● Annahmen für Rechenbeispiel: ● ● 95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird ● benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern 3 P 3∣ 0.95 ,3 = 0.95 = 0.857 ● vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern P 4 ∣ 0.95 , 4 P 3 ∣ 0.95 , 4 = 0.8150.171 = 0.986 ● fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern P 5 ∣ 0.95 , 5 P 4 ∣ 0.95 , 5 P 3∣ 0.95 , 5 = 0.7740.2040.021 = 0.999 Datenanalyse PHY231 - HS 14 Verteilungen (10/36) O.Steinkamp Poissonverteilung Näherung der Binomialverteilung für sehr große Anzahl Versuche n ● Erwartungswert: μ = n·p => p = μ/n μ P(k∣ , n) = n ● μ k! (n−k)! n k μ ( ) (1− n ) n−k = n! 1 μk ⋅ k ⋅ ⋅ 1− μ (n−k )! n k! n ( ) n−k für n → ∞: ( ● n! 1− μ n n−k ) → 1− ( μ n n ) → e −μ und n! (n−k )! → n k ⇒ P (k∣μ) = μk k! ⋅e −μ benutze Poisson, wenn nur Erwartungswert μ bekannt ist, aber nicht n und p ● Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle ● Anzahl Studierende beim Mittagessen in der Mensa ● Anzahl Druckfeller pro Folie einer Vorlesung ● Anzahl Einträge in einem Histogramm Datenanalyse PHY231 - HS 14 Verteilungen (11/36) Voraussetzungen: n >> μ p konstant O.Steinkamp ● Erwartungswert und Varianz der Poissonverteilung Erwartungswert 〈k 〉 = μ vgl. Binomialverteilung: 〈k 〉 = n ⋅p Varianz V (k) = 〈k 2 〉 − 〈k〉 2 = μ ● vgl. Binomialverteilung: V (k) = n ⋅p ⋅(1−p) n ≫ μ Datenanalyse PHY231 - HS 14 ⇒ p ≪ 1 ⇒ (1−p) ≈ 1 ⇒ V (k) ≈ n ⋅p Verteilungen (12/36) O.Steinkamp Beweise Poissonverteilung ● Normierung ∞ ∑ P(k∣μ) = k=0 ● ∑ k=0 μk k! e = e −μ −μ ∞ ∑ μk k=0 k! = e−μ e +μ = 1 Erwartungswert ∞ 〈k 〉 = ∑ k ⋅ k=0 ● ∞ μk k! e −μ =μe −μ ∞ ∑ k=1 μ k−1 (k −1)! =μe ∞ −μ ∑ k '=0 μk' (k ')! = μ e −μ e +μ = μ Varianz ∞ 〈k (k−1)〉 = ∑ k (k−1)⋅ k=0 ⇒ Datenanalyse PHY231 - HS 14 μk k! e −μ 2 =μ e −μ ∞ ∑ k=2 μ k−2 (k−2)! = μ 2 e −μ e +μ = μ 2 〈k 2 〉−〈k〉 2 = 〈k 2−k〉 + 〈K〉−〈k 〉2 = μ 2 + μ − μ 2 = μ Verteilungen (13/36) O.Steinkamp Beispiele Poissonverteilung Poisson Datenanalyse PHY231 - HS 14 Binomial Verteilungen (14/36) Binomial O.Steinkamp Beispiel tödliche Pferdetritte Klassiker, seit 1898 in vielen Statistik-Textbüchern: ● ● beobachte über 20 Jahre 10 Regimenter der preussischen Kavalerie ● registriere insgesamt 122 Todesfälle durch Pferdetritte ● im Mittel 122 / (20·10) = 0.61 Todesfälle pro Regiment pro Jahr aus Poissonverteilung mit Erwartungswert μ = 0.61 N(k) = 200 × P(k) = 200 × ● ● 0.61k k! ⋅e−0.61 beobachtete Häufigkeitsverteilung pro Regiment pro Jahr: k 0 1 2 3 4 ≥5 Poisson (μ=0.6) 108.7 66.3 20.2 4.1 0.63 0.07 beobachtet 109 65 22 3 1 0 Varianz der beobachteten Verteilung (Poisson: V(k) = μ) 2 2 V (k) = k − k = Datenanalyse PHY231 - HS 14 1 200 4 ⋅ ∑ k 2⋅N(k) − 0.612 = 0.608 k=1 Verteilungen (15/36) O.Steinkamp Überlagerung zweier Poissonverteilungen Beispiel: radioaktive Quelle mit zwei instabilen Isotopen A und B ● ● erwarte im Mittel μA Zerfälle des Isotops A und μB Zerfälle des Isotops B ● Anzahl Zerfälle kA des Isotops A poissonverteilt mit Erwartungswert μA ● Anzahl Zerfälle kB des Isotops B poissonverteilt mit Erwartungswert μB Wahrscheinlichkeitsverteilung für die gesamte Anzahl Zerfälle k = kA + kB P (k) = k ∑ kA=0 k = ∑ P(k A ∣μ A ) ⋅ P((k−k A)∣μ B ) kA (μ A ) kA ! kA=0 k = { e −μ A k−kA ⋅ (μ B ) (k−k A )! k! e −μ B kA μA ( kB = k - kA ) k−k A μB } ∑ k ! (k−k )! ⋅( μ + μ ) ⋅( μ + μ ) ⋅ k =0 ⏟ μ μ = + (μ + μ μ + μ ) = 1 A A A A A A B A B k! ⋅e −(μ A + μ B ) k B B A (μ A + μ B )k B ⇒ k = kA + kB poissonverteilt mit Erwartungswert μ = μA + μB Datenanalyse PHY231 - HS 14 Verteilungen (16/36) O.Steinkamp Kontinuierliche Wahrscheinlichkeitsverteilungen Kontinuierliche Zufallsvariable x => Wahrscheinlichkeitsdichte p(x) p(x) = ● Wahrscheinlichkeit f ü r Wert zwischen x und x+dx dx Wahrscheinlichkeit für einen Wert x zwischen x1 und x2: P (x 1 ≤ x ≤ x 2) = ● f ür dx → 0 Normierung: x2 ∫ p( x) dx x1 ∞ P (−∞ ≤ x ≤ ∞) = ∫ p (x) dx = 1 −∞ ● Erwartungswert der Zufallsvariablen x und einer Funktion f(x): 〈x〉 = ∞ ∫ x ⋅ p(x) dx ∞ 〈f(x)〉 = −∞ ● ∫ f(x)⋅ p(x) dx −∞ Varianz der Zufallsvariablen x und einer Funktion f(x): V (x) = 〈 x 2 〉 − 〈 x 〉 2 Datenanalyse PHY231 - HS 14 V( f) = 〈 f2 (x)〉 − 〈 f(x)〉 2 Verteilungen (17/36) O.Steinkamp Kumulative Verteilungsfunktion Integral über die Wahrscheinlichkeitsdichte P (x 0 ) = x0 p (x) dx ∫ −∞ ● P(x0) gibt die Wahrscheinlichkeit an, dass x einen Wert < x 0 annimmt ● Wahrscheinlichkeit, dass x einen Wert zwischen x 1 und x2 annimmt: P( x 1 < x ≤ x 2 ) = ● x=x2 ∫ p(x) dx ⇔ x=x1 P(x 1 < x ≤ x 2 ) = P(x 2 ) − P(x 1 ) Beispiel Exponentialverteilung P x2 P x1 x ≤ x 2 Datenanalyse PHY231 - HS 14 P x1 Verteilungen (18/36) O.Steinkamp Exponentialverteilung Wahrscheinlichkeitsdichte p (x ∣ λ ) = λ ⋅e−λ⋅x ● Erwartungswert 〈x〉 = ∞ ∫ 0 ● für x ≥ 0 1 x ⋅ λ ⋅e−λ⋅x dx = λ Varianz V (x) = ∞ ∫ 0 1 2 1 −λ⋅x (x− λ ) ⋅λ ⋅e dx = 2 λ Kumulative Verteilungsfunktion P x = x ∫ ⋅e−⋅x ' dx ' = 1−e −⋅x 0 Datenanalyse PHY231 - HS 14 Verteilungen (19/36) O.Steinkamp Gaußverteilung Wahrscheinlichkeitsdichte: p x ∣ , = ● − 1 2 2 ⋅e x− 2 2 2 Erwartungswert: σ ∞ 〈x〉 = ∫ x ⋅ p x ∣ , dx = FWHM −∞ ● Varianz: ∞ V x = ∫ x− 2 ⋅p x ∣ , dx = 2 −∞ Full Width at Half Maximum (FWHM): ● p(x) bei x = μ ± √ 2 ln 2⋅σ auf Hälfte des Wertes im Maximum abgefallen ⇒ Datenanalyse PHY231 - HS 14 FWHM = 2 2 ln 2⋅ ≈ 2.355 Verteilungen (20/36) O.Steinkamp Beweise Gaußverteilung Normierung ∞ ∫ −∞ −x−2 1 2 2 e 2 2 1 dx = −x'2 ∞ 2 ⋅∫ e 2 2 2 dx ' = −∞ 1 2 2 ⋅ 2 = 1 2 Erwartungswert ∞ 〈x 〉 = ∫ −∞ −x− 2 x 2 2 e 22 −x− 2 ∞ dx = ∞ 22 x− −x−2 1 22 dx ⋅ ∫ e dx ∫ 2 e 2 −∞ −∞ 2 2 =0 = =1 Varianz ∞ 2 V x = 〈 x− 〉 = ∫ −∞ x− 2 2 2 −x− 2 e 22 dx = 1 2 −x '2 ∞ 2 ⋅∫ x ' e 2 22 dx = 2 −∞ Dabei verwendete bestimmte Integrale ∞ −a x2 ∫ e dx = −∞ Datenanalyse PHY231 - HS 14 a ∞ ∫ x 2n−1 −a x e 2 dx = 0 −∞ Verteilungen (21/36) ∞ 2 −a x 2 ∫ x e −∞ dx = 1 2a ⋅ a O.Steinkamp “Errorfunction” Kumulative Verteilungsfunktion der Gaußverteilung ● unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar ● ● berechne kumulative Verteilungsfunktion durch numerische Integration Python: stats.norm.cdf P (x) = ● 1 2 ( 1 + erf (benötigt from scipy import stats) x−μ (√ ) ) 2σ mit erf(x) = 2 √π x −x '2 ⋅∫ e dx ' 0 wichtige Werte zum merken: P (|x - μ| ≤ 1σ) = 68.27 % (≈ 2/3) P (|x - μ| ≤ 2σ) = 95.45 % P (|x - μ| ≤ 3σ) = 99.73 % P (|x - μ| ≤ 1.645σ) = 90 % P (|x - μ| ≤ 1.960σ) = 95 % P (|x - μ| ≤ 2.576σ) = 99 % Datenanalyse PHY231 - HS 14 Verteilungen (22/36) O.Steinkamp “Errorfunction” Kumulative Verteilungsfunktion der Gaußverteilung ● unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar ● berechne kumulative Verteilungsfunktion durch numerische Integration P (x) = 1 2 x−μ ( 1 + erf ( √ ) ) 2σ ● Python: stats.norm.cdf ● wichtige Werte zum merken: P (μ-σ ≤ x ≤ μ+σ) mit erf(x) = 2 √π x −x ' ⋅∫ e 2 dx ' 0 (benötigt from scipy import stats) = 68.27 % (≈ 2/3) P (μ-2σ ≤ x ≤ μ+2σ) = 95.45 % P (μ-3σ ≤ x ≤ μ+3σ) = 99.73 % P (μ-1.645σ ≤ x ≤ μ+1.645σ) = 90 % P (μ-1.960σ ≤ x ≤ μ+1.960σ) = 95 % P (μ-2.576σ ≤ x ≤ μ+2.576σ) = 99 % Datenanalyse PHY231 - HS 14 Verteilungen (23/36) O.Steinkamp Exponential- und Poissonverteilung Variable t exponentialverteilt Anzahl Ereignisse in ∆t Poissonverteilt ● Beipiel: radioaktives Präparat mit mittlerer Lebensdauer 1 ● −t / τ Zerfallszeiten sind exponentialverteilt: p( t) → τ ⋅e ● Anzahl Zerfälle in Zeitintervall t poissonverteilt mit Erwartungswert ·t: Δt (Δ t / τ)k −(Δ t / τ ) P(k ∣ τ , Δ t) = P(k ∣ τ ) = e k! ● Beweis (“rückwärts”): ● Wahrscheinlichkeit p(t) dt für genau einen Zerfall im Intervall [t,t+dt] = kein Zerfall im Intervall [0,t] und ein Zerfall im Intervall [t,t+dt] ● Annahme: Anzahl Ereignisse in t poissonverteilt mit Erwartungswert ·t t dt dt p( t) dt = P( 0 ∣ τ ) × P(1∣ τ ) = e−t / τ × τ ⋅e−dt / τ ● für dt → 0 e−dt / τ → 1 Datenanalyse PHY231 - HS 14 ⇒ 1 p( t) dt → τ ⋅e−t/ τ dt Verteilungen (24/36) ⇒ 1 p( t) → τ ⋅e−t / τ O.Steinkamp Ausflug II: Totzeit eines Detektors Nach Nachweis eines Ereignisses ist ein Detektor für Zeitspanne ∆t nicht in der Lage, weitere Ereignisse nachzuweisen (Detektor “tot”) ● Δt bestimmt z.B. durch Signalerzeugung im Detektor, Ausleseelektronik ● Ereignisse während der Totzeit werden nicht nachgewiesen und ● entweder: erzeugen selbst keine Totzeit (“nicht paralysierbare Totzeit”) ● oder: erzeugen trotzdem auch wieder Totzeit (“paralysierbare Totzeit”) Beispiel (Simulation): ∆t ● Totzeit, nicht paralysierbar ● Ereignisse ● Totzeit, paralysierbar ∆t Datenanalyse PHY231 - HS 14 Verteilungen (25/36) O.Steinkamp Ausflug II: Totzeit eines Detektors Nicht paralysierbare Totzeit ● ● messe N Ereignisse in Messzeit t gemessene Ereignisrate: R = N / t Paralysierbare Totzeit ● tatsächliche Ereignisrate sei r ● ein Ereignis wird nur nachgewiesen, wenn im Zeitintervall ∆t vorher kein ● N Ereignisse erzeugen Totzeit N·Δt ● effektive Messzeit anderes Ereignis stattgefunden hat ● Wahrscheinlichkeit dafür: t eff = t − N⋅ t = t ⋅1−R ⋅ t ● tatsächliche Ereignisrate r: P 0 ∣ r⋅ t = e−r⋅ t ● r = N / t eff ● ⇔ ● R = r ⋅e R ⋅t = r ⋅t eff ⇒ R = r ⋅1 − R ⋅ t R = für r → ∞ Datenanalyse PHY231 - HS 14 r 1 r ⋅ t gemessene Ereignisrate: ● −r⋅ t für r → ∞ R 0 R 1/ t Verteilungen (26/36) O.Steinkamp Ausflug II: Totzeit eines Detektors Gemessene Ereignisrate als Funktion der tatsächlichen Ereignisrate ● Symbole: beim SINDRUM-II Experiment am PSI gemessen ● Kurven: nach obigen Formeln berechnet (mit Totzeit ∆t = 1 ms) keine Totzeit nicht paralysierbare Totzeit paralysierbare Totzeit R → 1/∆t R→0 Datenanalyse PHY231 - HS 14 Verteilungen (27/36) O.Steinkamp Weitere wichtige Verteilungen Gleichverteilung p x = { 1 b−a ● Erwartungswert: ● Varianz: 0 f ü r a≤x≤b sonst 〈 x 〉 = a b / 2 V x = b − a2 / 12 Breit-Wigner Verteilung (Resonanz-Kurve) px ∣M, = mit gleichem FWHM 1 /2 ⋅ x−M2 /22 ● Erwartungswert: 〈 x 〉 = M ● Varianz nicht definiert (∫ x p(x) dx divergiert) ● Full Width at Half Maximum: FWHM = 2 Datenanalyse PHY231 - HS 14 Gaußverteilung Verteilungen (28/36) FWHM O.Steinkamp Python: from scipy import stats Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung): ● stats.expon.pdf - Wahrscheinlichkeitsdichte ● stats.expon.cdf - kumulative Verteilungsfunktion ● stats.expon.ppf - inverse kumulative Verteilungsfunktion Für diskrete Verteilungen (Beispiel Poissonverteilung): ● stats.poisson.pmf - Wahrscheinlichkeit ● stats.poisson.cdf / stats.poisson.ppf Weitere wichtige Verteilungen ● stats.binom.* - Binomialverteilung ● stats.norm.* - Gaußverteilung (“normal distribution”) ● stats.uniform.* - Gleichverteilung (“uniform distribution”) ● stats.cauchy.* - Breit-Wigner Verteilung (“Cauchyverteilung”) ● stats.chi2.* - ²-Verteilung … und viele mehr: siehe docs.scipy.org/doc/scipy/reference/stats.html Datenanalyse Verteilungen (29/36) O.Steinkamp PHY231 - HS 14 Vorlesungsprogramm ● Einführung, Messunsicherheiten, Darstellung von Messdaten ● Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Korrelation, Kovarianzmatrix ● Fehlerfortpflanzungsgesetz ● Wahrscheinlichkeitsverteilungen I - Verteilungen einer Variablen - zentraler Grenzwertsatz ● Monte-Carlo Methode ● Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen ● Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate ● Interpretation von Messergebnissen Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert - Konfidenzintervalle, Testen von Hypothesen Datenanalyse Verteilungen (30/36) PHY231 - HS 14 O.Steinkamp Zentraler Grenzwertsatz Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N) ● Zufallsverteilung für xi habe Erwartungswert μ i und Varianz σ i² ● definiere neue Zufallsvariable X ≡ ∑Ni=1 x i ● Zufallsverteilung für X: ● ● ● ● hat die Varianz V X = ∑Ni=1 2i strebt für N → ∞ einer Gaußverteilung entgegen gilt für beliebige Zufallsverteilungen der xi ● ● hat den Erwartungswert 〈 X 〉 = ∑Ni=1 i gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!! Datenanalyse PHY231 - HS 14 Verteilungen (31/36) O.Steinkamp Beweise zentraler Grenzwertsatz Erwartungswert 〈 X 〉 = 〈 ∑ xi〉 = ∑ 〈 xi 〉 i = i ∑ i i Varianz V X = 2 〈 X − 〈X〉 〉 2 〈 ∑x −∑ 〉 = 〈 ∑ x − 〉 = i i i i 2 i = i i x i− i 2 ∑ 〈 〉 ∑ 〈 xi− i 2 〉 i = i 2 〈 ∑ ∑ x − ⋅x − 〉 i j≠i i i j j ∑∑ 〈 x i− i ⋅x j− j 〉 i j≠i i cov x i , x j xi, xj statistisch voneinander unabhängig ⇒ cov (xi,xj) = 0 Datenanalyse PHY231 - HS 14 Verteilungen (32/36) O.Steinkamp Beispiel zentraler Grenzwertsatz Summe von N Zufallsvariablen, jede zwischen 0 und 1 gleichverteilt ---- Gaussverteilung mit μ = N/2 und σ = √N/12 warum ? Datenanalyse PHY231 - HS 14 Verteilungen (33/36) gleichverteilte Zufallszahlen mit “Monte Carlo”-Methode erzeugt O.Steinkamp Anwendungen zentraler Grenzwertsatz Gaußverteilung als Näherung der Poissonverteilung ● großer Erwartungswert : Poissonverteilung nähert sich Gaußverteilung mit Erwartungswert μ = und Standardabweichung σ = ● √ Näherung in der Praxis meist gut genug für > 5~10 Gaußverteilung als Näherung der Binomialverteilung ● große Anzahl Versuche n: Binomialverteilung nähert sich Gaußverteilung mit Erwartungswert μ = n·p und Standardabweichung σ = ● √n·p·(1-p) Näherung am schnellsten für p ≈ 0.5 (symmetrische Verteilung) Datenanalyse PHY231 - HS 14 Verteilungen (34/36) O.Steinkamp Gaußverteilte Messfehler Unsicherheit auf einer Messung hat meistens viele Beiträge ● ● z.B. Rauschsignal in Messelektronik ● viele Bauteile (Widerstände, Kondensatoren,…) ● zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile ● gesamtes Rauschsignal ist Summe aller dieser Beiträge wenn diese Beiträge statistisch unabhängig voneinander sind: zentraler Grenzwertsatz Abweichungen der Messwerte vom wahren Wert Gaußverteilt ● aber AUFGEPASST !!!!! ● gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind ● gilt NICHT, wenn Messunsicherheit durch einen Einzelbeitrag dominiert ist Datenanalyse PHY231 - HS 14 Verteilungen (35/36) O.Steinkamp Gaußverteilte Messfehler Fehlerbalken geben ± 1 Standardabweichung um den Messwert an ● ● für gaußverteilte Messunsicherheiten ● sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen ● sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind Unsicherheiten unterschätzt Datenanalyse PHY231 - HS 14 Unsicherheiten korrekt Verteilungen (36/36) Unsicherheiten überschätzt O.Steinkamp