Datenanalyse (PHY231) Herbstsemester 2015 Olaf Steinkamp 36-J-22 [email protected] 044 63 55763 Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS15 Verteilungen (2) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen I - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS15 Verteilungen (3) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Einfaches Beispiel: Kopf oder Zahl Werfe eine Münze ● gleiche Wahrscheinlichkeit für Ergebnisse Kopf und Zahl: P(K) = P(Z) = 1/2 Werfe gleichzeitig vier Münzen ● Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16 ● Wahrscheinlichkeit P(k) für k × Kopf: ● ● k=4: 1 Möglichkeit (KKKK) ⇒ P(k=4) = 1/16 ● k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK) ⇒ P(k=3) = 4/16 ● k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK) ⇒ P(k=2) = 6/16 ● k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK) ⇒ P(k=1) = 4/16 ● k=0: 1 Möglichkeit (ZZZZ) ⇒ P(k=0) = 1/16 Wahrscheinlichkeit dafür, dass “irgendetwas” passiert: 4 ∑k =0 P (k ) = 16/16 P(k) ist eine Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen k Datenanalyse HS15 Verteilungen (4) O. Steinkamp Diskrete Wahrscheinlichkeitsverteilungen Wahrscheinlichkeit muss normiert sein ∑ P (k ) = 1 k Definitionen ● Erwartungswert der Zufallsvariablen k ∑ { k ⋅P (k ) } ⟨k ⟩ ≡ k ● Varianz der Zufallsvariablen k 2 2 V (k ) ≡ ⟨k ⟩ − ⟨k ⟩ = ∑ {k 2 ⋅P (k ) } − k ● 2 ( ∑ { k ⋅P (k ) } ) k für eine Funktion f(k) der Zufallsvariablen ⟨f (k )⟩ ≡ ∑ { f (k )⋅P (k ) } ; V (f ) ≡ ⟨f 2 ⟩ − ⟨f ⟩2 k Datenanalyse HS15 Verteilungen (5) O. Steinkamp Gesetz grosser Zahlen Beispiel: werfe N × 4 Münzen (Monte-Carlo Simulation am Computer) k=0 k=1 k=2 k=3 k=4 N = 16 erwarte beobachte 1 1 4 7 6 2 4 5 1 1 N = 160 erwarte beobachte 10 8 40 48 60 46 40 48 10 10 N = 1600 erwarte beobachte 100 84 400 438 600 584 400 378 100 116 N = 16000 erwarte beobachte 1000 1021 4000 4004 6000 5977 4000 3960 1000 1038 Datenanalyse HS15 Verteilungen (6) O. Steinkamp Gesetz grosser Zahlen Die relative Häufigkeit eines Zufallsergebnisses nähert sich der theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an, je häufiger das Zufallsexperiment durchgeführt wird. ● Mittelwert einer gemessenen Häufigkeitsverteilung N 1 k ≡ ⋅ k N i=1 i ∑ ● Erwartungswert der zugrundeliegenden Wahrscheinlichkeitsverteilung ⟨k ⟩ ≡ ∑ k ⋅P (k ) k ● Gesetz großer Zahlen k ● → ⟨k ⟩ N →∞ (N = Anzahl Wiederholungen) Varianz der Häufigkeitsverteilung und Wahrscheinlichkeitsverteilung k2 − k2 → N →∞ Datenanalyse HS15 ⟨k 2 ⟩ − ⟨k ⟩2 Verteilungen (7) O. Steinkamp Binomialverteilung Experiment mit zwei möglichen Ergebnissen ● konstante Wahrscheinlichkeit p für “positives” Ergebnis => konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis ● z.B. “Kopf oder Zahl” (Kopf = positives Ergebnis, Zahl = negatives Ergebnis) Führe das Experiment n-mal aus ● die Experimente seien unabhänging voneinander ● Wahrscheinlichkeit für insgesamt k “positive” Ergebnisse aus n “Versuchen” P (k ∣ p , n) = n p k (1−p )n−k (k ) ● Erwartungswert ● n! n = k ! (n−k )! k () Varianz ⟨k ⟩ = n⋅ p Datenanalyse HS15 mit V (k ) = n ⋅p ⋅(1−p) Verteilungen (8) O. Steinkamp Beweise Binomialverteilung ● Normierung n n ∑ P (k ∣ p , n) k =0 ● = ∑ k =0 {( ) n p k (1−p)n−k k } n = ( p + (1−p) ) = 1 Erwartungswert: n ∑ ⟨k ⟩ = k =0 n (n−1)! n! k n−k k −1 n−k k⋅ p (1−p) = n⋅ p ⋅ p (1−p) k !(n−k )! k =1 (k −1)!(n−k )! ∑ n' k ' ≡ k −1 n ' ≡ n−1 (n ' )! k' n ' −k ' p (1−p ) (k ' )!(n ' −k ' )! = n⋅ p ⋅ ∑ ⏟ k ' =0 ● = (p+(1− p))n' = 1 Varianz: 2 2 V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨ k 2 ⟩−⟨k ⟩+⟨k ⟩−⟨k ⟩2 = ⟨k −k ⟩ +⟨k ⟩ −⟨k ⟩ ⏟ ⏟ ⏟ = n ⋅ p⋅(1−p ) n ⋅(n−1)⋅ p n 2 ⟨k −k ⟩ = ⟨k⋅(k −1)⟩ = ∑ k =0 { k⋅(k −1)⋅ n' n ⋅p 2 (n⋅ p) n! k n−k p (1−p) k !(n−k )! } k ' ≡ k −2 n ' ≡ n−2 { } ⏟ = n ⋅(n−1)⋅ p ⋅ ∑ 2 2 k ' =0 (n' )! k' n ' −k ' p (1−p) (k ' )!(n ' −k ' )! = (p+(1−p))n' = 1 Datenanalyse HS15 Verteilungen (9) O. Steinkamp Beispiele Binomialverteilung Datenanalyse HS15 Verteilungen (10) O. Steinkamp Beispiel: Effizienz einer Funkenkammer Messe Spuren geladener Teilchen (z.B. aus kosmische Strahlung) ● parallele Metallplatten in Gasvolumen, dazwischen elektrische Spannung kurz unterhalb Durchbruchspannung ● geladenes Teilchen ionisiert Gas und löst Funken aus ● Annahmen für Rechenbeispiel: ● ● 95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird ● benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern P (k =3 ∣ p=0.95 ,n=3) = 0.95 3 = 0.857 ● vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern P (4 ∣ 0.95 , 4) + P (3 ∣ 0.95 ,4) = 0.815 + 0.171 = 0.986 ● fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern P (5 ∣ 0.95 ,5) + P (4 ∣ 0.95 ,5) + P (3∣ 0.95 ,5) = 0.774 + 0.204 + 0.021 = 0.999 Datenanalyse HS15 Verteilungen (11) O. Steinkamp Poissonverteilung Näherung der Binomialverteilung für sehr große Anzahl Versuche n ● Erwartungswert der Verteilung sei d.h. μ = n⋅p ● μ n k ( )( μ 1− n ) n−k μ 1− n ) n−k μ → 1− n ( ) n → e −μ Erwartungswert und n! → nk (n−k )! ● ( ) n−k ⇒ μk P (k ∣μ) = ⋅e −μ k! Varianz V (k ) = μ ⟨k ⟩ = μ ● n! 1 μk μ = ⋅ k ⋅ ⋅ 1− k! (n−k )! n n für n → ∞ und n >> ( ● μ n einsetzen in Binomialverteilung n! P (k ∣ μ /n , n) = k ! (n−k )! ● p = ⇔ benutze Poisson, wenn n >> μ und/oder wenn μ bekannt ist, aber nicht n und p ● z.B. Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle Datenanalyse HS15 Verteilungen (12) O. Steinkamp Beweise Poissonverteilung ● Normierung ∞ ∑ ∞ P (k ∣μ) = k =0 ● k =0 { }=e ⟨k ⟩ = ∑ k =0 { ∞ −μ μk = 1 k! ∑ k⏟ =0 =eμ Erwartungswert: ∞ ● ∑ μ k −μ e k! μ k −μ k⋅ e k! } = μe ∞ −μ ∑ k =1 μ k−1 = μ e −μ (k −1)! ∞ μk ' = μ (k ' )! ∑ k⏟ ' =0 =e μ vgl. Binomialverteilung ⟨k ⟩ = n⋅ p ≡ μ ● Varianz: V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨k 2 ⟩ − ⟨k ⟩ + ⟨k ⟩−⟨k ⟩2 = ⟨⏟ k 2 − k ⟩ + ⟨k ⏟⟩ − ⟨k ⏟⟩2 = μ =μ 2 2 ⟨k −k ⟩ = ⟨k (k −1)⟩ = ∞ ∑ k =0 ● μ k −μ k (k −1)⋅ e k! { vgl. Binomialverteilung }=μ 2 =μ ∞ e −μ =μ 2 μk − 2 = μ2 (k −2)! ∑ ⏟ k =2 =eμ n → ∞ ⇒ p = μ / n → 0 ⇒ 1−p → 1 ⇒ V (k ) = n ⋅ p ⋅(1−p ) → n ⋅ p ≡ μ Datenanalyse HS15 Verteilungen (13) O. Steinkamp Beispiele Poissonverteilung Poisson Datenanalyse HS15 Binomial Verteilungen (14) Binomial O. Steinkamp Beispiel: tödliche Pferdetritte Klassiker, seit 1898 in vielen Statistik-Textbüchern: ● ● ● ● beobachte für 20 Jahre 10 Regimenter der preussischen Kavalerie ● registriere insgesamt 122 Todesfälle durch Pferdetritte ● im Mittel 122 / (20·10) = 0.61 Todesfälle pro Regiment pro Jahr beobachtete Häufigkeitsverteilung pro Regiment pro Jahr: k 0 1 2 3 4 ≥5 beobachtet 109 65 22 3 1 0 für Poissonverteilung mit Erwartungswert μ = 0.61 k 0 1 2 3 4 ≥5 Poisson (μ=0.61) 108.7 66.3 20.2 4.1 0.63 0.07 auch: Varianz der beobachteten Verteilung 4 2 V (k ) = k − k 2 = ∑ k =1 Datenanalyse HS15 { N (k ) k ⋅ 200 2 }−( ) Verteilungen (15) 122 200 2 = 0.608 ≈ μ O. Steinkamp Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen I - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS15 Verteilungen (16) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Zufallsvariable x kontinuierlich verteilt Definiere Wahrscheinlichkeitsdichte p(x) p(x) ≡ ● Wahrscheinlichkeit f ü r Wert zwischen x und x +dx dx f ü r dx → 0 Wahrscheinlichkeit für einen Wert x zwischen x1 und x2: x2 P ( x 1 ≤ x ≤ x 2) = ∫ p ( x ) dx x1 ● Normierung: ∞ P (−∞ ≤ x ≤ ∞) = ● ∫ −∞ p( x ) dx = 1 Erwartungswert der Zufallsvariablen x und einer Funktion f(x): ∞ ⟨x⟩ = ∫ ∞ x ⋅p ( x ) dx ⟨f ( x )⟩ = −∞ ● ∫ f ( x )⋅ p ( x ) dx −∞ Varianz der Zufallsvariablen x und einer Funktion f(x): V ( x ) = ⟨ x 2 ⟩ − ⟨ x ⟩2 Datenanalyse HS15 V (f ) = ⟨f 2 ( x )⟩ − ⟨f ( x )⟩2 Verteilungen (17) O. Steinkamp Kumulative Verteilungsfunktion Wahrscheinlichkeit, dass die Zufallsvariable einen Wert < x annimmt x P (x ) = ● ∫ −∞ p ( x ' ) dx ' Wahrscheinlichkeit, dass die Zufallsvariable einen Wert zwischen x1 und x2 annimmt: x =x 2 P ( x 1< x ≤ x 2) = ∫ p( x ) dx ⇔ P ( x 1< x ≤ x 2) = P ( x 2) − P ( x 1) x =x 1 ● Beispiel: fallende Exponentialverteilung p( x ) = λ e−λ x P ( x 1< x ≤ x 2) Datenanalyse HS15 P ( x 2) P ( x 1) Verteilungen (18) x P (x) = λ e− λ x ∫ −∞ ' dx ' O. Steinkamp Exponentialverteilung Wahrscheinlichkeitsdichte p ( x ∣ λ ) = λ ⋅e−λ⋅x ● Normierung ∞ ∫ λ ⋅e−λ⋅x dx 0 ● für x ≥ 0 ∞ = λ ⋅∫ e −λ⋅x dx = 1 Erwartungswert ⏟ 0 =1/ λ ∞ ⟨x⟩ = ∫ x ⋅λ ⋅e−λ⋅x dx = 0 ● 1 λ Varianz ∞ V (x ) = ∫ 0 1 2 1 ( x − ) ⋅λ ⋅e −λ⋅x dx = 2 λ λ Kumulative Verteilungsfunktion x P ( x ) = λ ⋅∫ e−λ⋅x ' dx ' = 1−e−λ⋅x 0 Datenanalyse HS15 Verteilungen (19) O. Steinkamp Gaußverteilung Wahrscheinlichkeitsdichte p ( x ∣μ ,σ ) = ● 1 ⋅e 2 √2 π σ − (x −μ )2 2 σ2 σ Erwartungswert ∞ ⟨x⟩ = ∫ x ⋅p ( x ∣ μ ,σ ) dx = μ FWHM −∞ ● Varianz ∞ V (x ) = ∫ ( x −μ )2 ⋅ p( x ∣μ , σ ) dx = σ2 −∞ Full Width at Half Maximum (Breite der Verteilung auf halber Hohe) p ( x = μ + √ 2 ln 2 ∣μ , σ ) = p ( x = μ − √ 2 ln 2 ∣μ ,σ ) = 1/ 2 × p ( x = μ ∣μ ,σ ) ⇒ Datenanalyse HS15 FWHM = 2 √ 2 ln 2⋅σ ≈ 2.355 σ Verteilungen (20) O. Steinkamp Beweise Gaußverteilung ● Normierung ∞ 1 ∫ −∞ √ 2 π σ 2 e −(x −μ )2 2 σ2 ∞ 1 ⋅ e √ 2 π σ 2 −∞ −x ' 2 2σ 2 dx ' ∫ ⏟ dx = = 1 =√ 2 π σ 2 ● Erwartungswert ∞ ⟨x⟩ = x ∫ −∞ √ 2 π σ 2 e −(x −μ )2 2 σ2 −( x−μ )2 2 σ2 ∞ dx = −( x −μ )2 2 σ2 ∞ ( x −μ ) 1 e dx + μ ⋅ ∫ e dx ∫ −∞ 2 π σ −∞ 2 π σ √ √ ⏟ ⏟ 2 2 = 0 ● = 1 Varianz ∞ V ( x ) = ⟨( x −μ )2 ⟩ = ● = μ ∫ −∞ 2 −( x−μ )2 2 σ2 2 n−1 −a x 2 ( x−μ ) e 2 √ 2π σ ∞ dx = 1 2 ⋅ x ' e 2 √ 2 π σ −∞ ∫ −x ' 2 2 σ2 dx = σ 2 verwendete bestimmte Integrale ∞ −a x 2 ∫ e −∞ dx = Datenanalyse HS15 √ π a ∞ ∫ −∞ x e ∞ dx = 0 Verteilungen (21) 2 x 2 e−a x dx = ∫ −∞ 1 ⋅ π 2a a √ O. Steinkamp “Errorfunction” Kumulative Verteilungsfunktion der Gaußverteilung ● unbestimmtes Integral der Gaußfunktion analytisch nicht lösbar ● ● berechne kumulative Verteilungsfunktion durch numerische Integration Python: stats.norm.cdf (benötigt from scipy import stats) 1 P (x ) = 2 ● ( 1 + erf ( x −μ √2 σ )) mit 2 erf ( x ) = √ π ⋅ x ∫e −x ' 2 dx ' 0 häufig verwendete Werte (nützlich zu merken) ● P (|x - μ| ≤ 1σ) = 68.27 % (≈ 2/3) ● P (|x - μ| ≤ 2σ) = 95.45 % ● P (|x - μ| ≤ 3σ) = 99.73 % ● P (|x - μ| ≤ 1.645σ) = 90 % ● P (|x - μ| ≤ 1.960σ) = 95 % ● P (|x - μ| ≤ 2.576σ) = 99 % Datenanalyse HS15 Verteilungen (22) O. Steinkamp Zusammenhang zwischen Exponentialverteilung und Poissonverteilung Zufallsvariable t folgt Exponentialverteilung mit Erwartungswert τ ↔ Anzahl Werte von t im Intervall ∆t folgt Poissonverteilung mit μ = t / ● ● Beispiel: radioaktives Präparat mit mittlerer Lebensdauer Annahme: die Anzahl k der Zerfälle in einem Zeitintervall t folgt einer Poissonverteilung mit Erwartungswert = t / : (Δ t / τ )k −(Δ t / τ ) Δt P (k ∣ τ , Δt ) = P (k ∣ τ ) = e k! ● zur Zeit t = 0 habe ein Zerfall stattgefunden: Wahrscheinlichkeit p(t)dt, dass der nächste Zerfall im Zeitintervall [ t,t+dt ] stattfindet = Wahrscheinlichkeit für keinen Zerfall im Intervall [ 0,t ] und einen Zerfall im Intervall [ t,t+dt ] t dt dt p (t ) dt = P (0 ∣ τ ) × P (1 ∣ τ ) = e−t / τ × τ ⋅e−dt / τ ● für dt → 0 e−dt / τ → 1 ● ⇒ 1 p (t ) dt → τ ⋅e−t / τ dt ⇔ 1 p (t ) → τ ⋅e−t / τ Zeitverteilung der Zerfälle folgt Exponentialverteilung mit Erwartungswert Datenanalyse HS15 Verteilungen (23) O. Steinkamp Weitere wichtige Verteilungen Gleichverteilung p(x) = { ● Erwartungswert: ● Varianz: 1 (b−a) 0 f ü r a≤x ≤b sonst ⟨ x ⟩ = (a + b ) / 2 V ( x ) = (b − a)2 / 12 Breit-Wigner Verteilung (Resonanz-Kurve) 1 Gaußverteilung mit gleichem FWHM Γ/2 p ( x ∣ M , Γ) = π ⋅ ( x −M )2 +(Γ /2)2 ● Erwartungswert: ⟨ x ⟩ = M ● Varianz nicht definiert ( ∫ x p ( x ) dx divergiert) ● Full Width at Half Maximum: FWHM = 2 Datenanalyse HS15 Verteilungen (24) FWHM O. Steinkamp Python: from scipy import stats Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung) ● stats.expon.pdf – Wahrscheinlichkeitsdichte ● stats.expon.cdf – kumulative Verteilungsfunktion ● stats.expon.ppf – inverse kumulative Verteilungsfunktion Für diskrete Verteilungen (Beispiel Poissonverteilung) ● stats.poisson.pmf – Wahrscheinlichkeit ● stats.poisson.cdf – kumulative Verteilungsfunktion ● stats.poisson.ppf – inverse kumulative Verteilungsfunktion Weitere wichtige Verteilungen ● stats.binom.* – Binomialverteilung ● stats.norm.* – Gaußverteilung (“normal distribution”) ● stats.uniform.* – Gleichverteilung (“uniform distribution”) ● stats.cauchy.* – Breit-Wigner Verteilung (“Cauchyverteilung”) ● stats.chi2.* – ²-Verteilung Datenanalyse HS15 Verteilungen (25) … und viele mehr, siehe python Dokumentation O. Steinkamp Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen I - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS15 Verteilungen (26) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Zentraler Grenzwertsatz Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N) ● z.B. x1 folgt einer Gleichverteilung, x2 folgt einer Gaussverteilung, usw. ● die Zufallsverteilung für xi habe den Erwartungswert μi und die Varianz σi² ● definiere eine neue Zufallsvariable X ≡ ∑Ni=1 x i ● ● für die Zufallsverteilung von X gilt: sie hat den Erwartungswert ⟨ X ⟩ = ∑Ni =1 μ i ● sie hat die Varianz V (X ) = ● sie strebt für N → ∞ einer Gaußverteilung entgegen ∑Ni =1 σ 2i gilt für beliebige Zufallsverteilungen der xi ● ● ● gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!! Datenanalyse HS15 Verteilungen (27) O. Steinkamp Beweise zentraler Grenzwertsatz ● Erwartungswert ⟨ X ⟩ = ⟨∑ x i ⟩ = i ● ∑ ⟨ xi ⟩ = i ∑ μi i Varianz V ( X ) = ⟨ ( X − ⟨ X ⟩ )2 ⟩ 2 ⟨( )⟩ = ∑ ( x −μ ) ⟨( )⟩ ∑ x i − ∑ μi = i i 2 i = i i ( x i −μ i )2 ∑ ⟨ + i = ⟨ ( x i −μ i )2 ⟩ ∑⏟ i σ 2i ∑ ∑ ( x i −μ i )⋅( x j −μ j ) ⟩ i + j ≠i ⟨ ( x i −μ i )⋅( x j −μ j ) ⟩ ∑∑⏟ i j ≠i cov (x i , x j ) xi und xj statistisch voneinander unabhängig cov (xi,xj) = 0 Datenanalyse HS15 Verteilungen (28) O. Steinkamp Beispiel zentraler Grenzwertsatz Summe von N voneinander unabhängigen Zufallsvariablen, jede zwischen 0 und 1 gleichverteilt nächste ● gleichverteilte Zufallszahlen mit “Monte Carlo”-Methode erzeugt ● ------- Gaussverteilung mit μ = N/2 und σ = √N/12 Datenanalyse HS15 Verteilungen (29) Woche warum ? O. Steinkamp Gaußverteilte Messunsicherheiten Abweichung einer Messung vom “wahren” Wert hat meist viele Beiträge ● ● z.B. Rauschsignal in Messelektronik ● viele Bauteile (Widerstände, Kondensatoren,…) ● zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile ● gesamtes Rauschsignal ist Summe aller dieser Beiträge wenn diese Beiträge statistisch unabhängig voneinander sind: zentraler Grenzwertsatz Abweichungen der Messwerte vom wahren Wert folgen einer Gaußverteilung ● gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind ● ● z.B. bei gemeinsamen systematischen Unsicherheiten gilt NICHT, wenn eine einzelne Fehlerquelle die Abweichungen dominiert Annahme gaußverteilter Abweichungen ist eine (nicht immer gute) Näherung Datenanalyse HS15 Verteilungen (30) O. Steinkamp Gaußverteilte Messunsicherheiten Fehlerbalken geben ± 1 Standardabweichung um den Messwert an ● ● für gaußverteilte Messabweichungen vom wahren Wert s. Folie 22 ● sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen ● sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind unterschätzt Datenanalyse HS15 Messunsicherheit korrekt Verteilungen (31) überschätzt O. Steinkamp