Datenanalyse (PHY231) Herbstsemester 2016 Olaf Steinkamp 36-J-22 [email protected] 044 63 55763 Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS16 Verteilungen (2) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen I - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS16 Verteilungen (3) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Diskrete Verteilung: Kopf oder Zahl Werfe eine Münze ● gleiche Wahrscheinlichkeit für Ergebnisse Kopf und Zahl: P(K) = P(Z) = 1/2 Werfe vier Münzen ● Wahrscheinlichkeit für ein bestimmtes Ergebnis (zB. ZKZZ) = (1/2)4 = 1/16 ● Wahrscheinlichkeit P(k) für k × Kopf: ● ● k=4: 1 Möglichkeit (KKKK) ⇒ P(k=4) = 1/16 ● k=3: 4 Möglichkeiten (KKKZ,KKZK,KZKK,ZKKK) ⇒ P(k=3) = 4/16 ● k=2: 6 Möglichkeiten (KKZZ,KZKZ,KZZK,ZKKZ,ZKZK,ZZKK) ⇒ P(k=2) = 6/16 ● k=1: 4 Möglichkeiten (KZZZ,ZKZZ,ZZKZ,ZZZK) ⇒ P(k=1) = 4/16 ● k=0: 1 Möglichkeit (ZZZZ) ⇒ P(k=0) = 1/16 Wahrscheinlichkeit dafür, dass “irgendetwas” passiert: 4 ∑k =0 P (k ) = 16/16 k = Zufallsvariable ; P(k) = Wahrscheinlichkeitsverteilung Datenanalyse HS16 Verteilungen (4) O. Steinkamp Diskrete Zufallsverteilung Ordne jedem möglichen Wert k der Zufallsvariable eine Wahrscheinlichkeit P(k) zu ● Normierung ∑ P (k ) = 1 k ● Erwartungswert ⟨k ⟩ ≡ ∑ { k ⋅P (k ) } k ● Varianz V (k ) ≡ ⟨ (k −⟨k ⟩)2 ⟩ = ⟨k 2 ⟩ − ⟨k ⟩ 2 ● Erwartungswert und Varianz einer Funktion f(k) der Zufallsvariablen ⟨f (k )⟩ ≡ ∑ { f (k )⋅P (k ) } ; V (f ) ≡ ⟨f 2 ⟩ − ⟨f ⟩2 k Datenanalyse HS16 Verteilungen (5) O. Steinkamp Gesetz grosser Zahlen Experiment : werfe N × 4 Münzen k=0 k=1 k=2 k=3 k=4 N = 16 erwarte beobachte 1 1 4 7 6 2 4 5 1 1 N = 160 erwarte beobachte 10 8 40 48 60 46 40 48 10 10 N = 1600 erwarte beobachte 100 84 400 438 600 584 400 378 100 116 N = 16000 erwarte beobachte 1000 1021 4000 4004 6000 5977 4000 3960 1000 1038 Datenanalyse HS16 Verteilungen (6) O. Steinkamp Gesetz grosser Zahlen Die relative Häufigkeit eines Zufallsergebnisses nähert sich der theoretischen Wahrscheinlichkeit dieses Ergebnisses immer mehr an, je häufiger das Zufallsexperiment durchgeführt wird. ● Erwartungswert der theoretischen Wahrscheinlichkeitsverteilung ⟨k ⟩ ≡ ∑ k ⋅P (k ) k ● führe Experiment N-mal durch → Mittelwert der Häufigkeitsverteilung N 1 k ≡ ⋅ k N i=1 i ∑ ● Gesetz großer Zahlen k ● → N →∞ ⟨k ⟩ Varianz der Häufigkeitsverteilung und Wahrscheinlichkeitsverteilung k2 − k2 → N →∞ Datenanalyse HS16 ⟨k 2 ⟩ − ⟨k ⟩ 2 Verteilungen (7) O. Steinkamp Binomialverteilung Experiment mit zwei möglichen Ergebnissen (z.B. “Kopf oder Zahl”) ● konstante Wahrscheinlichkeit p für “positives” Ergebnis konstante Wahrscheinlichkeit (1–p) für “negatives” Ergebnis Führe das Experiment n-mal aus ● die Experimente seien unabhänging voneinander ● Wahrscheinlichkeit für k “positive” Ergebnisse aus n “Versuchen” P (k ∣ p , n) = n p k (1−p )n−k (k ) ● Erwartungswert ● n! n = k ! (n−k )! k () Varianz ⟨k ⟩ = n⋅ p Datenanalyse HS16 mit V (k ) = n ⋅p ⋅(1−p) Verteilungen (8) O. Steinkamp Beweise Binomialverteilung ● Normierung n n ∑ P (k ∣ p , n) k =0 ● = ∑ k =0 {( ) n p k (1−p)n−k k } n = ( p + (1−p) ) = 1 Erwartungswert: n ∑ ⟨k ⟩ = k =0 n (n−1)! n! k n−k k −1 n−k k⋅ p (1−p) = n⋅ p ⋅ p (1−p) k !(n−k )! k =1 (k −1)!(n−k )! ∑ n' k ' ≡ k −1 n ' ≡ n−1 (n ' )! k' n ' −k ' p (1−p ) (k ' )!(n ' −k ' )! = n⋅ p ⋅ ∑ ⏟ k ' =0 ● = (p+(1− p))n' = 1 Varianz: 2 2 V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨ k 2 ⟩−⟨k ⟩+⟨k ⟩−⟨k ⟩2 = ⟨k −k ⟩ +⟨k ⟩ −⟨k ⟩ ⏟ ⏟ ⏟ = n ⋅ p⋅(1−p ) n ⋅(n−1)⋅ p n 2 ⟨k −k ⟩ = ⟨k⋅(k −1)⟩ = ∑ k =0 { k⋅(k −1)⋅ n' n ⋅p 2 (n⋅ p) n! k n−k p (1−p) k !(n−k )! } k ' ≡ k −2 n ' ≡ n−2 { } ⏟ = n ⋅(n−1)⋅ p ⋅ ∑ 2 2 k ' =0 (n' )! k' n ' −k ' p (1−p) (k ' )!(n ' −k ' )! = (p+(1−p))n' = 1 Datenanalyse HS16 Verteilungen (9) O. Steinkamp Beispiele Binomialverteilung Datenanalyse HS16 Verteilungen (10) O. Steinkamp Beispiel: Effizienz einer Funkenkammer Messe Spuren geladener Teilchen (z.B. aus kosmische Strahlung) ● parallele Metallplatten in Gasvolumen, dazwischen elektrische Spannung kurz unterhalb Durchbruchspannung ● geladenes Teilchen ionisiert Gas und löst Funken aus ● Annahmen für Rechenbeispiel: ● ● 95% Wahrscheinlichkeit, dass in einer Detektorlage ein Funken ausgelöst wird ● benötige Funken in mindestens drei Detektorlagen um eine Spur nachzuweisen Funkenkammer mit drei Detektorlagen: benötige 3 von 3 möglichen Treffern P (k =3 ∣ p=0.95 ,n=3) = 0.95 3 = 0.857 ● vier Detektorlagen: benötige 3 oder 4 von 4 möglichen Treffern P (4 ∣ 0.95 , 4) + P (3 ∣ 0.95 ,4) = 0.815 + 0.171 = 0.986 ● fünf Detektorlagen: benötige 3, 4 oder 5 von 5 möglichen Treffern P (5 ∣ 0.95 ,5) + P (4 ∣ 0.95 ,5) + P (3∣ 0.95 ,5) = 0.774 + 0.204 + 0.021 = 0.999 Datenanalyse HS16 Verteilungen (11) O. Steinkamp Poissonverteilung Näherung der Binomialverteilung für große Anzahl Versuche (n → ∞) ● Erwartungswert der Verteilung μ ≡ n ⋅p ● μ n k ( ) ( μ 1− n ) n−k μ 1− n ) n−k μ → 1− n ( ) n → e −μ Erwartungswert und n! → nk (n−k )! ● ( ) n−k ⇒ μk P (k ∣μ) = ⋅e −μ k! Varianz V (k ) = μ ⟨k ⟩ = μ ● n! 1 μk μ = ⋅ k ⋅ ⋅ 1− k! (n−k )! n n für n → ∞ ( ● μ n einsetzen in Binomialverteilung μ n! P (k ∣ p= , n) = n k ! (n−k )! ● p = ⇒ benutze Poisson, wenn n >> μ und wenn nur μ bekannt ist, aber nicht n und p ● z.B. Anzahl Kernzerfälle pro Zeitintervall in einer radioaktiven Quelle Datenanalyse HS16 Verteilungen (12) O. Steinkamp Beweise Poissonverteilung ● Normierung ∞ ∑ ∞ P (k ∣μ) = k =0 ● k =0 { }=e ⟨k ⟩ = ∑ k =0 { ∞ −μ μk = 1 k! ∑ k⏟ =0 =eμ Erwartungswert: ∞ ● ∑ μ k −μ e k! μ k −μ k⋅ e k! } = μe ∞ −μ ∑ k =1 μ k−1 = μ e −μ (k −1)! ∞ μk ' = μ (k ' )! ∑ k⏟ ' =0 =e μ vgl. Binomialverteilung ⟨k ⟩ = n⋅ p ≡ μ ● Varianz: V (k ) = ⟨k 2 ⟩−⟨k ⟩2 = ⟨k 2 ⟩ − ⟨k ⟩ + ⟨k ⟩−⟨k ⟩2 = ⟨⏟ k 2 − k ⟩ + ⟨k ⏟⟩ − ⟨k ⏟⟩2 = μ =μ 2 2 ⟨k −k ⟩ = ⟨k (k −1)⟩ = ∞ ∑ k =0 ● μ k −μ k (k −1)⋅ e k! { vgl. Binomialverteilung }=μ 2 =μ ∞ e −μ =μ 2 μk − 2 = μ2 (k −2)! ∑ ⏟ k =2 =eμ n → ∞ ⇒ p = μ / n → 0 ⇒ 1−p → 1 ⇒ V (k ) = n ⋅ p ⋅(1−p ) → n ⋅ p ≡ μ Datenanalyse HS16 Verteilungen (13) O. Steinkamp Beispiele Poissonverteilung Poisson Datenanalyse HS16 Binomial Verteilungen (14) Binomial O. Steinkamp Beispiel: tödliche Pferdetritte Klassiker, seit 1898 in vielen Statistik-Textbüchern: ● beobachte für 20 Jahre 10 Regimenter der preussischen Kavalerie ● beobachtete Anzahl Todesfälle durch Pferdetritte pro Regiment pro Jahr: ● k 0 1 2 3 4 ≥5 beobachtet 109 65 22 3 1 0 im Mittel 122 / (20×10) = 0.61 Todesfälle pro Regiment pro Jahr ● weiss nicht, wieviele Versuche n (Pferdetritte) stattgefunden haben und wie groß die Wahrscheinlichkeit p für Erfolg (Reiter tot) ist ● nehme an, dass n >> μ → Poissonverteilung mit Erwartungswert μ = 0.61 k 0 1 2 3 4 ≥5 Poisson (μ = 0.61) 108.7 66.3 20.2 4.1 0.63 0.07 Datenanalyse HS16 Verteilungen (15) O. Steinkamp Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen I - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS16 Verteilungen (16) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Kontinuierliche Verteilung: radioaktiver Zerfall Zerfallsgesetz: in festem Zeitintervall t zerfällt fester Bruchteil aktiver Kerne Δ N / Δ t = −λ N ● Anzahl der noch nicht zerfallenen Kerne als Funktion der Zeit t d N (t )/d t = −λ N ● ⇒ N (t ) = N 0 ⋅e−λ t Bruchteil der bereits zerfallenen Kerne als Funktion der Zeit t N 0 − N (t ) = 1 − e−λ t N0 ● Wahrscheinlichkeit, dass ein gegebener Kern nach der Zeit t zerfallen ist P (t ) = 1 − e−λ t ● kumulative Verteilungsfunktion Wahrscheinlichkeit, dass ein gegebener Kern im Intervall dt nach t zerfällt P (t +dt )−P (t ) = e−λ t − e−λ (t +dt ) ● für dt → 0 : P (t +dt )−P (t ) dt Datenanalyse HS16 → dt →0 dP (t ) = λ ⋅e−λ t ≡ p (t ) dt Verteilungen (17) Wahrscheinlichkeitsdichte O. Steinkamp Kontinuierliche Zufallsverteilung Wahrscheinlichkeitsdichte p(x) ≡ ● Wahrscheinlichkeit f ü r Wert zwischen x und x +dx dx f ü r dx → 0 Wahrscheinlichkeit für einen Wert x zwischen x1 und x2: x2 P ( x 1 ≤ x ≤ x 2) = ∫ p ( x ) dx x1 ● Normierung: ∞ P (−∞ ≤ x ≤ ∞) = ● p( x ) dx = 1 Erwartungswert: ● ∞ ⟨x⟩ = ● ∫ −∞ Varianz: ∫ x ⋅ p ( x ) dx ∞ ⟨f ( x )⟩ = −∞ ∫ f ( x )⋅ p ( x ) dx −∞ 2 2 V ( x ) ≡ ⟨ ( x −⟨ x ⟩) ⟩ = ⟨ x ⟩ − ⟨ x ⟩ Datenanalyse HS16 für Funktion f(x) der Zufallsvariablen 2 Verteilungen (18) V (f ) = ⟨f 2 ( x )⟩ − ⟨f ( x )⟩2 O. Steinkamp Kumulative Verteilungsfunktion Wahrscheinlichkeit, dass die Zufallsvariable einen Wert < x annimmt x P (x ) = ● ∫ −∞ p ( x ' ) dx ' Wahrscheinlichkeit für einen Wert zwischen x1 und x2: x =x 2 P ( x 1< x ≤ x 2) = ∫ p( x ) dx ⇔ P ( x 1< x ≤ x 2) = P ( x 2) − P ( x 1) x =x 1 ● Beispiel: fallende Exponentialverteilung p( x ) = λ e−λ x P ( x 1< x ≤ x 2) Datenanalyse HS16 P ( x 2) P ( x 1< x ≤ x 2) P ( x 1) Verteilungen (19) P ( x ) = 1−e−λ x O. Steinkamp Exponentialverteilung Wahrscheinlichkeitsdichte (ein Parameter: ) p ( x ∣ λ ) = λ ⋅e−λ⋅x ● Normierung ∞ ∫ λ ⋅e−λ⋅x dx 0 ● für x ≥ 0 ∞ = λ ⋅∫ e −λ⋅x dx = 1 Erwartungswert ⏟ 0 =1/ λ ∞ ⟨x⟩ = ∫ x ⋅λ ⋅e−λ⋅x dx = 0 ● 1 λ Varianz ∞ V (x ) = ∫ 0 1 2 1 ( x − ) ⋅λ ⋅e −λ⋅x dx = 2 λ λ Kumulative Verteilungsfunktion x P ( x ) = λ ⋅∫ e−λ⋅x ' dx ' = 1−e−λ⋅x 0 Datenanalyse HS16 Verteilungen (20) O. Steinkamp Gaußverteilung Wahrscheinlichkeitsdichte (zwei Parameter: ,) 1 ⋅e 2 √2 π σ p ( x ∣μ ,σ ) = ● − (x −μ )2 2 σ2 Erwartungswert σ ∞ ∫ ⟨x⟩ = x ⋅p ( x ∣ μ ,σ ) dx = μ −∞ ● Varianz ∞ V (x ) = ∫ ( x −μ )2 ⋅ p( x ∣μ , σ ) dx = σ2 −∞ Kumulative Verteilungsfunktion 1 P (x ) = 2 ● ( x −μ 1 + erf √2 σ ( )) mit “error function” erf ( x ) ≡ 2 ⋅ √π x ∫ e−x dx ' '2 0 erf(x) durch numerische Integration, unbest. Integral analytisch nicht lösbar Datenanalyse HS16 Verteilungen (21) O. Steinkamp Beweise Gaußverteilung ● Normierung ∞ 1 ∫ −∞ √ 2 π σ 2 e −(x −μ )2 2 σ2 ∞ 1 ⋅ e √ 2 π σ 2 −∞ −x ' 2 2σ 2 dx ' ∫ ⏟ dx = = 1 =√ 2 π σ 2 ● Erwartungswert ∞ ⟨x⟩ = x ∫ −∞ √ 2 π σ 2 e −(x −μ )2 2 σ2 −( x−μ )2 2 σ2 ∞ dx = −( x −μ )2 2 σ2 ∞ ( x −μ ) 1 e dx + μ ⋅ ∫ e dx ∫ −∞ 2 π σ −∞ 2 π σ √ √ ⏟ ⏟ 2 2 = 0 ● = 1 Varianz ∞ V ( x ) = ⟨( x −μ )2 ⟩ = ● = μ ∫ −∞ 2 −( x−μ )2 2 σ2 2 n−1 −a x 2 ( x−μ ) e 2 √ 2π σ ∞ dx = 1 2 ⋅ x ' e 2 √ 2 π σ −∞ ∫ −x ' 2 2 σ2 dx = σ 2 verwendete bestimmte Integrale ∞ −a x 2 ∫ e −∞ dx = Datenanalyse HS16 √ π a ∞ ∫ −∞ x e ∞ dx = 0 Verteilungen (22) 2 x 2 e−a x dx = ∫ −∞ 1 ⋅ π 2a a √ O. Steinkamp “Errorfunction” Häufig verwendete Werte (nützlich zu merken) ● P (|x - μ| ≤ 1σ) = 68.27 % (≈ 2/3) ● P (|x - μ| ≤ 2σ) = 95.45 % ● P (|x - μ| ≤ 3σ) = 99.73 % ● P (|x - μ| ≤ 1.645σ) = 90 % ● P (|x - μ| ≤ 1.960σ) = 95 % ● P (|x - μ| ≤ 2.576σ) = 99 % Datenanalyse HS16 Verteilungen (23) O. Steinkamp Zusammenhang zwischen Exponentialverteilung und Poissonverteilung ● betrachte einen Prozess, bei dem die Anzahl Ereignisse k pro Zeitintervall t einer Poissonverteilung mit Erwartungswert = ·t folgt (λ⋅Δ t )k −(λ⋅Δ t ) P (k ∣μ ) = P (k ∣ λ⋅Δ t ) = e k! ● ● zur Zeit t = 0 habe ein Zerfall stattgefunden → berechne Wahrscheinlichkeit, dass der nächste Zerfall im Zeitintervall [ t , t+dt ] stattfindet nächster Zerfall im Zeitintervall [ t , t+dt ] = kein Zerfall im Intervall [ 0 , t ] & ein Zerfall im Intervall [ t , t+dt ] p (t ) dt = P (0 ∣ λ⋅t ) × P (1 ∣ λ⋅dt ) = e−λ⋅t × λ⋅dt ⋅e−λ⋅dt ● für dt → 0 e−λ⋅dt → 1 ● ⇒ p (t ) dt → λ ⋅e−λ⋅t dt ⇔ p (t ) → λ ⋅e−λ⋅t Zeitverteilung folgt einer Exponentialverteilung mit Erwartungswert 1/ Erwartungswert einer Exponentialverteilung kann durch ein Zählexperiment bestimmt werden Datenanalyse HS16 Verteilungen (24) O. Steinkamp Weitere wichtige Verteilungen Gleichverteilung p(x) = { ● Erwartungswert: ● Varianz: 1 (b−a) 0 f ü r a≤x ≤b sonst ⟨ x ⟩ = (a + b ) / 2 V ( x ) = (b − a)2 / 12 Breit-Wigner Verteilung (Resonanz-Kurve) 1 Gaußverteilung mit gleichem FWHM Γ/2 p ( x ∣ M , Γ) = π ⋅ ( x −M )2 +(Γ /2)2 ● Erwartungswert: ⟨ x ⟩ = M ● Varianz: nicht definiert ( ∫ x p ( x ) dx divergiert) ● Full Width at Half Maximum: FWHM = 2 Datenanalyse HS16 Verteilungen (25) FWHM O. Steinkamp Python: from scipy import stats Für kontinuierliche Verteilungen (Beispiel Exponentialverteilung) ● stats.expon.pdf – Wahrscheinlichkeitsdichte ● stats.expon.cdf – kumulative Verteilungsfunktion ● stats.expon.ppf – inverse kumulative Verteilungsfunktion Für diskrete Verteilungen (Beispiel Poissonverteilung) ● stats.poisson.pmf – Wahrscheinlichkeit ● stats.poisson.cdf – kumulative Verteilungsfunktion ● stats.poisson.ppf – inverse kumulative Verteilungsfunktion Weitere wichtige Verteilungen ● stats.binom.* – Binomialverteilung ● stats.norm.* – Gaußverteilung (“normal distribution”) ● stats.uniform.* – Gleichverteilung (“uniform distribution”) ● stats.cauchy.* – Breit-Wigner Verteilung (“Cauchyverteilung”) ● stats.chi2.* – ²-Verteilung Datenanalyse HS16 Verteilungen (26) … und viele mehr, siehe python Dokumentation O. Steinkamp Vorlesungsprogramm ● ● ● ● ● ● ● ● Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik - Mittelwert, Standardabweichung, Kovarianz und Korrelation Fehlerfortpflanzungsgesetz Wahrscheinlichkeitsverteilungen I - diskrete Verteilungen, kontinuierliche Verteilungen - zentraler Grenzwertsatz Monte-Carlo Methode Wahrscheinlichkeitsverteilungen II - Faltung zweier Verteilungen - Verteilungen zweier Variablen Stichproben und Schätzfunktionen - Maximum-Likelihood Methode - Methode der kleinsten Quadrate Interpretation von Messergebnissen - Konfidenzintervalle, Testen von Hypothesen Datenanalyse HS16 Verteilungen (27) Beispielprogramme im Verzeichnis /disk/puma/da/vorl/vert O. Steinkamp Zentraler Grenzwertsatz Betrachte N voneinander unabhängige Zufallsvariablen xi (i = 1, ..., N) ● jedes xi folgt einer beliebigen Wahrscheinlichkeitsverteilung ● ● die Verteilung für xi habe den Erwartungswert μi und die Varianz σi² definiere eine neue Zufallsvariable N X ≡ ∑ xi i =1 ● für die Zufallsverteilung von X gilt: ● sie hat den Erwartungswert ⟨ X ⟩ = ∑Ni =1 μ i ● sie hat die Varianz V (X ) = ● sie strebt für N → ∞ einer Gaußverteilung entgegen ∑Ni =1 σ 2i ● gilt auch, wenn verschiedene xi unterschiedlichen Zufallsverteilungen folgen ● aber: gilt nur wenn die xi statistisch voneinander unabhängig sind !!!!! Datenanalyse HS16 Verteilungen (28) O. Steinkamp Beweise zentraler Grenzwertsatz ● Erwartungswert ⟨ X ⟩ = ⟨∑ x i ⟩ = i ● ∑ ⟨ xi ⟩ = i ∑ μi i Varianz V ( X ) = ⟨ ( X − ⟨ X ⟩ )2 ⟩ 2 ⟨( )⟩ = ∑ ( x −μ ) ⟨( )⟩ ∑ x i − ∑ μi = i i 2 i = i i ( x i −μ i )2 ∑ ⟨ + i = ⟨ ( x i −μ i )2 ⟩ ∑⏟ i σ 2i ∑ ∑ ( x i −μ i )⋅( x j −μ j ) ⟩ i + j ≠i ⟨ ( x i −μ i )⋅( x j −μ j ) ⟩ ∑∑⏟ i j ≠i cov (x i , x j ) xi und xj statistisch voneinander unabhängig cov (xi,xj) = 0 Datenanalyse HS16 Verteilungen (29) O. Steinkamp Beispiel zentraler Grenzwertsatz N unabhängige Zufallsvariablen, jede von 0 bis 1 gleichverteilt ------- Gaussverteilung mit μ = N / 2 und σ = √N / 12 Datenanalyse HS16 Verteilungen (30) O. Steinkamp Gaußverteilte Messunsicherheiten Abweichung einer Messung vom “wahren” Wert hat meist viele Beiträge ● ● z.B. Rauschsignal in Messelektronik ● viele Bauteile (Widerstände, Kondensatoren,…) ● zufällige Spannungs-/Stromfluktuationen in jedem dieser Bauteile ● gesamtes Rauschsignal ist Summe aller dieser Beiträge wenn diese Beiträge statistisch unabhängig voneinander sind: zentraler Grenzwertsatz Abweichungen der Messwerte vom wahren Wert folgen einer Gaußverteilung ● gilt NICHT, wenn die Einzelbeiträge nicht statistisch unabhängig sind ● ● z.B. bei gemeinsamen systematischen Unsicherheiten gilt NICHT, wenn eine einzelne Fehlerquelle die Abweichungen dominiert Annahme gaußverteilter Abweichungen ist eine (nicht immer gute) Näherung Datenanalyse HS16 Verteilungen (31) O. Steinkamp Gaußverteilte Messunsicherheiten Fehlerbalken geben ± 1 Standardabweichung um den Messwert an ● ● für gaußverteilte Messabweichungen vom wahren Wert s. Folie 23 ● sollten 68 % der Messwerte innnerhalb ±1·σ um den wahren Wert liegen ● sollten ~1/3 der Fehlerbalken den wahren Wert nicht enthalten erlaubt grobe Kontrolle, ob Messunsicherheiten korrekt bestimmt sind unterschätzt Datenanalyse HS16 Messunsicherheit korrekt Verteilungen (32) überschätzt O. Steinkamp