Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.B. Würfeln, Dart werfen, Doppelspaltexperiment,...) Zufallsereigniss: Ausgang kann nicht individuell vorhergesagt werden. gemittelter Ausgang von vielen Wiederholungen desselben Experimentes kann vorhergesagt werden → Wahrscheinlichkeitstheorie. mögliche zugrundeliegende Mechanismen: • statist. Fluktuationen der Anfangs- oder Nebenbedingungen • absichtlicher Informationsverzicht (Thermodynamik & statist. Physik) • prinzipielle Unbestimmtheit (Quantenmechanik) “mittlerer” Ausgang eines Zufallsexperimentes beschrieben durch Wahrscheinlichkeitsmaß P auf Stichprobenmenge Ω. Axiomatisierung dieser Ideen: Die möglichen Ausgänge eines Zufallsexperiment heißen Elementarereignisse ωi Menge aller Elementarereignisse (Stichprobenmenge): Ω = {ωi } beobachtbares Ereignis: A ⊂ Ω (beliebige Teilmenge von Ω) Beispiel. Einmal würfeln: Ω = {1, 2, 3, 4, 5, 6} Ereignis: Gewürfelte Augenzahl ist gerade: A = {2, 4, 6} Definition (Wahrscheinlichkeit): Sei Ω ... Stichprobenmenge, A = {A ⊂ Ω} ... Menge aller Teilmengen (=beobachtbarer Ereignisse) (genauer: A = σ-Algebra) P : A → [0, 1] heißt Wahrscheinlichkeit, wenn 1. 0 ≤ P (A) ≤ 1 für alle A ∈ A 2. P (∅) = 0, 1 P (Ω) = 1 3. P( ∞ [ An ) = n=1 ∞ X P (An ) falls An ∩ Am = ∅ für n 6= m n=1 Definition (bedingte Wahrscheinlichkeit) Seien A, B ⊂ Ω zwei Ereignisse. die bedingte Wahrscheinlichkeit von A vorausgesetzt B, geschrieben als P (A | B), ist definiert durch P (A ∩ B) P (A | B) = P (B) Definition (statistische Unabhängigkeit) 2 Ereignisse A, B ⊂ Ω sind staatistisch unabhängig wenn P (A ∩ B) = P (A)P (B) dies ist äquivalent zu P (A | B) = P (A). Diskreter Wahrscheinlichkeitsraum Sei Ω = {ω1 , ..., ωn , ...} diskret (z.B. endlich): 1. pi := P ({ωi }) ∈ [0, 1] 2. P (∅) = 0, P (Ω) = 1 3. P ({ωi1 , ..., ωiN }) = N X pik k=1 (Ω, A, P ) heißt Wahrscheinlichkeitsraum Wiederholung von unabhängigen Zufallsexperimenten: Ein Zufallsexperiment sei beschrieben durch (Ω, A, P ) Die n− fache Wiederholung desselben Experiments ist beschrieben durch den Zufallsraum Ωn = Ω × ... × Ω, bestehend aus Folgen von Ereignissen (ω1 , ..., ωn ) ∈ Ωn . Das Wahrscheinlichkeitsmaß auf Ωn ist gegeben durch P (A1 × ... × An ) = P (A1 ) · ... · P (An ) Beispiel: Wir würfeln zwei mal, mit Ergebnissen (ω1 , ω2 ) ∈ {1, .., 6} × {1, ..., 6}. 2 Die Wahrscheinlichkeit, zuerst 1 und dann 2 zu würfeln ist Die Wahrscheinlichkeit, zwei mal 6 zu würfeln ist 11 66 = 1 . 36 1 . 36 Die Wahrscheinlichkeit, einmal eine eins und einmal eine 2 zu würfeln ist P ({(1, 2), (2, 1)} = 2 . 36 Die Wahrscheinlichkeit, beim ersten Wurf eine 1 zu würfeln ist P ({(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6)} = 1 , genauso für den zweiten Wurf. Offensichtlich ist das erste und das zweite Ergebnis statistisch 6 unabhängig. Beispiel: Binomialverteilung. Wir betrachten ein Ja/Nein Experiment, mit zwei möglichen Ausgängen Ω = {0, 1} mit Wahrscheinlichkeiten p = P ({1}) und 1 − p = P ({0}). Wir wiederholen das Experiment N mal (unabhängig). k Wir suchen die Wahrscheinlichkeit, dass k mal das Ergebnis 1 eintritt. Dafür gibt es n mögliche Elementarergebnisse, somit 00 k N −k N βk;N := P (“k mal 1 ) = p (1 − p) k dies erfüllt offensichtlich N X βk;N = (p + (1 − p))N = 1 k=0 wie es sein muss. Man kann zeigen, dass für p 1 die Binomialverteilung in die Poisson-Verteilung übergeht: βk;N ≈ e−λ λk k! für λ = pN = const (1) Zufallsvariablen Definition (Zufallsvariable). Sei Wahrscheinlichkeitsraum (Ω, A, P ) gegeben. Eine Zufallsvariable X:Ω → R ω 7→ X(ω) (2) (3) ist eine (messbare) Abbildung von Ω nach R. Beispiel. Nummer des Rings der Zielscheibe, in dem der Pfeil steckt. Definition (Mehrdimensionale Zufallsvariable). Seien X1 , X2 , ..., Xn auf (Ω, A, P ) definierte Zufallsvariable X : Ω → Rn ω 7→ (X1 (ω), X2 (ω), ...Xn (ω)) Beispiel. Ω = {Bevölkerung einer Stadt} 3 (4) (5) X1 . . . Größe, X2 . . . Gewicht, X3 . . . Alter Definition (Stetige Zufallsvariable). X heißt stetige Zufallsvariable, wenn es eine Wahrscheinlichkeitsdichte p(x) gibt, sodass Z t p(x)dx P ({ω ∈ Ω|X(ω) < t}) = P (X < t) = −∞ Bemerkung. Z ∞ lim P ({ω ∈ Ω|X(ω) < t}) = t→∞ p(x)dx = 1 −∞ (X hat sicher irgendeinen Wert). Daraus folgt Z P (X ∈ [a, b]) = b p(x)dx a weil P (X < a) + P (a ≤ x ≤ b) = P (x < b) P (a ≤ x ≤ b) = P (x < b) − P (x < a) (6) Beispiel: Gauss (Normal-) Verteilung ... ist definiert durch 1 P (X ∈ (−∞, z]) = Φµ,σ (z) = √ 2πσ Z z dxe − 12 x−µ σ 2 −∞ Mehrdimensionale, stetige Zufallsvariable: Z P (X ∈ B) = p(x1 , x2 , ...xn )dx1 ...dxn B n für B ⊂ R . Definition: Zwei Zufallsvariablen X, Y auf Ω heißen unabhängig, wenn P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B) für alle A, B ⊂ Ω. bei stetigen Zufallsvariablen X, Y gilt dies wenn p(x, y) = p(x)p(y). Erwartungswert und Varianz 1. Definition (Erwartungswert einer stetigen Zufallsvariable X): Z ∞ hXi = xp(x)dx −∞ beziehungsweise, falls Y = g(X), Z ∞ hY i = g(x)p(x)dx −∞ Allgemein gilt hX1 + αX2 i = hX1 i + αhX2 i. 4 (7) 2. Definition (Erwartungswert einer diskreten Zufallsvariable X) . X hXi = X(ωi )pi i beziehungsweise, falls Y = g(X), hY i = X g(X(ωi ))pi i Definition (Varianz einer Zufallsvariable X): Die Varianz VX einer Zufallsvariablen X ist definiert durch VX = h(X − hXi)2 i Die Streuung oder Standardabweichung von X ist definiert durch p p σX = VX = h(X − hXi)2 i Beispiel: Gauss (Normal-) Verteilung Erwartungswert und Varianz der Gauss-Verteilung sind gegeben durch hXi = µ, σX = σ (8) Beispiel: Binomialverteilung Wir können die Binomialverteilung mit der folgende Zufallsvariable beschreiben X : {0, 1}N → N X((ω1 , ..., ωN )) = (9) N X ωi (10) i=1 X gibt an wie oft das Ergebnis 1 auftritt. Dann ist k N −k P (X = k) = βk;N = p (1 − p) N k (11) allgemeiner: eine Zufallsvariable X mit Werten in ΩN = {0, 1, ..., N } binomialverteilt (genauer: βk;N -verteilt) , wenn k N −k N P (X = k) = βk;N = p (1 − p) k Der Erwartungswert von X ist gegeben durch X N N X N! k N −k N hXi = kp (1 − p) = kpk (1 − p)N −k k k!(N − k)! = k=0 N X k=0 N ppk−1 (1 − p)N −k k=1 = Np N −1 X k=0 (N − 1)! (k − 1)!(N − k)! N −1 = Np k−1 (12) P P wie zu erwarten war. Dies folgt auch leicht aus h Xi i = i hXi i wobei Xi das Resultat des i-ten Zufallsexperimentes ist. dies führt zum 5 Gesetz der großen Zahlen Seien X1 , X2 , ... unabhängige Zufallsvariablen mit identischer Verteilung und Erwartungswert µ. Definiere die “summierte Zufallsvariable” SN = N X Xi i=1 Dann gilt (Bernoulli, ...) P (| 1 SN − µ| > ε) → 0 N für N → ∞ Dies besagt, dass die “relative Häufigkeit” des Ereignisses ω1 durch p gegeben ist. Schließlich geben wir nun den zentralen Grenzwertsatz an: Zentraler Grenzwertsatz Seien X1 , X2 , ... unabhängige Zufallsvariablen mit identischer Verteilung, Erwartungswert µ und Varianz σ. Betrachte die Zufallsvariable SN = X1 + ... + XN (13) bzw. die standardisierte Zufallsvariable ZN = SN − N µ √ σ N (14) Dann gilt 1 lim P (ZN ≤ z) = Φ0,1 (z) = √ N →∞ 2π Dies erklärt die Universalität der Gauss-Verteilung ! 6 Z z −∞ 1 2 e− 2 x dx (15)