Vorlesung Mathematik für Informatiker 3 Wahrscheinlichkeitstheorie Prof. Dr. Linde WS 2002/2003 Vorwort Dieses Skript ist im Rahmen des Projekts „Vorlesungsskripte der Fakultät für Mathematik und Informatik“ entstanden und wird im Rahmen dieses Projekts weiter betreut. Das Skript ist nach bestem Wissen und Gewissen entstanden. Dennoch garantiert weder der auf der Titelseite genannte Dozent, noch die Mitglieder des Projekts für dessen Fehlerfreiheit. Für etwaige Fehler und dessen Folgen wird von keiner der genannten Personen eine Haftung übernommen. Es steht jeder Person frei, dieses Skript zu lesen, zu verändern oder auf anderen Medien verfügbar zu machen und es an andere zu verteilen, solange ein Verweis die Internetadresse des Projekts http://uni-skripte.lug-jena.de/ enthalten ist. Diese Ausgabe trägt die Versionsnummer 1700 und ist vom 21. Oktober 2008. Eine aktuellere Ausgabe könnte auf der oben genannten Internetseite verfügbar sein. Jeder ist dazu aufgerufen, Verbesserungen, Erweiterungen und Fehlerkorrekturen für das Skript einzureichen bzw. zu melden oder selbst bzw. zu melden oder selbst einzupflegen – einfach eine E-Mail an die Mailingliste <[email protected]> senden. Weitere Informationen sind unter der oben genannten Internetadresse des Projekts verfügbar. Hiermit möchten wir allen Personen, die an diesem Skript mitgewirkt haben, vielmals danken: • Christian Raschka <[email protected]> (2003) • Matti Bickel <[email protected]> (2005) • Stefan Tilchner <[email protected]> (2008) 3 Inhaltsverzeichnis 1 Das Modell der Wahrscheinlichkeitstheorie 1.1 Der Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . 1.1.1 Grundraum Ω . . . . . . . . . . . . . . . . . . . 1.1.2 Wahrscheinlichkeitsmaß und Ereignis-σ-Algebra 1.2 Einfache Eigenschaften von Wahrscheinlichkeitsmaßen . 1.3 Diskrete Wahrscheinlichkeitsmaße . . . . . . . . . . . . 1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße . . . . . . 1.5 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . 1.6 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . 1.7 Unabhängigkeit von Ereignissen . . . . . . . . . . . . . 1.8 Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . 2 Zufällige Größen 2.1 Definition und Verteilungsgesetz . 2.2 Gemeinsame Verteilung . . . . . . 2.3 Unabhängigkeit zufälliger Größen 2.4 Transformation zufälliger Größen 2.5 Rechnen mit zufälligen Größen . . 2.6 Erwartungswert . . . . . . . . . . 2.7 Varianz und Kovarianz . . . . . . 3 Grenzwertsätze 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 10 11 13 18 27 30 36 . . . . . . . 39 39 43 47 50 55 61 68 76 1 Das Modell der Wahrscheinlichkeitstheorie 1.1 Der Wahrscheinlichkeitsraum WT = Mathematisches Modell zur Beschreibung von Versuchen mit zufälligem Ergebnis, von Zufallsexperimenten und von zufälligen Erscheinungen. • kein philosophischer Ansatz • Modell vs. Realität? (nie 100%) • Versuch mit zufälligem Ergebnis = b bei identischer Versuchsanordnung sind verschiedene Ergebnisse möglich (nicht vorhersehbar) • Zufallsexperiment = b gezieltes Experiment und Aussagen über den wahren Sachverhalt zu bekommen. Beobachtung = Stichprobe (Statistisches Experiment) • zum Beipiel Meinungsforschung, Gütekontrolle o.ä. • zufällige Erscheinung = b Dinge der realen Welt, die anscheinend völlig gesetzlos auftreten, zum Beispiel Anzahl Anrufe in einem Callcenter an einem Tag, Ausfallszeit eines Bauteils, Anzahl der Verkehrsunfällen in einer Stadt pro Tag, Brände usw. • Zwei Typische Beispiele 1. Würfeln: – Einmaliges Würfeln: Ergebnis, zufällige Zahl aus {1, . . . , 6} – n-maliges Würfeln: Ergebnis, zufälliger Vektor, Länge n, ω = (ω1 , . . . , ωn ) ωj ∈ {1, . . . , 6} 2. Lebensdauer eines Bauteils, Lebewesens Zum Zeitpunkt 0 nehmen wir Bauteil in Betrieb Zum zufälligen Zeitpunkt t > 0 Ausfall des Bauteils Zufall: t > 0; Beobachten zufällige reelle zahl t ∈ [0, ∞). 5 1 Das Modell der Wahrscheinlichkeitstheorie Axiom 1.1 Vorgänge, bei denen zufällige Erscheinungen auftreten, werden durch einen Wahrscheinlickeitsraum ! Ω , |{z} A |{z} , P |{z} Grundraum Ereignis−σ−Algebra W ahrscheinlichkeitsmaß beschrieben. 1.1.1 Grundraum Ω Der Raum der Elementarereignisse Ω enhält (mindestens) alle möglichen Versuchsausgänge. Aus mathematischen Gründen wählt man manchmal Ω größer. Beispiel 1 1. Einmaliges Würfeln: Ω = {1, . . . , 6} möglich wäre Ω = {1, 2, 3, . . . } oder Ω = R, nicht möglich Ω = {1, . . . , 5} 2. n-maliges Würfeln: Ω = {1, . . . , 6}n = {ω = (ω1 , . . . , ωn ) : ωj ∈ {1, . . . , 6}} Beispiel 2 Urne mit weißen und schwarzen Kugeln Man ziehe zwei Kugeln Ω = {(s, s), (s, w), (w, s), (w, w)} Interesse Anzahl weiße Kugeln: Ω = {0, 1, 2} Beispiel 3 Würfeln bis erste Sechs Registriere die Anzahl der Würfeldauer Ω = {0, 1, 2, 3, . . . } = N0 Beispiel 4 Lebensdauer eines Bauteils Ω = [0, ∞) Definition 1.2 Eine Teilmenge A ⊆ Ω heißt Ereignis. ω ∈ Ω wurde beobachtet: • ω ∈ A, d.h. A ist eingetreten • ω∈ / A, d.h. A ist nicht eingetreten 6 1.1 Der Wahrscheinlichkeitsraum Beispiel 5 Sei Ω = {1, . . . , 6} A = {2, 4, 6} Würfel zeigt „Drei“ y A ist nicht eingetreten! Die einpunktigen Teilmengen von Ω heißen Elementarereignisse! Sei Ω = {1, . . . , 6} Ereignisse: ∅, {1} , . . . , {6} , {1, 2} , {1, 3} , . . . , Ω | {z } Elementarereignisse Beispiel 6 Lebensdauer eines Bauteils A = [0, ∞) A ist eingetreten ⇔ Bauteil arbeitet mindestens 100 Zeiteinheiten ⇔ Zum Zeitpunkt 100 ist es noch nicht defekt! Ein Elementarereignis {ω0 } tritt ein ⇔ ω0 beobachtet wird. Eigenschaften 1. Ω tritt stets ein y sicheres Ereignis 2. ∅ tritt niemals ein y unmögliches Ereignis 3. A, B ⊆ Ω; A ∪ B tritt ein ⇔ A oder B tritt ein 4. A ∩ B tritt ein ⇔ A und B treten ein 5. AC (Komplement)= Ω\A tritt ein ⇔ A tritt nicht ein Zusammenfassung: Der Grundraum Ω besteht aus allen möglichen Versuchsausgängen. Die Teilmengen treten ein, gdw. ein Element der Teilmenge beobachtet wird. 1.1.2 Wahrscheinlichkeitsmaß und Ereignis-σ-Algebra Der Zufall unterliegt gewissen Gesetzmäßigkeiten. Ereignisse treten nicht völlig willkürlich ein, sondern mit gewisser Wahrscheinlichkeit. Ziel: Jedem Ereignis A ⊆ Ω die Wahrscheinlichkeit P(A) zuordnen. 0 ≥ P(A) ≥ 1 P(A) = 0, d.h. Wahrscheinlichkeit des Eintretens A ist Null. P(A) = 1, d.h. A tritt sicher ein Beispiel 1 Ω = {1, . . . , 6}, Würfel sei fair A = {1} ⇒ P(A) = 61 A = {2, 5} ⇒ P(A) = Was bedeutet P({2, 5}) = 31 ? 2 3 P(Ω) = 1 7 1 Das Modell der Wahrscheinlichkeitstheorie Beispiel 2 Krankheit X: Überlebenschance ist 1 2 ! Was bedeutet das? P(A)= b mathematische Abstraktion für den Grenzwert der relativen Häufigkeiten rn n-unabhängige Versuche: rn := ] Versuche, bei denen A eingetreten ist n rn → P(A) Bestimmung von P(A): 1. Theoretische Überlegung: (z.B. Symmetrie) 2. Statistische Untersuchung 3. Subjektive Annahme aufgrund von Erfahrungen Ziel: Abbildung P : R(Ω) → [0, 1], die jedem Ereignis A ⊆ Ω die Wahrscheinlichkeit seines Eintretens zuordnet. Welche Eigenschaft sollte P besitzen? 1. P(∅) = 0, P(Ω) = 1 ! 2. A ∩ B = ∅ → P(A ∪ B) = P(A) + P(B)S (endliche Additivität) P ⇒ A1 , . . . , An : Ai ∩ Aj = ∅; i 6= j ⇒ P( nj=1 Aj ) = nj=1 P(AJ ) endliche Additivität reicht nicht aus. Beispiel 3 Würfeln bis erste Sechs An := {Erste Sechs erscheint in (n + 1)-ten Versuch} ; n = 0, 1, . . . Frage: Wahrscheinlichkeit von B := {erste Sechs nach ungerader Wurfzahl} P(B) = P( ∞ [ ! A2n ) = n=0 ∞ X P(A2n ) n=0 Definition 1.3 P : R(Ω) → [0, 1] heißt σ-additiv, wenn für A1 , A2 , . . . mit Ai ∩ Aj ∅; i 6= j, stets P( ∞ [ j=1 folgt. 8 Aj ) = ∞ X P(Aj ) 1.1 Der Wahrscheinlichkeitsraum Problem: Ω „groß“ z.B. Ω = R, dann existiert keine solche Abbildung Lösung: Teilsystem A ⊆ R(Ω) und man definiert P(A) nunmehr nur für Mengen A ∈ A, d.h. nicht alle Ereignisse besitzen eine Wahrscheinlichkeit ihres Eintretens. A sollte die „wichtigen“ Teilmengen enthalten, z.B. alle Intervalle, Punkte usw. Definition 1.4 A heißt σ-Algebra, wenn 1. ∅, Ω ∈ A 2. A ∈ A y AC ∈ A 3. A1 , A2 , · · · ∈ A y S∞ j=1 Aj ∈ A Eigenschaften: T∞ 1. A1 , A2 , · · · ∈ A y j=1 Aj ∈ A Beweis: A1 , A2 , . . . y AC , AC , · · · ∈ A S∞1 2 S∞ C C ( j=1 Aj ) ∈ A y j=1 Aj ∈ A; y 2. A, B ∈ A y A ∪ B ∈ A Beweis: A1 := A, A2 := B, A3 := ∅, A4 := ∅, . . . y A1 ∪ A2 = A ∪ B; S∞ j=1 y AC j ∈ A S∞ j=1 y Aj ∈ A Definition 1.5 (Wahrscheinlichkeitsraum(Ω, A, P)) Grundraum Ω 6= ∅ A ⊆ R(Ω) − σ-Algebra P : A → [0, 1] mit P(∅) = 0, P(Ω) = 1, und P ist σ-additiv! Beispiel 4 Modell des Würfelns: ({1, . . . , 6} , R, P) ](A) P(A) = 6 Versuch mir zufälligem Ausgang; Aufgabe : Man finde das passende Modell! 9 1 Das Modell der Wahrscheinlichkeitstheorie 1.2 Einfache Eigenschaften von Wahrscheinlichkeitsmaßen (Ω, A, P) Satz 1.1 S P 1. Sind A1 , . . . , An ∈ A disjunkt, so folgt P( nj Aj ) = nj P(Aj ) endliche Additivität 2. A ⊆ B y P(A) ≤ P(B) Monotonie 3. A ⊆ B y P(B\A) = P(B) − P(A) 4. P(AC ) = 1 − P(A) S 5. A1 ⊆ A2 ⊆ . . . y P( ∞ j=1 Aj ) = limn→∞ P(An ) (Stetigkeit von unten) T 6. A1 ⊇ A2 ⊇ . . . y P( ∞ j=1 Aj ) = limn→∞ P(An ) (Stetigkeit von oben) Beweis: Bn+1 := ∅; Bn+2 : ∅; . . . ; 1. B1 := A1 ; B2 := A2 ; . . . ; Bn := An ; Bi ∩ Bj = ∅; i 6= j; y σ − Add. : ∞ [ P( Bj ) = j=1 | {z P( = n [ ∞ X P(Bj ) j=1 } Aj ) = j=1 | n X j=1 {z = } P(Aj ) + P(∅) + . . . | {z } 2. P(B) = P(A) + P(B\A) ≥ P(A) 3. B = A ∪ (B\A) y(1) | {z } P(B) = P(A) + P(B\A) disjunkt siehe Abbildung 1.1 4. Ω = A ∪ AC 10 P(Ω) = 1 = P(A) + P(AC ) =0 1.3 Diskrete Wahrscheinlichkeitsmaße ......................................... ......... ............. ........ ....... ....... ...... ...... ...... . . . . ..... ... . . . ..... . .... ... . ..... ..... . . . .... ......... .... . . ........ .. . . . . . . ..... ... ... ..... ..... ... ..... ... ..... ........................ ... ... ..... ......... ...... . . . ... . . .... ..... .. ... ... .. ..... ... ... ... .... . ... ... .... ... ... ... ... ... ... ... .. .... .... . ... ... ... ... ... .. . ... . . . . ... ... . . . . . ... . . ... . . . . ..... ... ..... ...... ... ... ...... ........ ... .......................... ... ... ... ... ... . . ... ... ... .... ... ..... .... ..... ..... . . . . ..... . ...... ..... ..... ...... ...... ....... ....... ......... ........ ............. ........................................ A B\A B Abbildung 1.1: zu Satz 1.1 (3) ......................................... ......... ............. ........ ....... ....... ...... ...... ...... . . . . ..... ... . . . ..... . ... . ..... . . . .... ............................ . . . . .... . . . . . . . . . ... ........ ..... .. . . . . ... . . . . . . . ...... .... ... . . ... . . . . . ..... ... ... . . .. . . . . . ... ... ... .. . . ... . . . ... ... ... .... . . ... ......................... . ... . .. . . ... . . ... ..... ... .... .. . . . . ... . . ... ... ... ... . .... . ... ... ... ... .... . ... ... ... ... ... .... .. .... .... . .. ... ... ... ... . . . .. . . ... . . ... ... . . . . . . ... . ... ... . . . . . . ..... .. . . ... . ... . . . . . . . . . . ......... ........ ... ... .......... ... ... ... ... .. ... ... ... .. ... ..... ... ... ..... ..... . . . . ... . . . . ...... . ... ...... ....... ... ... ....... ......... .... ... ........................................ ..... .... ..... ..... . . . . ..... . ...... ..... ..... ...... ...... ....... ....... ......... ........ ............. ........................................ A1 A2 A3 Abbildung 1.2: zu Satz 1.1 (5) 5. A0 := ∅; Bn := An \An−1 S∞ (Ringe), fürS∞n = 1, 2, . . . y Bn sind disjunkt & n=1 Bn := A = j=1 Aj P P∞ P∞ (3) P(A) = ∞ n=1 P(Bn ) = n=1 P(An \An−1 ) y n=1 [P(An ) − P(An−1 )] = limn→∞ Pn j=1 [P(Aj ) − P(Aj−1 )] = limn→∞ P(An ) − P(A0 ) = limn→∞ P(An ) | {z } = siehe Abbildung 1.2 T C 6. A1 ⊇ A2 ⊇ . . . A := ∞ n = 1An y AC 1 ⊆ A2 ⊆ . . . de Morgan T S∞ C C C z}|{ = ( ∞ n=1 An ) = A n=1 An C y(5) lim P(An ) = P(AC ) n→∞ | {z } = 1 − limn→∞ P(An ) = 1 − P(A) 1.3 Diskrete Wahrscheinlichkeitsmaße Experiment: endlich viele der höchstens abzählbar unendlich vielen Werte können auftreten: y Ω = {ω1 , . . . , ωn } oder Ω = {ω1 , ω2 , . . .} Beispiel 1 Würfel n-mal y Ω = {1, . . . , 6}n = {(x1 , . . . , xn ) : xj ∈ {1, . . . , 6}} Beispiel 2 Würfel bis erste „Sechs“, Registriere Anzahl Würfe y Ω = {0, 1, 2, . . .} ∪ {∞} Man kann in beiden Fällen stets A = R(Ω) wählen! 11 1 Das Modell der Wahrscheinlichkeitstheorie zu Beispiel 1: Ω = {ω1 , . . . , ωn } pj = P({ωj }), 1 ≤ j ≤ N. n n n [ X X pj ≥ 0; 1 = P(Ω) = P( ωj ) = P({ωj }) = pj j=1 A⊆Ω j=1 P(A) = P( [ ωj ) = wj ∈A j=1 X pj {j:ωj ∈A} PN P ist Wahrscheinlickeitsmaß ⇒eindeutig (pj )N j=1 mit pj ≥ 0; j pj = 1 PN Seien nunmehr pj ≥ mit j pj = 1 gegeben. Definieren nun: Definition 1.6 P: R(Ω) → [0, 1] durch P(A) := X pj → P Wahrscheinlichkeitsmaß wj ∈A Ω = {ω1 , . . . , ωn } {P : P Wahrscheinlichkeitsmaß auf Ω} ⇔ o n PN p = 1 : p ≥ 0; (pj )N j j=1 j=1 j P „⇒“ pj := P({ωj }) “⇐“ P(A) := ωj ∈A pj Beispiel 3 Ω = {1, . . . , 6} Wahrscheinlichkeitsmaße auf Ω entsprechen eineindeutig Zahlen p1 , . . . , p6 ≥ 0; p1 + . . . + p6 = 1 Würfel(fair): p1 = . . . = p6 = 61 Würfel(unfair): p1 = p2 = p5 = 0; p3 = p4 = 14 ; p6 = 12 Frage: P({1, 2, 3}) = 41 P({4, 6}) = 43 zu Beispiel 2: Ω = {ω1 , ω2 , . . .} pj ≥ 0; j = P({ωj }), j = 1, 2, . . . Pp∞ ∞ P ⇒ (pj )j=1 ; pj ≥ 0; j=1 pj = 1 Seien nun (pj )∞ j=1 mit diesen Eigenschaften gegeben: P(A) := X ωj ∈A y P ist ein Wahrscheinlichkeitsmaß auf R(Ω) 12 pj P∞ j=1 pj = 1 1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße Beispiel 4 P 1 Ω = {1, 2, . . .} pj := 21j ; y pj ≥ 0; y ∞ j=1 pj = 1− 1 − 1 = 1 2 P P(A) := j ∈ A 21j ; Erzeugendes Wahrscheinlichkeitsmaß P 1 1 1 A = {2, 4, 6, . . .} P(A) = ∞ j=1 22j = 1− 1 − 1 = 3 4 P∞ 1 P({2, 3, 4, . . .}) = j=2 2j besser: 1 − P({1}) = 1 − 12 = 12 Allgemeiner: Ω beliebig; D ⊆ Ω mit D = {ω1 , . . . , ωn } oder D = {ω1 , ω2 , . . .}, so daß P(D) = 1. Dann heißt D diskret. P(A) = P(A ∩ D) = X P(ωj ) ωj ∈A Beispiel 5 Ω=R D = {1, 2, 3, . . .} Sei P(D) = 1 y Pdiskret. 1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße a) Einpunktverteilung: ( Ω beliebig; ω0 ∈ Ω fest. P(A) = 1 :ω0 ∈ A 0 :ω0 ∈ /A y P ist Einpunktverteilung in ω0 („Dirac“-Maß) D := {ω0 } y P(D) = 1 diskretes WahrscheinlichkeitsmaßP({ω0 }) = 1; das heißt mit Wahrscheinlichkeit von 1 tritt ω0 ein: Deterministisches Experiment b) Zweipunktverteilung: Ω = {0, 1} P({1}) = p, 0≥p≥1 P({0}) = 1 − p c) Klassische Verteilung bzw. Gleichverteilung Ω = {ω1 , . . . , ωn } Alle Elemtarereignisse sind gleichwahrscheinlich. y p1 = p2 = . . . = pn = P P P(A) = ωj ∈A pj = N1 ωj ∈A 1 = N1 card(A) = ](A) N 1 N P nennt man Gleichverteilung auf Ω Merkregel: 13 1 Das Modell der Wahrscheinlichkeitstheorie P(A) = Anzahl der günstigen Fälle für A ](A) = Anzahl aller möglichen Fälle ](Ω) Beispiel 1 Werfe n-mal faire Münze (0,1) Ω = {0, 1}N Alle Folgen von 0 und 1 sind gleichwahrscheinlich N− = 22N = 12 P({ω}) = 21N A := {1. Wurf 0 } y ](A) = 2N −1 y P(A) B := {Genau k-mal „Eins“ } ](B) = nk y P(B) = 21N nk Beispiel 2 6 aus 49 y Ω = {x1 , . . . , xn } ; xj ∈ {1, . . . , 49} ; xi 6= xj ; i 6= j ](Ω) = 49 · 48 · 46 · 45 · 44 Tippe 6 Zahlen t1 , . . . , t6 6! A := {6 Richtige} ](A) = 6! y P(A) = 49·...·44 = 491 ≈ 7, 151 · 10−8 (6) Beispiele aus der Physik N Kästen, n Teilchen, n ≤ N Verteile Teilchen auf die Kästen so, dass alle Verteilungen gleichwahrscheinlich sind. Fall I: (Boltzmann-Statistik) Teilchen tragen Namen (unterscheidbar) Fall II: (Bose-Einstein-Statistik) Teilchen sind anonym Fall III: (Fermi-Dirac-Statistik) Teilchen sind anonym und maximal 1 Teilchen pro Kasten A := {In n vorgegebenen Kästen K1 , . . . , Kn befindet sich genau ein Teilchen} B := {In keinem Kasten ist mehr als ein Teilchen} Zu Fall I: Boltzmann-Statistik (Teilchen tragen Namen) Ω = (a1 , . . . , an ); aj ∈ {1, . . . , N } (a1 , . . . , an ) ist eingetreten ⇔ Teilchen k im Kasten ak (für k = 1, . . . , N ) ](Ω) = N n Günstig für A: Ist (K1 , . . . , Kn ) und alle Permutationen davon ](A) = n! 14 ⇒ P(A) = n! Nn 1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße Man kann N m Kästen K1 , . . . , Kn vorher auswählen y N N n! N! P(B) = P(A) = = n (N − n)!N n n n N Zu Fall II: Bose-Einstein-Statistik (Teilchen anonym) N Kästen ⇔ n − 1 Trennwände (2 äußere Trennwände fest) Alle Anordnungen von N − 1 Trennwände und n Teilchen Ω = {(ω1 , . . . , ωN +n−1 )} n der ωj sind Teilchen, N-1 Trennwände y ](Ω) = (N + n − 1)! ](A) = n!(N − 1)! N !(N −1)! N y P(B) = n P(A) = (N −m)!(N +n−1)! P(A) = n!(N −1)! (N +n−1)! Zu Fall III: Fermi-Dirac-Statistik (Teilchen anonym, max. ein Teil pro Kasten) Ω = (k1 , . . . , kn ) : 1 ≤ kj ≤ N ; ki 6= kj ; i 6= j (k1 , . . . , kj ) tritt ein gdw. in den Kästen k1 , . . . , kj befindet sich genau ein Teilchen ](Ω) = N · (N − 1) · (N − 2) · . . . · (N − n + 1) Günstig für A: (k1 , . . . , kn ) und alle Permutationen davon y n! 1 P(A) = = N ; N · . . . · (N − n + 1) n y ](A) = n! N 1 =1 P(B) = n Nn d) Binominialverteilung: Modell: In jedem Versuch ist das Resultat entweder Null oder Eins Die Wahrscheinlichkeit einer „1“ ist: p ∈ [0, 1] und „0“ mit 1 − p Es gibt n unabhängige Versuche. Wir suchen die Wahrscheinlichkeit P(k − mal1) später z}|{ n k P(k − mal1) = p (1 − p)n−k k Ω = {0, . . . , n} 0 ≤ p ≤ 1; n k Bn,p ({k}) := p (1 − p)n−k ; k = 0, . . . , n k 15 1 Das Modell der Wahrscheinlichkeitstheorie zu zeigen: Bn,p ({k}) ≥ 0 (klar), bleibt zu zeigen: n X Bn,p ({k}) = 1 k=0 Mit dem binomischen Satz gilt: n X n k p (1 − p)n−k = (p + (1 − p))n = 1n = 1 k k=0 y Bn,p ist Wahrscheinlichkeitsmaß auf Ω: Binominialverteilung mit Parametern n,p. n = 1 y Ω({0, 1}) B1,p = 1 − p B1,p ({1}) = p : Zweipunktverteilung n≥4 A = {0, 1, 2} Bn,p (A) = (1 − p)n + np(1 − p)1·n + n2 p2 (1 − p)n−2 e) Hypergeometrische Verteilung Lieferung von N-Geräten. Davon sind M ≤ N defekt. Entnehme aus der Lieferung zufällig n ≤ N Geräte und prüfe sie. Gesucht ist die Wahrscheinlichkeit P(Genau m der geprüften Geräte sind defekt). Insgesamt Nn Möglichkeiten, Geräte zu entnehmen. Damit davon genau m defekt sind, m Geräte aus den M defekten entnehmen, n-m Geräte aus den N-M nicht defekten. M N −M Möglichkeiten m n−m Ansatz: M m P({m}) := N −M n−m N n ; m = 0, . . . , n ⇒ Hypergeometrische Verteilung mit Parametern N,M,n. z. z. n X M N −M N = Übungsaufgabe! m n−m N m=0 y P ist Wahrscheinlichkeitsmaß auf Ω({0, . . . , n}) M m = 0 für m ≤ M f) POISSON-Verteilung: Starten mit Bn,p (n Versuche, Erfolgswahrscheinlichkeit p) „n → ∞, Gegeben: λ > 0 16 pn := λ → n n→∞ 0 p → 0“ 1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße Satz 1.2 Poissonscher-Grenzwertsatz λ > 0, k ∈ N0 lim Bn, λ ({k}) = n→∞ n λk −λ e k! Beweis: k n λ λ Bn, λ ({k}) = (1 − )n−k n k n n k n! λ λ λ = (1 − )n (1 − )−k k (n − k)!k! n n n k λ n(n − 1) · . . . · (n − k + 1) λ λ = (1 − )n (1 − )−k k! n · . . . · n} n n | · n {z k−mal k → n→∞ k = λ · k! e−λ · 1· 1 λ −λ e k! Definition 1.7 Die Abbildung Pλ mit Pλ ({k}) := λk −λ e ; k! k = 0, 1, . . . heißt Poisson-Verteilung mit Parameter λ > 0 Probe: Ω = N0 P ? zu zeigen: ∞ k=0 Pλ ({k}) = 1 −λ e ∞ X λk k=0 k! = e−λ · eλ = 1 Bn, λ ({k}) → Pλ ({k}) n n→∞ Poisson-Verteilung trifft auf, wenn viele Versuche und geringe Erfolgswahrscheinlichkeiten herrschen • Telefonzentrale, viele Teilnehmer, Wahrscheinlichkeit, dass einzelner Kunde anruft ist sehr gering ⇒ ges. Zahl der Anrufe pro Tag ist Poisson-Verteilung 17 1 Das Modell der Wahrscheinlichkeitstheorie • Anzahl der Hausbrände pro Jahr Bemerkung: Bn,p ({k}) schlecht berechenbar für n groß, Pλ mit λ := np ist Approximation für Bn,p Beispiel 1 500 Studenten, gesucht ist P(Genau k Studenten haben am 24.12. Geburtstag) Exakt: 500−k 500 1 k 364 B500, 1 ({k}) = 365 k 365 365 Appr. Lösung: λ = 500 365 Pλ ({k}) = 500 k − 500 365 365 k! e Beispiel 2 10.000 Würfe auf ein Ziel mit Trefferwahrscheinlichkeit Pλ ({k}) = 1 , 1000 λ = 10 10k −10 e k! Pλ ({0}) = e−10 ≈ 0, 0000453 . . . 1.5 Stetige Verteilungen Bauteil, Lebenszeit ist zufällig, wir registrieren den Zeitpunkt t > 0, an dem der Defekt eintritt. t > 0 ist zuf. reelle Zahl Ziel: diesen Vorgang zu beschreiben Hier: Ω = [0, ∞) Keinen Sinn zu fragen, nach der Wahrscheinlichkeit, dass der Ausfall zum Zeitpunkt t0 > 0 (t0 = 2.000000000 . . .) eintritt. → wäre 0 Interesse: P(Ausfall im Zeitintervall [a,b]) Suchen: P([a, b]) = ? Definition 1.8 Eine Riemann-integrierbare Funktion p : gilt: 1) p(x) ≥ 0, 2) R∞ −∞ 18 x∈R p(x) dx = 1 R → R heisst Wahrscheinlichkeitsdichte, wenn 1.5 Stetige Verteilungen . ..... ... .. ............. ....................... ........ ......... ....... ......... ....... ........ ....... .......... . . . . . ......... .... . . . . . ........ . . . . ...... .. .. . ......... . . . . . . . . . . . . . . . . . . . . . . . ............ ........ ..... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . .................... . .... . . . . . . . . . . . . . . . . . . . . . . .... .................... ..... ...... ..... ..... . . . . . ... ... ... .............................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .......... ......... ........ ........ ....... ...... ........... ...... P W a b Abbildung 1.3: Definition der Wahrscheinlichkeitsdichte Definition 1.9 Die Wahrscheinlichkeit eines Intervalls [a, b] ist Zb p(x) dx P([a, b]) := a p Dichte des Wahrscheinlichkeitsmaß P • P([a, b]) ≥ 0 • P(R) = R∞ p(x) dx = 1 −∞ Problem: Ω = R, σ-Algebra ? P([a, b]) definiert. Was ist P(A) = ? für A ∈ A Beispiel 1 p(x) := 0 −λx λe Z∞ p(x) ≥ 0, 0 Zb P([a, b]) = : x≤0 : x>0 λe−λx λ>0 ∞ −λx dx = −e = 1 0 λe−λx dx = e−λa − e−λb a Diskrete Wahrscheinlichkeistmaße sind ungeeignet zur Beschreibung von Vorgängen, bei denen das Ergebnis eine reelle Zahl ist. Stetige Wahrscheinlichkeitsmaße: 19 1 Das Modell der Wahrscheinlichkeitstheorie Ω=R Suchen σ-Algebra A ⊆ R(R), so dass P: A → [0, 1] Im Moment ist P nur auf {[a, b] : a ≤ b} definiert. Aussage: Ω beliebig, E ⊆ R(Ω) Dann existiert eine kleinste E-umfassende σ-Algebra A. Beweis: \ A0 := A : A ⊇ E, A ist σ-Algebra {z } | 6=∅ ,da R(Ω)⊇E man zeigt: A0 ist σ-Algebra; A0 ⊇ E Ll(R) kleinste E-umfassende σ-Algebra. Ein stetiges Wahrscheinlichkeitsmaß P lässt sich eindeutig von E auf L(R) fortsetzen. → (R, Ll(R), P) mit P erzeugt von der Dichte p Eigenschaften stetiger Wahrscheinlichkeitsmaße 1) Da p(x) ≥ 0 → Rb p(x) dx ≥ 0 → P([a, b]) ≥ 0 a 2) P(R) = R∞ p(x) dx = 1 −∞ 3) P({a}) = Ra p(x) dx = 0 a 4) P ((a, b)) = P([a, b]) − P({a}) − P({b}) = P([a, b]) 5) Sei p(x) > 0 auf [a, b] → Rb p(x) dx > 0 a 6) Sei p(x) = 0 für x 6∈ [a, b] → P([a, b]) = 1 Wichtige Stetige Verteilungsgesetze 1.) Gleichverteilung auf I = (a, b) Experiment: Zufälliges Ziehen einer Zahl aus [a, b]. Wahrscheinlichkeit dass ein Intervall eintritt hängt nur von der Länge, nicht aber von der Lage des Intervalls ab. 1 : x∈I |I| p(x) = ; |I| = b − a 0 : sonst • p(x) = 0 20 1.5 Stetige Verteilungen • Z∞ Zb p(x) dx = −∞ 1 p(x) dx = |I| Zb dx = b−a =1 b−a a a [α, β] ⊆ [a, b] Zβ P([α, β]) = 1 p(x) dx = ba α → Zβ dx = β−α =1 b−a α Wahrscheinlichkeit ist proportional zur Länge von [a, b] a α1 β1 α2 β2 b Abbildung 1.4: Beispiel zur Gleichverteilung Beispiel 1 Straßenbahn fährt alle 15 Minuten. man gehe zufällig zur Strassenbahnhaltestelle. Wie groß ist die Wahrscheinlichkeit, mehr als 5 Minuten zu warten? = 32 Wahrscheinlichkeit ist 10 15 1 ....... .... .... 10 15 5 min und länger Abbildung 1.5: 2. Beispiel zur Gleichverteilung 2.) n-dimenstionale Gleichverteilung Sei p : dann gilt: Rn → R, Wahrscheinlichkeitsdichte, • p(x) ≥ 0; x ∈ Rn R R∞ • 1 = Rn p(x) dx = −∞ · · · Int∞ −∞ p(x1 , . . . , xn ) dx1 , . . . , xn A ⊂ Rn Quader oder Kugel oder ähnliches Z P(A) := p(x) dx Wahrscheinlichkeitsmaß A 21 1 Das Modell der Wahrscheinlichkeitstheorie Beispiel 1 x1 + x2 p(x1 , x2 ) := 0 2 p: R →R : 0 ≤ x1 , x2 ≤ 1 : sonst 1) P(x1 , x2 ) ≥ 0 2) Z∞ Z∞ Z1 Z1 p(x1 , x2 ) dx1 dx2 = (x1 + x2 ) dx1 dx2 −∞−∞ 0 0 Z1 = 1 2 x + x1 x2 2 1 0 Z1 = 1 + x2 2 1 dx2 0 dx2 0 1 1 + =1→p 2 2 = A := {(x1 + x2 ) : ist Wahrscheinlichkeitsmaß! x1 ≤ x2 } x2 ..... ... .. ... ..... ..... ..... ... ..... .. ..... ...... ....... ..... . ... ..... .... ..... ......... ..... ... ... ... .... ... . . . . . . . ... ... ... .... ... ... ... ..... ..... ... . ... ... ..... ... ... ... ..... ..... ... ... ... ... ... ..... . . ... . . . . ... . ... .... ... ... ..... ... ..... ... . ... ... ..... ... ... ... .. ... ..... ... ... . ..... ... ... . . ... . ... . ... .. ... ... ... ..... ... ... ... ... ..... . ... ..... ... . .. . . . ... . ... ... .. .... . . ... . . . . . ... ... ... ... . . . . . ... ... .... ... ... ... ..... ... ... ..... ... ..... ... ... ..... . ... . ... . . .. .... ... ..... ... ..... ... ..... ..... . . . . . ..... ..... ..... A x1 Abbildung 1.6: Fläche A Z P(A) = (x1 + x2 ) dx1 dx2 A 0≤x1 ,x2 ≤1 Zx1Zx2 = (x1 + x2 ) dx1 dx2 0 0 Z1 = 3 0 22 x22 1 dx2 = 2 2 1.5 Stetige Verteilungen Sei nun B ⊆ Rn Quader, Kugel oder ähnliches Voln (B) n-dimensionale Volumen von B (n = 1 → Länge; n = 2 → Fläche; n = 3 → Volumen . . . p : Rn → R 1 : x∈B Voln (B) p(x) := 0 : sonst p Wahrscheinlichkeitsdichte? 0 ....................... ................... ............................ ............... ....... ....... ......... ............. .... ....... ...... ............ .... ..... ...... ........... . ..... . ....... .... . . . . . . . . . . ..... ........ ...... . . . . . .. . . . . . . . . . .... . ............ . .. ... ............... ................................ . . ... ... ... ... .. .. ... .. ... ... . .. .. .. .. .. .. .. .. .. .. . . .. .. .. .. ... .. ... .. ... .. . . ... . ... ... .... ... .... .... .... .... ..... . . . ..... .... ...... ..... ...... ...... ......... ...... ........................... .... ........................................... .................... ....... . .............. . . . . . . ............ .. ............ .......... ................. ........... .......... ............................ 1 Voln (B) B Abbildung 1.7: 2-dimensionale Gleichverteilung 1) p(x) ≥ 0 R R 2) Rn p(x) dx = B 1 Voln (B) A⊆B Z P(A) = dx = Voln (B) Voln (B) =1 1 p(x) dx = Voln (B) Z dx = Voln (A) Voln (B) A A → n-dimensionale Gleichverteilung auf B von (A ⊆ B) Beispiel 1 Zwei Freunde treffen zufällig zwischen 12-13 Uhr auf dem Marktplatz ein. Jeder wartet nach Eintreffen noch 20 Minuten, dann geht er. Wie groß ist die Wahrscheinlichkeit, dass sich beide treffen? t1 sei Zeitpunkt Freund1 ; t2 Zeitpunkt Freund2 treffen ein. (t1 , t2 ) gleichverteilt auf [12, 13] × [12, 13] Treffen ⇔ t2 ≤ t1 + 31 oder t1 ≤ t2 + 13 ⇔ |t1 − t2 | ≤ 13 P(A) = 1 − 92 − 92 = 59 Beispiel 2 Kugel mit Radius R > 0 Gleichverteilung auf dieser Kugel P(A) = Vol3 (A) 4 πR3 3 23 1 Das Modell der Wahrscheinlichkeitstheorie 2 3 13 ..... ..... ..... ..... . . . .... ..... ..... ..... ..... . . . . ..... .... ..... ..... ..... . . . . ..... ..... .... ..... ..... ..... ..... .... . ..... . . . ..... ... . . . . . . . . .... ..... ..... ..... ..... ..... ..... ..... ..... ..... . . . . . . . .... .... ..... ..... ..... ..... ..... ..... ..... ..... . . . . ..... ..... ..... ..... ..... . . . .... ..... ..... ..... ..... . . . . .. ..... .... ..... ..... ..... 1 3 2 3 A 12 1 3 13 Abbildung 1.8: Fläche für das Treffen 0<r<R x2 + y 2 + z 2 ≤ r 2 A = (x, y, z) : r3 P(A) = 3 R ⇒ Beispiel 3 Nadeltest von Buffon (~1740) lineares Papier und Nadel der Länge a < 1 Gesucht ist die Wahrscheinlichkeit, dass die Nadel eine Gerade (Linie) schneidet. 0≤x≤1 − π2 ≤ θ ≤ + π2 θ ∈ [− π2 , π2 ] x Mittelpunkt θ Winkel Zufälliges Werfen der Nadel bedeutet: Wähle Punkt (x, θ) ∈ [0, 1] × [− π2 , π2 ] entsprechend der Gleichverteilung. Nadel schneidet untere Gerade a ⇔ x ≤ cos θ 2 Nadel schneidet untere Gerade a ⇔ 1 − x ≤ cos θ 2 π P(A) = Vol2 (A) 1 = 2 π π Z2 − π2 zum Beispiel für a = rn := 24 π 4 → P(A) = π a a 2a 2 cos θ dθ = sin θ π = 2 π π −2 1 2 Anzahl der Schritte bei n Versuchen n (Relative Häufigkeit) 1.5 Stetige Verteilungen rn →n→∞ Wolf (1850) Smith (1855) .. . Lazzerini (1913) Reinhard (1925) → π≈ 2a rn a 0.8 0.6 .. . n 5000 3204 .. . Anzahl der Schritte 2532 1218 .. . π 3.160 3.157 .. . 5 6 3408 2520 1808 859 3.142 3.179 0.5419 Tabelle 1.1: Versuche zur Bestimmung der Kreiszahl Pi 3.) Normalverteilung (Gauß-Verteilung) . Satz 1.3 Z∞ x2 e− 2 dx = √ 2π −∞ Beweis: Z∞ a:= x2 e− 2 dx −∞ a2 = Z∞ x2 e− 2 dx −∞ Z∞ Z∞ = Z∞ y2 e− 2 dy −∞ 1 e− 2 (x 2 +y 2 ) dx dy −∞ −∞ x = r cos θ y = r sin θ dx dy = r dr dθ Z∞ Z2π 2 Z∞ r2 2 − r2 →a = e r dr dθ = 2π re− 2 dr 0 0 h = 2π −e √ → a = 2π 0<r<∞ 0 ≤ θ < 2π 0 2 − r2 i∞ = 2π 0 25 1 Das Modell der Wahrscheinlichkeitstheorie ......... ... .... .. ... .. .. ... . . ... .. .. .. . .. .. . . .. ............................ .... . ....... .......... . ......... .... . . . ... ....... ... . .. ........ ..... .. . ....... ..... .. .... ..... .... ................................................... . . . . ........... .................. ................. .. . . . . . . . . . . . ..... ................ ......... ....... ................. . . . ......................... . . . . . . . . ..... ......................... ... ....................................... ....... . . . . . . . . . . . . . . . . . ............... . ........... . ........ ..... .............................. ........... ... ... ... ................................. ........................ ....................... ................. . . . . . . . . . . . . . . . . . ................................... . . . ... ... .................................. ........... ...... ...... ... .. √1 2πσ σ größer a ←a→ σ kleiner Abbildung 1.9: Normalverteilung a, x ∈ R; σ>0 1 2 − 2 (x−a) 1 Pa,σ2 (x) := √ e σ2 2πσ Behauptung: Pa,σ2 ist eine Wahrscheinlichkeitsdichte! Pa,σ2 (x) ≥ 0 klar, da ex > 0; ∀x ∈ R R∞ 1 − 12 (x−a)2 √ e σ2 2πσ −∞ Substitution: y := x−a σ dx = σ dy 1 √ 2πσ Z∞ e −∞ 2 − y2 1 σ dy = √ 2π Z∞ y2 e− 2 dy = 1 −∞ | {z √ = 2π } Definition 1.10 N (a, σ 2 ) heißt das von Pa,σ2 erzeugte Wahrscheinlichkeitsmaß, d.h. 1 N (a, σ )([α, β]) = √ 2πσ 2 Zβ e 2 −1 2 (x−a) σ2 dx α N (a, σ 2 ) Normalverteilung mit Erwartungswert a ∈ R und Varianz σ 2 > 0 x2 N (0, 1) heißt Standardnormalverteilung und hat die Dichte scheinlichkeitsmaß!) 26 − 2 e√ 2π (Wichtigstes Wahr- 1.6 Bedingte Wahrscheinlichkeiten 4.) Exponentialverteilung . −λx λe λ > 0; p(x) := 0 : x>0 : x≤0 Behauptung: p ist eine Wahrscheinlichkeitsdichte: 1) p(x) ≥ 0 (klar) 2) R∞ p(x) dx = −∞ R∞ −λx λe 0 dx = λ h e−λx −λ i∞ =1 0 Das erzeugte Wahrscheinlichkeitsmaß Eλ heißt Exponentialverteilung mit Parameter λ>0 Zβ Eλ ([α, β]) = β λe−λx dx = −e−λx α = e−λα − e−λβ (α ≥ 0) α E − lambda wird verwendet zur Beschreibung von Lebensdauerverteilungen (ohne Altern). Beispiel 1 Lebensdauer eines Bauteils sei Exponentialverteilt mit Parameter λ = 12 . Wie groß ist die Wahrscheinlichkeit, dass das Bauteil zum Zeitpunkt t > o noch funktioniert? A := {arbeitet zum Zeitpunkt t} = {Ausfall nach t} = (t, ∞) t P(A) = E 1 ((t, ∞)) = e− 2 − 0! 2 1.6 Bedingte Wahrscheinlichkeiten Urne mit 4 weißen und 3 schwarzen Kugeln. Man ziehe 2 Kugeln ohne Zurücklegen. Ω = {(s, s), (s, w), (w, s), (w, w)} Wir suchen z.B. P({(s, w)}) = ? A := {Erste Kugel schwarz} = {(s, s), (s, w)} B := {Zweite Kugel weiß} = {(w, w), (s, w)} Was ist berechenbar? 1) P(A) = 3 7 2) P(B) unter der Bedingung, dass A eingetreten ist = P(A|B) P({(s, w)}) = P(A) · P(B|A) = 3 2 2 · = 7 3 7 27 1 Das Modell der Wahrscheinlichkeitstheorie Definition 1.11 Sei (Ω, A, P) ein Wahrscheinlichkeitsraum; B ∈ A mit P(B) > 0, dann ist P(A|B) := P(A ∩ B) P(B) die Wahrscheinlichkeit des Eintretens von A, unter der Bedingung, dass B bereits eingetreten ist. Beispiel 1 Eλ ([0, 5])|[2, ∞]) Wahrscheinlichkeit, dass ein Teilchen vor Erreichen des Alters 5 stirbt, unter der Bedingung, mindestens 2 Jahre alt geworden zu sein: e−2λ − e−5λ Eλ ([0, 5] ∩ [2, ∞]) = = 1 − e−3λ = Eλ ([0, 3]) Eλ ([2, ∞]) e−2λ ist die Wahrscheinlichkeit, dass ein neugeborenes Teilchen höchstens 3 Jahre alt wird. (nicht altert) Satz 1.4 1) Die Zuordnung A → P(A|B) ist Wahrscheinlichkeitsmaß auf (Ω, A) 2) P(B|B) = 1; P(B C |B) = 0 Beweis: P(∅∩B) =0 P(B) P(Ω∩B) = P(B) = 1 1) P(∅|B) = P(Ω|B) A1 , A2 , . . . disjunkt → P( ∞ [ Aj |B) = P( S∞ Aj ∩ B) P( = P(B) j=1 j=1 P∞ = j=1 S∞ j=1 (Aj P(B) ∞ P(Aj ∩ B) X = P(Aj |B) P(B) j=1 → σ − Addidivität → (1) 2) P(B|B) = P(B ∩ B) =1 P(B) P(B C ∩ B) P(∅) P(B |B) = = =0 P(B) P(B) C 28 ∩ B)) 1.6 Bedingte Wahrscheinlichkeiten Beispiel 2 Gegeben sind zwei Urnen U1 und U2 . In der ersten Urnen befinden sich zwei weiße und eine schwarze Kugel, in der zweiten eine weiße und zwei schwarze Kugeln, wobei die Wahrscheinlichkeit, dass die erste Urne gezogen wird gleich 31 , die der zweiten gleich 23 ist. Als erstes wird eine Urne ausgewählt und dann eine Kugel aus dieser Urne gezogen. Gesucht ist die Wahrscheinlichkeit, dass die gezogene Kugel weiß ist. Ω = {w1 , w2 , s1 , s2 } mit w1 ist aus U1 U1 = {w1 , s1 } U2 = {s2 , w2 } W = {w1 , w2 } S = {s1 , s2 } 2 2 1 P(U2 ) = 3 P(W |U1 ) = 3 P(W |U2 ) = 31 P(U1 ) = 3 Wir suchen P(W ) Ω = U1 ∪ U2 P(W ) = P(U1 ) · P(W |U1 ) + P(U2 ) · P(W |U2 ) = 13 · 23 + 23 · 13 = 49 Beispiel 3 Nun umgekehrte Fragestellung: Wir haben weiß beobachtet. Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel aus Urne U1 stammt? Wir suchen also die Wahrscheinlichkeit P(U1 |W ) Am Anfang vorgegebene Wahrscheinlichkeiten für U1 , U2 → a priori Wahrscheinlichkeit (in unserem Fall 31 , 32 ) Versuch durchgeführt und weiß beobachtet: P(U1 |W ) P(U2 |W ) →a posteriori Wahrscheinlichkeit Allgemeine Situation: n S Ω= Bj (disjunktiv) j=1 P(B1 ), . . . , P(Bn ) a priori Wahrscheinlichkeiten A ∈ A eingetreten P(B1 |A), . . . , P(Bn |A) a posteriori Wahrscheinlichkeiten Satz 1.5 (Formel über die totale Wahrscheinlichkeit) (Ω, A, P), B1 , . . . , Bn ∈ A S P(Bj ) > 0, disjunkt und ∞ j=1 Bj := Ω P(A) = n X P(Bj ) · P(A|Bj ) j=1 Beweis: Pn Pn j=1 P(Bj ) · P(A|Bj ) = j=1 P(Bj ) · P(A∩B) P(Bj ) = Pn j=1 S P(A ∩ Bj ) = P( nj=1 (A ∩ Bj )) | {z } disjunkt 29 1 Das Modell der Wahrscheinlichkeitstheorie = P(A ∩ [n Bj ) = P(A) | {z } j=1 nach Vorr.=Ω Satz 1.6 (Formel von Bayes) P(Bj ) · P(A|Bj ) P(Bj |A) = Pn i=1 P(Bi ) · P(A|Bi ) Beweis: P P(A) = nj=1 P(Bj )P(A|Bj ) P(Bj )P(A|Bj ) P(A) → Rechte Seite = Bemerkungen: = P(Bj )· P(A∩Bj ) P(Bj ) P(A) = P(A∩Bj ) P(A) = P(Bj |A) 1) Kennt man bereits P(A), so vereinfacht sich obige Formel: P(Bj |A) = P(Bj )P(A|Bj ) P(A) 2) Ω = B ∪ B C P(B|A) = P(B)P(A|B) P(B)P(A|B) + P(B C )P(A|B C ) Beispiel 4 (TBC-Test) Person hat TBC → Test ist in 96% der Fälle positiv Person hat kein TBC → Test ist in 94% der Fälle negativ 0.4% der Bevölkerung hat TBC. Wir suchen Wahrscheinlichkeit, dass eine zufällige Person mit positiven Test wirklich TBC hat? A := {Test positiv}; B := {Person hat TBC} Wir suchen P(B|A)! P(B) = 0.004 → P(B C ) = 0.996 P(A|B) = 0.96; P(A|B C ) = 0.06 P(B)P(A|B) 0.004·0.96 = 0.06 P(B|A) = P(B)P(A|B)+P(B C )P(A|B C ) = 0.004·0.96+0.996·0.06 Nur 6% der positiv getesteten Personen haben TBC. 1.7 Unabhängigkeit von Ereignissen Ziel: Mathematische Formulierung der Unabhängigkeit von Ereignissen 30 1.7 Unabhängigkeit von Ereignissen Beispiel 5 2-maliges Würfeln Ω = {(i, j) : 1 ≤ i, j ≤ 6} P Gleichverteilung A := {1. Wurf gerade Zahl} B := {2. Wurf ist ≥ 3} Intuitiv sind A und B unabhängig, d.h. Eintreten von B ist unabhängig davon, ob A eintritt; ! P(B|A) = P(B) Beispiel 6 Graswachstum und Mondphasen abhängig oder unabhängig? P(Gras wächst pro Tag ≤ 1 cm | Vollmond) = P(Gras wächst pro Tag 1 cm) B unabhängig von A, falls P(B|A) = P(B) P(B) = P(A ∩ B) = P(B|A) P(A) → P(A ∩ B) = P(A) · P(B) Definition 1.12 (Ω, A, P) Wahrscheinlichkeitsraum, A, B ∈ A A und B heißen stochastisch unabhängig, wenn gilt: P(A ∩ B) = P(A) · P(B) Satz 1.7 1) A unabhängig B ⇔ B unabhängig A 2) ∅, Ω sind unabhängig von jedem A ∈ A 3) A, B unabhängig→ A, B C unabhängig → AC , B unabhängig Beweis: 1) P(A ∩ ∅) = P(∅) = 0 = P(∅) · P(A) P(A ∩ Ω) = P(A) = 1 · P(A) = P(Ω) · P(A) 2) P(A ∩ B C ) = P(A) · P(B C ) = P(A)(1 − P(B)) = P(A) − P(A) · P(B) = P(A) − P(A ∩ B) = P(A \ A ∩ B) = P(A ∩ B C ) Wir wissen: B C , A unabhängig → B C , AC unabhängig (analog zu obigem Beweis!) Beispiel 7 Zahlenlotto 6 aus 49: A := {1. gezogene Zahl ist gerade} B := {2. gezogene Zahl ist ungerade} ! P(A ∩ B) = P(A) · P(B) ? P(1. Zahl gerade und 2. Zahl ungerade) = 24·25 49·48 = 25 98 31 1 Das Modell der Wahrscheinlichkeitstheorie P(1. Zahl gerade) = 24 49 P(2. Zahl ungerade) = P(B|A) · P(A) + P(B|AC ) · P(AC ) = 24·25 P(A ∩ B) = 49·48 6= 24·25 = P(A) · P(B) 49·49 Beispiel 8 n-facher Münzwurf mit fairer Münze: a := {1. Wurf 0} B := {n. Wurf 1} A := {(0, ω2 , . . . , ωn ) : ωj ∈ {0, 1}} n−1 P(A) = 2 2n = 12 = P(B) A ∩ B = {(0, ω2 , . . . , ωn−1 , 1)} n−2 P(A ∩ B) = 2 2n = 41 = 12 · 21 = P(A) · P(B) 25 48 · 24 + 24 · 25 = 2 · 24·25 = 49 48 49 48·49 25 49 →A und B unabhängig! Unabhänigkeit von n-Ereignissen Gegeben: A1 , . . . , An ∈ A Wann heißen A1 , . . . , An unabhängig? • Falls P(Ai ∩ Aj ) = P(Ai ) · P(Aj ); i 6= j → paarweise unabhängig aber nicht P(A1 ∩ . . . ∩ An ) = P(A1 ) · . . . · P(An ) • P(A1 ∩ . . . ∩ An ) = P(A1 ) · . . . · P(An ) → folgt nicht die paarweise Unabhängigkeit! • beides ungeeignet, müsste vereint werden! Definition 1.13 A1 , . . . , Aj ∈ A heißen unabhängig,wenn für alle 1 ≤ i1 < . . . < im ≤ n und m = 2, . . . , n gilt: P(Ai1 ∩ . . . ∩ Aim ) = P(Ai1 ) · . . . · P(Aim ) Beispiel 9 (n=3) . m = 2 i1 = 1 i2 = 2 i1 = 1 i2 = 3 i1 = 2 i2 = 3 P(A1 ∩ A2 ) = P(A1 ) · P(A2 ) P(A1 ∩ A3 ) = P(A1 ) · P(A3 ) P(A2 ∩ A3 ) = P(A2 ) · P(A3 ) m = 3 i1 = 1 i2 = 2 i3 = 3 P(A1 ∩ A2 ∩ A3 ) = P(A1 ) · P(A2 ) · P(A3 ) (*) (*) alle müssen erfüllt sein, keine folgt aus der anderen! Beispiel 10 2-faches Würfeln: A1 := {1. Würfel gerade} A2 := {2. Würfel ungerade} A3 := {beide Würfe gerade oder beide Würfe ungerade} P(A1 ) = P(A2 ) = 21 A3 = {(1, 1), (1, 3), (1, 5), (3, 1), (3, 3), (3, 5), (5, 1), (5, 3), (5, 5), (2, 2), (2, 4), . . .} 32 1.7 Unabhängigkeit von Ereignissen P(A3 ) = 18 = 21 36 P(A1 ∩ A3 ) = P(A1 ) · P(A3 ) A1 ∩ A3 = {(2, 2), (2, 4), (2, 6, (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)} → P(A1 ∩ A3 ) = 14 = 12 · 21 o.k. analog A1 ∩ A2 und A2 ∩ A3 →paarweise unabhängig! P(A1 ∩ A2 ∩ A3 ) = 0 6= P(A1 ) · P(A2 ) · P(A3 ) = 81 → A1 , A2 , A3 nicht unabhängig! Beispiel 11 (Veranschaulichung) Maschine M, n Bauteile, B1 , . . . , Bn Ausfall unabhängig! p(Bj fällt aus) = pj 0 ≤ pj ≤ 1 1) M fällt aus, wenn mindestens ein Bauteil ausfällt P(M Qn fällt nicht aus) = P(B1 , . . . , Bn fällt nicht aus) = P(B1 nicht) · . . . · P(Bn nicht) = j=1 (1 − pj ) Q → P(M fällt aus) = 1 − nj=1 (1 − Qpj ) pj nahe bei 1:→ 1 − pj nahe 0→ nahe 0 → P(M fällt aus) ≈ 1 2) Maschine fällt aus, wenn alle Bauteile ausfallen P(M fällt Qnaus) = P(B1 fällt aus, . . . , Bn fällt aus) = P(B1 fällt aus) · . . . · P(Bn fällt pj aus) = j=1Q pj nahe 0→ nahe 0 → P(M fällt aus) ≈ 0 Bernoulli-Schema Man betrachte ein stochastiches Experiment, bei dem es nur die zwei Ergebnisse Erfolg (=1) und Mißerfolg (=0) gibt. Die Wahrscheinlichkeit für Erfolg sei p ∈ [0, 1] und entsprechend ergibt sich die Wahrscheinlichkeit für Mißerfolg als 1 − p. Für n unabhängige Experimente (Idee/Gedanke von Bernoulli) erhält man so einen Vektor ω = (ω1 , . . . , ωn ), wobei die ωj ∈ {0, 1} sind, und Ω = {0, 1}n A = R(Ω) Beispiel 12 (Bernoulli-Schema für p = 21 ) Legt man für P die Gleichverteilung zugrunde, also p = 12 , so bekommt man für die Wahrscheinlichkeit des Ereignisses ω P({ω}) = 1 2n Beispiel 13 (Bernoulli-Schema für p > 12 ) Ist eines der Teilergebnisse wahrscheinlicher als das andere (p > 12 ), wird das Ereignis (1, . . . , 1) wahrscheinlicher als das Ereignis (0, . . . , 0) und P ist keine Gleichverteilung! 33 1 Das Modell der Wahrscheinlichkeitstheorie Bei n = 4 Schritten ist beispielsweise P (0, 1, 0, 1) = p2 (−p)2 oder P (0, 0, 0, 1) = p(1 − p)3 . Allgemein gilt: k n−k p (1 − p) k = ] {j : ωj = 1} bzw. k = = P(A) n X wi i Ω = {0, 1}n 0≤p≤1 k P({ω}) = p (1 − p)n−k ω = (ω1 , . . . , ωn ), k = ω1 + . . . + ωn Probe: P ist Wahrscheinlichkeitsmaß 1) pk (1 − p)n−k ≥ 0 2) X ! p({ω}) = 1 = ω∈R n X X k=0 ω:ω1 +,...,+ωn =k p({ω}) | {z } pk (1−p)k−n n X pk (1 − p)n−k ] {ω : ω1 +, . . . , +ωn = k} | {z } k=0 n (k ) n X n = pk (1 − p)n−k = (p + (1 − p))n = 1 k k=0 = A := {n-ter Versuch = 1} ⊆ {0, 1}n A = {(ω1 , . . . , ωn−1 , 1) : ωj ∈ {0, 1}} P(A) = X P({ω}) = ω∈A n X n X X pk (1 − p)n−k k=1 ω∈A;ω1 +...+ωn =k pk (1 − p)n−k · ] {ω ∈ A : ω1 + . . . + ωn = k} | {z } k=1 (n−1 ) k−1 n n X X n − 1 n−k n − 1 k−1 n−1−k = p (1 − p) =p p (1 − p)n−1−(k−1) k k k=1 k=1 n−1 X n−1 k =p p (1 − p)n−1−k k k=0 = = p(p + (1 − p))n−1 = p = P(A) 0 0 0 0 P(ω1 =1, . . . , ωn =1) = P(ω1 =1) · . . . · P(ωn =1) unabhängig von Ereignissen, deren Eintreten nur vom j-ten Versuch abhängt. 34 1.7 Unabhängigkeit von Ereignissen Beispiel 14 . A = {2. Versuch 0} B = {4. Versuch 1} C = {7. Versuch 0} unabhängig A := {genauP k mal Erfolg} pk (1 − p)n−k = P(A) = n k k p (1 − p)n−k ω1 +...+ωn =k Binominialverteilung Bn,p beschreibt folgendes Experiment: Führe n unabhängige Versuche durch: 1 mit p und 0 mit 1-p: Bn,p ({k}) = P(Genau k-mal Erfolg) Geometrische Verteilungen Eins erscheint mit Wahrscheinlichkeit p, Null mit Wahrscheinlichkeit 1 − p Gesucht ist P(Im (k + 1)-ten Versuch erscheint erstmals eine Eins) Wir führen Hilfsraum ein: Ω = {ω := (ω1 , ω2 , . . .), ωj ∈ {0, 1}} A = {ω : ω1 = a1 , . . . , ωn = an , ωn+1 beliebig} für vorgegebene a1 , . . . , an ∈ {0, 1} P(A) := pk (1 − p)n−k k = a1 + . . . + an P lässt sich eindeutig zu einem Wahrscheinlichkeitsmaß auf der von solchen Mengen A erzeugten σ-Algebra fortsetzen (ohne Beweis!) Spezialfall: A = {ω : ω1 = 0, . . . , ωn = 0, ωn+1 = 1} = {im (n + 1)-ten Versuch das erste Mal Eins} → P(A) = p(1 − p)n Definition 1.14 P({n}) = P(im (n + 1). Versuch erstmals Erfolg) 0 < p < 1, Ω = N0 = {0, 1, 2, . . .} Das Wahrscheinlichkeitsmaß von P auf R(N0 ) mit: P({n}) := p(1 − p)n heisst geometrische Verteilung mit Parameter p. 35 1 Das Modell der Wahrscheinlichkeitstheorie Problem: P ? zu zeigen: ∞ n=0 P({n}) = 1 Beweis: P P∞ ∞ n n n=0 p(1 − p) = p n=0 (1 − p) = p · 1 1−(1−p) =1 → Wahrscheinlichkeitsmaß Beispiel 1 Wahrscheinlichkeit, dass beim Würfeln die 6 erstmals im 10. Versuch erscheint: p = 16 ; 1 − p = 65 P({9}) = 16 · ( 56 )9 ≈ 0.0323 . . . Beispiel 2 (Roulette) P(Im 88. Versuch erstmals rot) = P({87}) → P({87}) = 18 · ( 19 )87 ≈ 3.19951 · 10−26 37 37 p= 18 ; 37 1−p= 19 37 1.8 Verteilungsfunktion P sei ein Wahrscheinlichkeitsmaß auf R (besser Ll(R)), stetig oder diskret Definition 1.15 Die Funktion F : R → R mit F (t) := P((−∞, t]), t∈R heisst Verteilungsfunktion des Wahrscheinlichkeitsmaßes P. Beispiel 1 P({0}) = 1 − p P({1}) = p 1 1−p ...... ... .. ...... ........... F (t) 1 Abbildung 1.10: Verteilungsfunktion zu Beispiel 1 36 1.8 Verteilungsfunktion 1 . ..... ... .. .................................... ........ ..... ..... .... ................ ....... ...... ..... . . . . .... .... ..... .... .... . . . .... ... ..... ..... ...... . . . . . . . ... ... ... ..... ....................... 1 2 ... = N ((−∞, t]) ........... ...... F (t) Abbildung 1.11: Verteilungsfunktion zu Beispiel 2 Beispiel 2 P = N (0, 1) (Standardnormalverteilung) Rt − x2 F (t) = P((−∞, t]) = √12π e 2 dx −∞ Satz 1.8 Sei F die Verteilungsfunktion eines Wahrscheinlichkeitsmaßes 1) F ist monoton wachsend 2) F (−∞) := lim F (t) = 0; t→−∞ F (∞) := lim F (t) = 1 t→∞ 3) F ist rechtsseitig stetig Beweis: 1) t ≤ s → (−∞, t] ⊆ (−∞, s] 1) Monotonie der W.-Maße → P((−∞, t]) ≤ P((−∞, s]) → T 2) tn & −∞, An := (−∞, tn ] → A1 ⊇ A2 ⊇ . . . und ∞ n=1 An = ∅ → P(An ) →n→∞ P(∅) = 0 → → F (t) →t→−∞S 0 tn % ∞, An := (−∞, tn ] → A1 ⊆ A2 ⊆ . . . und ∞ n=1 An = (−∞, ∞) → P(An ) →n→∞ P(R) = 1 → F (∞) = 1 3) zu zeigen: tn & t → F (tn ) → F (t) T tn & t, An := (−∞, tn ] A1 ⊇ A2 ⊇ . . . und ∞ n=1 An = (−∞, t] → P(An ) →n→∞ P(−∞, t] = F (t) Ohne Beweis: Sei F : R → R mit 1),2),3). Dann existiert ein eindeutig bestimmtes Wahrscheinlichkeitsmaß P auf R mit F (t) = P((−∞, t]) 37 1 Das Modell der Wahrscheinlichkeitstheorie Weitere Eigenschaften F (b) − F (a) = P((−∞, b]) − P((−∞, a]) = P((−∞, b] \ (−∞, a]) = P((a, b)) 2) P({t0 }) = lim P((t0 − n1 , t0 ]) = lim F (t0 ) − F (t0 − n1 ) = F (t0 ) − F (t0 − 0) 1) b > a n→∞ n→∞ F ist stetig in t0 ⇔ F (t0 − 0) = F (t0 ) ⇔ P({t0 }) = 0 F hat einen Sprung der Höhe h > 0 ⇔ P({t0 }) = h Wenn P stetig → F stetig Wenn P diskret → F hat nur Sprünge (dazwischen konstant) Beispiel 3 P Poisson-Verteilung P({n}) = λn −λ e n! . ..... ... .. 2 e−λ(1 + λ + λ2 ) e−λ + λe−λ e−λ ...... ........... F (t) Abbildung 1.12: Verteilungsfunktion zu Beispiel 3 Beispiel 4 0 : −∞ < t < 1 1 : 1≤t<2 Sei F (t) = 4 1 : t≥2 P([ 12 , 4]) = 1 P([ 12 , 32 ) = 14 P([ 32 , ∞)) = 3) P habe eine Dichte p F (t) = P((−∞, t]) = Rt 3 4 p(x) dx −∞ F 0 (t) = d dt F (t) = p(t) Beispiel 5 0 F (t) := 2 1 − e−t 38 (p stetig integrierbar) : t≤0 : t>0 → p(t) = 0 2 2te−t : t≤0 : t>0 2 Zufällige Größen 2.1 Definition und Verteilungsgesetz Zufälliges Experiment, Beschreibung erfolgt durch (Ω, A, P); Transformieren ω : Gegeben sei Abbildung X : Ω → R Wir beobachten ω ∈ Ω (fest) transformiert ω → X(ω) ∈ R beobachte am Ende den Wert X(ω) Beispiel 1 Ω = Rn , ω = (ω1 , . . . , ωn ) (n Versuchsergebnisse) n P X(ω) := n1 ωj (Mittelwert) j=1 Beispiel 2 Würfel 2 mal Ω = {1, . . . , 6}2 ; P Gleichverteilung X(ω1 , ω2 ) := ω1 + ω2 (Summe) z.B. X(1, 5) = 6, X(2, 6) = 8; Beispiel 3 Ω = [0, 1]; P Gleichverteilung 2 X(t) := t es tritt t ∈ [0, 1] ein, transformiere zu t2 . Beobachtete ω’s treten mit gewissen Wahrscheinlichkeiten auf. → X(ω)’s treten mit gewissen Wahrscheinlichkeiten auf. P(α ≤ X(ω) ≤ β) =? Definition 2.1 Eine Abbildung X : Ω → R heisst zufällige Größe (oder „reellwertige Zufallsvariable“ oder „zufällige reelle Zahl“), falls für jede Zahl t ∈ R stets gilt: {ω ∈ Ω : X(ω) ≤ t} ∈ A 39 2 Zufällige Größen Bemerkungen: 1) B ∈ (R) X sei Zufallsgröße −1 X (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ A (Wir wissen dies nur für B = (−∞, t], t ∈ R) 2) Nehme X nur die Werte x1 , x2 , . . . ∈ R an Dann ist X Zufallsgröße ⇔ {ω ∈ Ω : X(ω) = xk } ∈ A, k = 1, 2, . . . 3) Gilt A = R(Ω) → jede Abbildung X von Ω nach R ist Zufallsgröße Definition 2.2 Sei X : Ω → R eine Zufallsgröße, B ∈ (R). PX (B) := P({ω ∈ Ω : X(ω) ∈ B}) = P(X −1 (B)) = P(X ∈ B) (Kurzschreibweise) Satz 2.1 PX ist Wahrscheinlichkeitsmaß auf (R, (R)). PX nennt man das Verteilungsgesetz der Zufallsgröße X Beispiel 1 Ω = {1, . . . , 6}2 ; P Gleichverteilung X(ω1 , ω2 ) := max {ω1 , ω2 } Werte von X ? Zahlen von 1 bis 6 (1, . . . , 6) 1 PX ({1}) = P(X = 1) = 36 11 PX ({6}) = P(X = 6) = 36 P(ω ∈ Ω : X(ω) = 6) = P((1, 6), . . . , (6, 6), (6, 1), . . . , (6, 5)) = Beispiel 2 Ω = R; P = N (0, 1); 11 36 X(x) := x2 P(X ≤ t) = : t≤0 : t>0 0 N (0, 1) {x ∈ R : x2 ≤ t} √ √ √ 1 = N (0, 1)([− t, t]) = √ 2π √ 2 =√ 2π Z t Z x2 e− 2 dx √ − t t x2 e− 2 dx 0 X:Ω→R V gilt: x∈R {X ≤ t} = X −1 ((−∞, t]) = {ω ∈ Ω : X(ω) ≤ t} ∈ A X Zufallsgröße 40 2.1 Definition und Verteilungsgesetz PX (B) = P(X ∈ B) = P(X −1 (B)) Verteilungsgesetz von X Satz 2.2 PX ist Wahrscheinlichkeitsmaß auf (R, (R)) Beweis: PX (∅) = P {ω : X(ω) ∈ ∅} = P(∅) = 0 PX (R) = P {ω : X(ω) ∈ R} = P(Ω) = 1 X −1 (A ∩ B) = X −1 (A) ∩ X −1 (B) (A,B disjunkt) ∞ ∞ S S X −1 ( Bj ) = X −1 (Bj ) j=1 j=1 dann seien B1 , B2 disjunkte Ordnungen i 6= j ∅ = X −1 (Bi ∩ Bj ) = X −1 (Bj ) ∩ X −1 (Bi ) | {z } =∅ → X −1 (Bi ) disjunkte Teilmengen von Ω PX ( ∞ S Bj ) = P(X −1 ( j=1 ∞ S Bj )) = P( j=1 ∞ ∞ P P PX (Bj ) X −1 (Bj )) = P(X −1 (Bj )) = j=1 j=1 | {z } j=1 ∞ S disjunkt → PX Wahrscheinlichkeitsmaß → PX Verteilungsgesetz von X Beispiel 1 Würfel 2 mal Ω = {1, . . . , 6}2 X {ω1 , ω2 } := ω1 − ω2 , PX =? X hat Werte in {−5, . . . , 0, . . . , 5} PX ({−5}) = P(X = −5) = P(X −1 ({5})) = P((1, 6)) = PX ({0}) = 16 X −1 ({0}) = {(1, 1), . . . , (6, 6)} 1 36 Beispiel 2 P sei Gleichverteilung auf [0, 1]! ω = (ω1 , ω2 ) X(ω) := ω1 + ω2 P(X ≤ t) = P {(ω1 , ω2 : ω1 + ω2 ≤ t} 0 : t≤0 P(X ≤ t) = 1 : t≥2 2 0≤t≤1 P(X ≤ t) = t2 2 2 1≤t≤2 P(X ≤ t) = 1 − (2−t) = 2t − 1 − t2 2 Sprechweisen 1) Eine Zufallsgröße X heisst gleichverteilt auf {x1 , . . . , xn } ⊆ R, falls PX die Gleichverteilung auf {x1 , . . . , xn } ist, das heisst PX ({xi }) = 1 N P(X = xi ) = 1 N j = 1, . . . , N 41 2 Zufällige Größen 2) X ∼ Bn,p , das heisst PX = Bn,p , das heisst n n P(X = k) = p (1 − p)n−k k k = 0, . . . , n insbesondere ist P(X ∈ {0, . . . , n}) = 1 3) X ist Poissonverteilt mit λ > 0,wenn gilt: P(X = k) = λk −λ e k! k = 0, 1, . . . insbesondere ist P(X ∈ N0 ) = 1 4) X ∼ N (a, σ 2 ), das heisst 1 P(α ≤ x ≤ β) = √ {z } | 2πσ =P(ω:α≤X(ω)≤β) Zβ e− (t−a)2 2σ 2 α 5) X exponentialverteilt mit λ > 0, falls gilt: P(X ≥ t) = e−λt ; ≥0 insbesondere gilt: P(X ≥ 0) = 1 Bemerkung 1: X heisst diskret Sbzw. stetig, falls PX diskret bzw. stetig X diskret ⇔ abzählbar, mit P(X ≤ D) = 1 D⊆R zum Beispiel: Poissonverteilt → X diskret X stetig ⇔ S mit P(α ≤ X ≤ β) = W-Dichte p Rβ p(s) ds α zum Beispiel: X ∼ N (0, 1) → X stetig Bemerkung 2: FX (t) := PX ((−∞, t]) = P(X ≤ t) Verteilungsfunktion von X 42 dt 2.2 Gemeinsame Verteilung 2.2 Gemeinsame Verteilung (Ω, A, P) Wahrscheinlichkeitsraum X1 : Ω → R .. n zufällig . Xn : Ω → R Beispiel 3 3 mal würfeln X1 (ω) := max {ω1 , ω2 , ω3 } X2 (ω) := min {ω1 , ω2 , ω3 } X3 (ω) := ω1 + ω2 + ω3 Definition 2.3 → − Die Abbildung X = (X1 . . . Xn ) mit → − X = (X1 (ω) . . . Xn (ω)) ∈ Rn heisst n-dimensional zufälliger Vektor mit Koordinaten X1 . . . Xn Beispiel 3 (obiges Beispiel) Würfel: − → X (1, 1, 4) → (4, 1, 6) (2, 3, 6) → (6, 2, 11) → − X : Ω → Rn Definition 2.4 → → P(X ...Xn ) mit: Die Abbildung P− 1 X n o → − → (B) = P ω ∈ Ω : X (ω) ∈ B P− X heisst gemeinsames Verteilungsgesetz von X1 . . . Xn . → ist Wahrscheinlichkeitsmaß auf (Rn , (Rn )). P− X Beispiel 1 B = [α1 , β1 ] × . . . × [αn , βn ] Quader → (B) = P(α1 ≤ X1 ≤ β1 , . . . , αn ≤ Xn ≤ βn ) P− X gleichtzeitig muss α1 ≤ X1 ≤ β1 und . . . und αn ≤ Xn ≤ βn erfüllt sein 43 2 Zufällige Größen Beispiel 2 Würfel 2 mal: X1 (ω1 , ω2 ) := min {ω1 , ω2 } X2 (ω1 , ω2 ) := max {ω1 , ω2 } → ({(1, 4)}) = P(X1 = 1, X2 = 4) = P− X 1 18 → ({(4, 1)}) = P(X1 = 4, X2 = 1) = 0 P− X → ({(3, 3)}) = P(X1 = 3, X2 = 3) = P− X 1 X2 1 2 3 4 5 6 2 0 1 36 1 18 1 18 1 18 1 18 1 18 1 36 1 18 1 18 1 18 1 18 X1 4 0 0 1 0 36 3 0 0 1 18 1 18 1 18 1 36 1 18 1 18 5 0 0 0 0 1 36 1 18 1 36 6 0 0 0 0 0 1 36 X1 . . . Xn gegeben P(X1 . . . Xn ) Wahrscheinlichkeitsmaß auf Rn (gemeinsame Verteilung) PX1 ...Xn n Wahrscheinlichkeitsmaße auf R (Randverteilungen) Frage: Was ist informativer? n Randverteilungen oder eine gemeinsame Verteilung? Beispiel 1 ω ist zufällig herausgenommener Student: X1 (ω) Alter X2 (ω) PX1 ({22}) = PX2 ({w}) = m oder w Anzahl der 22-Jährigen N Anzahl der Mädchen N → ((22, w)) = P(X1 = 22, X2 = w) = P− X Anzahl der 22-jährigen Mädchen N Satz 2.3 Die gemeinsame Verteilung P(X1 . . . Xn ) bestimmt die Randverteilung von PX1 ...Xn . 44 2.2 Gemeinsame Verteilung Beweis: PX1 (B) = P {ω ∈ Ω : X1 (ω) ∈ B} = P(ω ∈ Ω : X1 (ω) ∈ B, X2 (ω) ∈ R, . . . , Xn (ω) ∈ R) → − = P(ω ∈ Ω : X (ω) ∈ B × R × . . . × R) → (B × R × . . . × R) = P− X Konkrete Rechenregeln W 1) n = 2, X und Y zufällig und beide diskret: W mit : x1 ,x2 ...∈R y1 ,y2 ...∈R ∞ X P(X = xi ) = 1 und P(Y ∈ {y1 , y2 , . . .}) = 1 i=1 pij := P(X = xi , Y = yj ) = P(X,Y ) ({(xi , yj )}) ∞ X pij ≥ 0 pij = 1 i,j=1 pi := P(X = xi ) = P(X = xi , Y ∈ {y1 , y2 , . . .}) = ∞ X P(X = xi , Y = yj ) = j=1 X P(x,y) (B) = ∞ X pij j=1 pij (xi ,yj )∈B pj := P(Y = yj ) = ∞ X P(X = xi , Y = yj ) = i=1 ∞ X pij i=1 X 1 Y 2 P10 P20 P30 P40 P50 6 P61 P01 P02 P03 P04 P05 P06 P60 11 36 1 36 1 2 3 4 5 6 3 4 5 P33 9 36 11 36 5 = 36 P(Y = 6) = P6̇ = P(X = 4) = P40 7 36 5 36 3 36 1 36 3 36 5 36 7 36 9 36 11 36 P(X = 6, Y = 1) = P61 = 0 P(X = 2, Y = 2) = P22 = 1 36 45 2 Zufällige Größen X1 . . . Xn : (X1 . . . Xn ) Ω→R Ω → Rn n zufällige Größen zufälliger Vektor ω → (X1 (ω) . . . Xn (ω)) P(xx ,x2 ) gemäß Verteilung, Wahrscheinlichkeitsmaß auf (Rn ) → PX1 . . . PXn Wahrscheinlichkeitsmaße auf R Randverteilungen 2) stetiger Fall: ∃ Dichte p : Rn → R mit Zβn Zβ1 ··· P(α1 ≤ X1 ≤ β1 , . . . , αn ≤ Xn ≤ βn ) = p(t1 , . . . , tn ) dtn . . . dt1 αn α1 Welche Dichten haben die Randverteilungen? PXj ([α, β]) = P(α ≤ Xj ≤ β) = P(−∞ < X1 < ∞, . . . , α ≤ Xj ≤ β, . . . , −∞ < Xn < ∞) Zβ Z∞ Z∞ = ··· p(t1 , . . . , tn ) dt1 . . . dtn dtj α −∞ −∞ {z | } q(tj ) → PX hat Dichte q PXj hat die Dichte Z∞ Z∞ ··· t= −∞ p(t1 , . . . , tj , . . . , tn ) dt1 . . . dtj . . . dtn −∞ Beispiel 1 P(X,Y ) sei Gleichverteilung auf Einheitskreis 1 π p(t, s) = 0 t2 + s2 ≤ 1 sonst → PX hat Dichte q mit Z∞ q(t) = −∞ √ 1 p(t, s) ds = π Z1−t2 ds = √ − 1−t2 2 → P(α ≤ X ≤ β) = π Zβ √ α −1 ≤ α ≤ β ≤ 1 46 2√ 1 − t2 für |t| ≤ 1 π 1 − t2 dt 2.3 Unabhängigkeit zufälliger Größen . ..... ... .. ........................................... ......... ............. ....... ......... ...... ....... ...... ...... . . . . ..... . .... ..... . . . . ..... ... . . . ..... . .... ... . . ... .. . . ... ... ... . .. ... . ... .. . ... .. . ... .. −1 ........... ...... 1 Abbildung 2.1: Dichte von PX (Beipiel 1) Frage: Bestimmen die Randverteilungen die gemeinsame Verteilung? Beispiel 2 In einer Urne befinden sich zwei Kugeln mit Wert 0 und zwei Kugeln mit Wert 1. Wir ziehen zwei Kugeln ohne zurücklegen: X Wert Kugel 1 Y Wert Kugel 2 P(X = 0, Y = 0) = P(X = 0) · P(Y = 0|X = 0) = X 0 1 Y 0 1 1 6 1 3 1 2 1 3 1 6 1 2 1 1 1 · = 2 3 6 PX = PX̃ PY = PỸ aber: P(X,Y ) 6= P(X̃,Ỹ ) 1 2 1 2 mit zurücklegen: X 0 1 Y 0 1 1 4 1 4 1 2 1 4 1 4 1 2 1 2 1 2 Randbedingungen bestimmen im Allgemeinen nicht die gemeinsamen Verteilungen! 2.3 Unabhängigkeit zufälliger Größen Beispiel 1 Würfel 3 mal X Wert 1. Wurf Y Summe 2. und 3. Wurf Frage: X und Y unabhängig? 47 2 Zufällige Größen Definition 2.5 n zufällige Größen X1 , . . . , Xn heißen unabhängig, wenn für alle B1 , . . . , Bn ∈ (R) stets gilt: P(X1 ∈ B1 , . . . , Xn ∈ Bn ) = P(X1 ∈ B1 ) · . . . · P(Xn ∈ Bn ) (*) Bemerkung: 1) es reicht aus, wenn (*) für Intervalle gilt. 2) es reicht aus, wenn (*) für Intervalle der Form (−∞, X] gilt, d.h. wenn V : tj ∈R P(X1 ≤ t1 , . . . , Xn ≤ tn ) = n Y P(Xj ≤ tj ) j=1 3) X1 , . . . , Xn sind unabhängig ⇔ V ∈ (R) stehts {X1 ∈ B1 } , . . . , {Xn ∈ Bn } un- B1 ,...,Bn abhängig sind (nicht trivial! ;-) ) Konkrete Fälle 1) Diskreter Fall, n = 2 X hat Werte X1 , X2 , . . . Y hat Werte Y1 , Y2 , . . . pij = P(X = xi , Y = yj ) pi0 = P(X = xi ) = ∞ X pij j=1 p0j = P(Y = yj ) = ∞ X pij i=1 Satz 2.4 Die zufälligen Größen X und Y sind dann und nur dann unabhängig, wenn gilt: pij = pi0 · p0j ^ i,j 48 1 ≤ i, j < ∞ 2.3 Unabhängigkeit zufälliger Größen Beweis: „⇒“ pij = P(X ∈ {xi } , Y ∈ {yj }) unabh. = P(X ∈ {xi }) · P(Y ∈ {yi }) = pi0 · p0j Beweis: „⇐“ X P(X ∈ B1 , Y ∈ B2 ) = pij = xi ∈B1 ,yj ∈B2 = X pi0 · xi ∈B1 X pi0 · p0j xi ∈B1 ,yj ∈B2 X p0j = P(X ∈ B1 ) · P(Y ∈ B2 ) yj ∈B2 ⇒ unabhängig 2) Stetiger Fall P(X1 , . . . , Xn ) hat Dichte p : Rn → [0, ∞) • Randverteilungen PX1 , . . . , PXn • dann sind X1 , . . . , Xn genau dann unabhängig, wenn p(t1 , . . . , tn ) = p1 (t1 ) · . . . · pn (tn ) Beweis: „⇒“ (∗) = P(α1 ≤ X1 ≤ β1 , . . . , αn ≤ Xn ≤ βn ) = P(α1 ≤ X1 ≤ β1 ) · . . . · P(αn ≤ Xn ≤ βn ) Zβ1 Zβn = p1 (t1 ) dt1 · . . . · pn (tn ) dtn α1 αn Zβ1 Zβn ··· = p1 (t1 ) · . . . · pn (tn ) dtn . . . dt1 α1 αn Zβ1 Zβn ··· (∗) = α1 ^ p(t1 , . . . , tn ) dtn . . . dt1 αn p(t1 . . . tn ) = p1 (t1 ) · . . . · pn (tn ) αi <βi Umkehrung analog 49 2 Zufällige Größen 2.4 Transformation zufälliger Größen → R Zufallsgröße, X:Ω →R f :R Y := f (X) (Prüfungs-)Frage: Wie berechnet sich PY aus PX ? Beispiel 1 X Sei gleichverteilt auf {1 . . . 6} f :R → R sei gegeben durch f (x) = 1 0 : x≥4 : x<4 Y := f (X) 1 2 1 P(Y = 0) = P(X < 4) = 2 P(Y = 1) = P(X ≥ 4) = P(Y ) = B1, 1 2 Beispiel 2 Y = X2 X ∼ N (0, 1) P(Y ≤ t) = P(X 2 ≤ t) √ √ = P(− t ≤ X ≤ t) √ 1 =√ 2π 2 =√ 2π t Z x2 e− 2 dx √ − t √ Zt x2 e− 2 dx 0 √ r Zt x2 2 FY (t) = P(Y ≤ t) = e− 2 dx π 0 q Dichte von PY → q(t) = 50 d FY (t) dt 2.4 Transformation zufälliger Größen r Zn x2 2 e− 2 dx H(n) = π √ FY (t) = H( t) r H 0 (n) = 2 − n2 e 2 dx π 0 √ √ 1 d 1 H( t) = H 0 ( t) · · t− 2 dt 2 1 −1 − t = √ t 2e 2, t>0 2π ( t √ 1 e− 2 : t>0 2πt q(t) = 0 : t≤0 Lineare Transformationen → f (t) = at + b Y =a·X +b • 1. Fall a > 0: P(Y ≤ t) = P(aX + b ≤ t) = P(X ≤ t−b ) a t−b ) a FY (t) = FX ( • 2. Fall a < 0: t−b t−b ) = 1 − P(X < ) a a FY (t) = P(aX + b ≤ t) = P(X ≥ falls X stetig → 1 − P(X ≤ t−b t−b ) = 1 − FX ( ) a a X hat Verteilungsdichte p → q(t) = t−b 1 t−b d a>0 d FY (t) = FX ( ) = p( ) dt dt a a a t−b 1 t−b a<0 d = (1 − FX ( )) = − p( ) dt a a a q Dichte von aX + b q(t) = 1 t−b p( ) |a| a Beispiel 1 X ∼ N (0, 1) Y = σX + b σ>0 51 2 Zufällige Größen t2 1 p(t) = √ e− 2 2π q(t) = (t−b)2 1 t−b 1 p( )= √ e− 2σ2 σ a 2πσ σX + b ∼ N (b, σ 2 ) Beispiel 2 p(t) = λe−λt 0 : t>0 : t≤0 Y = aX a>0 λ λ 1 t t>0 q(t) = p( ) = e− a t a a a Y ist exponentialverteilt mit Parameter λ a Simulation zufälliger Größen 1. Schritt Simulation auf einer [0, 1] gleichverteilten Zufallsgröße. Unabhängigkeit wählt Zahlen ω1 , ω2 , . . . ∈ {0, 1} mit 1 2 Erhalten zufällige Folge ω1 , ω2 , . . . von Nullen und Einsen ω = (ω1 , ω2 , . . .), setzen ∞ X ωj U (ω) := 2j j=1 P {ωj = 0} = P(ωj = 1) = dass heisst, U (ω) = 0, ω1 ω2 . . . im Binärsystem 1 + 214 + 215 + 217 + . . . 0, 0, 1, 1, 1, 0, 1 23 U (ω) ∈ [0, 1] → U gleichverteilt auf [0, 1],d.h. P(α ≤ U ≤ β) = β − α für 0 ≤ α ≤ β ≤ 1. U (ω) ist eine gleichverteilte zuf. Zahl aus [0, 1]. 2. Schritt 52 2.4 Transformation zufälliger Größen Q : Wahrscheinlichkeitsmaß auf R, Q habe Dichte q mit q(x) > 0, x ∈ (a, b), a = −∞, b = ∞ möglich! q(x) = 0 für x 6∈ [a, b] Zt F (t) = Q((−∞, t]) = q(x) dx −∞ → F streng monoton wachsend auf [a, b]: F ...... ... ... .. .................... .................. ............... ............ . . . . . . . . . ......... ........ ....... ...... ...... . . . . . ...... ...... ...... ...... ....... . . . . . . . ......... ... ... ... ..... ....................... ........... ...... Abbildung 2.2: F → F −1 : (0, 1) → (a, b) existiert: ... .... .. ... . .. .. .. .. ... .. .. .. .. .. . . .. .. .. .. . . ... ... ... .... ... . . . ... ..... ..... .... .... . . . .... .... .... ... .. . . .. .. .. .. .... .. ... ... .... .. F −1 ........... ...... Abbildung 2.3: F −1 Satz 2.5 Sei Q wie oben mit Verteilungsfunktion F und sei U gleichverteilt auf [0, 1] Sei X := F −1 (U ), so folgt PX = Q Beweis: 53 2 Zufällige Größen 0 : s<0 s : 0≤s≤1 P(U ≤ S) = 1 : s>1 P(X ≤ t) = P(F −1 (U ) ≤ t) F −1 wachs. = P(U ≤ F (t)) = F (t) |{z} ∈[0,1] ^ → = Q((−∞, t]) t → PX = Q Anwendung 1) Wollen ein x ∈ R wählen gemäß N (0, 1) 1 Φ(t) = √ 2π Φ−1 (t) : Zt x2 e− 2 dx −∞ (0, 1) → R −1 Ist U gleichverteilt auf [0, 1], so ist Φ (U ) gemäß N (0, 1)-verteilt. ... .... .. .. .. .. ... .. ... .. ... .. .. ... .. .. .. .. . . .. ... .... .... ... . . . .... .... ..... .... .... . . . ... .... .... ... .. . . .. .. .. ... ..... .. ... ... .... .. 1 2 Φ−1 ........... ...... 1 Abbildung 2.4: Φ−1 Suchen x ∈ R mit P(α ≤ x ≤ β) = Rβ s2 e− 2 ds α Im 1. Schritt u ∈ [0, 1] gleichverteilt, x := Φ−1 (u) → x ist N (0, 1)-verteilt Suchen unabhängige X1 , . . . , Xn normalverteilt (1) (1) ω1 , ω2 , . . . ∈ {0, 1} (2) (2) ω1 , ω2 , . . . ∈ {0, 1} u1 , u2 , . . . , un gleichverteilt und unabhängig .. . (n) (n) ω1 , ω2 , . . . ∈ {0, 1} 54 2.5 Rechnen mit zufälligen Größen x1 := Φ−1 (u1 ); . . . ; xn := Φ−1 (un ) Bemerkung: Y1 := σx1 + a; . . . ; Yn = σxn + a, σ > 0, a ∈ R → Y1 , . . . , Yn unabhängig und N (a, σ 2 )-verteilt! 2) Man konstruiert n unabhängige exponentialverteilte Zahlen t1 , . . . , tn mit Parameter λ>0 Im 1.Schritt: u1 , . . . , un wie oben Zt F (t) = λe−λx dx = 1 − e−λt 0 1 − e−λt = s (0 < s < 1) → e−λt = 1 − s −λt = ln (1 − s) 1 1 t = ln ( ) λ 1−s 1 1 ln ( ) λ 1−s 1 U gleichverteilt auf [0, 1] → ln ( 1−n ) ist exponential verteilt mit Parameter λ > 0. 1 − U ist ebenfalls gleichverteilt auf [0, 1]. → λ1 ln ( n1 ) ist exponential verteilt mit λ>0 u1 , . . . , un unabhängig gleichverteilte Zahlen aus [0, 1] F −1 (s) = xj := → 1 1 ln ( ), λ n 1≤j≤n t1 , . . . , tn unabhängig exponential verteilt Sei Q ein diskretes Wahrscheinlichkeitsmaß. Wie simuliert man Q? Beispiel 1 Wollen eine Bn,p -Verteilung simulieren. Suchen ein k ∈ {0, . . . , n} gemäß Bn,p verteilt. 2.5 Rechnen mit zufälligen Größen Problem X, Y unabhängige Zufallsgrößen Z := X + Y 55 2 Zufällige Größen n 0 p (1 − p)n 0 | {z } 0 n ∈ Ik→ k zufällige Zahl! n gleichverteilt z }| { z }| { n 1 n p (1 − p)n−1 pk (1 − p)n−k 1 k 1 n + 1 Intervalle Abbildung 2.5: Simulation einer zuf. Größe Frage Wie berechnet sich das Verteilungsgesetz von Z aus denen von X und Y? Beispiel 1 X,Y beide gleichverteilt auf {1, . . . , 6} P(X + Y = 2) = 1 ; 36 P(X + Y = 7) = 1 6 Satz 2.6 X,Y seine Zufallsgrößen mit Werten in N0 = {0, 1, . . .}, X,Y sind unabhängig, dann gilt: P(X + Y = k) = k X P(X = i) · P(Y = k − i) i=0 Beweis: Bk := {(i, j) : i, j ∈ N0 , i + j = k} P(X + Y = k) = P((X, Y ) ∈ Bk ) = PX,Y (Bk ) Bk := = k [ i=0 k X {(i, k − i)} = k X PX,Y ({(i, k − i)}) i=0 P(X = i, Y = k − i) i=0 unabh. = P(X = i) · P(Y = k − i) Beispiel 2 P(X = i) = 16 ; i = 1, . . . , 6; Null sonst P(Y = i) = 61 ; i = 1, . . . , 6; Null sonst P(X + Y = 3) = P(X = 0)P(X = 3) + P(X = 1)P(Y = 2) + P(X = 2)P(Y = 1) 1 + P(X = 3)P(Y = 0) = 0 + 61 · 16 + 16 · 16 + 0 = 18 56 2.5 Rechnen mit zufälligen Größen Satz 2.7 Sei X Poissonverteilt mit λ > 0 und Y Poissonverteilt mit µ > 0 X,Y unabhängig ⇒ X + Y Poissonverteilt mit λ + µ Beweis: P(X + Y = k) = = k X P(X = i)P(Y = k − i) i=0 k X i=0 µk−i −µ λi −λ e · e i! (k − i)! k e−(λ+µ) X k! = ·λi µk−i k! i!(k − i)! i=0 | {z } (ki) = e−(λ+µ) (λ + µ)k k! Deutung Telefonzentralen in A und B Anzahl der Anrufe in A (B bzw. A+B) sein Poissonverteilt mit Parameter λ > 0 ( µ > 0 bzw. λ + µ > 0) Lemma 2.8 Für k = 0, 1, . . . , m + n gilt: k X n m n+m = i k−i k i=0 Satz 2.9 X ∼ Bn,p , s.o. Y ∼ Bm,p X, Y unabh. → X + Y ∼ Bn+m,p 57 2 Zufällige Größen Beweis: k X m n i n−i pk−i (1 − p)m−(k−i) P(X + Y = k) = p (1 − p) k − i i i=0 k X n m k n+m−k = p (1 − p) i k−i i=0 n+m k 2.8. = p (1 − p)n+m−k ; k = 0, . . . , n k → X + Y ist Bn+m,p -verteilt Folgerung X1 , . . . , XN unabhängig, P(Xj = 1) = p; → Xj ∼ B1,p 2.9. ⇒ X1 + . . . + Xn ∼ Bn,p P(Xj = 0) = 1 − p n k P(X1 + . . . + Xn = k) = p (1 − p)n−k k P {ω : Genau k der Xj (ω) sind 1} Addition stetiger Zufallsgrößen Zβ P(α ≤ X ≤ β) = p(t) dt α Zβ P(α ≤ Y ≤ β) = q(s) ds α Zβ P(α ≤ X + Y ≤ β) = r(z) dz α 58 2.5 Rechnen mit zufälligen Größen Frage Wie berechnet sich r aus p und q? Theorem 2.10 X habe Verteilungsdichte p, Y q und X,Y unabhängig. Dann hat X + Y die Verteilungsdichte r mit r = p ∗ q (Faltung) und Z∞ Z∞ p(x − y) q(y) dy = r(x) = −∞ p(x) q(x − y) dy −∞ Beweis: Z := X + Y, t ∈ R, Bt := {(x, y) : x + y ≤ t} ⊆ R2 P(Z ≤ t) = P((x, y) ∈ Bt ) = PX,Y (Bt ) = (∗) entscheidend: X,Y unabhängig: PX,Y hat Dichte p(x)q(y), d.h. ZZ PX,Y (B) = p(x) q(y) dx dy B Z∞ ZZ (∗) = p(x) p(y) dx dy = −∞ Bt t−x Z q(y) p(x) dy dx −∞ | −∞<y ≤t−x (1) → {z (1) −∞ < y + x ≤ t } u := y + x Z∞ Z t ⇒ q(u − x) du p(x) dx = −∞ −∞ Zt ⇒ = Z∞ −∞ p(x) q(u − x) dx du −∞ | (2) {z (2) } = r(u) = (p ∗ q)(u) Zt P(Z ≤ t) = r(u) du → r Verteilungsdichte von Z. −∞ Rest durch Substitution 59 2 Zufällige Größen Sei P(X ≤ t) = Rt p(x) dx P(Y ≤ t) = Rt q(y) dy −∞ −∞ Zt → X,Y unabhängig P(X + Y ≤ t) = r(z) dz −∞ wobei r = p ∗ q, d.h. Z∞ Z∞ p(z − x) q(x) dx = r(z) = −∞ p(x) q(z − x) dx −∞ Beispiel 1 Zwei Bauteile gleicher Art, Lebensdauer exponential verteilt • nehmen 1. Bauteil in Betrieb • bei Ausfall ersetzen durch 2. Bauteil Frage P(2. Bauteil in [1, b] ausfällt)=? Xi Lebenszeit des i-ten Bauteils (i = 1, 2) Dichten: p(x) = λe−λx x>0 q(y) = λe−λy y>0 .. ..... .. ... .......................................... .......................................... ........ ........ ...... ...... ...... ..... .......... ..... .......... ..... ..... . .. ..... X1 ...... ........... X1 + X2 Abbildung 2.6: Beispiel 1 Z∞ → r(z) = p(z − x) q(x) dx = λ −∞ 2 Zt e −λ(z−x) −λx e 0 → P(X1 + X2 ≥ t) = λ Zt dx = λ e−λz dx = λ2 ze−λz 0 2 Z∞ t 60 2 zeλz dz = λ(λ + t)e−λt t>o z>0 2.6 Erwartungswert Beispiel 2 X ∼ N (a, σ 2 ), Y ∼ N (b, µ2 ), X, Y unabhängig 1 2 1 (x−a)2 (y−b) 1 1 2 −2 2 µ p(x) = √ e− σ 2 q(x) = √ e 2πσ 2πµ Z∞ − 1 (z−x−a)2 − 1 (x−b)2 2 1 2 σ2 dx r(z) = e e µ2 2πσµ −∞ X + Y ∼ N (a + b, σ 2 + µ2 ) 2.6 Erwartungswert Gegeben sei eine Zufallsgröße X, suchen einen „mittleren“ Wert von X Analyse X nimmt nur die Werte x1 , . . . , xn ∈ R an P(X = xk ) = pk , 1≤k≤n N unabhängige Versuche gemäß X, dann nimmt X ungefähr N · pk den Wert xn an 1 {x1 · Eintreten Zahl von x1 + . . . + xn · Eintreten Zahl von xn } N 1 = {x1 N p1 + . . . + xn N pn } N n n X X = xj p j = xj P(X = xj ) Durchschnitt = j=1 j=1 Beispiel 1 Würfel P(X = 1) = . . . = P(X = 6) = 61 Durchschnitt= 1 · P(X = 1) + . . . + 6 · P(X = 6) = 1+...+1 6 = 3.5 Beispiel 2 P(X = 2) = 13 P(X = −4) = 23 Durchschnitt= 2 · 13 + (−4) 23 = −2 Definition 2.6 Sei X eine Zufallsgröße mit möglichen Werten x1 , x2 , . . . aus R 61 2 Zufällige Größen 1) gilt xk ≥ 0 für k = 1, 2, . . ., so setzt man: EX := ∞ X xk · P(X = xk ) (EX = ∞ möglich) k=1 2) Sind die xn ∈ R beliebig und gilt: ∞ X |xk |P(X = xk ) < ∞ k=1 so setzt man: EX := ∞ X xk · P(X = xk ) k=1 EX heisst Erwartungswert der Zufallsgröße X Beispiel 1 Münzwurf, 0 oder 1 mit p = 21 x Euro Einsatz: 0 → verloren (x = 0) 1 → Gewinn 2x Strategie: 1. Spiel 1 Euro Einsatz bei Verlust 2. Spiel 2 Euro Einsatz bei Verlust 3. Spiel 4 Euro Einsatz bei Verlust .. . k. Spiel 2k−1 Euro Einsatz Im k-ten Spiel Gewinn: → 2k Euro Gewinn → 1 + 2 + 3 + . . . + 2k−1 Einsatz bis dato= 2k − 1 → Gewinn: 2k − (2k − 1) = 1 Euro k { Einsatz 2 − 1 = { Im k-ten Spiel eine 1} X benötigter Einsatz EX = ∞ X k=1 k k (2 − 1) · P(X = 2 − 1) = | {z } 1 ∞ X 2k − 1 k=1 2k (deshalb: Höchsteinsatz) Beispiel 2 X ∼ Bn,p Mögliche Werte von X sind 0 . . . n n k P(X = k) = p (1 − p)n−k k 62 2k = ∞! 2.6 Erwartungswert n X n k → EX = k p (1 − p)n−k k k=0 = n X k=1 = np k n! pk (1 − p)n−k k!(n − k)! n X k=1 (n − 1)! pk (1 − p)n−k (k − 1)!(n − k)! n X (n − 1)! pk (1 − p)n−1−k k!(n − 1 − k)! k=0 n−1 X n−1 k = np p (1 − p)n−1−k k k=0 = np = np(p + 1 − p)n−1 = np ⇒ bei einem verfälschten Münzwurf tritt im Durchschnitt np oft die 1 ein Beispiel 3 X Sei gleichverteilt auf {x1 . . . xn } EX = n X n 1X xk P(X = xk ) = xk | {z } n k=1 k=1 1 n arithmetisches Mittel Beispiel 4 X Poissonverteilt ∞ ∞ X X λk −λ λk−1 EX = k e =λ k! (k − 1)! K=0 k=0 ! e −λ −λ = λe ∞ X λk k! | {z } =λ k=0 eλ Deutung: Zugriff auf eine Seite im Schnitt pro Tag 1000 Zugriffe k 1 → P(k Zugriffe pro Tag) = 1000 e− 000 k! Beispiel 5 P(X = k) = p(1 − p)k k = 0, 1, . . . X = k ⇔ im (k + 1). Versuch erstmals eine 1 63 2 Zufällige Größen EX = ∞ X pk(1 − p)k k=0 ∞ X =p k=0⇒0 k(1 − p)k k=1 = p(1 − p) ∞ X k(1 − p)k−1 k=1 f (p) := ∞ X (1 − p)k = K=0 {z | ∞ P f 0 (p)=− 1 = 1 − (1 − p) } 1 p |{z} f 0 (p)=− k(1−p)k−1 1 p2 k=0 → ∞ X k(1 − p)k−1 = k=1 EX = 1 p2 p(1 − p) 1−p = 2 p p Beispiel 1 Würfeln bis zum ersten Erscheinen einer 6 Wie viele Würfe sind im Durchschnitt nötig, bis zum ersten Erscheinen der 6? 1 − p = 56 p = 16 ; EX = 5 Im Durchschnitt erscheint die 6 im 6. Wurf Beispiel 2 Erstmals Rot im Roulette 18 prot = 37 ; 1 − p = 19 37 EX = 10 37 18 37 = 19 18 Erwartungswert stetiger Zufallsgrößen Zt P(X ≤ t) = p(s) ds −∞ 64 EX =? 2.6 Erwartungswert . ..... ... .. ............. ....................... ........ ......... .. ....... ......... ....... ...... ........ ...... .... ....... .......... . . . . . ......... ...... .......... .... . . . . . ........ . . . . . . ... ....... ...... . ......... . . . . . . . . . . . . . . ............ .. ........ ........ . . . . . . . . . . . . .................... . . . . . . . . . .................... ... ... ... .............................. ..... ........... ...... P t1 t2 Abbildung 2.7: Erwartungswert einer stetigen Zufallsgröße Analyse Zt2 p(s) ds ∼ (t2 − t1 )p(t1 ) P(t1 ≤ X ≤ t2 ) = t1 n X k=1 tk P(tk−1 ≤ X ≤ tk ) ∼ n X Z∞ tk (tk − tk−1 )p(tk−1 ) → k=1 tp(t) dt −∞ EX Erwartungswert oder auch Mittelwert Wenn X höchstens abzählbar viele Werte annimmt, x1 , x2 , . . . ∈ R, dann ist der (diskrete) Erwartungswert (falls er existiert): EX := ∞ X xk P(X = xk ) k=1 X stetige Zufallsgröße, d.h. es existiert eine Verteilungsdichte p : R → [0, ∞) mit Zt P(X ≤ t) = p(s) ds, t∈R −∞ EX =? Approximation von X durch diskrete Zufallsgröße Definition 2.7 X mit Verteilungsdichte p besitzt ein Erwartungswert, wenn gilt: Z∞ |t|p(t) dt < ∞ −∞ Z∞ Stetiger Erwartungswert: EX = tp(t) dt −∞ 65 2 Zufällige Größen Beispiel 1 X sei gleichverteilt auf [a, b], d.h. Verteilungsdichte p hat die Gestalt: 1 b−a p(t) = 0 Z∞ EX = : a≤t≤b : sonst Zb tp(t) dt = t −∞ 1 b 2 − a2 1 a+b dt = = b−a 2 b−a 2 a Mitte des Intervalls Beispiel 2 X ∼ N (a, σ 2 ) 1 EX = √ 2πσ =√ 1 2πσ 1 =√ 2πσ Z∞ −∞ Z∞ te− t−a)2 2σ 2 Substitution: t − a := s dt s2 (s + a)e− 2σ2 ds −∞ Z∞ se − s2 2σ 2 −∞ 1 ds + a √ 2πσ Z∞ s2 e− 2σ2 ds −∞ =0+a·1=a Beispiel 3 X exponentialverteilt mit λ > 0 p(t) = Z∞ → EX = λ te −λt λe−λt 0 1 dt = λ 0 : t>0 : t<0 Z∞ se−s ds = 1 1 ·1= λ λ 0 Die Lebensdauer eines Bauteils sei exponentialverteilt. Im Durchschnitt arbeitet das Bauelement 10 Zeiteinheiten. → 1 = 10 λ λ= 1 10 t → P(Bauelement arbeitet t Zeiteinheiten oder mehr) = e− 10 66 2.6 Erwartungswert . ..... ... .. EX ....................................... ........ ......... . ....... ......... ... ....... ........ ....... .......... . . . . . . ......... ... .... . . . . . ........ . . . . . ...... . ......... . . . . . . . . . ............ ... ........ . . . . . . . . . . . .................... . . . . . . . . . .................... ... ... ... .............................. ... . ........... . ...... a Abbildung 2.8: Erwartungswert (zu Beispiel 3) ... .... .. .. ... ... .. ... ... ... .... .... ..... ... ............ ...... ...... ... ...... ...... ........ ... ......... .................... ... .............. .................. . ... . . EX ........... ...... 1 2 Abbildung 2.9: Erwartungswert (zu Beispiel 3) Beispiel 4 X sei Cauchy-verteilt, d.h. p(t) = Z∞ 1 1 ; π 1 + t2 2 |t|p(t) dt = π −∞ Z∞ t t∈R 1 dt = ∞ 1 + t2 0 ⇒ X besitzt keinen Erwartungswert Eigenschaften von Erwartungswerten 1) Linerarität X, Y : Ω → R zufällige Größen, α, β ∈ R E(αX + βY ) = αEX + βEY Anwendung: Erwartungswert beim Würfeln ist 3.5 Würfel 3 mal, Summe der drei Würfe Erwartungswert: 3 · 3.5 = 10.5 67 2 Zufällige Größen 2) Transformationssatz f :R→R = Ef (X) = ∞ P k=1 R∞ f (xk )P(X = xk ) (diskret) f (t)p(t) dt (stetitg) −∞ Beispiel 1 X sei Bn,p -verteilt n X n k EX = f (k ) p (1 − p)n−k k k=1 2 2 Beispiel 2 X sei exponential verteilt Z∞ λ E log X = (log t)λe− t dt 0 1 E = X Z∞ 1 −λ λe t dt = ∞ t 0 3) Multiplikationsformel X,Y unabhängig E(X · Y ) = (EX) · (EY ) 4) Monotonie X ≤ Y, d.h. X(ω) ≤ Y (ω), ^ ω∈Ω → EX ≤ EY E(X + c) = EX + Ec = EX + c (c ist Konstante) 2.7 Varianz und Kovarianz Definition 2.8 Eine zufällige Größe X hat ein 2. Moment, wenn gilt: ∞ P 2 E|X| < ∞, d.h. k=1 R∞ −∞ 68 x2k P(X = xk ) < ∞ (diskret) t2 p(t) dt < ∞ (stetig) 2.7 Varianz und Kovarianz Satz 2.11 Besitzt X ein 2. Moment, so existiert EX. Beweis: (a − b)2 ≥ 0 b=1 → (a2 + b2 ) ≥a·b 2 → a2 + 1 ≥a 2 1 1 E|X| ≤ E|X|2 + < ∞ 2 2 → a, b > 0 1 1 |X(ω)| ≤ |X(ω)|2 + 2 2 ∞ R |t|p(t) dt −∞ E|X| = Def. EW. ex. ∞ P |xk |P(X = xk ) → k=1 Aufgabe Man konstruiere X mit EX aber ohne 2. Moment! Folgerung X habe 2. Moment, a = EX E(X − a)2 = EX 2 − 2aEX + a2 < ∞ Definition 2.9 Sei X eine Zufallsgröße mit 2. Moment. Die Varianz (Streuung, Dispersion) VX := E(X − EX)2 ist der mittlere quadratische Abstand von X zum Erwartungswert. Wenn VX groß: Im Mittle nimmt X Werte weit entfernt von EX an. Wichtigste Kenngröße von X ist Erwartungswert, zweitwichtigste ist die Varianz! 69 2 Zufällige Größen Rechenregeln 1) a = EX → VX = E(X − a)2 = E[X 2 − 2aX + a2 ] Linearität = EX 2 − 2aEX + a2 = EX 2 − (EX)2 = VX a = EX 2) Sei X diskret, → VX = ∞ X (xk − a)2 P(X = xk ) K=1 3) Sei X stetig, p Dichte Z∞ → VX = (t − a)2 p(t) dt −∞ 4) P(X = c) = 1 EX = c → P(X − c = 0) = 1 → VX = 0 · P(X = c) = 0 5) V(αX + β) = E((αX + β) − E(αX + β))2 = Eα2 (X − EX)2 = α2 VX | {z } =αEX+β V(αX + β) = α2 VX 6) X,Y sind unabhängig, a = EX, b = EY V(X + Y ) = E(X + Y − E(X + Y ))2 | {z } a+b 2 = E(X − a) − 2E(X − a)(Y − b) + E(Y − b)2 = VX − (∗) + VY da X,Y unabhängig → X − a, Y − a sind unabhängig → E(X − a)(Y − b) = E(X − a)E(Y − b) = 02 V(X + Y ) = VX + VY für X,Y unabhängig Beispiel 1 X sei gleichverteilt auf {x1 , . . . , xn } N 1 X xj a = EX = N j=1 70 → VX = 1 X (xj − a)2 N j=1 2.7 Varianz und Kovarianz X sei gleichverteilt auf {1, . . . , 6} → a = 3.5 1 7 7 7 VX = [(1 − )2 + (2 − )2 + . . . + (6 − )2 ] 6 2 2 2 1 25 9 1 1 9 25 = ( + + + + + ) 6 4 4 4 4 4 4 1 70 35 = · = (Varianz beim Würfeln) 6 4 12 Beispiel 2 X sei gleichverteilt auf [a, b] EX = 1 EX 2 = a−b Zb t2 dt = a+b 2 1 b 3 − a3 a2 + ab + b2 = 3 b−a 4 a VX = EX 2 − (EX)2 = Beispiel 3 X ist B1,p -verteilt → P(X = 1) = p; a2 + ab + b2 a2 + 2ab + b2 a2 b2 ab (b − a)2 − = + − = 3 4 12 12 6 12 P(X = 0) = 1 − p EX = p EX 2 = 02 (1 − p) + 12 p = p VX = p − p2 = p(1 − p) X1 , . . . , Xn unabhängig B1,p -verteilt n P X= Xi → X ∼ Bn,p i=1 VX = VX1 + . . . + VXn = n · p(1 − p) Varianz wird maximal für p = 1 2 Beispiel 4 X Poissonverteilt mit λ > 0 EX = λ 71 2 Zufällige Größen 2 EX = = ∞ X k=0 ∞ X k2 k k=1 ∞ X =λ λk k! λk e−λ (k − 1)! (k + 1) λk −λ e k! k=0 " # ∞ ∞ X λk −λ X λk −λ =λ e k e + k! k! k=0 k=0 = λ [EX + 1] = λ2 + λ → VX = λ2 + λ − λ2 = λ Beispiel 5 X sei N (a, σ 2 )-verteilt EX = a 1 VX = √ 2πσ y := Z∞ 1 (x−a)2 2 −2 (x − a) e (x − a) σ 2-malige part. Integration X ∼ N (a, σ 2 ) (∗) −∞ 1 → (∗) = √ 2π = dx σ2 dx = σdy Z∞ y2 y 2 σ 2 e− σ2 dy −∞ σ2 √ 2π Z∞ y2 y 2 e− σ2 dy = σ 2 · 1 −∞ a Erwartungswert, σ 2 Varianz Kovarianz Gegeben seien Zufallsgrößen X und Y. Im Allgemeinen sind X und Y nicht unabhängig. Wir suchen ein Maß für die Abhängigkeit Beispiel 1 X sei Körpergröße einer Person, Y sei Gewicht „Wie“ abhängig sind X und Y? 72 2.7 Varianz und Kovarianz kleine Varianz ....... ... ..... .. ... .. .. . ... ... ... .. .. . .. .. . ... .... .. . .. . ... .. . ... . . . .. .. . . .. .................................................. . .............. ........... . . . .... ............... ........ . . ..... ................. . . . . . ........................ ..... ...... .. ........ ... ............................. ............. ........ . ........................... . . . . . . ............................ .......... . . . . . . . . . . . . . . . . . .............................. .. ................ ... ... ......................................... .......... ...... ... ... große Varianz Abbildung 2.10: Verschieden Varianzen der Normalverteilung Vorbetrachtung Seien X,Y unabhänig, a = EX, b = EY unabh. E(X − a)(Y − b) = E(X − a)E(Y − b) = (a − a)(b − b) = 0 Definition 2.10 X,Y seien zufällige Größen mit 2. Moment, a = EX, b = EY cov(X, Y ) = E(X − a)(Y − b) die Kovarianz von X und Y Eigenschaften 1) cov(X, Y ) = cov(Y, X) 2) X und X heißen unkorrelliert, wenn cov(X, Y ) = 0 unabhängig ⇒ unkorrelliert 6⇐ 3) cov(X, Y ) ≤ (VX)(VY ) cov(X, Y ) (Korrelationskoeffizient) %(X, Y ) := √ VX · VY −1 ≤ %(X, Y ) ≤ 1 %(X, Y ) nahe bei 1 oder -1: Starke Korrelation %(X, X) = 1 %(X, −X) = −1 %(X, X )=1 2 73 2 Zufällige Größen 4) pij := P(X = xi , Y = yj ) cov(X, Y ) = (diskreter Fall) ∞ X a = EX = pij (xi − a)(yj − b) b = EY = i,j=1 ∞ P i=1 ∞ P pi. · xi p.j · xj j=1 5) Stetiger Fall:P(X,Y ) hat eine Dichte von p : R2 → [0, ∞) Z∞Z p(t, s)(t − a)(s − b) dt ds cov(X, Y ) = −∞ a = EX; b = EY Z∞ a= Z∞ t −∞ tp(t, s) ds dt −∞ Z∞ b= Z∞ s −∞ p(t, s) ds dt −∞ Beispiel 1 Urne mit vier Kugeln (0, 0, 1, 1) Ziehen zwei Kugeln ohne zurücklegen X (Y) ist der Wert der ersten (zweiten) Kugel EX = 12 · 0 + 12 · 1 = 12 1 1 1 EX = 12 6 3 2 1 1 1 VX = 12 (0 − 12 )2 + 12 (1 − 12 )2 = 41 3 6 2 1 1 VY = 14 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 cov(X, Y ) = (0− )(0− )+ (0− )(1− )+ (1− )(0− )+ (1− )(1− ) = − 6 2 2 3 2 2 3 2 2 6 2 2 12 1 − 12 4 1 %(X, Y ) = q q = − = − 12 3 1 1 0 1 X\Y 0 1 4 4 Beispiel 2 Zweimaliges Würfeln, X ist Minimum der beiden Würfe, Y ist das Maximum X\Y 1 2 3 4 5 6 1 2 1 36 1 18 1 36 0 0 0 0 0 1 36 74 0 0 0 0 3 36 3 1 18 1 36 0 0 0 5 36 4 5 6 ··· ··· 1 ··· 18 1 1 ··· 36 18 1 1 0 36 18 1 0 0 36 7 36 9 36 11 36 11 36 9 36 7 36 5 36 3 36 1 36 9 1 EX = 1 11 + 2 36 + . . . + 6 36 = 91 ≈ 2.528 36 36 1 3 11 161 EY = 1 36 + 2 36 + . . . + 6 36 = 36 ≈ 4.472 1 VX = 11 (1 − 91 )2 + . . . + 36 (6 − 91 )2 36 36 36 2555 = 1296 ≈ 1.97 = VY 2.7 Varianz und Kovarianz 161 91 )(Y − ) 36 36 1 91 161 1 91 161 = (1 − )(1 − ) + (1 − )(2 − ) 36 36 36 18 36 36 91 161 1225 1 )= + . . . + (6 − )(6 − 36 36 36 1296 cov(X, Y ) = E(X − %(X, Y ) = 1225 1296 2555 1296 = 35 1225 = ≈ 0.479 2555 73 Beispiel 3 Der Vektor (X,Y) sei gleichverteilt auf dem Einheitskreis V := (t, s) : t2 + s2 ≤ 1 A ⊆ K, P((X, Y ) ∈ A) = V ol2 (A) π Wissen: X;Y sind abhängig p(t, s) = 1 π : t2 + s2 ≤ 1 : sonst 0 EX = EY = 0 Z∞Z (t − 0)(s − 0) p(t, s) dt ds cov(X, Y ) = −∞ 1 = π ZZ ts dt ds t2 +s2 ≤1 √ Z1 Z1−t2 1 = t s ds dt = 0 √ π −1 − 1−t2 | {z } 0 X,Y abhängig, aber unkorrelliert! 75 3 Grenzwertsätze Vorbemerkung Gesetze der Wahrscheinlichkeitstheorie wirken bei einer großen Anzahl unabhängiger Versuche. Zum Beispiel Wahrscheinlichkeit, dass man in einem Spiel gewinnt: → Keinerlei Aussage über Ausgang eines Spiels → Sehr viele Spiele→ es wirken Gesetze der Wahrscheinlichkeitstheorie Mathematisches Modell X1 , X2 , . . . Folge unabhängiger identisch verteilter Zufallsgrößen P(X V 1 ∈ B1 , . . . , Xn ∈ Bn ) = P(X1 ∈ B1 ) · . . . · P(Xn ∈ Bn ) P(X1 ∈ B1 ) = . . . = P(Xn ∈ Bn ) n Xn Ergebnis im n-ten Versuch a = EX1 = EX2 = . . . = EXn X1 + . . . + Xn →n→∞ a n Satz 3.1 (Tschebyschefsche Ungleichung) Sei Y Zufallsgröße mit P(Y ≥ 0) = 1. Dann gilt für c > 0 stets EY c P(Y ≥ c) ≤ Beweis: (Y stetig) Z∞ Z∞ tp(t) dt ≥ EY = 0 Z∞ tp(t) dt ≥ c c p(t) dt = cP(Y ≥ c) c Satz 3.2 Sei X Zufallsgröße mit 2. Moment (E|X|2 < ∞) P(|X − EX| ≥ ε) ≤ 76 VX ε2 (ε > 0) Beweis: Y := (X − EX)2 ; c := ε2 P(Y ≥ c) = P(|X − EX|)2 ≥ ε2 ) = P(|X − EX|) ≥ ε) EY = VX → Behauptung nach 3.1 Beispiel 1 X ∼ N (a, σ 2 ) VX 1 = 2 9σ 9 3σ-Regel, mit großer Wahrscheinlichkeit liegt der beobachtete Wert in [a − 3σ, a + 3σ] P(|X − a| ≥ 3σ) ≤ Folgerung X1 , X2 , . . .unabhängig, identisch verteilt Sn := X1 + X2 + . . . + Xn a = EX1 ESn = EX1 + EX2 + . . . + EXn = n · a VSn = nVX1 = n · σ 2 Sn Sn 1 σ2 E( ) = a; V( ) = V(Sn ) = n n n n 2 Sn VSn 1σ → P(| − a| ≥ ε) ≤ 2 = →n→∞ 0 n ε n 2 Deutung α > 0, ε > 0 vorgegeben → es existiert ein n0 = n0 (α, ε) mit n ≥ n0 → Wahrscheinlichkeit, ein ω ∈ Ω mit Sn | − a| ≥ ε n ist ≤ α. (Schwache Gesetz der großen Zahlen!) Beispiel 1 Würfel n mal X1 , X2 , . . . Ergebnisse im 1.,2.,. . . Wurf a = EX1 = 72 ; σ 2 = VX1 = 35 12 35 → P(| Snn − 72 | ≥ ε) ≤ 12nε 35 n = 10000; ε = 0.1 → P(| Snn − 72 | ≥ 0.1) ≤ 12·100 ≈ 0.0291 Sn 35 → P(3.4 ≤ n ≤ 3.6) ≥ 1 − 21·100 ≈ 0.971 → P(34000 ≤ Snn ≤ 36000) ≥ 0.971 . . . 77 3 Grenzwertsätze Anwendung Führen beliebig viele gleichartige Versuche durch: X1 , X2 , . . . Ergebnisse. B ⊆ R (Borelmenge) 1 : Xj (ω) ∈ B Yj ω) := 0 : Xj (ω) 6∈ B Yj (ω) = 1 ⇔ B im j-ten Versuch eingetreten Y1 + . . . + Yn = ] {j ≤ n : Xj ∈ B} rn := Y1 , . . . , Yn n rel. Häufigkeit des Eintretens von B beim n-ten Versuch ? EYj = 0P(Yj = 0) + 1P(Yj = 1) = P(Xj ∈ B) = P(X1 ∈ B) Wahrscheinlichkeit des Eintretens von B in einem Versuch VYj = p(1 − p) p = P(X1 ∈ B) → P(|rn − p| ≥ ε) ≤ p(1−p) →n→∞ 0 nε2 Relative Häufigkeiten konvergieren gegen die Wahrscheinlichkeiten des Eintretens Starkes Gesetz der großen Zahlen a = EX1 , X1 , X2 , . . . unabhängig, identisch verteilte Zufallsgrößen n 1X Xj (ω) = a) = 1 n→∞ n j=1 P(ω ∈ Ω : lim V existiert ein zufälliges n0 , so dass für n > n0 stets gilt: ε>0 n 1 X X j − a ≤ ε n j=1 Zentraler Grenzwertsatz X1 , X2 , . . . unabhängig identisch verteilte Zufallsgrößen, a = EX1 , σ 2 = VX1 , Sn := X1 + . . . + Xn ESn = n · a VSn = n · σ 2 E 78 Sn − na √ nσ = 0, V Sn − na √ nσ =1 . ..... ... .. X1 ............ ..... .................... .. .............. .......... ..... .......... .................. ... ..... .......... ... .... . . . . ... .... . . ... . .. . . ... . ..... . ... . .. ...................... . . . .................. . .... . . . . . . . . . . . . . . ... .. ......... . . . . . . . . . . . . . . . . . . ... .... .... ............... .. .. ..... .............. . ........ ..... ............... . ..... ..... ............... ..... ............... . ......... . . . ... ..... . . . . . . . . . . . . . . ..... .. .. ...................... . . . . . . ............................. ............... ............... ............... ............... ............... ............... ............... ............... ............... ............... ............... ............... .............. nε X 1 + X2 a=0 ........... ...... n −nε Abbildung 3.1: Gesetz der großen Zahlen . ..... ... ... → na ↓ nσ 2 → ∞ .................................... ......... ....... ...... ...... ..... ..... .... .... . . . .... .. . . . . . ... . . . ............................................. . ... ........... ....... . ........ . . . . . . . . . . . ....... ....... .... . . ... . . . . . . . ........ . ........ . . . . ... ........... .............. . . . . . . . . . . . . . . . . . . . . .......................................................... . ... ........................... ... ..... ..... .......................................................................... ................ ....... ............................ ........... ...... na n0a Theorem 3.3 (Zentraler Grenzwertsatz) X1 , X2 , . . . unabhänig, identisch verteilte zufällige Größen 2 a = EX V 1 , σ = VX1 ; gilt: −∞≤α<β≤∞ Sn − na 1 √ P(α ≤ ≤ β) →n→∞ √ σ n 2π Zβ x2 e− 2 dx α −na d.h. Sσn√ ist „fast“ N (0, 1)-verteilt n Sn ist „fast“ N (na, nσ 2 )-verteilt 79 3 Grenzwertsätze Spezialfall: P(Xj = 0) = 1 − p a = p, σ 2 = 1 − p P(Xj = 1) = p 1 Sn − np ≤ β) →n→∞ √ P(α ≤ p 2π np(1 − p) Sn ∼ Bn,p n k p (1 − p)n−k k X k≤n:α≤ √ k−np np(1−p) Zβ x2 e− 2 dx α Moivre-Laplace (1740?) ≤β Anwendungsbeispiele Für „große“ n ersetze man die Verteilung von Verteilung von Sn durch N (na, nσ 2 ) 1) Würfel n mal,a = 27 , P(α ≤ σ2 = S√ n −na nσ durch die N (0, 1)-Verteilung bzw. die 35 12 Sn − na Sn − na √ ≤ β) ≈ N (0, 1)([α, β]) ≤ β) = P(α ≤ q nσ 35n 12 α = −2, β = −2 r r Z2 x2 35 35 1 P(35000 − 200 ≤ Sn ≤ 35000 + 200 )≈ √ e− 2 dx ≈ 0.9545 12 12 2π n = 10000, −2 2) Rechnungen bei Banken Gewinn oder Verlust der Banken seien gleichverteilt in [−0.005, 0.005] 2 −4 = 1012 a = 0, σ 2 = (b−a) 12 106 Rundungen Zβ x2 Sn 1 P(α ≤ q ≤ β) ≈ √ e− 2 dx 106 ·10−4 2π α 12 P(α √1012 ≤ Sn ≤ β √1012 ) P(Ein Euro oder mehr Verlust) → β = − →≈ 0.364517 . . . 2 Euro ≈ 0.149349 .. . 10 Euro ≈ 0.00026603 80 √ 12 , 10 α = −∞ 3) Zufällige Irrfahrt Sn - Ort nach n Schritten, d.h. Mögliche Werte: −n, −n + 2, . . . , n − 2, n p = 21 , ESn = 0, VSn = n4 Sn 1 P(α ≤ p n ≤ β) ≈ √ 2π 2 Zβ √ √ x2 e− 2 dx = P(2 nα ≤ Sn ≤ 2 nβ) α √ √ α = −1, β = 1 → P(−2 n ≤ Sn ≤ 2 n) ≈ 0.6826 √ √ α = −2, β = 2 → P(−4 n ≤ Sn ≤ 4 n) ≈ 0.9545 81 Index 3σ-Regel, 77 a posteriori, 29 a priori, 29 Bedingte Wahrscheinlichkeiten, 27 Bernoulli-Schema, 33 Binminialverteilung, 35 Binominialverteilung, 15 Boltzmann-Statistik, 14 Bose-Einstein-Statistik, 14 Grenzwertsätze, 76 Grundraum Ω, 6 Hypergeometrische Verteilung, 16 Häufigkeit relative, 8 klass. Verteilung, siehe Gleichverteilung Kovarianz, 68, 72 Lineare Transformationen, 51 Linerarität, 67 Cauchy, 67 Dichte, siehe Wahrscheinlichkeitsdichte Dispersion, siehe Varianz Einpunktverteilung, 13 Ereignis, 6 Eigenschaften, 7 Elementar-, 7 sicheres, 7 unmögliches, 7 Ereignis-σ-Algebra, 6 Erwartungswert, 61 stetiger Zufallsgrößen, 64 Exponentialverteilung, 27 Fermi-Dirac-Statistik, 14 Formel von Bayes, 30 Formel über die totale Wahrscheinlichkeit, 29 Gauß-Verteilung, siehe Normalverteilung Gemeinsame Verteilung, 43 Geometrische Verteilung, 35–36 Gleichverteilung diskret, 13 stetig, 20–25 82 Mittelwert, 39 Moment, 68 Monotonie, 68 Multiplikationsformel, 68 Normalverteilung, 25 Poisson-Verteilung, 16 Poissonscher-Grenzwertsatz, 17 posteriori, siehe a posteriori priori, siehe a priori Simulation zufälliger Größen, 52 Streuung, siehe Varianz totale Wahrscheinlichkeit, 29 Transformation, 50 zufälliger Größen, 50 Transformationssatz, 68 Unabhängigkeit, 30–33 zufälliger Größen, 47 Varianz, 68, 69 Wahrscheinlichkeitsdichte, 18 INDEX Wahrscheinlichkeitsmaß, 6 diskret, 11 Eigenschaften, 10 stetig, 20 Eigenschaften, 20 Wahrscheinlichkeitsraum, 5, 6 Definition, 9 Wahrscheinlichkeitstheorie, 5 Zentraler Grenzwertsatz, 78 Zufallsexperiment, 5 Zufällige Größen, 39 Definition, 39 Verteilungsgesetz, 39 Zweipunktverteilung, 13 83