Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Ein Wahrscheinlichkeitsraum (Ω, P) I eine Menge Ω ist (Menge aller möglichen Ausgänge eines Zufallsexperiments) versehen mit P : P(Ω) → [0, 1] (Wahrscheinlichkeit): Teilmenge von Ω (Ereignis) wird eine Zahl zwischen I einer Abbildung Jeder 0 und 1 zugeordnet (Wahrscheinlichkeit, dass das Ereignis eintritt) mit folgenden Eigenschaften (KolmogorovAxiome): 1. 2. P(Ω) = 1 (sicheres Ereignis), P(A ∪ B) = P(A) + P(B), falls A ∩ B = ∅ (Additionsregel für unvereinbare Ereignisse). wahrscheinlichkeit13.pdf, Seite 1 Beispiel fairer Würfel Ω = {1, ..., 6} mit P({i}) = P(i) = Augenzahlen i = 1, 2, ..., 6. bzw. allgemeiner P(A) = 1 6 · #A 1 6 für jede der möglichen für jede Teilmenge (#A bezeichnet die Anzahl der Elemente von A⊂Ω A). Z. B. entspricht das Ereignis Augenzahl ist nicht durch 3 teilbar A = {1, 2, 4, 5} mit P(A) = 64 = 23 . der Menge B : Augenzahl durch 3 teilbar C : Augenzahl durch 5 teilbar gilt Für die Ereignisse B = {3, 6}, C = {5} ⇒ B ∩ C = ∅ und und B ∪ C = {3, 5, 6} und somit P(B ∪ C ) = P(B) + P(C ) = 1 3 + 1 6 = 1 2 = 50%. wahrscheinlichkeit13.pdf, Seite 2 Folgerungen aus den KolmogorovAxiomen I I I P(A ∪ B) = P(A) + P(B) − P(A ∩ B) für beliebige A, B , P(A) ≤ P(B), falls A ⊂ B (Monotonie), P(A) = 1 − P(A), c wobei A = A = Ω \ A das Komplementärereignis zu A bezeichnet. I P(∅) = 0 (unmögliches Ereignis) Beispiel P(Augenzahl durch 2 oder 3 teilbar ) = P({2, 4, 6}) + P({3, 6}) − P({6}) = 1 2 + 13 − 1 6 = 2 3. wahrscheinlichkeit13.pdf, Seite 3 Bestimmung von Wahrscheinlichkeiten ist auf unterschiedliche Weise möglich. Die wichtigsten sind: I durch ein Symmetrieprinzip: Ein Zufallsexperiment hat endlich viele mögliche Ausgänge, die alle als gleichwahrscheinlich angenommen werden (Beispiel Augenzahl eines Würfels). Man spricht von einem LaplaceExperiment. I durch Schätzung anhand von Beobachtungen I durch Berechnung ausgehend von bekannten Wahrscheinlichkeiten (Beispiel: Wahrscheinlichkeit, bei dreimaligem Würfeln mindestens eine 6 zu erhalten) wahrscheinlichkeit13.pdf, Seite 4 Ein Laplace-Experiment ist ein Zufallsexperiment, bei dem alle möglichen Ausgänge gleich wahrscheinlich sind. Ω ist dabei endliche Menge mit P({x}) = 1 n für alle x ∈A = 1 n · #A = 1 n Elementen mit (Gleichverteilung). Für eine beliebige Teilmenge P(A) = n A⊂Ω folgt dann mal Zahl der Elemente von A Zahl der günstigen durch Zahl der möglichen Fälle. Beispiele I fairer Würfel I Münzwurf: P (Wappen) = P (Zahl) = 1 2 = 50% I Ziehen einer Spielkarte aus 32: Die Wahrscheinlichkeit, dass ein Ass gezohen wird, ist 4/32 = 1 8 = 12, 5%. wahrscheinlichkeit13.pdf, Seite 5 Beispiel Lotto Es gibt 49 6 Möglichkeiten, 6 aus 49 Zahlen zu ziehen. Die Wahrscheinlichkeit für eine bestimmte Zahlenkombination ist damit 1/ 49 6 = 1/13.983.816 < 0, 00001% (Ziehen ohne Zurücklegen ohne Berücksichtigung der Reihenfolge) Andere Urnenmodelle Mit Berücksichtung der Reihenfolge gibt es beim Ziehen von 6 aus 49 Zahlen 49 49! 43! Möglichkeiten · 48 · ... · 44 = ⇒ P({x}) = 43! 49! = 1/10.068.347.520 Mit Zurücklegen (d. h. Zahlen können mehrfach gezogen werden) und Berücksichtigung der Reihenfolge gibt es 49 6 Möglichkeiten ⇒ P({x}) = 49−6 = 1/13.841.287.201 wahrscheinlichkeit13.pdf, Seite 6 Zwei Würfel Es gibt 36 Möglichkeiten, jede hat Wahrscheinlichkeit 1/36. Ω = {(i, j) : 1 ≤ i, j ≤ 6} mit P(i, j) = 1 36 . Mit A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)} (erster Würfel 2) und B = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)} (zweiter Würfel 3) ist 1 6 und 1 P(2, 3) = 36 = P(A) = P(B) = P(A ∩ B) = P(A) · P(B) Unabhängigkeit A und B heiÿen unabhängig, wenn P(A ∩ B) = P(A) · P(B) Interpretation: Das Eintreten von Ereignis Einuss auf die Wahrscheinlichkeit von B A hat keinen und umgekehrt. wahrscheinlichkeit13.pdf, Seite 7 Beispiele A = Augenzahl des ersten Würfels B = Augensumme gerade ist P(A) = P(B) = 12 und P(A ∩ B) = 14 , I Mit gerade und also sind die beiden Ereignisse unabhängig. A = erster Würfel 4 und B = Augensumme 1 1 ist P(A) = , P(B) = 6 12 und 1 1 P(A ∩ B) = P(4, 6) = 36 6= 16 · 12 , also sind A und B nicht unabhängig. Mit A = erste gezogene Spielkarte ist ein Ass und B = zweite Karte ist ein Bube ist P(A) = P(B) = 81 und 4 1 P(A ∩ B) = 18 · 31 = 62 6= 81 · 18 , I Mit I 10 d. h. die beiden Ereignisse sind nicht unabhängig. wahrscheinlichkeit13.pdf, Seite 8 Bedingte Wahrscheinlichkeit Unabhängigkeit umformuliert: P(A ∩ B) = P(A) · P(B) ⇔ P(A) = P(A ∩ B)/P(B). Allgemein deniert man die unter B bedingte Wahrscheinlichkeit von A als P(A|B) = P(A ∩ B) . P(B) Interpretation: Wahrscheinlichkeit dass B eingetreten ist. für A, wenn bekannt ist, Bemerkungen I I P(A|B) ist nur deniert, wenn P(B) > 0. Falls P(A), P(B) > 0, so gilt A und B unabhängig ⇔ P(A|B) = P(A) ⇔ P(B|A) = P(B). wahrscheinlichkeit13.pdf, Seite 9 Beispiele bei zwei Würfeln I A: Augensumme 10, Dann ist P(A) = ⇒ P(A|B) = P(B|A) = I I 1/36 1/6 1/36 1/12 = 3 36 = 1 3 B : erster Würfel 4, 1 = 12 , P(B) = 61 , P(A ∩ B) = 1 6 6= P(A) = 6= P(B) = 1 36 1 12 sowie 1 6. A: Augensumme 7, B : erster Würfel 6, 1 P(A|B) = 11//36 6 = 6 = P(A) sowie P(B|A) = 61 = P(B), d. h. A und B sind unabhängig. A: 6 Richtige beim Lotto, B : die ersten 5 gezogenen Zahlen stimmen, 1 P(A|B) = 44 ≈ 2, 27% > P(A) sowie P(B|A) = 1 6= P(B). wahrscheinlichkeit13.pdf, Seite 10 Beispiel Kartenspiel (mit 32 Karten) Es werden zwei Karten (ohne Zurücklegen) gezogen. Wie groÿ ist die Wahrscheinlichkeit, dass zwei Asse gezogen werden? Mit A= erste Karte ist ein Ass und B= zweite Karte ist ein Ass ist P(A) = 4 32 = 1 8 und P(B|A) = (da unter der Annahme, dass A 3 31 eingetreten ist, unter den verbleibenden 31 Karten noch 3 Asse sind). Daraus kann jetzt die gesuchte Wahrscheinlichkeit berechnet werden: P(A ∩ B) = P(A) · P(B|A) = 1 8 · 3 31 = 3 248 ≈ 0, 012 = 1, 2% wahrscheinlichkeit13.pdf, Seite 11 Totale Wahrscheinlichkeit Sind A sowie und B Ereignisse, so gilt B = (A ∩ B) ∪ (A ∩ B) (A ∩ B) ∩ (A ∩ B) = ∅. Aus den KolmogorovAxiomen folgt daher P(B) = P(A ∩ B) + P(A ∩ B) = P(A) · P(B|A) + P(A) · P(B|A). Allgemeiner gilt P(B) = wenn Pn k=1 P(Ak ) · P(B|Ak ), Ω = A1 ∪ ... ∪ An mit Ai ∩ Aj = ∅ eine Zerlegung des Wahrscheinlichkeitsraumes ist. Im letzten Kartenbeispiel Mit P(B|A) = 4 31 erhält man P(B) = P(A) · P(B|A) + P(A) · P(B|A) = 1 8 · 3 31 + 87 · 4 31 = 1 8. wahrscheinlichkeit13.pdf, Seite 12 Weiteres Beispiel Es werden EMails untersucht, die zum Teil Spam sind. Betrachtet werden die Ereignisse S =Mail ist Spam sowie G =Mail enthält das Wort Gewinn Aus Erfahrungswerten seien folgende Wahrscheinlichkeiten bekannt: P(S) = 0, 25, P(G |S) = 0, 19 und P(G |S) = 0, 01, d. h. jede 4. Mail ist Spam und 19% aller Spammails sowie 1% aller NichtSpamMails enthalten das Wort Gewinn. Es folgt P(G ) = P(S) · P(G |S) + P(S) · P(G |S) = 0, 055, also enthalten 5, 5% aller Mails das Wort Gewinn. wahrscheinlichkeit13.pdf, Seite 13 Formel von Bayes Nach Denition der bedingten Wahrscheinlichkeit gilt für Ereignisse A und B P(A ∩ B) = P(A) · P(B|A) sowie P(A ∩ B) = P(B) · P(A|B) Durch Gleichsetzen dieser beiden Ausdrücke erhält man mit der Formel der totalen Wahrscheinlichkeit den P(A|B) = Satz von Bayes: P(A) · P(B|A) P(A) · P(B|A) = , P(B) P(A) · P(B|A) + P(A) · P(B|A) bzw. bei einer Zerlegung Ω = A1 ∪ ... ∪ An P(Ak ) · P(B|Ak ) P(Ak |B) = Pn . i=1 P(Ai ) · P(B|Ai ) wahrscheinlichkeit13.pdf, Seite 14 Anwendung: Bayes'scher Spamlter Im letzten Beispiel: P(S) = 0, 25 (25% SpamMails), P(G |S) = 0, 19 (19% davon enthalten das Wort Gewinn) P(G |S) = 0, 01 (1% der übrigen Mails enthalten das Wort Gewinn) Dann folgt P(S) · P(G |S) P(S) · P(G |S) + P(S) · P(G |S) 0, 25 · 0, 19 = ≈ 0, 864, 0, 25 · 0, 19 + 0, 75 · 0, 01 P(S|G ) = d. h. eine Mail mit dem Wort Gewinn ist zu 86, 4% Spam. wahrscheinlichkeit13.pdf, Seite 15 Zuvallsvariablen (Teschl/Teschl Kap. 27) Eine (reellwertige) Zufallsvariable auf einem (Ω, P) ist eine Abbildung Wahrscheinlichkeitsraum X : Ω → R, d. h. jedem X (ω) Elementarereignis ω ∈ Ω wird eine reelle Zahl zugeordnet. Damit ist jeder Teilmenge A⊂R eine Wahrscheinlichkeit P(X ∈ A) = P({ω ∈ Ω : X (ω) ∈ A}) zugeordnet. Man spricht von von der Wahrscheinlichkeitsverteilung (oder kurz Verteilung) von X. wahrscheinlichkeit13.pdf, Seite 16 Ereignisse A ⊂ R, der die Wahrscheinlichkeit P(X ∈ A) zugeordnet wird. Ist A = [a, b] ein Intervall, so schreibt man P(X ∈ [a, b]) = P(a ≤ X ≤ b). Ein Ereignis entspricht jetzt einer Teilmenge Beispiel Augensumme von zwei Würfeln Ω = {1, ..., 6} × {1, ..., 6} = {(i, j) : 1 ≤ i, j ≤ 6} 1 P(i, j) = 36 für alle (i, j) (Gleichverteilung). Gegeben mit Die Augensumme wird beschrieben durch die Zuvallsvariable X (i, j) = i + j Mit A: Augensumme ≥ 10 für alle (i, j) ∈ Ω. ist dann z. B. P(X ∈ A) = P(X ≥ 10) = P{ω : X (ω) ≥ 10} = P{(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)} = 6 36 = 1 6 wahrscheinlichkeit13.pdf, Seite 17 Bemerkungen I In Anwendungen beschreiben Zufallsvariablen in der Regel beobachtete bzw. zu untersuchende Zufallsgröÿen, während der zugrunde liegende Wahrscheinlichkeitsraum im Hintergrund den Mechanismus modelliert, der die Wahrscheinlichkeiten festlegt. In der Praxis werden oft nur Zufallsvariablen und ihre Verteilung betrachtet, ohne dass dazu ein Wahrscheinlichkeitsraum explizit angegeben wird. X entspricht einer Wahrscheinlichkeitsfunktion P mit R als Wahrscheinlichkeitsraum, die Teilmengen A ⊂ R Wahrscheinlichkeiten P(A) = P(X ∈ A) zuordnet, welche I Die Verteilung einer Zufallsvariable den KolmogorovAxiomen genügen. wahrscheinlichkeit13.pdf, Seite 18 Diskrete Zufallsvariablen diskret, wenn sie nur endlich x1 , x2 , x3 , ... annimmt mit Eine Zufallsvariable heiÿt abzählbar viele Werte pi = P(X = xi ) > 0 oder und X P(X = xi ) = 1 i (im Fall von abzählbar unendlich vielen Werten handelt es sich bei der Summe um eine unendliche Reihe). Die Verteilung von X ist durch die pi = P(X = xi ) eindeutig festgelegt. Beispiel Die Augenzahl X eines fairen Würfels nimmt die Werte 1, 2, 3, 4, 5 und 6 an mit P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) = P(X = 5) = P(X = 6) = 1 6. wahrscheinlichkeit13.pdf, Seite 19 Weitere Beispiele I Die Augensumme von zwei Würfeln ist eine diskrete Zufallsvariable mit Werten 2, 3, ..., 12. Z. B. ist P(X = 2) = 1 36 und P(X = 7) = 6 36 = 1 6. I Man würfelt mit einem Würfel so lange, bis die erste Sechs fällt. Gibt X die benötigte Zahl der Würfe an, so ist pi = P(X = i) = 1 6 i−1 · 5 für 6 i ≥1 X = i bedeutet dass die ersten i − 1 Würfe keine Sechs sind,wofür i−1 die Wahrscheinlichkeit 65 ist, und im i ten Wurf dann eine Sechs fällt, wofür die Wahrscheinlichkeit 16 ist. Unter der Annahme, dass die einzelnen Augenzahlen Unabhängig sind, erhält man die Gesamtwahrscheinlichkeit als Produkt. Man spricht von einer geometrischen Verteilung. Begründung: Es ist (vgl. geometrische Reihe, mit ∞ X i=1 pi = 1 6 · ∞ j X 5 j=0 6 = 1 6 j = i − 1) · 1 1 − 5 6 =1 wahrscheinlichkeit13.pdf, Seite 20 Bemerkung Die Verteilung einer diskreten Zufallsvariable deniert eine Wahrscheinlichkeitsfunktion auf der endlichen (oder abzählbaren) Menge M = {x1 , x2 , x3 , ...} ∈ R. In den meisten Anwendungen ist M eine Teilmenge der ganzen Zahlen. A ⊂ R gilt dann P P(X ∈ A) = P(A ∩ M) = xi ∈A P(X = xi ), Für eine beliebige Teilmenge wobei die Summe über diejenigen xi ∈ A i gebildet wird, für die liegt. Beispiel: Ist das Intervall X die Augenzahl A = (−2; 3) eines (fairen) Würfels, so gilt für P(X ∈ A) = P(−2 < X < 3) = P(X = 1) + P(X = 2) = 1 6 + 1 6 = 1 3. wahrscheinlichkeit13.pdf, Seite 21 Graphische Darstellung Die Verteilung einer diskreten Zufallsvariable kann graphisch in einem Stabdiagramm dargestellt werden. Verteilung der Augensumme zweier Würfel. wahrscheinlichkeit13.pdf, Seite 22 Geometrische Verteilung Verteilung der Anzahl X der bis zur ersten Sechs benötigten Würfe. wahrscheinlichkeit13.pdf, Seite 23 Stetige Zufallsvariablen In vielen Anwendungen (z. B. bei der Modellierung zufälliger Zeiten, Längen etc.) ist es sinnvoll, Zufallsgröÿen zu betrachten, die beliebige Werte in einem reellen Intervall annehmen können. In solchen Fällen kann die Verteilung nicht mehr durch die Wahrscheinlichkeit P(X = xi ) einzelner Punkte festgelegt werden. Man spricht von einer stetigen Zufallsvariablen X , wenn einzelne Punkte die Wahrscheinlichkeit Null haben, d. h. P(X = x) = 0 für alle x ∈R gilt. wahrscheinlichkeit13.pdf, Seite 24 Beispiel Die Gleichverteilung im Intervall [0, 1] ist dadurch charakterisiert, dass die Wahrscheinlichkeit, dass X einen Wert in einem Teilintervall annmimmt, gleich der Länge dieses Teilintervalls ist: P(X ∈ [a, b]) = b − a für alle a, b mit 0 ≤ a ≤ b ≤ 1. So ist z. B. die Wahrscheinlichkeit, dass eine in [0; 1] X einen 0, 15 = 15%. gleichverteilte Zufallsvariable 0,4 annimmt, gleich Wert zwischen 0,25 und ( 15% aller reellen Zahlen zwischen aus dem Intervall [0; 1] liegen zwischen 0,25 und 0,4.) wahrscheinlichkeit13.pdf, Seite 25 Dichten Bei stetigen Zufallsvariablen X kann die Wahrscheinlichkeit eines Teilintervalls oft als Fläche unter einem Funktionsgraphen f (x) Eine solche Funktion f interpretiert werden. heiÿt Dichte der X. Wahrscheinlichkeitsverteilung von Denition Eine Wahrscheinlichkeitsdichte ist eine Funktion f :R→R mit folgenden Eigenschaften: I I I f : R → R ist stückweise stetig f (x) ≥ 0 ist auf (−∞, ∞) uneigentlich Rf ∞ f (x) dx = 1. −∞ integrierbar mit wahrscheinlichkeit13.pdf, Seite 26 Dichte einer Zufallsvariable Eine Zufallsvariable mit a≤b X hat die Dichte f, wenn für alle a, b ∈ R gilt Z P(X ∈ [a, b]) = P(a ≤ X ≤ b) = b f (x) dx. a Beispiel Die auf [0, 1] gleichverteilte Zufallsvariable f (x) = 1 für 0 0 sonst ≤x ≤1 X hat die Dichte . Bemerkung Hat alle Ra X die Dichte f , so folgt P(X = a) = a f (x) dx = 0 a ∈ R, d. h. nur stetige Zufallsvariablen können eine für Dichte haben. Auÿerdem folgt P(X ∈ [a, b]) = P(X ∈ (a, b)) = P(a < x < b) für alle a < b. wahrscheinlichkeit13.pdf, Seite 27 Beispiel Gleichverteilung Die Gleichverteilung auf dem Intervall [a, b] hat die 1 für a < x < b b−a f (x) = 0 für x < a und für x > b Der Funktionswert von x =b f an den Unstetigkeitsstellen Dichte x =a und kann dabei beliebig deniert werden. Beispiel Normalverteilung Die StandardNormalverteilung 1 f (x) = √ 2π e hat die Dichte −x 2 /2 für x ∈R (Gauÿsche Glockenkurve) wahrscheinlichkeit13.pdf, Seite 28 Dichte der StandardNormalverteilung Die gelbe Fläche entspricht der Wahrscheinlichkeit, dass eine standardnormalverteilte Zufallsvariable einen Wert zwischen und b a annimmt. wahrscheinlichkeit13.pdf, Seite 29 Exponentialverteilung Die Exponentialverteilung mit Parameter k > 0 k e−kx für 0 ≥ 0 f (x) = 0 für x < 0 Dichte f (x) mit k = 5, k = 1 und hat die Dichte k = 0, 2. wahrscheinlichkeit13.pdf, Seite 30 Beispiel zur Berechnung der Wahrscheinlichkeiten Ist die Zufallsvariable k= X exponentialverteilt mit Parameter 1 5 , so ist die Wahrscheinlichkeit, dass X einen Wert zwischen 1 und 2 annimmt Z P(1 ≤ X ≤ 2) = P(1 < X < 2) = 2 Z f (x) dx = 1 1 2 1 −x/5 dx 5e 2 −x/5 = −e = −e−2/5 + e−1/5 ≈ −0, 67 + 0, 82 = 15% 1 Analog erhält man P(X ≥ 3) = R∞ 3 1 −x/5 dx 5e = 0 + e−3/5 ≈ 55% Bemerkung Durch die Exponentialverteilung kann die Lebensdauer von Bauteilen modelliert werden, die keinem Verschleiÿ unterliegen. wahrscheinlichkeit13.pdf, Seite 31 Der Erwartungswert einer diskreten Zufallsvariable X µ = EX = E (X ) = ist deniert als X xi · P(X = xi ), i wenn die Summe endlich ist oder die Reihe konvergiert. Interpretation: Der Erwartungswert entspricht dem durchschnittlichen Wert, den eine Zufallsgröÿe annimmt. Beispiele Erwartungswert der Augenzahl eines Würfels: EX = 1 · 61 + 2 · 16 + 3 · 61 + 4 · 61 + 5 · 16 + 6 · 1 6 = 3 21 , Augensumme zweier Würfel: EX = 2 · 1 36 +3· +8· 5 36 2 36 +4· +9· 4 36 3 36 +5· + 10 · 3 36 4 36 +6· + 11 · 2 36 5 36 +7· + 12 · 6 36 1 36 = 7. wahrscheinlichkeit13.pdf, Seite 32 Weiteres Beispiel Wie oft muss man durchschnittlich würfeln, bis die erste 6 fällt? Antwort: 6 mal, denn: X Für die Anzahl P(X = i) = 1 6 · der benötigten Würfe gilt 5 i−1 für 6 i = 1, 2, 3, ... Für den Erwartungswert folgt 0 1 2 EX = 1 · 61 · 56 + 2 · 61 · 56 + 3 · 16 · 65 + ... P P∞ 1 5 i−1 5 i−1 1 = ∞ i · · · i · = = 16 · 36 = 6. i=1 i=1 6 6 6 6 Den Grenzwert der Reihe erhält man dabei mit folgender P∞ i 1 Überlegung: Aus P(x) = i=0 x = 1−x folgt P 0 (x) = Mit x= 1 i · x i−1 = (1−x) P∞ erhält man i=1 i · P∞ i=1 5 6 2 5 i−1 6 = 1 (1− 56 )2 = 62 = 36. wahrscheinlichkeit13.pdf, Seite 33 Erwartungswert einer Zufallsvariable mit Dichte Hat X die Dichte f, so ist der Erwartungswert deniert als Z ∞ x · f (x) dx, µ = EX = E (X ) = −∞ falls das uneigentliche Integral existiert. Beispiel X gleichverteilt in [0; 1], so erhält man mit der Dichte f (x) = 1 für 0 ≤ x ≤ 1 und f (x) = 0 sonst 1 R∞ R1 EX = −∞ x · f (x) dx = 0 x · 1 dx = 21 x 2 = 12 − 0 = 21 Ist 0 wahrscheinlichkeit13.pdf, Seite 34 Bemerkung Nicht jede Zufallsvariable hat einen Erwartungswert. Voraussetzung dafür ist, dass die entsprechende Reihe bzw. das uneigentliche Integral konvergiert. Beispiel Wegen R∞ dx −∞ 1+x 2 1 ∞ = arctan x = −∞ π 2 − −π 2 =π 1 · eine Wahrscheinlichkeitsdichte. Eine π 1+x 2 Zufallsvariable X mit der Dichte f (x) heiÿt Cauchyverteilt. ist f (x) = Da das Integral R∞ x · f (x) dx = −∞ R∞ x −∞ 1+x 2 dx = 1 2 ln(1 ∞ + x 2 ) divergiert, −∞ ist der Erwartungswert einer Cauchyverteilten Zufallsvariable nicht deniert. wahrscheinlichkeit13.pdf, Seite 35 Beispiel: Erwartungswert der Exponentialverteilung Ist X exponentialverteilt mit Parameter 1 −x/5 Dichte f (x) = e für x ≥ 0 sowie f 5 k = 15 , so liefert die (x) = 0 für x < 0 mit partieller Integration R∞ x · f (x) dx = 51 0 x · e−x/5 dx ∞ R∞ 1 −x/5 ) − − 0 e−x/5 dx = 5 · x · (−5e 0 ∞ = 0 + −5e−x/5 = 0 + 5 = 5 EX = R∞ −∞ 0 Allgemeiner Ist X exponentialverteilt mit Parameter Z ∞ x · ke EX = 0 −kx dx = lim b→∞ k, so ist −x e−kx − 1 −kx e k b = 1 k 0 wahrscheinlichkeit13.pdf, Seite 36 Linearität des Erwartungswertes Sind X und Y Zufallsvariablen und ist E (X + Y ) = E (X ) + E (Y ) Beispiel zwei Würfel: Stellen X c ∈ R, sowie und Y so gilt E (cX ) = cE (X ). die Augenzahl jeweils eines Würfels dar, so gilt für die Augensumme E (X + Y ) = EX + EY = 3, 5 + 3, 5 = 7. Verallgemeinerung E (c1 X1 + ... + cn Xn ) = c1 EX1 + ... + cn EXn für Zufallsvariablen X1 , ..., Xn und c1 , ..., cn ∈ R. Monotonie des Erwartungswertes X ≤ Y ⇒ EX ≤ EY . wahrscheinlichkeit13.pdf, Seite 37 Satz Ist X g : R → R eine (stetige) g (X ) = g ◦ X : Ω → R wieder eine eine Zufallsvariable und Funktion, so ist durch Zufallsvariable deniert. Für deren Erwartungswert gilt P Eg (X ) = Beispiel: (1) Ist i g (xi ) · P(X = xi ), R∞ g (x) · f (x) dx, −∞ X falls X diskret ist, falls X die Dichte f hat die Augenzahl eines Würfels, so gilt E (X 2 ) = 1 · 16 + 4 · 16 + 9 · 16 + 16 · 16 + 25 · 61 + 36 · 16 = X gleichverteilt in [0; 1], 1 R1 3 1 4 3 EX = 0 x dx = 4 x = 41 (2) Ist 91 6 = 15, 16. so ist 0 wahrscheinlichkeit13.pdf, Seite 38 Varianz Varianz (mittlere 2 Var(X ) = V (X ) = σ Die quadratische Abweichung) einer Zufallsvariable die Streuung der Werte von µ = E (X ). X X ist ein Maÿ für um dem Erwartungswert Sie ist deniert als σ 2 = σX2 = Var(X ) = E (X − µ)2 = E X 2 − (EX )2 ≥ 0. p Die Standardabweichung ist deniert als σ = σX = Var(X ). Bemerkung Die Varianz σ2 Erwartungswert einer diskreten Zufallsvariable mit µ kann auf zweierlei Weise berechnet werden: hP i 2 P(X = x ) · x − µ2 σ 2 = E (X 2 ) − µ2 = i i i P σ 2 = E (X − µ)2 = i P(X = xi ) · (xi − µ)2 oder Beide Rechnungen liefern (natürlich) das selbe Ergebnis. wahrscheinlichkeit13.pdf, Seite 39 Beispiel Für die Varianz der Augenzahl eines fairen Würfels erhält man I I 2 2 σ2 = E (X ) − (EX ) 1 2 2 3 2 2 2 · 1 +2 +3 +4 +5 +6 − 6 3 1 2 2 = 61 · 91 − 12 14 = 15 16 − 12 41 = 35 12 = 2, 916 P 2 2 2 σ =E (X − µ) = i P(X = xi ) · (xi − µ) = 1 6 · (1 − 3, 5)2 + (2 − 3, 5)2 + (3 − 3, 5)2 + (4 − 3, 5)2 + (5 − 3, 5)2 + (6 − 3, 5)2 = = 1 6 1 6 · (6, 25 + 2, 25 + 0, 25 + 0, 25 + 2, 25 + 6, 25) · 17, 5 = 35 12 Die Standardabweichung wird dann in jedem Fall als und hat den Wert σ= √ σ= √ σ2 σ 2 ≈ 1, 708. wahrscheinlichkeit13.pdf, Seite 40 Weiteres Beispiel Beim Werfen eines Würfels betrage der Gewinn 6 Euro bei einer gewürfelten 6 und 2 Euro, falls die gewürfelte Augenzahl ungerade (d. h. 1, 3 oder 5) ist. Bei einer 2 oder 4 ist der Gewinn Null. Ist X X die Zufallsvariable, die den Gewinn beschreibt, so kann die Werte 0, 2 und 6 annehmen mit P(X = 6) = 1 6, P(X = 2) = 3 6 = 1 2 und P(X = 0) = 2 6 = 1 3. Es folgt µ = EX = 1 3 · 0 + 12 · 2 + 61 · 6 = 2 Der Erwartungswert des Gewinns entspricht einem fairen Einsatz, bei dem keiner der beteiligten Spieler einen strukturellen Vorteil hätte. wahrscheinlichkeit13.pdf, Seite 41 Fortsetzung Beispiel Zur Berechnung der Varianz 2 E (X ) σ2 des Gewinns kann zunächst berechnet werden: E (X 2 ) = 1 3 · 02 + 21 · 22 + 16 · 62 = 0 + 2 + 6 = 8 ⇒ σ 2 = E (X 2 ) − µ2 = 8 − 22 = 4. Alternativ kann gerechnet werden σ 2 = E (X − µ)2 = 31 (0 − 2)2 + 12 (2 − 2)2 + 61 (6 − 2)2 = 4 3 +0+ 16 6 = 12 3 =4 Für die Standardabweichung gilt σ= √ 4 = 2. wahrscheinlichkeit13.pdf, Seite 42 Varianz von Zufallsvariablen mit Dichte f (x) Auch hier gibt es analog zwei Rechenwege: R∞ σ 2 = E (X 2 ) − (EX )2 = ∞ x 2 · f (x) dx − µ2 R∞ σ 2 = E (X − µ)2 = ∞ (x − µ)2 · f (x) dx oder Beispiel Gleichverteilung Ist X die Gleichverteilung im Intervall [0; 10], so hat Dichte X die ≤ x ≤ 10, x < 0 oder x > 10 10 R 10 1 2 x = 5 − 0 = 5. µ = EX = 0 x · 0, 1 dx = 20 f (x) = Es folgt 1 10 , 0, falls 0 falls 0 wahrscheinlichkeit13.pdf, Seite 43 Berechnung der Varianz im Beispiel Mit Z 2 10 2 x · 0, 1 dx = E (X ) = 0 1 10 1 3 10 · x 3 0 = 1000 = 33, 3 30 erhält man σ 2 = V (X ) = E (X 2 ) − µ2 = 33, 3 − 52 = 25 3 = 8, 3. Alternativ rechnet man (mit linearer Substitution) 2 2 Z σ = E (X − µ) = 0 Die (x − 5)2 · 1 10 dx = 1 30 (x 10 − 5)3 0 25 1 · (−53 ) = 2 · 30 · 125 = 3 q 25 √5 Standardabweichung ist σ = 3 = 3 ≈ 2, 887. = 1 30 · 53 − 10 1 30 wahrscheinlichkeit13.pdf, Seite 44 Weiteres Beispiel X exponentialverteilt mit Parameter k = 1, so ist EX = k1 = 1 und ∞ R ∞ 2 −x 2 2 −x E (X ) = 0 x · e dx = −(x + 2x + 2) · e Ist 0 = 0 − (−2) = 2 Es folgt (mit zweimaliger partieller Integration) V (X ) = E (X 2 ) − (EX )2 = 2 − 1 = 1 Bemerkung Ebenso wie nicht jede Zufallsvariable einen Erwartungswert hat, hat auch nicht jede Zufallsvariable eine endliche Varianz. Die Varianz ist nur deniert, wenn der Erwartungswert µ = EX deniert ist und EX 2 endlich ist, d. h. die zugehörige Summe bzw. das uneigentliche Integral konvergiert. wahrscheinlichkeit13.pdf, Seite 45 Varianz transformierter Zufallsvariablen Für eine Zufallsvariable X und eine Konstante d ∈R gilt V (X + d) = V (X ), d. h. eine Verschiebung ändert die Varianz nicht. Weiter gilt für c ∈R V (c · X ) = c 2 · V (X ), d. h. eine Skalierung um den Faktor c wirkt sich quadratisch auf die Varianz aus, die Standardabweichung ändert sich entsprechend um den Faktor |c|. Allgemein gilt damit V (c · X + d) = c 2 · V (X ) für c, d, ∈ R. wahrscheinlichkeit13.pdf, Seite 46 Beispiel Ist X die Augenzahl eines Würfels und beträgt der Gewinn G = 5X − 18 die fünache Augenzahl minus einem Einsatz von 18 Euro, so ist die Varianz des Gewinns 35 V (G ) = V (5X − 18) = 52 · V (X ) = 25 · 12 ≈ 72, 9, p V (X ) ≈ 8, 54. die Standardabweichung ist σ = Dabei hat der Einsatz keinen Einuss auf Varianz und Standardabweichung. Standardisierung Ist X EX = µ und standardisierte Zufallsvariable eine Zufallsvariable mit Erwartungswert Varianz V (X ) = σ 2 , so hat die Z= X −µ σ Erwartungswert 0 und Varianz 1. wahrscheinlichkeit13.pdf, Seite 47 Weiteres Beispiel Ist X gleichverteilt in [0; 1], so ist E (X 2 ) = R1 0 x 2 dx = 1 3 ⇒ V (X ) = EX = 1 3 − 1 2 und 1 2 1 = 12 . 2 a, b ∈ R ist die Zufallsvariable Y = a + (b − a) · X gleichverteilt im Intervall [a, b], Für beliebige Es ist EY = a + (b − a) · Insbesondere ist für 1 2 = b = −a = b−a 2 und V (Y ) = (b−a)2 √ 3 die im Intervall 12 [− . √ 3; √ 3] gleichverteilte Zufallsvariable X− Z=√ 1 2 1/12 = √ 12 ·X − 1 2 √ 12 √ √ =− 3+2· 3·X standardisiert. wahrscheinlichkeit13.pdf, Seite 48 Unabhängigkeit Zwei Zufallsvariablen beliebige Teilmengen P(X ∈ A und X und Y sind unabhängig, A, B ⊂ R gilt wenn für Y ∈ B) = P(X ∈ A) · P(Y ∈ B). Satz I I I X und Y sind genau dann unabhängig, wenn für alle x, y ∈ R gilt P(X ≤ x und Y ≤ y ) = P(X ≤ x) · P(Y ≤ y ). Zwei diskrete Zufallsvariablen X und Y sind genau dann unabhängig, wenn für alle x, y gilt P(X = x und Y = y ) = P(X = x) · P(Y = y ). Sind X und Y unabhängig, so auch g (X ) und h(Y ) für Funktionen g und h . wahrscheinlichkeit13.pdf, Seite 49 Bemerkung In Anwendungen muss die Unabhängigkeit von Zufallsvariablen in der Regel nicht nachgerechnet werden, sondern ist eine Konsequenz von Modellannahmen. Wenn aus dem Modell hervorgeht, dass der Wert einer Zufallsvariable X keinen Einuss auf die Verteilung einer anderen Zufallsvariablen Y hat, so werden X und Y als unabhängig angenommen. Beispiel Bezeichnen X und Y die jeweiligen Augenzahlen zweier Würfel, so werden sie (in der Regel) als unabhängig vorausgesetzt. Unter dieser Annahme lassen sich dann weitere Wahrscheinlichkeiten wie z. B. die Verteilung der Augensumme X +Y berechnen. wahrscheinlichkeit13.pdf, Seite 50 Satz Sind X und Y unabhängig, so gilt E (X · Y ) = E (X ) · E (Y ) V (X + Y ) = V (X ) + V (Y ). sowie Beispiel Die Augensumme zweier Würfel hat die Varianz und die Standardabweichung σ= q 35 6 35 12 + 35 12 = 5 56 ≈ 2, 415 (da die Augenzahl eines Würfels Varianz 35 12 hat). Warnungen I Während E (X + Y ) = EX + EY für beliebige Zufallsvariablen gilt, setzten die Gleichungen E (X · Y ) = EX · EX Unabhängigkeit von V (X + Y ) = V (X ) + V (Y ) X und Y voraus. und die I Da die Standardabweichung mit Hilfe der nichtlinearen Wurzelfunktion berechnet wird, gilt nicht σX +Y = σX + σY wahrscheinlichkeit13.pdf, Seite 51 Erweiterung Sind X1 , X2 , ..., Xn unabhängige Zufallsvariablen, so gilt V (X1 + X2 + ... + Xn ) = V (X1 ) + V (X2 ) + ... + V (Xn ) Beispiel Die Augensumme von 12 Würfeln hat · 3, 5 = 42, Varianz √ Standardabweichung 35 ≈ 5, 916. Erwartungswert 12 12 · 35 12 = 35 und Die Augensumme von 420 Würfeln hat Erwartungswert 1470, Varianz 1225 und Standardabweichung 35. eines Würfels, so gilt für die Varianz V (12X ) = 12 · V (X ) = 420 √ 420 ≈ 20, 49. und die Standardabweichung σ12X = Betrachtet man dagegen die 12fache Augenzahl 12X 2 wahrscheinlichkeit13.pdf, Seite 52 Beispiel: 2 Würfel X Beschreiben und Y die Augenzahl jeweils eines Würfels, so folgt aus der Unabhängigkeit, dass für das Produkt XY der und Z Augenzahlen gilt E (XY ) = E (X ) · E (Y ) = 3, 52 = 12, 25 Ist Z die Zufallsvariable mit Z= 1, falls beide Augenzahlen gerade, 0 sonst , so sind X nicht unabhängig. Es ist EZ = 0 · P(Z = 0) +· P(Z = 1) = 0 · 34 + 1 · E (X · Z ) 1 4 = 1 4. bestimmt man wie folgt: Mit Wahrscheinlichkeit 1 jeweils 12 ist X · Z = 2, 4 bzw. 6 (erster Würfel 2, 4 oder 6 und zweiter Würfel gerade), in allen anderen Fällen ist X · Z = 0. Es folgt E (X · Z ) = 1 12 ·2+ 1 12 ·4+ 1 12 · 6 + 34 · 0 = 1 6= E (X ) · E (Z ). wahrscheinlichkeit13.pdf, Seite 53 Die Kovarianz zweier beliebiger Zufallsvariablen Cov(X , Y ) Sind X und Y X und Y ist deniert als = E (X · Y ) − E (X ) · E (Y ) unabhängig, so ist E (XY ) = E (X ) · E (Y ) ⇒ Cov(X , Y ) = 0. Die Umkehrung gilt nicht allgemein, zwei Zufallsvariablen mit Kovarianz 0 müssen nicht unabhängig sein. X und Y heiÿen unkorreliert, falls Cov(X , Y ) = 0, positiv korreliert, falls Cov(X , Y ) > 0 und negativ korreliert, falls Cov(X , Y ) < 0. wahrscheinlichkeit13.pdf, Seite 54 Satz Für beliebige Zufallsvariablen I I X und Y gilt V (X + Y ) = V (X ) + V (Y ) + 2Cov(X , Y ) 2 Cov(X , Y ) ≤ V (X ) · V (Y ) mit Gleichheit genau dann, wenn eine der beiden Zufallsvariablen konstant ist oder es Konstanten gibt, sodass c, d ∈ R Y = cX + d . Der Korrelationskoezient zweier Zufallsvariablen mit Standardabweichungen σX X und und σY ρ(X , Y ) = ρXY = Y mit ist deniert als Cov(X , Y ) σX · σY wahrscheinlichkeit13.pdf, Seite 55 Beispiel X und Y bezeichnen die Augenzahlen zweier Würfel, Zufallsvariable mit und Z =0 Dann ist Cov(X , Z ) die falls beide Augenzahlen gerade sind sonst. = E (XZ ) − E (X )E (Z ) = 1 − 27 · Folglich sind Mit Z =1 Z V (X ) = X und 35 12 und Z 1 4 = 1 8 = 0, 125. positiv korreliert. V (Z ) = ρXY = q 3 16 folgt weiter 1 8 35 12 1 · 3 16 =√ 35 ≈ 0, 169 wahrscheinlichkeit13.pdf, Seite 56 Eigenschaften I Cov(X , Y )2 ≤ V (X ) · V (Y ) besagt, dass der Korrelationskoezient immer zwischen I −1 und 1 liegt. ρXY = 1 bedeutet eine positive lineare Korrelation der Y = cX + d mit c > 0, ρXY = −1 eine negative lineare Korrelation Y = cX + d mit c < 0. Ein Korrelationskoezient nahe 1 oder −1 bedeutet, dass zwischen X und Y annähernd ein linearer Form Zusammenhang besteht. I Mit den standardisierten Zufallsvariablen Ŷ = X̂ = X −EX und σX Y −EY ist σY ρXY = Cov(X̂ , Ŷ ) = ρ(X̂ , Ŷ ). wahrscheinlichkeit13.pdf, Seite 57 Verteilungsfunktion Ist X eine Zufallsvariable mit der Dichte F (x) = Rx −∞ f (ξ) dξ Damit gilt für eine Stammfunktion von a, b ∈ R mit Die oben denierte Funktion stetigen Zufallsvariale x ∈R ist F (x) = X. Rx −∞ so ist f (x). a<b P(a < X < b) = P(a ≤ X ≤ b) = Für f (x), F (x) Rb a f (x) dx = F (b) − F (a). heiÿt Verteilungfunktion der f (ξ) dξ = P(X ≤ x). Beispiel Eine in [0, 1] gleichverteilte Zufallsvariable hat die Verteilungsfunktion F (x) = 0 für x für 1 für x ≤ 0, 0 < x < 1, x ≥1 wahrscheinlichkeit13.pdf, Seite 58 Verteilungsfunktion F (x) einer im Intervall [0, 1] gleichverteilten Zufallsvariable wahrscheinlichkeit13.pdf, Seite 59 Weitere Beispiele I Eine in [a, b] gleichverteilte Zufallsvariable hat die Verteilungsfunktion F (x) = 0 x−a b−a 1 für für für x ≤ a, a < x < x, x ≥b I Eine exponentialverteilte Zufallsvariable mit Parameter k > 0 hat R x die Verteilungsfunktion F (x) = 0 k e−kξ dξ = 1 − e −kx für x ≥ 0 I Für die Verteilungsfunktion Z x Φ(x) = −∞ 1 √ 2π e −ξ 2 /2 dξ de Standardnormalverteilung lässt sich kein expliziter Ausdruck angeben. wahrscheinlichkeit13.pdf, Seite 60 Verteilungsfunktion der Exponentialverteilung F (x) = 1 − e −kx für k = 5, k = 1 und k = 0, 2. wahrscheinlichkeit13.pdf, Seite 61 Verteilungsfunktion der Standardnormalverteilung wahrscheinlichkeit13.pdf, Seite 62 Verteilungsfunktion einer diskreten Zufallsvariable Durch F (x) = P(X ≤ x) kann die Verteilungsfunktion für beliebige reellwertige, also auch diskrete, Zufallsvariablen deniert werden. Beispiel Augensumme Ist x < 2, Für 2 so gilt ≤x <3 X zweier Würfel F (x) = P(X ≤ x) = 0. ist F (x) = P(X ≤ x) = P(X = 2) = ≤x <4 F (x) = P(X ≤ x) = P(X = 2) + P(X = 3) = Für 3 ist ... Für x ≥ 12 Somit hat ist 3 36 1 36 . = 1 12 . F (x) = P(X ≤ 12) = 1. F (x) an den Stellen x = 2, 3, 4, ..., 12 jeweils eine Sprungstelle und ist zwischen diesen Sprungstellen konstant. wahrscheinlichkeit13.pdf, Seite 63 Verteilungsfunktion Augensumme zweier Würfel F (x) hat Sprungstellen an den Stellen x = 2, 3, 4, ..., 12 und ist auf den Intervallen dazwischen jeweils konstant. wahrscheinlichkeit13.pdf, Seite 64 Eigenschaften von Verteilungsfunktionen Für die Verteilungsfunktion F (x) F einer beliebigen X gilt 0 ≤ F (x) ≤ 1 für alle x ∈ R x 7→ F (x) ist monoton wachsend. Zufallsvariable I I F (x) F (x) existieren für alle x0 ∈ R und es ist F (x0 ) = limx→x + F (x) (F ist rechtsseitig stetig). limx→−∞ F (x) = 0 und limx→∞ F (x) = 1. I Die rechts- und linksseitigen Grenzwerte limx→x + 0 und limx→x0 − 0 I Bemerkungen I Jede Funktion mit den obigen Eigenschaften ist Verteilungsfunktion einer Zufallsvariable. I Jede reellwertige Zufallsvariable besitzt eine Verteilungsfunktion. wahrscheinlichkeit13.pdf, Seite 65 Weitere Eigenschaften a < b ist P(X ∈ (a, b]) = P(a < X ≤ b) = F (b) − F (a) (denn P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a)) Für alle x0 ∈ R ist I Für I P(X = x0 ) = lim F (x)− lim F (x) x→x0 + x→x0 − = F (x0 )− lim F (x) x→x0 − Folgerung I F x0 , wenn P(X = x0 ) = 0 gilt. F an der Stelle x0 eine Sprungstelle, so entspricht P(X = x0 ) der Sprunghöhe. F ist genau dann stetig auf R, wenn P(X = x) = 0 für alle x ∈ R. In diesem Fall ist F Verteiungsfunktion einer stetigen ist genau dann stetig in Hat I Zufallsvariablen. wahrscheinlichkeit13.pdf, Seite 66 Bemerkungen I Nicht jede stetige Zufallsvariable besitzt eine Dichte Ist die Verteilungsfunktion F (x) von X f (x). (eventuell mit Ausnahme endlich vieler Punkte, die dann die Sprungstellen von f sind) dierenzierbar, so ist f (x) = F 0 (x) Dichte von X . Es gibt aber auch Zufallsvariablen, deren Verteilungsfunktionen stetig, aber nicht dierenzierbar sind. Die für Anwendungen wichtigsten Zufallsvariablen sind jedoch entweder diskret oder haben eine Dichte. X stetig, so gilt P(X = x) = 0 für alle x ∈ R. Für a < b folgt dann P (a, b) = P(a < X < b) = P [a, b] = P(a ≤ X ≤ b) = P (a, b] = P [a, b) = F (b) − F (a). I Ist wahrscheinlichkeit13.pdf, Seite 67 Gesetz der groÿen Zahlen Beispiel Für die Augensumme Sn = X1 + ... + Xn beim nmaligen Würfeln gilt ESn = n X EXi = n · 3, 5 und V (Sn ) = i=1 und EX = 1 n V (X ) = V (Xi ) = n · i=1 Für die durchschnittliche Augenzahl folgt n X X = n1 Sn = 1 n 35 12 · (X1 + ... + Xn ) · ESn = 3, 5 = EX1 = ... = EXn 1 n2 · V (Sn ) = 1 n · 35 12 Für die Standardabewichung erhält man σX = q V (X ) = √1 n · q 35 12 →0 für n→∞ wahrscheinlichkeit13.pdf, Seite 68 Gesetz der groÿen Zahlen Voraussetzungen Sie (Xi ) eine Folge unabhängiger identisch verteilter (iid) Zufallsvariablen mit Erwartunswert σ 2 < ∞. (d. h. X1 , X2 , X3 , µ∈R und Varianz ... haben alle die gleiche Verteilung und insbesondere den gleichen Erwartungswert, unabhängig bedeutet P(X1 ∈ A1 ; X2 ∈ A2 ; ...; Xk ∈ Ax ) = P(X1 ∈ A1 ) · P(X2 ∈ A2 ) · ... · P(Xk ∈ Ak ) für beliebige Das k und A1 , ..., Ak ∈ R) arithmetische Mittel Xn = 1 n ist dann für alle n 2 µ und Varianz σn . n X i=1 ≥1 Xi = 1 n (X1 + X2 + ... + Xn ) eine Zufallsvariable mit Erwartungswert wahrscheinlichkeit13.pdf, Seite 69 Gesetz der groÿen Zahlen Satz ε > 0 gilt 1 (X1 + X2 + ... + Xn ) − µ ≥ ε = 0, lim P n n→∞ Für beliebiges (X n ) konvergiert stochastisch Wahrscheinlichkeit gegen µ. d. h. die Folge bzw. in Der Beweis erfolgt mit Hilfe der Ungleichung von Tschebysche. wahrscheinlichkeit13.pdf, Seite 70 Bemerkungen I Das Gesetz der groÿen Zahlen gilt auch noch unter schwächeren Voraussetzungen, wo die Xi nicht unabhängig und/oder nicht identisch verteilt sind. starke Gesetz der groÿen Zahlen besagt limn→∞ X n = µ fast sicher (mit Wahrscheinlichkeit 1), d. h. limn→∞ X n (ω) = µ für alle ω aus einer Teilmenge Ω̃ des Wahrscheinlickeitsraumes Ω mit zugrundeliegenden P Ω̃ = 1. I Das wahrscheinlichkeit13.pdf, Seite 71 Bemerkung und Beispiel X mit Dichte f (x) = (standard)Cauchyverteilt. Eine Zufallsvariable heiÿt Sind X1 , X2 , n≥1 1 π · 1 1+x 2 für x ∈R ... unabhängig und Cauchyverteilt, so ist für alle auch X n = n1 (X1 + ... + Xn ) standardCauchyverteilt. Insbesondere gilt das Gesetz der groÿen Zahlen nicht für Cauchyverteilte Zufallsvariablen. Dies liegt daran, dass diese keinen Erwartungswert haben (das entsprechende uneigentliche R∞ Integral x · f (x) dx divergiert). −∞ wahrscheinlichkeit13.pdf, Seite 72 Erweiterung: Hauptsatz der Statistik Zu Zufallsvariablen Verteilungsfunktion F n (x) = 1 ..., Xn x ist F n (x) Xi relativen Anteil der ist die empirische deniert als mal Anzahl der n Für festes X1 , Xi mit Xi < x . eine Zufallsvariable. Sie gibt den wieder, deren Wert ≤x ist. Satz Sind die Xi unabhängig und identisch verteilt mit F (x), so gilt für festes x ∈ R P F n (x) − F (x) > ε = 0, Verteilungsfunktion lim n→∞ F n nähern Verteilungsfunktion F an. d. h. die empirischen Verteilungsfunktionen n→∞ der erwarteten und ε>0 sich für wahrscheinlichkeit13.pdf, Seite 73 Beispiel Empirische Verteilungsfunktion F 5 (x) einer exponentialverteilten Zufallsvariable mit Parameter λ = 1. wahrscheinlichkeit13.pdf, Seite 74 Hauptsatz der Statistik F 50 (x) und theoretische Verteilungsfunktion F (x) = 1 − e−x . wahrscheinlichkeit13.pdf, Seite 75