Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Ein Wahrscheinlichkeitsraum I eine Menge Ω (Ω, P) ist (Menge aller möglichen Ausgänge eines Zufallsexperiments) versehen mit P : P(Ω) → [0, 1] (Wahrscheinlichkeit): Teilmenge von Ω (Ereignis) wird eine Zahl zwischen I einer Abbildung Jeder 0 und 1 zugeordnet (Wahrscheinlichkeit, dass das Ereignis eintritt) mit folgenden Eigenschaften (KolmogorovAxiome): 1. 2. P(Ω) = 1 (sicheres Ereignis), P(A ∪ B) = P(A) + P(B), falls A ∩ B = ∅ (Additionsregel für unvereinbare Ereignisse). wahrscheinlichkeit13.pdf, Seite 1 Beispiel fairer Würfel Ω = {1, ..., 6} mit P({i}) = P(i) = Augenzahlen i = 1, 2, ..., 6. bzw. allgemeiner P(A) = 1 6 · #A 1 6 für jede der möglichen für jede Teilmenge (#A bezeichnet die Anzahl der Elemente von A⊂Ω A). Z. B. entspricht das Ereignis Augenzahl ist nicht durch 3 teilbar der Menge A = {1, 2, 4, 5} mit Für die Ereignisse C: P(A) = B: 4 6 = 2 3. Augenzahl durch 3 teilbar und Augenzahl durch 5 teilbar gilt B = {3, 6}, C = {5} ⇒ B ∩ C = ∅ und B ∪ C = {3, 5, 6} und somit P(B ∪ C ) = P(B) + P(C ) = 1 3 + 1 6 = 1 2 = 50%. wahrscheinlichkeit13.pdf, Seite 2 Folgerungen aus den KolmogorovAxiomen I I I P(A ∪ B) = P(A) + P(B) − P(A ∩ B) für beliebige A, B , P(A) ≤ P(B), falls A ⊂ B (Monotonie), P(A) = 1 − P(A), c wobei A = A = Ω \ A das Komplementärereignis zu A bezeichnet. I P(∅) = 0 (unmögliches Ereignis) Beispiel P(Augenzahl durch 2 oder 3 teilbar ) = P({2, 4, 6}) + P({3, 6}) − P({6}) = 1 2 + 13 − 1 6 = 2 3. wahrscheinlichkeit13.pdf, Seite 3 Bestimmung von Wahrscheinlichkeiten ist auf unterschiedliche Weise möglich. Die wichtigsten sind: I durch ein Symmetrieprinzip: Ein Zufallsexperiment hat endlich viele mögliche Ausgänge, die alle als gleichwahrscheinlich angenommen werden (Beispiel Augenzahl eines Würfels). Man spricht von einem LaplaceExperiment. I durch Schätzung anhand von Beobachtungen I durch Berechnung ausgehend von bekannten Wahrscheinlichkeiten (Beispiel: Wahrscheinlichkeit, bei dreimaligem Würfeln mindestens eine 6 zu erhalten) wahrscheinlichkeit13.pdf, Seite 4 Ein Laplace-Experiment ist ein Zufallsexperiment, bei dem alle möglichen Ausgänge gleich wahrscheinlich sind. Ω ist dabei endliche Menge mit P({x}) = 1 n für alle x ∈A = 1 n · #A = 1 n Elementen mit (Gleichverteilung). Für eine beliebige Teilmenge P(A) = n A⊂Ω folgt dann mal Zahl der Elemente von A Zahl der günstigen durch Zahl der möglichen Fälle. Beispiele I fairer Würfel I Münzwurf: P (Wappen) = P (Zahl) = 1 2 = 50% I Ziehen einer Spielkarte aus 32: Die Wahrscheinlichkeit, dass ein Ass gezohen wird, ist 4/32 = 1 8 = 12, 5%. wahrscheinlichkeit13.pdf, Seite 5 Beispiel Lotto Es gibt 49 6 Möglichkeiten, 6 aus 49 Zahlen zu ziehen. Die Wahrscheinlichkeit für eine bestimmte Zahlenkombination ist damit 1/ 49 6 = 1/13.983.816 < 0, 00001% (Ziehen ohne Zurücklegen ohne Berücksichtigung der Reihenfolge) Andere Urnenmodelle Mit Berücksichtung der Reihenfolge gibt es beim Ziehen von 6 aus 49 Zahlen 49 49! 43! Möglichkeiten · 48 · ... · 44 = ⇒ P({x}) = 43! 49! = 1/10.068.347.520 Mit Zurücklegen (d. h. Zahlen können mehrfach gezogen werden) und Berücksichtigung der Reihenfolge gibt es 49 6 Möglichkeiten ⇒ P({x}) = 49−6 = 1/13.841.287.201 wahrscheinlichkeit13.pdf, Seite 6 Zwei Würfel Es gibt 36 Möglichkeiten, jede hat Wahrscheinlichkeit 1/36. Ω = {(i, j) : 1 ≤ i, j ≤ 6} mit P(i, j) = 1 36 . Mit A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)} (erster Würfel 2) und B = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)} (zweiter Würfel 3) ist 1 6 und 1 P(2, 3) = 36 = P(A) = P(B) = P(A ∩ B) = P(A) · P(B) Unabhängigkeit A und B heiÿen unabhängig, wenn P(A ∩ B) = P(A) · P(B) Interpretation: Das Eintreten von Ereignis Einuss auf die Wahrscheinlichkeit von B A hat keinen und umgekehrt. wahrscheinlichkeit13.pdf, Seite 7 Beispiele A = Augenzahl des ersten Würfels B = Augensumme gerade ist P(A) = P(B) = 12 und P(A ∩ B) = 14 , I Mit gerade und also sind die beiden Ereignisse unabhängig. A = erster Würfel 4 und B = Augensumme 1 1 ist P(A) = , P(B) = 6 12 und 1 1 P(A ∩ B) = P(4, 6) = 36 6= 16 · 12 , also sind A und B nicht unabhängig. Mit A = erste gezogene Spielkarte ist ein Ass und B = zweite Karte ist ein Bube ist P(A) = P(B) = 81 und 4 1 P(A ∩ B) = 18 · 31 = 62 6= 81 · 18 , I Mit I 10 d. h. die beiden Ereignisse sind nicht unabhängig. wahrscheinlichkeit13.pdf, Seite 8 Bedingte Wahrscheinlichkeit Unabhängigkeit umformuliert: P(A ∩ B) = P(A) · P(B) ⇔ P(A) = P(A ∩ B)/P(B). Allgemein deniert man die bedingte Wahrscheinlichkeit von unter B als P(A|B) = P(A ∩ B) . P(B) Interpretation: Wahrscheinlichkeit für dass B A A, wenn bekannt ist, eingetreten ist. Bemerkungen I I P(A|B) ist nur deniert, wenn P(B) > 0. Falls P(A), P(B) > 0, so gilt A und B unabhängig ⇔ P(A|B) = P(A) ⇔ P(B|A) = P(B). wahrscheinlichkeit13.pdf, Seite 9 Beispiele bei zwei Würfeln I A: Augensumme 10, Dann ist P(A) = ⇒ P(A|B) = P(B|A) = I I 1/36 1/6 1/36 1/12 = 3 36 = 1 3 B : erster Würfel 4, 1 = 12 , P(B) = 61 , P(A ∩ B) = 1 6 6= P(A) = 6= P(B) = 1 36 1 12 sowie 1 6. A: Augensumme 7, B : erster Würfel 6, 1 P(A|B) = 11//36 6 = 6 = P(A) sowie P(B|A) = 61 = P(B), d. h. A und B sind unabhängig. A: 6 Richtige beim Lotto, B : die ersten 5 gezogenen Zahlen stimmen, 1 P(A|B) = 44 ≈ 2, 27% > P(A) sowie P(B|A) = 1 6= P(B). wahrscheinlichkeit13.pdf, Seite 10 Beispiel Kartenspiel (mit 32 Karten) Es werden zwei Karten (ohne Zurücklegen) gezogen. Wie groÿ ist die Wahrscheinlichkeit, dass zwei Asse gezogen werden? Mit A= erste Karte ist ein Ass und B= zweite Karte ist ein Ass ist P(A) = 4 32 = 1 8 und P(B|A) = (da unter der Annahme, dass A 3 31 eingetreten ist, unter den verbleibenden 31 Karten noch 3 Asse sind). Daraus kann jetzt die gesuchte Wahrscheinlichkeit berechnet werden: P(A ∩ B) = P(A) · P(B|A) = 1 8 · 3 31 = 3 248 ≈ 0, 012 = 1, 2% wahrscheinlichkeit13.pdf, Seite 11 Totale Wahrscheinlichkeit Sind A sowie und B Ereignisse, so gilt B = (A ∩ B) ∪ (A ∩ B) (A ∩ B) ∩ (A ∩ B) = ∅. Aus den KolmogorovAxiomen folgt daher P(B) = P(A ∩ B) + P(A ∩ B) = P(A) · P(B|A) + P(A) · P(B|A). Allgemeiner gilt P(B) = wenn Pn k=1 P(Ak ) · P(B|Ak ), Ω = A1 ∪ ... ∪ An mit Ai ∩ Aj = ∅ eine Zerlegung des Wahrscheinlichkeitsraumes ist. Im letzten Kartenbeispiel Mit P(B|A) = 4 31 erhält man P(B) = P(A) · P(B|A) + P(A) · P(B|A) = 1 8 · 3 31 + 87 · 4 31 = 1 8. wahrscheinlichkeit13.pdf, Seite 12 Weiteres Beispiel Es werden EMails untersucht, die zum Teil Spam sind. Betrachtet werden die Ereignisse S =Mail ist Spam sowie G =Mail enthält das Wort Gewinn Aus Erfahrungswerten seien folgende Wahrscheinlichkeiten bekannt: P(S) = 0, 25, P(G |S) = 0, 19 und P(G |S) = 0, 01, d. h. jede 4. Mail ist Spam und 19% aller Spammails sowie 1% aller NichtSpamMails enthalten das Wort Gewinn. Es folgt P(G ) = P(S) · P(G |S) + P(S) · P(G |S) = 0, 055, also enthalten 5, 5% aller Mails das Wort Gewinn. wahrscheinlichkeit13.pdf, Seite 13 Formel von Bayes Nach Denition der bedingten Wahrscheinlichkeit gilt für Ereignisse A und B P(A ∩ B) = P(A) · P(B|A) sowie P(A ∩ B) = P(B) · P(A|B) Durch Gleichsetzen dieser beiden Ausdrücke erhält man mit der Formel der totalen Wahrscheinlichkeit den Satz von Bayes: P(A|B) = P(A) · P(B|A) P(A) · P(B|A) = , P(B) P(A) · P(B|A) + P(A) · P(B|A) bzw. bei einer Zerlegung Ω = A1 ∪ ... ∪ An P(Ak ) · P(B|Ak ) P(Ak |B) = Pn . i=1 P(Ai ) · P(B|Ai ) wahrscheinlichkeit13.pdf, Seite 14 Anwendung: Bayes'scher Spamlter Im letzten Beispiel: P(S) = 0, 25 (25% SpamMails), P(G |S) = 0, 19 (19% davon enthalten das Wort Gewinn) P(G |S) = 0, 01 (1% der übrigen Mails enthalten das Wort Gewinn) Dann folgt P(S) · P(G |S) P(S) · P(G |S) + P(S) · P(G |S) 0, 25 · 0, 19 = ≈ 0, 864, 0, 25 · 0, 19 + 0, 75 · 0, 01 P(S|G ) = d. h. eine Mail mit dem Wort Gewinn ist zu 86, 4% Spam. wahrscheinlichkeit13.pdf, Seite 15 Zuvallsvariablen (Teschl/Teschl Kap. 27) Eine (reellwertige) Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, P) ist eine Abbildung X : Ω → R, d. h. jedem Elementarereignis X (ω) ω∈Ω wird eine reelle Zahl zugeordnet. Damit ist jeder Teilmenge A⊂R eine Wahrscheinlichkeit P(X ∈ A) = P({ω ∈ Ω : X (ω) ∈ A}) zugeordnet. Man spricht von von der Wahrscheinlichkeitsverteilung (oder kurz Verteilung) von X. wahrscheinlichkeit13.pdf, Seite 16 Ereignisse A ⊂ R, der die Wahrscheinlichkeit P(X ∈ A) zugeordnet wird. Ist A = [a, b] ein Intervall, so schreibt man P(X ∈ [a, b]) = P(a ≤ X ≤ b). Ein Ereignis entspricht jetzt einer Teilmenge Beispiel Augensumme von zwei Würfeln Ω = {1, ..., 6} × {1, ..., 6} = {(i, j) : 1 ≤ i, j ≤ 6} 1 P(i, j) = 36 für alle (i, j) (Gleichverteilung). Gegeben mit Die Augensumme wird beschrieben durch die Zuvallsvariable X (i, j) = i + j Mit A: Augensumme ≥ 10 für alle (i, j) ∈ Ω. ist dann z. B. P(X ∈ A) = P(X ≥ 10) = P{ω : X (ω) ≥ 10} = P{(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)} = 6 36 = 1 6 wahrscheinlichkeit13.pdf, Seite 17 Bemerkungen I In Anwendungen beschreiben Zufallsvariablen in der Regel beobachtete bzw. zu untersuchende Zufallsgröÿen, während der zugrunde liegende Wahrscheinlichkeitsraum im Hintergrund den Mechanismus modelliert, der die Wahrscheinlichkeiten festlegt. In der Praxis werden oft nur Zufallsvariablen und ihre Verteilung betrachtet, ohne dass dazu ein Wahrscheinlichkeitsraum explizit angegeben wird. X entspricht einer Wahrscheinlichkeitsfunktion P mit R als Wahrscheinlichkeitsraum, die Teilmengen A ⊂ R Wahrscheinlichkeiten P(A) = P(X ∈ A) zuordnet, welche I Die Verteilung einer Zufallsvariable den KolmogorovAxiomen genügen. wahrscheinlichkeit13.pdf, Seite 18 Diskrete Zufallsvariablen Eine Zufallsvariable heiÿt diskret, wenn sie nur endlich oder abzählbar viele Werte pi = P(X = xi ) > 0 x1 , x2 , x3 , ... annimmt mit und X P(X = xi ) = 1 i (im Fall von abzählbar unendlich vielen Werten handelt es sich bei der Summe formal um eine unendliche Reihe). Die Verteilung von X ist durch die pi = P(X = xi ) eindeutig festgelegt. Beispiel Die Augenzahl X eines fairen Würfels nimmt die Werte 1, 2, 3, 4, 5 und 6 an mit P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) = P(X = 5) = P(X = 6) = 1 6. wahrscheinlichkeit13.pdf, Seite 19 Weitere Beispiele I Die Augensumme von zwei Würfeln ist eine diskrete Zufallsvariable mit Werten 2, 3, ..., 12. Z. B. ist P(X = 2) = 1 36 und P(X = 7) = 6 36 = 1 6. I Man würfelt mit einem Würfel so lange, bis die erste Sechs fällt. Gibt X die benötigte Zahl der Würfe an, so ist pi = P(X = i) = Begründung: X =i 1 6 i−1 · 5 6 für i ≥1 bedeutet dass die ersten i − 1 Würfe 5 i−1 keine Sechs sind,wofür die Wahrscheinlichkeit und im i ten 6 ist, Wurf dann eine Sechs fällt, wofür die Wahrscheinlichkeit 1 6 ist. Unter der Annahme, dass die einzelnen Augenzahlen unabhängig sind, erhält man die Gesamtwahrscheinlichkeit als Produkt. Man spricht von einer geometrischen Verteilung. wahrscheinlichkeit13.pdf, Seite 20 Bemerkung zur geometrischen Verteilung mit X P(X = i) = 1 6 · 5 i−1 6 kann beliebige Werte i ∈N annehmen, es handelt sich somit um eine diskrete Verteilung mit abzählbar unendlich vielen Werten. Betrachtet man die Summe über alle Einzelwahrscheinlichkeiten, so erhält man die aus unendlich vielen Summanden bestehende Summe (Reihe ) P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) + ... 2 3 = 61 + 16 · 56 + 16 · 56 + 16 · 65 + ... h i 5 5 2 5 3 1 · 1 + + + + ... =6 6 6 6 wahrscheinlichkeit13.pdf, Seite 21 Fortsetzung geometrische Verteilung Beim Ausdruck in eckigen Klammern handelt es sich um eine geometrische Reihe der Form P∞ k=0 q k = 1 + q + q 2 + ... = limn→∞ (1 + q + q 2 + ... + q n ) = limn→∞ mit q= 1−q n+1 1−q = 1 1−q 5 6 (die vorletzte Gleichheit kann durch vollständige Induktion nach n bewiesen werden). Es folgt, dass der Klammerausdruck den Wert 1 1− 56 = 1 1/6 =6 hat. Die Gesamtsumme der Wahrscheinlichkeiten beträgt somit 1 6 · 6 = 1, womit gezeigt ist, dass es sich tatsächlich um eine Wahrscheinlichkeitsverteilung handelt. wahrscheinlichkeit13.pdf, Seite 22 Graphische Darstellung Die Verteilung einer diskreten Zufallsvariable kann graphisch in einem Stabdiagramm dargestellt werden. Verteilung der Augensumme zweier Würfel. wahrscheinlichkeit13.pdf, Seite 23 Geometrische Verteilung Verteilung der Anzahl X der bis zur ersten Sechs benötigten Würfe. wahrscheinlichkeit13.pdf, Seite 24 Bemerkung Die Verteilung einer diskreten Zufallsvariable deniert eine Wahrscheinlichkeitsfunktion auf der endlichen (oder abzählbaren) Menge M = {x1 , x2 , x3 , ...} ∈ R. In den meisten Anwendungen ist M eine Teilmenge der ganzen Zahlen. A ⊂ R gilt dann P P(X ∈ A) = P(A ∩ M) = xi ∈A P(X = xi ), Für eine beliebige Teilmenge wobei die Summe über diejenigen xi ∈ A i gebildet wird, für die liegt. Beispiel: Ist das Intervall X die Augenzahl A = (−2; 3) eines (fairen) Würfels, so gilt für P(X ∈ A) = P(−2 < X < 3) = P(X = 1) + P(X = 2) = 1 6 + 1 6 = 1 3. wahrscheinlichkeit13.pdf, Seite 25 Stetige Zufallsvariablen In vielen Anwendungen (z. B. bei der Modellierung zufälliger Zeiten, Längen etc.) ist es sinnvoll, Zufallsgröÿen zu betrachten, die beliebige Werte in einem reellen Intervall annehmen können. In solchen Fällen kann die Verteilung nicht mehr durch die Wahrscheinlichkeit P(X = xi ) einzelner Punkte festgelegt werden. Man spricht von einer stetigen Zufallsvariablen X, wenn einzelne Punkte die Wahrscheinlichkeit Null haben, d. h. P(X = x) = 0 für alle x ∈R gilt. wahrscheinlichkeit13.pdf, Seite 26 Beispiel Die Gleichverteilung im Intervall [0, 1] ist dadurch charakterisiert, dass die Wahrscheinlichkeit, dass X einen Wert in einem Teilintervall annmimmt, gleich der Länge dieses Teilintervalls ist: P(X ∈ [a, b]) = b − a für alle a, b mit 0 ≤ a ≤ b ≤ 1. So ist z. B. die Wahrscheinlichkeit, dass eine in [0; 1] X einen 0, 15 = 15%. gleichverteilte Zufallsvariable 0,4 annimmt, gleich Wert zwischen 0,25 und ( 15% aller reellen Zahlen zwischen aus dem Intervall [0; 1] liegen zwischen 0,25 und 0,4.) wahrscheinlichkeit13.pdf, Seite 27 Dichten Bei stetigen Zufallsvariablen X kann die Wahrscheinlichkeit eines Teilintervalls oft als Fläche unter einem Funktionsgraphen f (x) Eine solche Funktion f interpretiert werden. heiÿt Dichte der Wahrscheinlichkeitsverteilung von X. Denition Eine Wahrscheinlichkeitsdichte ist eine Funktion f :R→R mit folgenden Eigenschaften: I I I f : R → R ist stückweise stetig f (x) ≥ 0 ist auf (−∞, ∞) uneigentlich Rf ∞ f (x) dx = 1. −∞ integrierbar mit wahrscheinlichkeit13.pdf, Seite 28 Dichte einer Zufallsvariable Eine Zufallsvariable mit a≤b X hat die Dichte f, wenn für alle a, b ∈ R gilt Z P(X ∈ [a, b]) = P(a ≤ X ≤ b) = b f (x) dx. a Beispiel Die auf [0, 1] gleichverteilte Zufallsvariable f (x) = 1 für 0 0 sonst ≤x ≤1 X hat die Dichte . Bemerkung Hat alle Ra X die Dichte f , so folgt P(X = a) = a f (x) dx = 0 a ∈ R, d. h. nur stetige Zufallsvariablen können eine für Dichte haben. Auÿerdem folgt P(X ∈ [a, b]) = P(X ∈ (a, b)) = P(a < x < b) für alle a < b. wahrscheinlichkeit13.pdf, Seite 29 Beispiel Gleichverteilung Die Gleichverteilung auf dem Intervall 1 f (x) = Der Funktionswert von x =b f b−a für 0 für [a, b] a<x <b x < a und für hat die Dichte x >b an den Unstetigkeitsstellen x =a und kann dabei beliebig deniert werden. Beispiel Normalverteilung Die StandardNormalverteilung hat die Dichte 1 f (x) = √ 2π e −x 2 /2 für x ∈R (Gauÿsche Glockenkurve) wahrscheinlichkeit13.pdf, Seite 30 Dichte der StandardNormalverteilung Die gelbe Fläche entspricht der Wahrscheinlichkeit, dass eine standardnormalverteilte Zufallsvariable einen Wert zwischen und b a annimmt. wahrscheinlichkeit13.pdf, Seite 31 Exponentialverteilung Die Exponentialverteilung mit Parameter f (x) = Dichte f (x) mit Parameter k e−kx 0 k= k >0 hat die Dichte ≥0 x <0 für 0 für 3 2 , die markierte Fläche entspricht der Wahrscheinlichkeit, dass eine Zufallsvariable mit Dichte f (x) einen Wert zwischen 1 und 2 annimmt. wahrscheinlichkeit13.pdf, Seite 32 Beispiel zur Berechnung der Wahrscheinlichkeiten Ist die Zufallsvariable k= X exponentialverteilt mit Parameter 3 2 , so ist die Wahrscheinlichkeit, dass X einen Wert zwischen 1 und 2 annimmt 2 Z P(1 ≤ X ≤ 2) = P(1 < X < 2) = Z f (x) dx = 1 1 2 3 − 32 x 2e dx 2 = −e− x = −e−3 + e−3/2 ≈ −0, 05 + 0, 22 = 17% 3 2 1 (Stammfunktion mit linearer Substitution). Analog erhält man P(X ≥ 2) = R∞ 2 3 − 32 x 2e ∞ dx = −e− x = 0 + e−3 ≈ 5% 3 2 2 Bemerkung Durch die Exponentialverteilung kann die Lebensdauer von Bauteilen modelliert werden, die keinem Verschleiÿ unterliegen. wahrscheinlichkeit13.pdf, Seite 33 Der Erwartungswert einer diskreten Zufallsvariable X µ = EX = E (X ) = ist deniert als X xi · P(X = xi ), i d. h. die Summe wird gebildet über alle möglichen Werte der Zufallsvariablen, die mit ihrer jeweiligen Wahrscheinlichkeit multipliziert werden. Interpretation: Der Erwartungswert entspricht dem durchschnittlichen Wert, den eine Zufallsgröÿe annimmt. Beispiele Erwartungswert der Augenzahl eines Würfels: EX = 1 · 61 + 2 · 16 + 3 · 61 + 4 · 61 + 5 · 16 + 6 · 1 6 = 3 21 , Augensumme zweier Würfel: EX = 2 · 1 36 +3· +8· 5 36 2 36 +4· +9· 4 36 3 36 +5· + 10 · 3 36 4 36 +6· + 11 · 2 36 5 36 +7· + 12 · 6 36 1 36 = 7. wahrscheinlichkeit13.pdf, Seite 34 Bemerkung Im Fall einer diskreten Zufallsvariablen mit unendlich vielen Werten führt die Berechnung des Erwartungswertes auf eine unendliche Reihe, d. h. eine Summe mit unendlich vielen Summanden, die als Grenzwert deniert ist. Dieser Grenzwert existiert nicht in allen Fällen. Somit ist der Erwartungswert einer diskreten Zufallsvariable nur dann deniert, wenn der entsprechende Grenzwert existiert (die Reihe konvergiert). wahrscheinlichkeit13.pdf, Seite 35 Beispiel Wie oft muss man durchschnittlich würfeln, bis die erste 6 fällt? Antwort: 6 mal, denn: X Für die Anzahl P(X = i) = 1 6 · der benötigten Würfe gilt 5 i−1 für 6 i = 1, 2, 3, ... Für den Erwartungswert folgt 0 1 2 EX = 1 · 61 · 56 + 2 · 61 · 56 + 3 · 16 · 65 + ... P∞ P 5 i−1 1 5 i−1 1 · = · = 16 · 36 = 6. i · = ∞ i · i=1 i=1 6 6 6 6 Dabei wurde benutzt, dass für jede reelle Zahl x mit |x| < 1 gilt i−1 = limn→∞ i=1 i · x P∞ = 1 + 2x + 3x 2 + ... + (n − 1) · x n 1 (1−x)2 Diese Identität kann mit durch Betrachtung von Potenzreihen hergeleitet werden. wahrscheinlichkeit13.pdf, Seite 36 Erwartungswert einer Zufallsvariable mit Dichte Hat X die Dichte f, so ist der Erwartungswert deniert als Z ∞ x · f (x) dx, µ = EX = E (X ) = −∞ falls das uneigentliche Integral existiert. Beispiel X gleichverteilt in [0; 1], so erhält man mit der Dichte f (x) = 1 für 0 ≤ x ≤ 1 und f (x) = 0 sonst 1 R∞ R1 EX = −∞ x · f (x) dx = 0 x · 1 dx = 21 x 2 = 12 − 0 = 21 Ist 0 wahrscheinlichkeit13.pdf, Seite 37 Bemerkung Nicht jede Zufallsvariable hat einen Erwartungswert. Voraussetzung dafür ist, dass die entsprechende Reihe bzw. das uneigentliche Integral konvergiert. Beispiel Wegen R∞ dx −∞ 1+x 2 1 ∞ = arctan x = −∞ π 2 − −π 2 =π 1 · eine Wahrscheinlichkeitsdichte. Eine π 1+x 2 Zufallsvariable X mit der Dichte f (x) heiÿt Cauchyverteilt. ist f (x) = Da das Integral R∞ x · f (x) dx = −∞ R∞ x −∞ 1+x 2 dx = 1 2 ln(1 ∞ + x 2 ) divergiert, −∞ ist der Erwartungswert einer Cauchyverteilten Zufallsvariable nicht deniert. wahrscheinlichkeit13.pdf, Seite 38 Beispiel: Erwartungswert der Exponentialverteilung Ist X exponentialverteilt mit Parameter 1 −x/5 Dichte f (x) = e für x ≥ 0 sowie f 5 k = 15 , so liefert die (x) = 0 für x < 0 mit partieller Integration R∞ x · f (x) dx = 51 0 x · e−x/5 dx ∞ R∞ 1 −x/5 ) − − 0 e−x/5 dx = 5 · x · (−5e 0 ∞ = 0 + −5e−x/5 = 0 + 5 = 5 EX = R∞ −∞ 0 Allgemeiner Ist X exponentialverteilt mit Parameter Z ∞ x · ke EX = 0 −kx dx = lim b→∞ k, so ist −x e−kx − 1 −kx e k b = 1 k 0 wahrscheinlichkeit13.pdf, Seite 39 Linearität des Erwartungswertes Sind X und Y Zufallsvariablen und ist E (X + Y ) = E (X ) + E (Y ) Beispiel zwei Würfel: Stellen X c ∈ R, sowie und Y so gilt E (cX ) = cE (X ). die Augenzahl jeweils eines Würfels dar, so gilt für die Augensumme E (X + Y ) = EX + EY = 3, 5 + 3, 5 = 7. Verallgemeinerung E (c1 X1 + ... + cn Xn ) = c1 EX1 + ... + cn EXn für Zufallsvariablen X1 , ..., Xn und c1 , ..., cn ∈ R. Monotonie des Erwartungswertes X ≤ Y ⇒ EX ≤ EY . wahrscheinlichkeit13.pdf, Seite 40 Satz Ist X g : R → R eine (stetige) g (X ) = g ◦ X : Ω → R wieder eine eine Zufallsvariable und Funktion, so ist durch Zufallsvariable deniert. Für deren Erwartungswert gilt P Eg (X ) = Beispiel: (1) Ist i g (xi ) · P(X = xi ), R∞ g (x) · f (x) dx, −∞ X falls X diskret ist, falls X die Dichte f hat die Augenzahl eines Würfels, so gilt E (X 2 ) = 1 · 16 + 4 · 16 + 9 · 16 + 16 · 16 + 25 · 61 + 36 · 16 = X gleichverteilt in [0; 1], 1 R1 3 1 4 3 EX = 0 x dx = 4 x = 41 (2) Ist 91 6 = 15, 16. so ist 0 wahrscheinlichkeit13.pdf, Seite 41 Varianz Die Varianz (mittlere quadratische Abweichung) Var(X ) = V (X ) = σ 2 einer Zufallsvariable die Streuung der Werte von µ = E (X ). X X ist ein Maÿ für um dem Erwartungswert Sie ist deniert als σ 2 = σX2 = Var(X ) = E (X − µ)2 = E X 2 − (EX )2 ≥ 0. p Die Standardabweichung ist deniert als σ = σX = Var(X ). Bemerkung Die Varianz σ2 Erwartungswert einer diskreten Zufallsvariable mit µ kann auf zweierlei Weise berechnet werden: hP i 2 P(X = x ) · x − µ2 σ 2 = E (X 2 ) − µ2 = i i i P σ 2 = E (X − µ)2 = i P(X = xi ) · (xi − µ)2 oder Beide Rechnungen liefern (natürlich) das selbe Ergebnis. wahrscheinlichkeit13.pdf, Seite 42 Beispiel Für die Varianz der Augenzahl eines fairen Würfels erhält man I I 2 2 σ2 = E (X ) − (EX ) 1 2 2 3 2 2 2 · 1 +2 +3 +4 +5 +6 − 6 3 1 2 2 = 61 · 91 − 12 14 = 15 16 − 12 41 = 35 12 = 2, 916 P 2 2 2 σ =E (X − µ) = i P(X = xi ) · (xi − µ) = 1 6 · (1 − 3, 5)2 + (2 − 3, 5)2 + (3 − 3, 5)2 + (4 − 3, 5)2 + (5 − 3, 5)2 + (6 − 3, 5)2 = = 1 6 1 6 · (6, 25 + 2, 25 + 0, 25 + 0, 25 + 2, 25 + 6, 25) · 17, 5 = 35 12 Die Standardabweichung wird dann in jedem Fall als und hat den Wert σ= √ σ= √ σ2 σ 2 ≈ 1, 708. wahrscheinlichkeit13.pdf, Seite 43 Weiteres Beispiel Beim Werfen eines Würfels betrage der Gewinn 6 Euro bei einer gewürfelten 6 und 2 Euro, falls die gewürfelte Augenzahl ungerade (d. h. 1, 3 oder 5) ist. Bei einer 2 oder 4 ist der Gewinn Null. Ist X X die Zufallsvariable, die den Gewinn beschreibt, so kann die Werte 0, 2 und 6 annehmen mit P(X = 6) = 1 6, P(X = 2) = 3 6 = 1 2 und P(X = 0) = 2 6 = 1 3. Es folgt µ = EX = 1 3 · 0 + 12 · 2 + 61 · 6 = 2 Der Erwartungswert des Gewinns entspricht einem fairen Einsatz, bei dem keiner der beteiligten Spieler einen strukturellen Vorteil hätte. wahrscheinlichkeit13.pdf, Seite 44 Fortsetzung Beispiel Zur Berechnung der Varianz 2 E (X ) σ2 des Gewinns kann zunächst berechnet werden: E (X 2 ) = 1 3 · 02 + 21 · 22 + 16 · 62 = 0 + 2 + 6 = 8 ⇒ σ 2 = E (X 2 ) − µ2 = 8 − 22 = 4. Alternativ kann gerechnet werden σ 2 = E (X − µ)2 = 31 (0 − 2)2 + 12 (2 − 2)2 + 61 (6 − 2)2 = 4 3 +0+ 16 6 = 12 3 =4 Für die Standardabweichung gilt σ= √ 4 = 2. wahrscheinlichkeit13.pdf, Seite 45 Varianz von Zufallsvariablen mit Dichte f (x) Auch hier gibt es analog zwei Rechenwege: R∞ σ 2 = E (X 2 ) − (EX )2 = ∞ x 2 · f (x) dx − µ2 R∞ σ 2 = E (X − µ)2 = ∞ (x − µ)2 · f (x) dx oder Beispiel Gleichverteilung Ist X die Gleichverteilung im Intervall [0; 10], so hat Dichte X die ≤ x ≤ 10, x < 0 oder x > 10 10 R 10 1 2 x = 5 − 0 = 5. µ = EX = 0 x · 0, 1 dx = 20 f (x) = Es folgt 1 10 , 0, falls 0 falls 0 wahrscheinlichkeit13.pdf, Seite 46 Berechnung der Varianz im Beispiel Mit Z 2 10 2 x · 0, 1 dx = E (X ) = 0 1 10 1 3 10 · x 3 0 = 1000 = 33, 3 30 erhält man σ 2 = V (X ) = E (X 2 ) − µ2 = 33, 3 − 52 = 25 3 = 8, 3. Alternativ rechnet man (mit linearer Substitution) 2 2 Z σ = E (X − µ) = 0 Die (x − 5)2 · 1 10 dx = 1 30 (x 10 − 5)3 0 25 1 · (−53 ) = 2 · 30 · 125 = 3 q 25 √5 Standardabweichung ist σ = 3 = 3 ≈ 2, 887. = 1 30 · 53 − 10 1 30 wahrscheinlichkeit13.pdf, Seite 47 Weiteres Beispiel X exponentialverteilt mit Parameter k = 1, so ist EX = k1 = 1 und ∞ R ∞ 2 −x 2 2 −x E (X ) = 0 x · e dx = −(x + 2x + 2) · e Ist 0 = 0 − (−2) = 2 Es folgt (mit zweimaliger partieller Integration) V (X ) = E (X 2 ) − (EX )2 = 2 − 1 = 1 Bemerkung Ebenso wie nicht jede Zufallsvariable einen Erwartungswert hat, hat auch nicht jede Zufallsvariable eine endliche Varianz. Die Varianz ist nur deniert, wenn der Erwartungswert µ = EX deniert ist und EX 2 endlich ist, d. h. die zugehörige Summe bzw. das uneigentliche Integral konvergiert. wahrscheinlichkeit13.pdf, Seite 48 Varianz transformierter Zufallsvariablen Für eine Zufallsvariable X und eine Konstante d ∈R gilt V (X + d) = V (X ), d. h. eine Verschiebung ändert die Varianz nicht. Weiter gilt für c ∈R V (c · X ) = c 2 · V (X ), d. h. eine Skalierung um den Faktor c wirkt sich quadratisch auf die Varianz aus, die Standardabweichung ändert sich entsprechend um den Faktor |c|. Allgemein gilt damit V (c · X + d) = c 2 · V (X ) für c, d, ∈ R. wahrscheinlichkeit13.pdf, Seite 49 Beispiel Ist X die Augenzahl eines Würfels und beträgt der Gewinn G = 5X − 18 die fünache Augenzahl minus einem Einsatz von 18 Euro, so ist die Varianz des Gewinns 35 V (G ) = V (5X − 18) = 52 · V (X ) = 25 · 12 ≈ 72, 9, p V (X ) ≈ 8, 54. die Standardabweichung ist σ = Dabei hat der Einsatz keinen Einuss auf Varianz und Standardabweichung. Standardisierung Ist X eine Zufallsvariable mit Erwartungswert Varianz V (X ) = σ 2 EX = µ und , so hat die standardisierte Zufallsvariable Z= X −µ σ Erwartungswert 0 und Varianz 1. wahrscheinlichkeit13.pdf, Seite 50 Weiteres Beispiel Ist X gleichverteilt in [0; 1], so ist E (X 2 ) = R1 0 x 2 dx = 1 3 ⇒ V (X ) = EX = 1 3 − 1 2 und 1 2 1 = 12 . 2 a, b ∈ R ist die Zufallsvariable Y = a + (b − a) · X gleichverteilt im Intervall [a, b], Für beliebige Es ist EY = a + (b − a) · Insbesondere ist für 1 2 = b = −a = b−a 2 und V (Y ) = (b−a)2 √ 3 die im Intervall 12 [− . √ 3; √ 3] gleichverteilte Zufallsvariable X− Z=√ 1 2 1/12 = √ 12 ·X − 1 2 √ 12 √ √ =− 3+2· 3·X standardisiert. wahrscheinlichkeit13.pdf, Seite 51 Unabhängigkeit Zwei Zufallsvariablen beliebige Teilmengen P(X ∈ A und X und Y sind A, B ⊂ R gilt unabhängig, wenn für Y ∈ B) = P(X ∈ A) · P(Y ∈ B). Satz I I I X und Y sind genau dann unabhängig, wenn für alle x, y ∈ R gilt P(X ≤ x und Y ≤ y ) = P(X ≤ x) · P(Y ≤ y ). Zwei diskrete Zufallsvariablen X und Y sind genau dann unabhängig, wenn für alle x, y gilt P(X = x und Y = y ) = P(X = x) · P(Y = y ). Sind X und Y unabhängig, so auch g (X ) und h(Y ) für Funktionen g und h . wahrscheinlichkeit13.pdf, Seite 52 Bemerkung In Anwendungen muss die Unabhängigkeit von Zufallsvariablen in der Regel nicht nachgerechnet werden, sondern ist eine Konsequenz von Modellannahmen. Wenn aus dem Modell hervorgeht, dass der Wert einer Zufallsvariable X keinen Einuss auf die Verteilung einer anderen Zufallsvariablen Y hat, so werden X und Y als unabhängig angenommen. Beispiel Bezeichnen X und Y die jeweiligen Augenzahlen zweier Würfel, so werden sie (in der Regel) als unabhängig vorausgesetzt. Unter dieser Annahme lassen sich dann weitere Wahrscheinlichkeiten wie z. B. die Verteilung der Augensumme X +Y berechnen. wahrscheinlichkeit13.pdf, Seite 53 Satz Sind X und Y unabhängig, so gilt E (X · Y ) = E (X ) · E (Y ) V (X + Y ) = V (X ) + V (Y ). sowie Beispiel Die Augensumme zweier Würfel hat die Varianz und die Standardabweichung σ= q 35 6 35 12 + 35 12 = 5 56 ≈ 2, 415 (da die Augenzahl eines Würfels Varianz 35 12 hat). Warnungen I Während E (X + Y ) = EX + EY für beliebige Zufallsvariablen gilt, setzten die Gleichungen E (X · Y ) = EX · EX Unabhängigkeit von V (X + Y ) = V (X ) + V (Y ) X und Y voraus. und die I Da die Standardabweichung mit Hilfe der nichtlinearen Wurzelfunktion berechnet wird, gilt nicht σX +Y = σX + σY wahrscheinlichkeit13.pdf, Seite 54 Erweiterung Sind X1 , X2 , ..., Xn unabhängige Zufallsvariablen, so gilt V (X1 + X2 + ... + Xn ) = V (X1 ) + V (X2 ) + ... + V (Xn ) Beispiel Die Augensumme von 12 Würfeln hat · 3, 5 = 42, Varianz √ Standardabweichung 35 ≈ 5, 916. Erwartungswert 12 12 · 35 12 = 35 und Die Augensumme von 420 Würfeln hat Erwartungswert 1470, Varianz 1225 und Standardabweichung 35. Betrachtet man dagegen die 12fache Augenzahl 12X eines V (12X√) = 122 · V (X ) = 420 σ12X = 420 ≈ 20, 49. Würfels, so gilt für die Varianz und die Standardabweichung wahrscheinlichkeit13.pdf, Seite 55 Beispiel: 2 Würfel X Beschreiben und Y die Augenzahl jeweils eines Würfels, so folgt aus der Unabhängigkeit, dass für das Produkt XY der und Z Augenzahlen gilt E (XY ) = E (X ) · E (Y ) = 3, 52 = 12, 25 Ist Z die Zufallsvariable mit Z= 1, falls beide Augenzahlen gerade, 0 sonst , so sind X nicht unabhängig. Es ist EZ = 0 · P(Z = 0) +· P(Z = 1) = 0 · 34 + 1 · E (X · Z ) 1 4 = 1 4. bestimmt man wie folgt: Mit Wahrscheinlichkeit 1 jeweils 12 ist X · Z = 2, 4 bzw. 6 (erster Würfel 2, 4 oder 6 und zweiter Würfel gerade), in allen anderen Fällen ist X · Z = 0. Es folgt E (X · Z ) = 1 12 ·2+ 1 12 ·4+ 1 12 · 6 + 34 · 0 = 1 6= E (X ) · E (Z ). wahrscheinlichkeit13.pdf, Seite 56 Die Kovarianz zweier beliebiger Zufallsvariablen Cov(X , Y ) Sind X und Y X und Y ist deniert als = E (X · Y ) − E (X ) · E (Y ) unabhängig, so ist E (XY ) = E (X ) · E (Y ) ⇒ Cov(X , Y ) = 0. Die Umkehrung gilt nicht allgemein, zwei Zufallsvariablen mit Kovarianz 0 müssen nicht unabhängig sein. X und Y heiÿen unkorreliert, falls Cov(X , Y ) korreliert, falls Cov(X , Y ) Cov(X , Y ) >0 = 0, positiv und negativ korreliert, falls < 0. wahrscheinlichkeit13.pdf, Seite 57 Satz Für beliebige Zufallsvariablen I I X und Y gilt V (X + Y ) = V (X ) + V (Y ) + 2Cov(X , Y ) 2 Cov(X , Y ) ≤ V (X ) · V (Y ) mit Gleichheit genau dann, wenn eine der beiden Zufallsvariablen konstant ist oder es Konstanten gibt, sodass c, d ∈ R Y = cX + d . Der Korrelationskoezient zweier Zufallsvariablen mit Standardabweichungen σX X und und σY ρ(X , Y ) = ρXY = Y mit ist deniert als Cov(X , Y ) σX · σY wahrscheinlichkeit13.pdf, Seite 58 Beispiel X und Y bezeichnen die Augenzahlen zweier Würfel, Zufallsvariable mit und Z =0 Dann ist Cov(X , Z ) die falls beide Augenzahlen gerade sind sonst. = E (XZ ) − E (X )E (Z ) = 1 − 27 · Folglich sind Mit Z =1 Z V (X ) = X und 35 12 und Z 1 4 = 1 8 = 0, 125. positiv korreliert. V (Z ) = ρXY = q 3 16 folgt weiter 1 8 35 12 1 · 3 16 =√ 35 ≈ 0, 169 wahrscheinlichkeit13.pdf, Seite 59 Eigenschaften I Cov(X , Y )2 ≤ V (X ) · V (Y ) besagt, dass der Korrelationskoezient immer zwischen I −1 und 1 liegt. ρXY = 1 bedeutet eine positive lineare Korrelation der Y = cX + d mit c > 0, ρXY = −1 eine negative lineare Korrelation Y = cX + d mit c < 0. Ein Korrelationskoezient nahe 1 oder −1 bedeutet, dass zwischen X und Y annähernd ein linearer Form Zusammenhang besteht. I Mit den standardisierten Zufallsvariablen Ŷ = X̂ = X −EX und σX Y −EY ist σY ρXY = Cov(X̂ , Ŷ ) = ρ(X̂ , Ŷ ). wahrscheinlichkeit13.pdf, Seite 60 Verteilungsfunktion Ist X eine Zufallsvariable mit der Dichte F (x) = Rx −∞ f (ξ) dξ Damit gilt für eine Stammfunktion von a, b ∈ R mit Die oben denierte Funktion stetigen Zufallsvariale x ∈R ist F (x) = X. Rx −∞ so ist f (x). a<b P(a < X < b) = P(a ≤ X ≤ b) = Für f (x), F (x) Rb a f (x) dx = F (b) − F (a). heiÿt Verteilungfunktion der f (ξ) dξ = P(X ≤ x). Beispiel Eine in [0, 1] gleichverteilte Zufallsvariable hat die Verteilungsfunktion F (x) = 0 für x für 1 für x ≤ 0, 0 < x < 1, x ≥1 wahrscheinlichkeit13.pdf, Seite 61 Verteilungsfunktion F (x) einer im Intervall [0, 1] gleichverteilten Zufallsvariable wahrscheinlichkeit13.pdf, Seite 62 Weitere Beispiele I Eine in [a, b] gleichverteilte Zufallsvariable hat die Verteilungsfunktion F (x) = 0 x−a b−a 1 für für für x ≤ a, a < x < x, x ≥b I Eine exponentialverteilte Zufallsvariable mit Parameter k > 0 hat R x die Verteilungsfunktion F (x) = 0 k e−kξ dξ = 1 − e −kx für x ≥ 0 I Für die Verteilungsfunktion Z x Φ(x) = −∞ 1 √ 2π e −ξ 2 /2 dξ de Standardnormalverteilung lässt sich kein expliziter Ausdruck angeben. wahrscheinlichkeit13.pdf, Seite 63 Verteilungsfunktion der Exponentialverteilung F (x) = 1 − e −kx für k = 5, k = 1 und k = 0, 2. wahrscheinlichkeit13.pdf, Seite 64 Verteilungsfunktion der Standardnormalverteilung wahrscheinlichkeit13.pdf, Seite 65 Verteilungsfunktion einer diskreten Zufallsvariable Durch F (x) = P(X ≤ x) kann die Verteilungsfunktion für beliebige reellwertige, also auch diskrete, Zufallsvariablen deniert werden. Beispiel Augensumme Ist x < 2, Für 2 so gilt ≤x <3 X zweier Würfel F (x) = P(X ≤ x) = 0. ist F (x) = P(X ≤ x) = P(X = 2) = ≤x <4 F (x) = P(X ≤ x) = P(X = 2) + P(X = 3) = Für 3 ist ... Für x ≥ 12 Somit hat ist 3 36 1 36 . = 1 12 . F (x) = P(X ≤ 12) = 1. F (x) an den Stellen x = 2, 3, 4, ..., 12 jeweils eine Sprungstelle und ist zwischen diesen Sprungstellen konstant. wahrscheinlichkeit13.pdf, Seite 66 Verteilungsfunktion Augensumme zweier Würfel F (x) hat Sprungstellen an den Stellen x = 2, 3, 4, ..., 12 und ist auf den Intervallen dazwischen jeweils konstant. wahrscheinlichkeit13.pdf, Seite 67 Eigenschaften von Verteilungsfunktionen Für die Verteilungsfunktion F (x) F einer beliebigen X gilt 0 ≤ F (x) ≤ 1 für alle x ∈ R x 7→ F (x) ist monoton wachsend. Zufallsvariable I I F (x) F (x) existieren für alle x0 ∈ R und es ist F (x0 ) = limx→x + F (x) (F ist rechtsseitig stetig). limx→−∞ F (x) = 0 und limx→∞ F (x) = 1. I Die rechts- und linksseitigen Grenzwerte limx→x + 0 und limx→x0 − 0 I Bemerkungen I Jede Funktion mit den obigen Eigenschaften ist Verteilungsfunktion einer Zufallsvariable. I Jede reellwertige Zufallsvariable besitzt eine Verteilungsfunktion. wahrscheinlichkeit13.pdf, Seite 68 Weitere Eigenschaften a < b ist P(X ∈ (a, b]) = P(a < X ≤ b) = F (b) − F (a) (denn P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a)) Für alle x0 ∈ R ist I Für I P(X = x0 ) = lim F (x)− lim F (x) x→x0 + x→x0 − = F (x0 )− lim F (x) x→x0 − Folgerung I F x0 , wenn P(X = x0 ) = 0 gilt. F an der Stelle x0 eine Sprungstelle, so entspricht P(X = x0 ) der Sprunghöhe. F ist genau dann stetig auf R, wenn P(X = x) = 0 für alle x ∈ R. In diesem Fall ist F Verteiungsfunktion einer stetigen ist genau dann stetig in Hat I Zufallsvariablen. wahrscheinlichkeit13.pdf, Seite 69 Bemerkungen I Nicht jede stetige Zufallsvariable besitzt eine Dichte Ist die Verteilungsfunktion F (x) von X f (x). (eventuell mit Ausnahme endlich vieler Punkte, die dann die Sprungstellen von f sind) dierenzierbar, so ist f (x) = F 0 (x) Dichte von X . Es gibt aber auch Zufallsvariablen, deren Verteilungsfunktionen stetig, aber nicht dierenzierbar sind. Die für Anwendungen wichtigsten Zufallsvariablen sind jedoch entweder diskret oder haben eine Dichte. X stetig, so gilt P(X = x) = 0 für alle x ∈ R. Für a < b folgt dann P (a, b) = P(a < X < b) = P [a, b] = P(a ≤ X ≤ b) = P (a, b] = P [a, b) = F (b) − F (a). I Ist wahrscheinlichkeit13.pdf, Seite 70 Zusammenfassung (Berechnung von Wahrscheinlichkeiten) X eine Zufallsvariable für a, b ∈ R mit a < b : Ist P(X ≤ b) = F (b), sowie Ist X mit Verteilungsfunktion F (x), so gilt P(a < X ≤ b) = F (b) − F (a) P(X > a) = 1 − F (a). stetig, so kann < und > durch ≤ und ≥ ersetzt werden und umgekehrt. Im allgemeinen Fall ist P(a ≤ X ≤ b) = F (b) − F (a) + P(X = a), P(a < X < b) = F (b) − F (a) − P(X = b), P(X < b) = F (b) − P(X = b) und P(X ≥ a) = 1 − F (a) + P(X = a). wahrscheinlichkeit13.pdf, Seite 71 Gesetz der groÿen Zahlen Beispiel Für die Augensumme Sn = X1 + ... + Xn beim nmaligen Würfeln gilt ESn = n X EXi = n · 3, 5 und V (Sn ) = i=1 und EX = 1 n V (X ) = V (Xi ) = n · i=1 Für die durchschnittliche Augenzahl folgt n X X = n1 Sn = 1 n 35 12 · (X1 + ... + Xn ) · ESn = 3, 5 = EX1 = ... = EXn 1 n2 · V (Sn ) = 1 n · 35 12 Für die Standardabweichung erhält man σX = q V (X ) = √1 n · q 35 12 →0 für n→∞ wahrscheinlichkeit13.pdf, Seite 72 Gesetz der groÿen Zahlen Voraussetzungen Sie (Xi ) eine Folge unabhängiger identisch verteilter (iid) Zufallsvariablen mit Erwartunswert σ 2 < ∞. (d. h. X1 , X2 , X3 , µ∈R und Varianz ... haben alle die gleiche Verteilung und insbesondere den gleichen Erwartungswert, unabhängig bedeutet P(X1 ∈ A1 ; X2 ∈ A2 ; ...; Xk ∈ Ax ) = P(X1 ∈ A1 ) · P(X2 ∈ A2 ) · ... · P(Xk ∈ Ak ) für beliebige k und A1 , ..., Ak ∈ R) Das arithmetische Mittel Xn = 1 n ist dann für alle n 2 µ und Varianz σn . n X i=1 ≥1 Xi = 1 n (X1 + X2 + ... + Xn ) eine Zufallsvariable mit Erwartungswert wahrscheinlichkeit13.pdf, Seite 73 Gesetz der groÿen Zahlen Satz ε > 0 gilt 1 (X1 + X2 + ... + Xn ) − µ ≥ ε = 0, lim P n n→∞ Für beliebiges d. h. die Folge (X n ) konvergiert stochastisch bzw. in Wahrscheinlichkeit gegen µ. Der Beweis erfolgt mit Hilfe der Ungleichung von Tschebysche. wahrscheinlichkeit13.pdf, Seite 74 Bemerkungen I Das Gesetz der groÿen Zahlen gilt auch noch unter schwächeren Voraussetzungen, wo die Xi nicht unabhängig und/oder nicht identisch verteilt sind. I Das starke Gesetz der groÿen Zahlen besagt X n = µ fast sicher (mit Wahrscheinlichkeit 1), X n (ω) = µ für alle ω aus einer Teilmenge Ω̃ des Wahrscheinlickeitsraumes Ω mit zugrundeliegenden P Ω̃ = 1. limn→∞ d. h. limn→∞ wahrscheinlichkeit13.pdf, Seite 75 Bemerkung und Beispiel Eine Zufallsvariable X mit Dichte heiÿt (standard)Cauchyverteilt. Sind X1 , X2 , n≥1 f (x) = 1 π · 1 1+x 2 für x ∈R ... unabhängig und Cauchyverteilt, so ist für alle auch X n = n1 (X1 + ... + Xn ) standardCauchyverteilt. Insbesondere gilt das Gesetz der groÿen Zahlen nicht für Cauchyverteilte Zufallsvariablen. Dies liegt daran, dass diese keinen Erwartungswert haben (das entsprechende uneigentliche R∞ Integral x · f (x) dx divergiert). −∞ wahrscheinlichkeit13.pdf, Seite 76 Erweiterung: Hauptsatz der Statistik X1 , Zu Zufallsvariablen ..., Xn ist die empirische Verteilungsfunktion deniert als F n (x) = 1 mal Anzahl der n Für festes x ist F n (x) Xi relativen Anteil der Xi mit Xi < x . eine Zufallsvariable. Sie gibt den wieder, deren Wert ≤x ist. Satz Sind die Xi unabhängig und identisch verteilt mit F (x), so gilt für festes x ∈ R P F n (x) − F (x) > ε = 0, Verteilungsfunktion lim n→∞ F n nähern Verteilungsfunktion F an. d. h. die empirischen Verteilungsfunktionen n→∞ der erwarteten und ε>0 sich für wahrscheinlichkeit13.pdf, Seite 77 Beispiel Empirische Verteilungsfunktion F 5 (x) einer exponentialverteilten Zufallsvariable mit Parameter λ = 1. wahrscheinlichkeit13.pdf, Seite 78 Hauptsatz der Statistik F 50 (x) und theoretische Verteilungsfunktion F (x) = 1 − e−x . wahrscheinlichkeit13.pdf, Seite 79