Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert und Varianz 6. Standardisierte Zufallsvariablen 7. Die Ungleichung von Tschebyschev 2 Teil 1 Einführung 3 Bei vielen Zufallsexperimenten tritt als Ergebnis direkt eine reelle Zahl auf und selbst wenn die auftretenden Ergebnisse keine Zahlenwerte sind, interessiert man sich häufig für einen durch den Versuchsausgang bestimmten Zahlenwert. Mathematisch: Abbildung X von der Menge Ω in die reellen Zahlen (Zufallsvariable) Ω P [0,1] X IR Da das Ergebnis ω vom Zufall abhängt, wird auch der Zahlenwert X(ω) zufallsabhängig sein. 4 Beispiel Zufallsexperiment: Zweifacher Wurf eines Würfels Wahrscheinlichkeitsraum: Ω = { ω = (ω1, ω2) : ωi ∈ {1, . . . , 6} } 1 ). mit Gleichverteilung auf Ω (P(ω) = 36 Zufallsvariable: X : Ω −→ {2, 3, 4, . . . , 12} = RX ⊂ R (ω1, ω2) 7−→ ω1 + ω2 für alle (ω1, ω2) ∈ Ω X ist eine Funktion, die jedem Ergebnis des Experimentes die Augensumme zuordnet. 5 Der Raum Ω 2. Wurf 6 5 4 Ω 3 2 1 1. Wurf 1 2 3 4 5 6 6 Der Wahrscheinlichkeitsraum (Ω, P) 2. Wurf 6 5 4 ΩP 3 2 1 1. Wurf 1 2 3 4 5 6 Auf jedem Ausgang ω des Experimentes lastet ein Gewicht P (ω)! 7 Für alle k ∈ {2, 3, 4, . . . , 12} sei nun X−1(k) = {ω | = (ω1, ω2) ∈{zΩ : X(ω) = k}} Ereignis: ,,Augensumme ist gleich k“ Dann ist: PX(k) = P(X−1(k)) die Wahrscheinlichkeit dafür, dass die Augensumme k (2 ≤ k ≤ 12) gewürfelt wird. 8 Beispiel: 6 5 4 3 2 1 1 2 3 4 5 6 3 Grün: X−1(4) und PX(4) = P(X−1(4)) = 36 6 Gelb: X−1(7) und PX(4) = P(X−1(7)) = 36 9 Einzelwahrscheinlichkeiten PX(k): k Elemente in X−1 (k) 2 3 4 5 6 7 8 9 10 11 12 (1,1) (1,2), (1,3), (1,4), (1,5), (1,6), (2,6), (3,6), (4,6), (5,6), (6,6) (2,1) (2,2), (2,3), (2,4), (2,5), (3,5), (4,5), (5,5), (6,5) (3,1) (3,2), (3,3), (3,4), (4,4), (5,4), (6,4) |X−1 (k)| PX (k) (4,1) (4,2), (5,1) (4,3), (5,2), (6,1) (5,3), (6,2) (6,3) 1 2 3 4 5 6 5 4 3 2 1 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 • 0 ≤ PX(k) ≤ 1 für alle k = 2, . . . , 12 • alle Ereignisse X−1(k) ⊂ Ω sind disjunkt, ihre Vereinigung ist ganz Ω und 12 X k=2 PX(k) = 1. 10 PX IR X 11 Damit haben wir gezeigt: Die Verknüpfung PX(k) definiert eine Wahrscheinlichkeitsverteilung über der Menge {2, . . . , 12}. Allgemein gegeben: • (Ω, P) ein Wahrscheinlichkeitsraum • X : Ω −→ R Zufallsvariable • RX = X(Ω) ⊂ R das Bild von X • PX = P(X−1) Dann ist das Paar (RX, PX) ein Wahrscheinlichkeitsraum, d.h. PX ist eine Wahrscheinlichkeitsverteilung auf RX. 12 Zusammenfassung: Jede Zufallsvariable X ordnet der Menge Ω aller möglichen Ausgänge eines Zufallsexperimentes eine Teilmenge RX der reellen Zahlen zu und transportiert die Wahrscheinlichkeiten von Ereignissen aus Ω nach RX! Ω −→ RX P −→ PX PX heisst auch die Verteilung von X und wird meist wieder mit P bezeichnet. 13 Beispiele: Experiment Ω Beobachtung Kennzeichen vorbeifahrender Autos {BS − 01, . . .} Zufallsvariable Geschwindigkeit der Autos X(BS − 00) = 50 km h km X(BL − 01) = 40 h ... Auswahl einer Person Passnummern Körpergrösse {17−, 14−, . . .} X(17−) = 1.83 m X(14−) = 1.59 m ... 14 Teil 2 Zufallsvariablen 15 Meist von Interesse: Wahrscheinlichkeit, dass X(ω) in einem bestimmten Intervall I = [a, b] liegt, also dass X(ω) ∈ I gilt. Dazu betrachten wir die Gesamtheit aller Ergebnisse ω, für die X(ω) ∈ I gilt: AI = {ω ∈ Ω : X(ω) ∈ I}. Ω ω1 ω2 AI ω3 ω6 I X(ω 1 ) ω7 ω5 ω4 IR X(ω 5 ) 16 Für beliebige Abbildungen X : Ω −→ R ist AI nicht notwendigerweise ein Ereignis (insbesondere, wenn man die Menge Ω grösser als nötig gewählt hat). Definition: Sei (Ω, P) ein Wahrscheinlichkeitsraum. Dann heisst eine Abbildung X : Ω −→ R eine (reellwertige) Zufallsvariable, falls für alle Intervalle I ⊂ R die Menge AI = {ω ∈ Ω : X(ω) ∈ I} ⊂ Ω ein Ereignis ist. Insbesondere bedeutet das, dass wir AI eine Wahrscheinlichkeit zuordnen können. 17 Bezeichnungen Für die Wahrscheinlichkeiten des Ereignisses AI und ähnlicher Ereignisse, die sich direkt über die Zufallsvariable X darstellen lassen, schreiben wir abkürzend: P(X = x0) = P( {ω ∈ Ω : X(ω) = x0} ) P(X ∈ I) = P( {ω ∈ Ω : X(ω) ∈ I} ) = P(AI) P(a ≤ X ≤ b) = P( {ω ∈ Ω : a ≤ X(ω) ≤ b} ) P(X ≤ b) = P( {ω ∈ Ω : X(ω) ≤ b} ). 18 Diese Wahrscheinlichkeiten lassen sich mit Hilfe der sogenannten Verteilungsfunktion berechnen. Sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, P). Dann heisst die Abbildung F : R −→ [0, 1] mit F(x) = P(X ≤ x) = P(−∞ ≤ X ≤ x) Verteilungsfunktion der Zufallsvariablen. 19 Aufgabe 1 Ein Laplace-Würfel wird dreimal geworfen. Die Zufallsvariable X bezeichne die Anzahl, wie oft eine gerade Zahl geworfen wurde. Bestimmen Sie die Verteilung und die Verteilungsfunktion von X und stellen Sie diese graphisch dar. 20 Eigenschaften von Verteilungsfunktionen • F ist monoton wachsend • F ist rechtsseitig stetig, d.h. F(x) = • lim x→−∞ F(x) = 0 • lim F(x) = 1 x→∞ lim h>0,h→0 F(x + h) 21 Rechenregeln für Verteilungsfunktionen Für alle a, b ∈ R mit a < b gilt: P(X < a) = P(X ≤ a) − P(X = a) = F(a) − P(X = a) P(X > a) = 1 − F(a) P(X ≥ a) = 1 − F(a) + P(X = a) P(a < X ≤ b) = F(b) − F(a) P(a < X < b) = F(b) − F(a) − P(X = b) P(a ≤ X < b) = F(b) − F(a) − P(X = b) + P(X = a) 22 Im folgenden unterscheiden wir zwei Typen von Zufallsvariablen • diskrete Zufallsvariablen: RX = X(Ω) ist eine abzählbare Menge, z.B. 0, 1, 2, . . . , 100 • stetige Zufallsvariablen: RX = X(Ω) ist eine überabzählbare Menge, z.B. [0, 200]. 23 Teil 3 Diskrete Zufallsvariablen 24 Eine Zufallsvariable X heisst diskret, wenn ihr Wertebereich endlich oder abzählbar unendlich ist. Wir können alle möglichen Werte von X durchnumerieren: RX = X(Ω) = {x1, x2, x3, . . .}. Diskrete Zufallsvariablen • nehmen in der Regel ganzzahlige Werte an und • entstehen meist durch Zählprozesse. 25 Nimmt die diskrete Zufallsvariable die Werte {x1, x2, . . .} an, so gehört zu jedem Wert xj das Ereignis X = xj und dessen Wahrscheinlichkeit pj := P(X = xj), j = 1, 2, 3, . . . Die Verteilungsfunktion von X hat dann die Gestalt F(x) = P(X ≤ x) = X xj≤x pj. 26 Graphisch kann man eine diskrete Wahrscheinlichkeitsverteilung auf folgende Weise darstellen: • in einem Stabdiagramm: über jeder Stelle xj errichtet man einen Stab der Länge pj, • durch den Graphen der Verteilungsfunktion F 27 Stabdiagramm PX IR X Verteilungsfunktion PX IR X 28 Teil 4 Stetige Zufallsvariablen 29 Zunächst benötigen wir den hier wichtigen Begriff einer Dichte. Eine Funktion f heisst Dichte oder Wahrscheinlichkeitsdichte falls sie die folgenden Eigenschaften hat: 1. f (t) ≥ 0 für alle t ∈ R, 2. f (t) ist stetig bis auf abzählbar viele Punkte, 3. Z ∞ −∞ f (t) dt = 1. 30 Eine Zufallsvariable heisst stetig mit der Dichte f falls sich die Verteilungsfunktion F : R −→ [0, 1] in der folgenden Weise schreiben lässt: F(x) = Z x f (t) dt. −∞ Die Verteilungsfunktion F ist eine Stammfunktion der zugehörigen Dichte! Satz Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable einen beliebigen Wert x0 annimmt, ist gleich Null: P(X = x0) = 0 31 Beweis: Sei x0 ∈ R und wir betrachten das Intervall (x0 − δ, x0]. Dann gilt zunächst allgemein: P(x0 − δ < X ≤ x0) = F(x0) − F(x0 − δ) also P(X = x0) = lim P(x0 − δ < X ≤ x0) δ→0 = lim [F(x0) − F(x0 − δ)] δ→0 = F(x0) − F(x0) = 0. Bei stetigen Zufallsvariablen sind Punktereignisse X = xi nicht von Interesse!! 32 Zusammenfassung: Wahrscheinlichkeit, dass X einen Wert zwischen a und b annimmt Ausgedrückt durch die Verteilungsfunktion Ausgedrückt durch die Dichte: P(a ≤ X ≤ b) = P(a < X < b) = P(a ≤ X < b) = F(b) − F(a) = Z b f (t) dt a 33 Die Dichte einer Zufallsvariablen X: y f(t) t a P(a ≤ X ≤ b) = b Z b f (t)dt a ist der Flächeninhalt unter der Kurve zwischen den Grenzen a und b und dieser Flächeninhalt entspricht der Wahrscheinlichkeit dafür, dass unsere Zufallsvariable X einen Wert zwischen a und b annimmt. 34 Aufgabe 2 An einer Haltestelle kommt pünktlich alle 20 Minuten ein Tram an. Eine Person geht, ohne auf die Uhr zu schauen, an die Haltestelle und nimmt das nächste Tram. Die Zufallsvariable T bezeichne die Wartezeit in Minuten. Modellieren Sie die Verteilung von T mit einer geeigneten Dichte und bestimmen Sie damit • P (T < 10) • P (T > 5) • P (5 < T < 8). 35 Teil 5 Erwartungswert und Varianz 36 X sei eine Zufallsvariable. Dann ist der Erwartungswert E(X) = µ wie folgt definiert. 1. Falls X diskret mit den endlich vielen Werten {x1, x2, . . . , xn} ist, so gilt: E(X) = n X i=1 xi |P(X{z= xi}) pi 2. Falls X stetig mit zugehöriger Dichte f ist, so gilt: Z ∞ E(X) = t f (t) dt −∞ 37 Die Varianz Var(X) = σ 2 der Zufallsvariablen X mit µ = E(X) ist wie folgt definiert. 1. Falls X diskret mit den endlich vielen Werten {x1, x2, . . . , xn} ist, so gilt: Var(X) = n X i=1 (xi − µ)2 |P(X{z= xi}) pi 2. Falls X stetig mit zugehöriger Dichte f ist, so gilt: Z ∞ Var(X) = (t − µ)2 f (t) dt −∞ Die positive Quadratwurzel der Varianz heisst Standartabweichung von X. 38 y f(t) t E(X) − V(X) E(X) E(X) + V(X) Der Erwartungswert E(X) kann als Schwerpunkt der mit der Dichte belasteten reellen Zahlengerade interpretiert werden. Die Varianz misst die durchschnittliche Abweichung der Werte von X vom Erwartungswert E(X). Da sich die obige Dichte weit auf der Achse ausbreitet, wird Var(X) hier relativ gross sein. 39 Rechenregeln für Erwartungswert und Varianz Seien X, Y Zufallsvariablen und a, b, c reelle Zahlen. Dann gelten: 1. E(aX + bY + c) = a E(X) + b E(Y) + c 2. Var(aX + b) = a2 Var(X) 3. Verschiebungssatz der Varianz Var(X) = E(X2) − [E(X)]2 40 Aufgabe 3 Sei X die Augenzahl beim einmaligen Wurf eines Laplace-Würfels. Bestimmen Sie den Erwartungswert und die Standardabweichung. 41 Teil 6 Standardisierte Zufallsvariablen 42 Eine Zufallsvariable heisst standardisiert falls E(X) = 0 und Var(X) = 1 gilt. Satz Ist X eine beliebige Zufallsvariable, dann ist die Zufallsvariable X − E(X) Y = p Var(X) standardisiert. Y heisst die Standardisierung von X. 43 Aufgabe 4 Zeigen Sie, dass für jede Zufallsvariable X die neue Zufallsvariable X − E(X) Y = p V ar(X) standardisiert ist. 44 Teil 7 Die Ungleichung von Tschebyschev 45 Sei X eine beliebige Zufallsvariable. Dann gilt für jede positive Zahl c: Var(X) P( |X − E(X)| ≥ c ) ≤ c2 d.h. man kann relativ leicht die Wahrscheinlichkeit abschätzen, mit der X einen Wert ausserhalb des um den Erwartungswert symmetrischen Intervalls [E(X) − c, E(X) + c] annimmt. 46 Mit der Abkürzung µ = E(X): µ−c µ µ+ c Der blau gekennzeichnete Flächeninhalt ausserhalb des Intervalls [µ − c, µ + c] ist stets kleiner als der Wert Var(X) . c2 47 Alternative Ungleichung von Tschebyschev Sei X eine beliebige Zufallsvariable. Dann gilt für jede positive Zahl c: P( |X − E(X)| < c ) = 1 − P( |X − E(X)| ≥ c ) Var(X) ≥ 1− c2 Also Var(X) P( |X − E(X)| < c ) ≥ 1 − c2 48 Aufgabe 5 Von einer stetigen Zufallsvariablen X sei nur bekannt, dass sie den Erwartungswert 15 und die Varianz 4 besitzt. 1. Wie gross ist P (10 ≤ X ≤ 20) mindestens? 2. Bestimmen Sie das kleinste, symmetrisch um 15 gelegene Intervall der Form [15 − c, 15 + c], in welches mit einer Wahrscheinlichkeit von mindestens 0.9 die Werte von X fallen. 49 Anwendung der Ungleichung von Tschebyschev: kσ- Bereiche Frage: Was liefert uns die Ungleichung von Tschebyschev für spezielle Wahlen der Konstanten c? Abkürzungen: µ = E(X) σ 2 = Var(X) Wahlen von c: c = k · σ für k = 1, 2 und 3 Ungleichung: σ2 1 P( |X − µ| < k · σ ) ≥ 1 − 2 2 = 1 − 2 k ·σ k 50 1. k = 1, die 1 · σ-Regel P( |X − µ| < σ ) ≥ 1 − 1 = 0 2. k = 2, die 2 · σ-Regel 1 3 P( |X − µ| < 2 · σ ) ≥ 1 − = 4 4 3. k = 3, die 3 · σ-Regel 1 8 P( |X − µ| < 3 · σ ) ≥ 1 − = 9 9