Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem Gewinnspiel: Hinter einer von drei Türen ist ein Preis, hinter den anderen beiden eine Ziege 1. Kandidat muss sich für eine Tür entscheiden 2. Moderator deckt zufällig eine der anderen Türen mit einer Ziege auf 3. Kandidat kann bei seiner Entscheidung bleiben oder die Tür wechseln Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem A: Kandidat gewinnt B: Kandidat entscheidet sich um Frage: P(A|B) = P(A|BC)? Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 2 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem A: Kandidat gewinnt B: Kandidat entscheidet sich um 1,2,3 1 Kandidat wählt: 1/3 Preis ist in Tür: Moderator deckt auf: 1-P(B) Kandidat wählt endgültig: 1 1 1/3 1/3 2 1/2 1/2 2 3 P(B) 1 1-P(B) 1 1 3 P(B) 3 1-P(B) 1 1 3 2 P(B) 2 1-P(B) 1 P(B) 3 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 3 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem A: Kandidat gewinnt B: Kandidat entscheidet sich um 1,2,3 Kandidat gewinnt 1 Kandidat wählt: 1/3 Preis ist in Tür: Moderator deckt auf: 1-P(B) Kandidat wählt endgültig: 1 1 1/3 1/3 2 1/2 1/2 2 3 P(B) 1 1-P(B) 1 1 3 P(B) 3 1-P(B) 1 1 3 2 P(B) 2 1-P(B) 1 P(B) 3 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 4 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem A: Kandidat gewinnt B: Kandidat entscheidet sich um 1,2,3 Kandidat gewinnt 1 Kandidat wählt: 1/3 Preis ist in Tür: Moderator deckt auf: 1-P(B) Kandidat wählt endgültig: 1 1 1/3 1/3 2 1/2 1/2 2 3 P(B) 1 1 1-P(B) 1 3 P(B) 1-P(B) 1 + 3 1 3 1 P( A ) = 3 ⋅ 2 ⋅ [1 − P(B)] 1 2 P(B) 2 1-P(B) 1 P(B) 3 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker + 1 1 ⋅ ⋅ [1 − P(B)] 3 2 1 1 ⋅ 1 ⋅ P(B) + ⋅ 1 ⋅ P(B) 3 3 2 2 = ⋅ [1 − P(B)] + ⋅ P(B) 6 3 = 1 P( B ) + 3 3 5 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem A: Kandidat gewinnt B: Kandidat entscheidet sich um 1,2,3 P(A) = 1 Kandidat wählt: 1/3 Preis ist in Tür: 1 Kandidat wählt endgültig: 1 1/3 1 1/2 1/2 2 3 1 3 1 1 3 1 1 Kandidat bleibt bei 1. Wahl und gewinnt 1/3 2 2 1 1 1 P( B ) + 3 3 P(B) = 0 ⇒ P( A| BC ) = 1 0 1 + = 3 3 3 1 1 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 6 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem A: Kandidat gewinnt B: Kandidat entscheidet sich um 1,2,3 P(A) = 1 Kandidat wählt: 1/3 Preis ist in Tür: 1 Kandidat wählt endgültig: 1/3 1/2 2 3 3 3 3 P(B) = 1 1 1 1 Kandidat entscheidet sich um und gewinnt 1/3 2 1/2 1 1 2 1 2 1 P( B ) + 3 3 1 ⇒ P( A| B ) = 1 1 2 + = 3 3 3 3 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker > 1 = P( A| BC ) 3 7 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Seien X und Y Zufallsvariablen mit Verteilungsfunktionen FX, FY und F(X,Y). Dann heißen X und Y stochastisch unabhängig, falls F(X,Y) (x, y) = FX (x) ⋅ F Y (y) für alle x, y ∈ ℜ. Die Zufallsvariablen X1,…,Xn heißen stochastisch unabhängig, falls n F (X1 ,...,X n ) (x 1 ,..., x n ) = ∏ FXi (x i ) für alle x 1 ,..., x n ∈ ℜ. i=1 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 8 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Seien X und Y Zufallsvariablen mit Verteilungsfunktionen FX, FY und F(X,Y). Dann heißen X und Y stochastisch unabhängig, falls F(X,Y) (x, y) = FX (x) ⋅ F Y (y) für alle x, y ∈ ℜ. ⇒ F(X,Y) (x, y) = P(A ∩ B) = P(A) ⋅ P(B) = FX (x) ⋅ F Y (y) mit A = {ω ∈ Ω | X(ω ) ≤ x} , B = {ω ∈ Ω | Y(ω ) ≤ y} Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 9 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Seien X und Y Zufallsvariablen mit Verteilungsfunktionen FX, FY und F(X,Y). Dann heißen X und Y stochastisch unabhängig, falls F(X,Y) (x, y) = FX (x) ⋅ F Y (y) für alle x, y ∈ ℜ. F(X,Y) diskret ⇒ p(x, y) = P(A ∩ B) = F(X,Y) (x i , y j ) − F(X,Y) (x i−1 , y j ) − F(X,Y) (x i , y j−1 ) + F(X,Y) (x i−1 , y j−1 ) = FX (x i )FY (y j ) − FX (x i−1 )FY (y j ) − FX (x i )FY (y j−1 ) + FX (x i−1 )FY (y j−1 ) [ ][ ] = FX (x i ) − FX (x i−1 ) ⋅ FY (y i ) − FY (y i−1 ) = p(x) ⋅ p(y) mit A = {ω ∈ Ω | X(ω ) = x i } , B = {ω ∈ Ω | Y(ω ) = y j } Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 10 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Seien X und Y Zufallsvariablen mit Verteilungsfunktionen FX, FY und F(X,Y). Dann heißen X und Y stochastisch unabhängig, falls F(X,Y) (x, y) = FX (x) ⋅ F Y (y) für alle x, y ∈ ℜ. F(X,Y) stetig ⇒ f (X,Y) ∂F(X,Y) (x, y) ∂[F X (x) ⋅ F Y (y)] ∂FX (x) ⋅ ∂F Y (y) X (x, y) = = = = f (x) ⋅ f Y (y) ∂x∂y ∂x∂y ∂x∂y Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 11 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Beispiel: Multinomialverteilung (X,Y) ~ Mult(2, 0.5, 0.5) ⇒ p XY (0,2) = 2 2 1 1 ⋅ 0.52 = ⋅ = 0!⋅2! 1⋅2 4 4 p XY (1,1) = 2 2 1 1 ⋅ 0.52 = ⋅ = 1!⋅1! 1 ⋅1 4 2 p XY (2,0) = 2 2 1 1 ⋅ 0.52 = ⋅ = 2!⋅0! 2 ⋅1 4 4 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 12 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Beispiel: Multinomialverteilung (X,Y) ~ Mult(2, 0.5, 0.5) p XY (0,2) = 1 4 p X (0) = p Y (0) = 1 4 p X (0) ⋅ p Y (2) = 1 1 1 1 ⋅ = ≠ = p XY (0,2) 4 4 16 4 p XY (1,1) = 1 2 p X (1) = p Y (1) = 1 2 1 1 1 1 p X (1) ⋅ p Y (1) = ⋅ = ≠ = p XY (1,1) 2 2 4 2 p XY (2,0) = 1 4 p X (2) = p Y (2) = 1 4 p X (2) ⋅ p Y (0) = 1 1 1 1 ⋅ = ≠ = p XY (2,0) 4 4 16 4 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 13 Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Zufallsvariablen Beispiel: Multinomialverteilung (X,Y) ~ Mult(2, 0.5, 0.5) p XY (0,2) = 1 4 p X (0) = p Y (0) = 1 4 p X (0) ⋅ p Y (2) = 1 1 1 1 ⋅ = ≠ = p XY (0,2) 4 4 16 4 p XY (1,1) = 1 2 p X (1) = p Y (1) = 1 2 1 1 1 1 p X (1) ⋅ p Y (1) = ⋅ = ≠ = p XY (1,1) 2 2 4 2 p XY (2,0) = 1 4 p X (2) = p Y (2) = 1 4 p X (2) ⋅ p Y (0) = 1 1 1 1 ⋅ = ≠ = p XY (2,0) 4 4 16 4 ⇒ X und Y sind stochastisch abhängig Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 14 Erwartungswert und Varianz Zuletzt: Abbildung von Ereignissen auf reelle Zahlen durch Zufallsvariablen und mathematische Formulierung ihrer Wahrscheinlichkeiten durch Verteilungsfunktionen X : Ω→ℜ ω a X(ω ) FX ∈ F FX : ℜ → [0,1] x a FX (x ) Jetzt: Charakterisierung der Verteilungen durch einzelne Parameter θ: F →ℜ FX a θ(FX ) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 15 Erwartungswert und Varianz Erinnerung Betrachtung der Population Ω={e1,…,eN} mit quantitativem Datensatz y={y1,…,yN} , y∈{x‘1,…,x‘J}=:TX ⇒ Falls P ein Wahrscheinlichkeitsmaß ist mit P({ei})=1/N, i=1,…,N, so sind die Werte FX(x) der theoretischen Verteilungsfunktion der Zufallsvariable X mit X({e})=y(e) für alle x ∈TX identisch mit denen der empirischen Verteilungsfunktion FN(x) von y. Entsprechend sind relative Häufigkeitsverteilung fj von y und Zähldichte p(x‘j) von X für alle j=1,…,J numerisch identisch. Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 16 Erwartungswert und Varianz Erinnerung Ω={e1,…,eN} X({e})=y(e) ⇒ y={y1,…,yN} TX={x‘1,…,x‘J} FN (x)= FX(x), x∈ℜ P({ei})=1/N , i=1,…,N fj=p(x‘j) , j=1,…,J J 1 N Für das arithmetische Mittel von y gilt: y = ∑ y i = ∑ fj ⋅ x' j N i=1 j=1 J J 1 N Der Wert E(X) : = y = ∑ y i = ∑ fj ⋅ x' j = ∑ p(x' j ) ⋅ x' j N i=1 j=1 j=1 charakterisiert unter den obigen Voraussetzungen also die Lage der Verteilung FX. Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 17 Erwartungswert und Varianz Diskrete Wahrscheinlichkeitsverteilungen Der Erwartungswert einer diskret verteilten Zufallsvariable X mit Zähldichte p(x) und Träger TX={x1,x2,…} ist definiert durch E(X) = J ∑ p(x ) ⋅ x j j , J ∈ ℵ ∪ {∞}. j=1 Die Varianz von X ist definiert durch ( ) J var(X) = E [X − E(X)] = ∑ p(x j ) ⋅ [x j − E(X)]2 , J ∈ ℵ ∪ {∞}. 2 j=1 Die Standardabweichung von X ist definiert durch var(X) . Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 18 Erwartungswert und Varianz Diskrete Wahrscheinlichkeitsverteilungen Ist h : ℜ → ℜ eine Funktion, so gilt für den Erwartungswert der transformierten Zufallsvar iable h(X) : E[h(X)] = J ∑ h(x ) ⋅ p(x ) , j j J ∈ ℵ ∪ {∞}. j=1 Für h : x a x ergibt sich für E[h(X)] damit der Erwartungswert von X und für h : x a [x − E(X)]2 die Varianz von X. Der Wert, der sich für h : x a x k ergibt, wird k - tes Moment von X genannt : mk (X) = E(X ) = k J ∑x k j ⋅ p(x j ) , J ∈ ℵ ∪ {∞}. j=1 Das k - te Moment der um den Erwartungswert zentrierten Zufallsvariable X − E(X) heißt k - tes zentrales Moment : ( ) ∑ [x μ k (X) = E [X − E(X)] = k J j − E(X)]k ⋅ p(x j ) , J ∈ ℵ ∪ {∞}. j=1 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 19 Erwartungswert und Varianz Stetige Wahrscheinlichkeitsverteilungen Approximation stetiger Dichtefunktion von X durch Zähldichte diskretisierter Zufallsvariable X ⋅ d /d + (X ⋅ d + 1)/d X (d) := 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 20 Erwartungswert und Varianz Stetige Wahrscheinlichkeitsverteilungen Approximation stetiger Dichtefunktion von X durch Zähldichte diskretisierter Zufallsvariable X ⋅ d /d + (X ⋅ d + 1)/d X (d) := 2 p(i+ 0.5)/d = P(X (d) = (i + 0.5)/d ) = (i+1)/d ∫ f(t)dt , i∈ Z i/d 1 = f(X (d) ) ⋅ + d (i+1)/d ∫ [f(t) − f(X (d) )]dt i/d 1442443 d > d0;i ⇒ ... ≤ ([i + 1]/d) − i/d) ⋅ [f([i + 1]/d) − f(i/d)] i/d (i+1)/d = [f([i + 1]/d) − f(i/d)] →∞ d → 0 d Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 21 Erwartungswert und Varianz Stetige Wahrscheinlichkeitsverteilungen Approximation stetiger Dichtefunktion von X durch Zähldichte diskretisierter Zufallsvariable X ⋅ d /d + (X ⋅ d + 1)/d X (d) := 2 f(X (d) ) (i+1)/d p(i+ 0.5)/d = + ∫ [f(t) − f(X (d) )]dt , d i/d i∈ Z Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 22 Erwartungswert und Varianz Stetige Wahrscheinlichkeitsverteilungen Approximation stetiger Dichtefunktion von X durch Zähldichte diskretisierter Zufallsvariable X ⋅ d /d + (X ⋅ d + 1)/d X (d) := 2 f(X (d) ) (i+1)/d p(i+ 0.5)/d = + ∫ [f(t) − f(X (d) )]dt , d i/d i∈ Z Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 23 Erwartungswert und Varianz Stetige Wahrscheinlichkeitsverteilungen Approximation stetiger Dichtefunktion von X durch Zähldichte diskretisierter Zufallsvariable X ⋅ d /d + (X ⋅ d + 1)/d X (d) := 2 f(X (d) ) (i+1)/d p(i+ 0.5)/d = + ∫ [f(t) − f(X (d) )]dt , d i/d i∈ Z E(X(d) ) = ∑ [(i + 0.5)/d] ⋅ p(i+ 0.5)/d i∈Z (i + 0.5) f((i + 0.5)/d) (i + 0.5) =∑ ⋅ +∑ ⋅ d d d i∈Z i∈Z d→∞ , s: =(i+ 0.5)/d (i+1)/d ∫ [f(t) − f((i + 0.5)/d)]dt i/d ∞ → ∫ s ⋅ f(s)ds =: E(X) −∞ Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 24 Erwartungswert und Varianz Stetige Wahrscheinlichkeitsverteilungen Der Erwartungswert einer stetig verteilten Zufallsvariable X mit Dichtefunktion f ist definiert durch ∞ ∫ t ⋅ f(t)dt . E(X) = −∞ Die Varianz von X ist definiert durch var(X) = E([X - E(X)] ) = 2 ∞ 2 [t − E(X)] ⋅ f(t)dt . ∫ −∞ Die Standardabweichung von X ist definiert durch var(X) . Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 25 Erwartungswert und Varianz Eigenschaften von Erwartungswerten Falls die folgenden Erwartungswerte von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (1) E(X + Y) = E(X) + E(Y) n n (3) E ∑ aiX i + b = ∑ aiE(Xi ) + b , a1 ,..., an , b ∈ ℜ i=1 i=1 (2) E(aX + b) = aE(X) + b , a, b ∈ ℜ (4) X und Y st.u. ⇒ E(XY) = E(X) ⋅ E(Y) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 26 Erwartungswert und Varianz Eigenschaften von Erwartungswerten Falls die folgenden Erwartungswerte von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (1) E(X + Y) = E(X) + E(Y) n n (3) E ∑ aiX i + b = ∑ aiE(Xi ) + b , a1 ,..., an , b ∈ ℜ i=1 i=1 (2) E(aX + b) = aE(X) + b , a, b ∈ ℜ (4) X und Y st.u. ⇒ E(XY) = E(X) ⋅ E(Y) Beweis : E(X + Y) = ∑ [x + y] ⋅ P(X + Y = x + y) = ∑ [X(ω ) + Y(ω )] ⋅ P({ω }) (x + y)∈TX + Y ω∈Ω = ∑ X(ω ) ⋅ P({ω }) + ∑ Y(ω ) ⋅ P({ω }) = ∑ x ⋅ P(X = x) + ∑ y ⋅ P(Y = y) = E(X) + E(Y) ω∈Ω ω∈Ω x∈TX y∈TY Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 27 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(X+Y) = E(X)+E(Y) gilt auch, wenn X und Y nicht stochastisch unabhängig sind! Beispiel Lotterie Unter n Losen sei ein Los mit Gewinn xg, der Rest Nieten. Ein Spieler kauft k Lose. Dann ist es für den erwarteten Gewinn unerheblich, ob mit oder ohne Zurücklegen gezogen wird. Ohne Zurücklegen k=1 Mit Zurücklegen Gewinnverteilung Gewinnverteilung Erwarteter Gewinn Erwarteter Gewinn xg Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker xg 28 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(X+Y) = E(X)+E(Y) gilt auch, wenn X und Y nicht stochastisch unabhängig sind! Beispiel Lotterie Unter n Losen sei ein Los mit Gewinn xg, der Rest Nieten. Ein Spieler kauft k Lose. Dann ist es für den erwarteten Gewinn unerheblich, ob mit oder ohne Zurücklegen gezogen wird. Ohne Zurücklegen k=2 Mit Zurücklegen Gewinnverteilung Gewinnverteilung Erwarteter Gewinn Erwarteter Gewinn xg Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker xg 29 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(X+Y) = E(X)+E(Y) gilt auch, wenn X und Y nicht stochastisch unabhängig sind! Beispiel Lotterie Unter n Losen sei ein Los mit Gewinn xg, der Rest Nieten. Ein Spieler kauft k Lose. Dann ist es für den erwarteten Gewinn unerheblich, ob mit oder ohne Zurücklegen gezogen wird. Ohne Zurücklegen k=3 Mit Zurücklegen Gewinnverteilung Gewinnverteilung Erwarteter Gewinn Erwarteter Gewinn xg Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker xg 30 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(X+Y) = E(X)+E(Y) gilt auch, wenn X und Y nicht stochastisch unabhängig sind! Beispiel Lotterie Unter n Losen sei ein Los mit Gewinn xg, der Rest Nieten. Ein Spieler kauft k Lose. Dann ist es für den erwarteten Gewinn unerheblich, ob mit oder ohne Zurücklegen gezogen wird. Ohne Zurücklegen k=4 Mit Zurücklegen Gewinnverteilung Gewinnverteilung Erwarteter Gewinn Erwarteter Gewinn xg Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker xg 31 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(X+Y) = E(X)+E(Y) gilt auch, wenn X und Y nicht stochastisch unabhängig sind! Beispiel Lotterie Unter n Losen sei ein Los mit Gewinn xg, der Rest Nieten. Ein Spieler kauft k Lose. Dann ist es für den erwarteten Gewinn unerheblich, ob mit oder ohne Zurücklegen gezogen wird. Ohne Zurücklegen k=n Mit Zurücklegen Gewinnverteilung Gewinnverteilung Erwarteter Gewinn Erwarteter Gewinn xg Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker xg 32 Erwartungswert und Varianz Eigenschaften von Erwartungswerten Falls die folgenden Erwartungswerte von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (1) E(X + Y) = E(X) + E(Y) n n (3) E ∑ aiX i + b = ∑ aiE(Xi ) + b , a1 ,..., an , b ∈ ℜ i=1 i=1 (2) E(aX + b) = aE(X) + b , a, b ∈ ℜ (4) X und Y st.u. ⇒ E(XY) = E(X) ⋅ E(Y) Beweis : E(aX + b) = ∞ ∞ ∞ −∞ −∞ −∞ ∫ (at + b) ⋅ f(t)dt = ∫ at ⋅ f(t)dt + ∫ b ⋅ f(t)dt ∞ ∞ −∞ −∞ = a ⋅ ∫ t ⋅ f(t)dt + b ⋅ ∫ f(t)dt = a ⋅ E(X) + b ⋅ 1 = aE(X) + b Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 33 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(aX + b) = aE(X) + b , a, b ∈ ℜ Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker E(X) 34 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(aX + b) = aE(X) + b , a, b ∈ ℜ E(aX) = aE(X) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 35 Erwartungswert und Varianz Eigenschaften von Erwartungswerten E(aX + b) = aE(X) + b , a, b ∈ ℜ E(aX+b) = aE(X)+b Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 36 Erwartungswert und Varianz Eigenschaften von Erwartungswerten Falls die folgenden Erwartungswerte von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (1) E(X + Y) = E(X) + E(Y) n n (3) E ∑ aiX i + b = ∑ aiE(Xi ) + b , a1 ,..., an , b ∈ ℜ i=1 i=1 (2) E(aX + b) = aE(X) + b , a, b ∈ ℜ (4) X und Y st.u. ⇒ E(XY) = E(X) ⋅ E(Y) n n Beweis : E ∑ aiX i + b = E ∑ aiX i + b = (1) i=1 (2) i=1 n ∑ E(a X ) + b i i i=1 = (2) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker n ∑ a E(X ) + b i i i=1 37 Erwartungswert und Varianz Eigenschaften von Erwartungswerten Falls die folgenden Erwartungswerte von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (1) E(X + Y) = E(X) + E(Y) n n (3) E ∑ aiX i + b = ∑ aiE(Xi ) + b , a1 ,..., an , b ∈ ℜ i=1 i=1 (2) E(aX + b) = aE(X) + b , a, b ∈ ℜ (4) X und Y st.u. ⇒ E(XY) = E(X) ⋅ E(Y) Beweis : X und Y st.u. ⇒ fXY (x, y) = fX (x) ⋅ fY (y) ⇒ E(XY) = ∞ ∞ ∫ ∫u⋅ v ⋅ f XY − ∞− ∞ (u, v) du dv = ∞ ∞ ∞ ∫ ∫ u ⋅ v ⋅ f (u) ⋅ f (v) du dv X − ∞− ∞ Y ∞ = ∫ u ⋅ fX (u)du ∫ v ⋅ fY (v) ⋅ dv = E(X) ⋅ E(Y) −∞ −∞ Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 38 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 39 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) a2 − a2 Beweis " ⇐": X ~ εa ⇒ var(X) = ∫ t ⋅ 1 ⋅ dt = =0 2 a a Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 40 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Beweis " ⇒": var(X) = 0 ⇔ ∞ 2 [t − E(X)] ⋅ f(t)dt = 0 ∫ −∞ ⇒ für alle t ∈ ℜ : [t − E(X)]2 = 0 oder f(t) = 0 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 41 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Beweis " ⇒": var(X) = 0 ⇒ für alle t ∈ ℜ : [t − E(X)]2 = 0 oder f(t) = 0 [t − E(X)]2 = 0 ⇔ t = E(X) ⇒ für alle t ≠ E(X) muss gelten : f(t) = 0 ∞ ⇒ f[E(X)] = 1 ∫ f(t)dt=1 −∞ Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 42 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Beweis " ⇒": var(X) = 0 ⇒ f[E(X)] = 1 ⇒ X ~ εE(X) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 43 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) ( Beweis : var(aX + b) = E [aX + b − E(aX + b)]2 ( ) ( ) ) = E(aX +b)=aE(X)+b ( ( E [aX + b − aE(X) − b]2 ) ) = E [a ⋅ (X − E[X])]2 = E a2 ⋅ [X − E(X)]2 = a2 ⋅ E [X − E(X)]2 = a2 var(X) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 44 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Beweis : X und Y st.u. ⇒ E(XY) = E(X)E(Y) ( ) ( ) ( Var(X + Y) = E [X + Y − E(X + Y)]2 = E [X + Y − E(X) − E(Y)]2 = E [(X − E(X) + (Y − E(Y)]2 ( ) ) = E [X − E(X)]2 + [Y − E(Y)]2 + 2[X − E(X)] ⋅ [Y − E(Y)] = Var(X) + Var(Y) + 2R R = E([X − E(X)] ⋅ [Y − E(Y)]) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 45 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Beweis : X und Y st.u. ⇒ E(XY) = E(X)E(Y) Var(X + Y) = Var(X) + Var(Y) + 2R R = E([X − E(X)] ⋅ [Y − E(Y)]) = E(XY − E(X)Y − XE(Y) + E(X)E(Y)) = E(XY) − E(X)E(Y) − E(X)E(Y) + E(X)E(Y) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker = E(XY)=E(X)E(Y) 0 46 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (A) var(X) ≥ 0 (D) X und Y st.u. ⇒ var(X + Y) = var(X) + var(Y) (B) var(X) = 0 ⇔ X ~ εa , a ∈ ℜ (E) X 1 ,..., X n st.u. , a1 ,..., an ∈ ℜ n n 2 ⇒ var ∑ aiX i + b = ∑ ai var(X i ) i=1 i=1 (C) var(aX + b) = a2 var(X) Beweis : X und Y st.u. ⇒ E(XY) = E(X)E(Y) Var(X + Y) = Var(X) + Var(Y) + 2R = Var(X) + Var(Y) R =0 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 47 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (F) Verschiebungssatz von Steiner : a ∈ ℜ ⇒ var(X) = E[(X − a)2 ] − [E(X) − a]2 , insb. a = 0 ⇒ var(X) = E(X 2 ) − E(X)2 (G) Tschebyscheff - Ungleichung P(| X − E(X)|> ε) ≤ var(X) , ε ∈ (0, ∞) ε2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 48 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (F) Verschiebungssatz von Steiner : a ∈ ℜ ⇒ var(X) = E[(X − a)2 ] − [E(X) − a]2 , insb. a = 0 ⇒ var(X) = E(X 2 ) − E(X)2 (G) Tschebyscheff - Ungleichung P(| X − E(X)|> ε) ≤ var(X) , ε ∈ (0, ∞) ε2 Beweis var(X) = E [X − E(X)]2 = E [(X − a) + (a − E[X])]2 = E (X − a)2 + 2(a − E[X])(X − a) + (a − E[X])2 ( ) ( ) [ ] = E[(X − a)2 ] + 2(a − E[X])(E[X] − a) + (a − E[X])2 = E[(X − a)2 ] − 2(a − E[X])2 + (a − E[X])2 = E[(X − a)2 ] − (a − E[X])2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 49 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (F) Verschiebungssatz von Steiner : a ∈ ℜ ⇒ var(X) = E[(X − a)2 ] − [E(X) − a]2 , insb. a = 0 ⇒ var(X) = E(X 2 ) − E(X)2 (G) Tschebyscheff - Ungleichung P(| X − E(X)|> ε) ≤ Beweis : var(X) = ∞ 2 [t − E(X)] fX (t)dt ∫ −∞ ≥2 [t −E(X)] fX (t)≥0 var(X) , ε ∈ (0, ∞) ε2 2 [t − E(X)] fX (t)dt ∫ t:[t −E(X)]2 > ε2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 50 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (F) Verschiebungssatz von Steiner : a ∈ ℜ ⇒ var(X) = E[(X − a)2 ] − [E(X) − a]2 , insb. a = 0 ⇒ var(X) = E(X 2 ) − E(X)2 (G) Tschebyscheff - Ungleichung P(| X − E(X)|> ε) ≤ ∞ Beweis : var(X) ≥ ∫∫[t[t−−E(X)] E(X)]22fXfX(t)dt (t)dt ≥ − ∞2 > ε2 t:[t −E(X)] ∞ var(X) , ε ∈ (0, ∞) ε2 E(X)+ ε 2 2 XX E(X)− ε 2 ≥2 ∫ ε2 fX (t)dt [t − = E(X)] ε f f (t)dt (t)dt = ε P[E(X) − ε ≤ X ≤ E(X) + ε] ∫ ∫ [X −E(X)] fX (t) ≥0 t:[t −E(X)]2 >ε2 ε2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 51 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (F) Verschiebungssatz von Steiner : a ∈ ℜ ⇒ var(X) = E[(X − a)2 ] − [E(X) − a]2 , insb. a = 0 ⇒ var(X) = E(X 2 ) − E(X)2 (G) Tschebyscheff - Ungleichung P(| X − E(X)|> ε) ≤ Beweis : var(X) ≥ ∞ 2 2 2 ε f (t)dt = ε ⋅ [t − E(X)] f (t)dt X X ∫ ∫ t− :[t∞−E(X)]2 > ε2 var(X) , ε ∈ (0, ∞) ε2 ∞ 2 2 εfX (t)dt ⋅ P[(t > E(X) + ε) ∪ (t < E(X) − ε)] ≥2∫ fX (t)dt∫ [t − = E(X)] 2 2 [X −E(X)] fX2(t)≥20 t:[t −E(X)] >ε [t −E(X)] >ε ε2 ⇔ t >E(X)+ ε ∪ t <E(X)− ε Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 52 Erwartungswert und Varianz Eigenschaften von Varianzen Falls die folgenden Varianzen von stetig oder diskret verteilten Zufallsvariablen existieren, so gelten folgende Eigenschaften: (F) Verschiebungssatz von Steiner : a ∈ ℜ ⇒ var(X) = E[(X − a)2 ] − [E(X) − a]2 , insb. a = 0 ⇒ var(X) = E(X 2 ) − E(X)2 (G) Tschebyscheff - Ungleichung P(| X − E(X)|> ε) ≤ ∞ 2 var(X) , ε ∈ (0, ∞) ε2 ∞ 2 2 > E(X) + ε) ∪ (t <≥2 E(X) − ∫ε)] ε2 ⋅ P[| X − E(X)|> ε] Beweis : var(X) ≥ ε∫ [t⋅ P[(t − E(X)] fX (t)dt [t −=E(X)] fX (t)dt −∞ [X −E(X)] fX (t)≥ 0 ε2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 53 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche P(| X − E(X)|> ε) ≤ ( var(X) , ε ∈ (0, ∞) 2 ε ) Setze ε := r var(X) ⇒ P | X − E(X)|> r var(X) ≤ 1 r2 ( ) ⇔ P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1 r2 54 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger 1 Unsicherheitsbereiche P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − 2 r ( ) Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 55 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche 1 ( ) P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − r2 Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. r=1 P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.6827 P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.8647 1-1/r2 = 0 N(5,1) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1-1/r2 = 0 Exp(0.5) 56 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche 1 ( ) P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − r2 Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.7287 r = 1.1 P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.8775 1-1/r2 ≈ 0.1736 N(5,1) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1-1/r2 ≈ 0.1736 Exp(0.5) 57 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche 1 ( ) P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − r2 Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.8664 r = 1.5 P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.9179 1-1/r2 ≈ 0.5556 N(5,1) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1-1/r2 ≈ 0.5556 Exp(0.5) 58 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche 1 ( ) P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − r2 Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.9545 r=2 P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.9502 1-1/r2 = 0.75 N(5,1) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1-1/r2 = 0.75 Exp(0.5) 59 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche 1 ( ) P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − r2 Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.9999 r=4 P[|X-E(X)|≤ ≤E(X)+r∙var(X)0.5] ≈ 0.9933 1-1/r2 = 0.9375 N(5,1) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 1-1/r2 = 0.9375 Exp(0.5) 60 Erwartungswert und Varianz Eigenschaften von Varianzen Anwendung der Tschebyscheff-Ungleichung: Abschätzung verteilungsunabhängiger Unsicherheitsbereiche 1 ( ) P E(X) − r var(X) ≤ X ≤ E(X) + r var(X) ≥ 1 − r2 Die Wahrscheinlichkeit, dass eine Realisation von X in einem symmetrischen Intervall der Breite von r Standardabweichungen fällt, beträgt also unabhängig von der Verteilung von X mindestens 1-1/r2. 1 − 1/r 2 P[|X-E(X)|<E(X)+r∙var(X)0.5] N( μ , σ 2 ) W( 1.4,2.6) R( a, b) Ber( 0.2) Bin(20, 0.2) Poi(10) r Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 61 Erwartungswert und Varianz Beispiel: Roulette 12P (1-12) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 12M (13-24) 12P (1-12) 62 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Für jedes Setzereignis A={a1,…,ak}, das k Zahlen enthält und auf das der Betrag eA gesetzt wird, wird im Fall, dass die Kugel bei einer der in A enthaltenen Zahlen anhält, der Betrag BA= eA∙(36/k) ausgezahlt. Der Grundraum des zugrundeliegenden Zufallsexperiment ist gegeben durch Ω={0,1,…,36}, da jede Zahl die gleiche Wahrscheinlichkeit hat, gilt P({i}) = 1/37, für i = 0,…,36. Damit berechnet sich die Erfolgswahrscheinlichkeit von Ereignis A = {a1,…,ak}, zu P(A) = k/37 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 63 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette Manque (1,...,18) A = {a1 ,..., ak } P(A) = k 37 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Damit ist die Zähldichte der Zufallsvariable BA mit BA(ω) = eA∙(36/k)∙I(ω∈A) gegeben durch pBA(x)=(1-k/37) ∙ I(x=0) + (k/37) ∙ I(x=eA ∙(36/k)) und die Zähldichte der Zufallsvariable Gewinn GA=BA-eA =eA ∙(36/k-1) durch pGA(x)=(1-k/37) ∙ I(x=-eA) + (k/37) ∙ I(x=eA∙(36/k-1)) Der Träger der Gewinnverteilung ist also gegeben durch TGA={-eA, eA∙(36/k-1)} Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 64 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette Manque (1,...,18) A = {a1 ,..., ak } P(A) = k 37 0 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = eA ⋅ (36/k − 1)) Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Somit gilt für den erwarteten Gewinn E(GA1): E(GA ) = ∑ x ⋅p x∈TGA GA (x) = (1 − k/37) ⋅ (−e A ) + (k/37) ⋅ e A ⋅ (36/k − 1) k 36 k e = 1 + eA ⋅ + eA ⋅ − eA ⋅ =− A 37 37 37 37 Nach häufig wiederholtem Setzen konvergiert der Gesamtverlust also gegen ein Siebenunddreißigstel des Gesamteinsatzes. Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 65 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 100 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 50 E(GA ) = − (e A /37) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Somit gilt für den erwarteten Gewinn E(GA1) von Spieler 1, der einen Betrag von 50 auf die vier Zahlen 25,26,28 und 29 setzt: E(GA1 ) = − (50/37) ≈ −1.351. Der erwartete Gewinn des Spielers 2, der den Betrag 100 auf die Zahl 9 gesetzt hat, lautet: E(GA2 ) = − (100/37) ≈ −2.703. Das Verhältnis der erwarteten Verluste von zwei Spielern hängt also nur vom Verhältnis ihrer Einsätze und nicht vom Ereignis, auf das sie setzen ab. Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 66 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) E(GA ) = − (e A /37) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Die Varianz var(GA) des Gewinns wird wie folgt ermittelt: Setze X = GA + e A ⇔ GA = e A (36/k) ⋅ X − e A ⇒ p X (x) = (1 − k/37) ⋅ I(x = 0) + (k/37) ⋅ I(x = 1) e A (36/k) ⇒ E(X) = 0 ⋅ (1 - k/37) + 1 ⋅ (k/37) = k/37 und E(X2 ) = 0 ⋅ (1 - k/37) + 1 ⋅ (k/37) = k/37 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 67 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) E(GA ) = − (e A /37) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Die Varianz var(GA) des Gewinns wird wie folgt ermittelt: Setze X = GA + e A ⇔ GA = e A (36/k) ⋅ X − e A ⇒ p X (x) = (1 − k/37) ⋅ I(x = 0) + (k/37) ⋅ I(x = 1) e A (36/k) 2 ⇒ E(X) = k/37 , E(X ) = k/37 2 k k k k ⇒ var(X) = E(X ) − E(X) = − = 1 − ⋅ 37 37 37 37 2 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 68 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) E(GA ) = − (e A /37) 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Die Varianz var(GA) des Gewinns wird wie folgt ermittelt: Setze X = GA + e A ⇔ GA = e A (36/k) ⋅ X − e A ⇒ p X (x) = (1 − k/37) ⋅ I(x = 0) + (k/37) ⋅ I(x = 1) e A (36/k) ⇒ E(X) = k/37 , E(X2 ) = k/37 k k ⇒ var(X) = 1 − ⋅ 37 37 2 k k 36 ⇒ var(GA ) = [e A ⋅ (36/k)] ⋅ var(X) = e A ⋅ ⋅ 1 − ⋅ k 37 37 2 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 2 69 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) E(GA ) = − (e A /37) 2 k k 36 var(GA ) = e A ⋅ ⋅ 1 − ⋅ k 37 37 2 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Im Gegensatz zum Erwartungswert hängt die Gewinnvarianz also offensichtlich sowohl vom Einsatz als auch von der Gewinnchance ab. eA=1 Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker k 70 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 100 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 50 E(GA ) = − (e A /37) 2 12D (13-24) k k 36 var(GA ) = e A ⋅ ⋅ 1 − ⋅ k 37 37 2 Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Somit gilt für die Gewinnvarianz var(GA1) von Spieler 1, der einen Betrag von 50 auf die vier Zahlen 25,26,28 und 29 setzt: Var(GA1 ) = 502 ⋅ 92 ⋅ (33/37) ⋅ (4/37) ≈ 139.732. Die Gewinnvarianz des Spielers 2, der den Betrag 100 auf die Zahl 9 gesetzt hat, lautet: Var(GA2 ) = 1002 ⋅ 362 ⋅ (36/37) ⋅ (1/37) ≈ 291.892. Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 71 Erwartungswert und Varianz 12P (1-12) Beispiel: Roulette 36 GA = e A ⋅ − 1 k pGA (x) = (1 − k/37) ⋅ I(x = −e A ) + (k/37) ⋅ I(x = e A ⋅ (36/k − 1)) Manque (1,...,18) 0 Impair (2∙i-1, i=1,…,18) Rouge (Rote Zahlen) 12M (13-24) 12D (13-24) 3 6 9 100 12 15 18 21 24 27 30 33 36 Col.36 (3∙i,i=1,…,12) 2 5 8 11 14 17 20 23 26 29 32 35 Col.35 (3∙i-1,i=1,…,12) 1 4 7 10 13 16 19 22 25 28 31 34 Col.34 (3∙i-2,i=1,…,12) 50 E(GA ) = − (e A /37) 2 k k 36 var(GA ) = e A ⋅ ⋅ 1 − ⋅ k 37 37 2 12D (13-24) Passe (19,…,36) Pair (2∙i, i=1,…,18) Noir (Schwarze Zahlen) 12M (13-24) 12P (1-12) Stammen beide Chips vom selben Spieler, so ist sein erwarteter Gewinn gegeben durch: E(GA ) = E(GA1 ) + E(GA2 ) ≈ −1.351 − 2.703 = −4.054. Da GA1 und GA2 nicht stochastisch unabhängig sind, kann die Formel var(X+Y)=var(X)+var(Y) nicht angewendet werden! Nils Raabe: Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker 72