Vorlesung 9b Rechnen mit Ereignissen und Indikatoren 1 {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. Wir nennen Z den Indikator des Ereignisses G und schreiben Z = IG. Es besteht die wichtige Beziehung E[IG] = P(G). 2 Beispiel: X sei eine S-wertige Zufallsvariable und B sei eine Teilmenge von S. Die Zufallsvariable 1B (X) ist der Indikator des Ereignisses {X ∈ B}: 1B (X) = I{X∈B} . Denn {1B (X) = 1} = {X ∈ B}. 3 Rechnen mit Indikatoren: Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator: {Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1} =: {Z1 = 1} ∩ {Z2 = 1} lies: . . . und . . . 4 Fazit: IG1 IG2 ist der Indikator des Ereignisses G1 ∩ G2 (lies: G1 und G2) IG1 IG2 = IG1∩G2 Den Indikator des Ereignisses “G1 und G2” bekommt man durch Multiplikation (oder äquivalent durch Bilden des Minimums) der Indikatoren von G1 und G2. 5 Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Durch Bilden des Maximums der Indikatoren von G1 und G2. Denn für Indikatoren gilt: {Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1} Also: IG1∪G2 = max(IG1 , IG2 ) 6 Notation: max(a, b) =: a ∨ b Bemerkung: Für a, b ∈ {0, 1} ist a ∨ b = a + b − ab. Also: IG1∪G2 = IG1 ∨ IG2 = IG1 + IG2 − IG1 · IG2 . 7 Insbesondere ist für eine S-wertige Zufallsvariable X und Teilmengen B1, B2 von S: {X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2} und 1B1∪B2 (X) = 1B1 (X) + 1B2 (X) − 1B1∩B2 (X). 8 Das sichere Ereignis hat den Indikator 1. Das unmögliche Ereignis hat den Indikator 0. Das Gegenereignis zum Ereignis G (Bezeichnung: Gc) hat den Indikator IGc = 1 − IG. 9 Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn (G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn) (beide Seiten sind genau dann 0, wenn mindestes ein zi = 1) und: 1 − z1 · · · zn = max((1 − z1), . . . , (1 − zn)) (beide Seiten sind genau dann 1, wenn mindestes ein zi = 0) 10 Die Ein-Ausschalt-Regel: P(G1 ∪ · · · ∪ Gn) = X i P(Gi)− X P(Gi ∩Gj )+· · ·+(−1)n+1P(G1 ∩· · ·∩Gn) i<j 11 Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist =1− X i I(G1∪···∪Gn)c = IGi + X i<j n Y (1 − IGi ) i=1 IGi IGj − · · · + (−1)nIG1 · · · IGn Daraus folgt: = P i IGi − P i<j IG1∪···∪Gn IGi IGj + · · · + (−1)n+1IG1 · · · IGn Die Behauptung folgt durch Bilden des Erwartungswerts. 12 Ein Wort zu Erwartungswert und Integral: Jede nichtnegative Zufallsvariable X ist Grenzwert einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von Linearkombinationen von Indikatoren: Setze Xn := n −1 n2X k=0 k2−nI{k2−n≤X<(k+1)2n } + nI{X≥n} 13 Die Xn sind diskret, also ist ihr Erwartungswert elementar definiert. Man kann nun definieren: E[X] := n→∞ lim E[Xn] Dafür kann man kann zeigen: 14 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 2) Der Erwartungswert erfüllt die “monotonen Konvergenz”: Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen Zufallsvariablen mit Xn → X gilt: E[Xn] → E[X] 3) Der Erwartungswert setzt die Wahrscheinlichkeit fort: E[IG] = P(G). 15 Fürs konkrete Rechnen erinnern wir an die folgende Regel, ohne sie hier zu beweisen: Ist X eine Zufallsvariable mit Dichte f (x) dx und h eine “messbare” nichtnegative Abbildung∗ definiert auf dem Zielbereich S von X, dann gilt: E[h(X)] = Z h(x) f (x) dx. S ∗ Nähres zu diesem Begriff in der Analysis III oder in einer weiterführenden StochastikVorlesung. Zur Beruhigung: Alle in der Praxis auftretenden Funktionen sind messbar! 16