Vorlesung 9b Rechnen mit Ereignissen und Indikatoren 1 {0, 1}-wertige Zufallsvariablen nennen wir auch 2 {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. Wir nennen Z den Indikator des Ereignisses G {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. Wir nennen Z den Indikator des Ereignisses G und schreiben {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. Wir nennen Z den Indikator des Ereignisses G und schreiben Z = IG. {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. Wir nennen Z den Indikator des Ereignisses G und schreiben Z = IG. Es besteht die wichtige Beziehung {0, 1}-wertige Zufallsvariablen nennen wir auch Indikatoren. Mit einem Indikator Z assoziieren wir das Ereignis G := {Z = 1}. Wir nennen Z den Indikator des Ereignisses G und schreiben Z = IG. Es besteht die wichtige Beziehung E[IG] = P(G). Beispiel: 3 Beispiel: X sei eine S-wertige Zufallsvariable und B sei eine Teilmenge von S. Beispiel: X sei eine S-wertige Zufallsvariable und B sei eine Teilmenge von S. Die Zufallsvariable 1B (X) ist der Indikator des Ereignisses {X ∈ B}: Beispiel: X sei eine S-wertige Zufallsvariable und B sei eine Teilmenge von S. Die Zufallsvariable 1B (X) ist der Indikator des Ereignisses {X ∈ B}: 1B (X) = I{X∈B} . Beispiel: X sei eine S-wertige Zufallsvariable und B sei eine Teilmenge von S. Die Zufallsvariable 1B (X) ist der Indikator des Ereignisses {X ∈ B}: 1B (X) = I{X∈B} . Denn Beispiel: X sei eine S-wertige Zufallsvariable und B sei eine Teilmenge von S. Die Zufallsvariable 1B (X) ist der Indikator des Ereignisses {X ∈ B}: 1B (X) = I{X∈B} . Denn {1B (X) = 1} = {X ∈ B}. Rechnen mit Indikatoren: 4 Rechnen mit Indikatoren: Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator: Rechnen mit Indikatoren: Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator: {Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1} Rechnen mit Indikatoren: Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator: {Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1} =: {Z1 = 1} ∩ {Z2 = 1} Rechnen mit Indikatoren: Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator: {Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1} =: {Z1 = 1} ∩ {Z2 = 1} lies: . . . und . . . Fazit: 5 Fazit: IG1 IG2 ist der Indikator des Ereignisses G1 ∩ G2 (lies: G1 und G2) Fazit: IG1 IG2 ist der Indikator des Ereignisses G1 ∩ G2 (lies: G1 und G2) IG1 IG2 = IG1∩G2 Fazit: IG1 IG2 ist der Indikator des Ereignisses G1 ∩ G2 (lies: G1 und G2) IG1 IG2 = IG1∩G2 Den Indikator des Ereignisses “G1 und G2” bekommt man durch Multiplikation (oder äquivalent durch Bilden des Minimums) der Indikatoren von G1 und G2. Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? 6 Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Durch Bilden des Maximums der Indikatoren von G1 und G2. Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Durch Bilden des Maximums der Indikatoren von G1 und G2. Denn für Indikatoren gilt: Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Durch Bilden des Maximums der Indikatoren von G1 und G2. Denn für Indikatoren gilt: {Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1} Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Durch Bilden des Maximums der Indikatoren von G1 und G2. Denn für Indikatoren gilt: {Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1} Also: Wie aber bekommt man den Indikator des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)? Antwort: Durch Bilden des Maximums der Indikatoren von G1 und G2. Denn für Indikatoren gilt: {Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1} Also: IG1∪G2 = max(IG1 , IG2 ) Notation: 7 Notation: max(a, b) =: a ∨ b Notation: max(a, b) =: a ∨ b Bemerkung: Notation: max(a, b) =: a ∨ b Bemerkung: Für a, b ∈ {0, 1} ist a ∨ b = a + b − ab. Notation: max(a, b) =: a ∨ b Bemerkung: Für a, b ∈ {0, 1} ist a ∨ b = a + b − ab. Also: Notation: max(a, b) =: a ∨ b Bemerkung: Für a, b ∈ {0, 1} ist a ∨ b = a + b − ab. Also: IG1∪G2 = IG1 ∨ IG2 Notation: max(a, b) =: a ∨ b Bemerkung: Für a, b ∈ {0, 1} ist a ∨ b = a + b − ab. Also: IG1∪G2 = IG1 ∨ IG2 = IG1 + IG2 − IG1 · IG2 . Insbesondere ist für eine S-wertige Zufallsvariable X und Teilmengen B1, B2 von S: 8 Insbesondere ist für eine S-wertige Zufallsvariable X und Teilmengen B1, B2 von S: {X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2} Insbesondere ist für eine S-wertige Zufallsvariable X und Teilmengen B1, B2 von S: {X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2} und Insbesondere ist für eine S-wertige Zufallsvariable X und Teilmengen B1, B2 von S: {X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2} und 1B1∪B2 (X) = 1B1 (X) + 1B2 (X) − 1B1∩B2 (X). Das sichere Ereignis hat den Indikator 1. 9 Das sichere Ereignis hat den Indikator 1. Das unmögliche Ereignis hat den Indikator 0. Das sichere Ereignis hat den Indikator 1. Das unmögliche Ereignis hat den Indikator 0. Das Gegenereignis zum Ereignis G Das sichere Ereignis hat den Indikator 1. Das unmögliche Ereignis hat den Indikator 0. Das Gegenereignis zum Ereignis G (Bezeichnung: Gc) Das sichere Ereignis hat den Indikator 1. Das unmögliche Ereignis hat den Indikator 0. Das Gegenereignis zum Ereignis G (Bezeichnung: Gc) hat den Indikator Das sichere Ereignis hat den Indikator 1. Das unmögliche Ereignis hat den Indikator 0. Das Gegenereignis zum Ereignis G (Bezeichnung: Gc) hat den Indikator IGc = 1 − IG. Es gelten die de Morgan’schen Regeln: 10 Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn (G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn (G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn) Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn (G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn) (beide Seiten sind genau dann 0, wenn mindestes ein zi = 1) Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn (G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn) (beide Seiten sind genau dann 0, wenn mindestes ein zi = 1) und: 1 − z1 · · · zn = max((1 − z1), . . . , (1 − zn)) Es gelten die de Morgan’schen Regeln: (G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn (G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn) (beide Seiten sind genau dann 0, wenn mindestes ein zi = 1) und: 1 − z1 · · · zn = max((1 − z1), . . . , (1 − zn)) (beide Seiten sind genau dann 1, wenn mindestes ein zi = 0) Die Ein-Ausschalt-Regel: 11 Die Ein-Ausschalt-Regel: P(G1 ∪ · · · ∪ Gn) = Die Ein-Ausschalt-Regel: P(G1 ∪ · · · ∪ Gn) = X i P(Gi)− X i<j P(Gi ∩Gj )+· · ·+(−1)n+1P(G1 ∩· · ·∩Gn) Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist 12 Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist I(G1∪···∪Gn)c = n Y (1 − IGi ) i=1 Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist =1− X i I(G1∪···∪Gn)c = IGi + X i<j n Y (1 − IGi ) i=1 IGi IGj − · · · + (−1)nIG1 · · · IGn Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist =1− X i I(G1∪···∪Gn)c = IGi + X i<j n Y (1 − IGi ) i=1 IGi IGj − · · · + (−1)nIG1 · · · IGn Daraus folgt: Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist =1− X i I(G1∪···∪Gn)c = IGi + X i<j n Y (1 − IGi ) i=1 IGi IGj − · · · + (−1)nIG1 · · · IGn Daraus folgt: IG1∪···∪Gn Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist =1− X i I(G1∪···∪Gn)c = IGi + X i<j n Y (1 − IGi ) i=1 IGi IGj − · · · + (−1)nIG1 · · · IGn Daraus folgt: = P i IGi − P i<j IG1∪···∪Gn IGi IGj + · · · + (−1)n+1IG1 · · · IGn Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist =1− X i I(G1∪···∪Gn)c = IGi + X i<j n Y (1 − IGi ) i=1 IGi IGj − · · · + (−1)nIG1 · · · IGn Daraus folgt: = P i IGi − P i<j IG1∪···∪Gn IGi IGj + · · · + (−1)n+1IG1 · · · IGn Die Behauptung folgt durch Bilden des Erwartungswerts. Ein Wort zu Erwartungswert und Integral: 13 Ein Wort zu Erwartungswert und Integral: Jede nichtnegative Zufallsvariable X ist Grenzwert einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von Ein Wort zu Erwartungswert und Integral: Jede nichtnegative Zufallsvariable X ist Grenzwert einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von Linearkombinationen von Indikatoren: Ein Wort zu Erwartungswert und Integral: Jede nichtnegative Zufallsvariable X ist Grenzwert einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von Linearkombinationen von Indikatoren: Setze Ein Wort zu Erwartungswert und Integral: Jede nichtnegative Zufallsvariable X ist Grenzwert einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von Linearkombinationen von Indikatoren: Setze Xn := n −1 n2X k=0 k2−nI{k2−n≤X<(k+1)2n } + nI{X≥n} Die Xn sind diskret, also ist ihr Erwartungswert elementar definiert. 14 Die Xn sind diskret, also ist ihr Erwartungswert elementar definiert. Man kann nun definieren: Die Xn sind diskret, also ist ihr Erwartungswert elementar definiert. Man kann nun definieren: E[X] := n→∞ lim E[Xn] Die Xn sind diskret, also ist ihr Erwartungswert elementar definiert. Man kann nun definieren: E[X] := n→∞ lim E[Xn] Dafür kann man kann zeigen: 1) Der Erwartungswert ist linear: 15 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 2) Der Erwartungswert erfüllt die “monotonen Konvergenz”: 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 2) Der Erwartungswert erfüllt die “monotonen Konvergenz”: Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen Zufallsvariablen mit Xn → X gilt: 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 2) Der Erwartungswert erfüllt die “monotonen Konvergenz”: Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen Zufallsvariablen mit Xn → X gilt: E[Xn] → E[X] 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 2) Der Erwartungswert erfüllt die “monotonen Konvergenz”: Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen Zufallsvariablen mit Xn → X gilt: E[Xn] → E[X] 3) Der Erwartungswert setzt die Wahrscheinlichkeit fort: 1) Der Erwartungswert ist linear: E[αX + βY ] = αE[X] + β E[Y ] 2) Der Erwartungswert erfüllt die “monotonen Konvergenz”: Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen Zufallsvariablen mit Xn → X gilt: E[Xn] → E[X] 3) Der Erwartungswert setzt die Wahrscheinlichkeit fort: E[IG] = P(G). Fürs konkrete Rechnen erinnern wir an die folgende Regel, 16 Fürs konkrete Rechnen erinnern wir an die folgende Regel, ohne sie hier zu beweisen: Fürs konkrete Rechnen erinnern wir an die folgende Regel, ohne sie hier zu beweisen: Ist X eine Zufallsvariable mit Dichte f (x) dx und h eine “messbare” nichtnegative Abbildung∗ definiert auf dem Zielbereich S von X, dann gilt: ∗ Nähres zu diesem Begriff in der Analysis III oder in einer weiterführenden StochastikVorlesung. Zur Beruhigung: Alle in der Praxis auftretenden Funktionen sind messbar! Fürs konkrete Rechnen erinnern wir an die folgende Regel, ohne sie hier zu beweisen: Ist X eine Zufallsvariable mit Dichte f (x) dx und h eine “messbare” nichtnegative Abbildung∗ definiert auf dem Zielbereich S von X, dann gilt: E[h(X)] = Z h(x) f (x) dx. S ∗ Nähres zu diesem Begriff in der Analysis III oder in einer weiterführenden StochastikVorlesung. Zur Beruhigung: Alle in der Praxis auftretenden Funktionen sind messbar!