Vorlesung 9b Rechnen mit Ereignissen und Indikatoren

Werbung
Vorlesung 9b
Rechnen mit Ereignissen
und Indikatoren
1
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
Wir nennen Z den Indikator des Ereignisses G
und schreiben
Z = IG.
Es besteht die wichtige Beziehung
E[IG] = P(G).
2
Beispiel:
X sei eine S-wertige Zufallsvariable
und B sei eine Teilmenge von S.
Die Zufallsvariable 1B (X) ist
der Indikator des Ereignisses {X ∈ B}:
1B (X) = I{X∈B} .
Denn
{1B (X) = 1} = {X ∈ B}.
3
Rechnen mit Indikatoren:
Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator:
{Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1}
=: {Z1 = 1} ∩ {Z2 = 1}
lies: . . . und . . .
4
Fazit:
IG1 IG2 ist der Indikator
des Ereignisses G1 ∩ G2
(lies: G1 und G2)
IG1 IG2 = IG1∩G2
Den Indikator des Ereignisses “G1 und G2” bekommt man
durch Multiplikation
(oder äquivalent durch Bilden des Minimums)
der Indikatoren von G1 und G2.
5
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Durch Bilden des Maximums der Indikatoren von G1 und G2.
Denn für Indikatoren gilt:
{Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1}
Also:
IG1∪G2 = max(IG1 , IG2 )
6
Notation:
max(a, b) =: a ∨ b
Bemerkung:
Für a, b ∈ {0, 1} ist
a ∨ b = a + b − ab.
Also:
IG1∪G2 = IG1 ∨ IG2
= IG1 + IG2 − IG1 · IG2 .
7
Insbesondere ist für eine S-wertige Zufallsvariable X
und Teilmengen B1, B2 von S:
{X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2}
und
1B1∪B2 (X) = 1B1 (X) + 1B2 (X) − 1B1∩B2 (X).
8
Das sichere Ereignis hat den Indikator 1.
Das unmögliche Ereignis hat den Indikator 0.
Das Gegenereignis zum Ereignis G
(Bezeichnung:
Gc)
hat den Indikator
IGc = 1 − IG.
9
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
(G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn
Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn)
(beide Seiten sind genau dann 0, wenn mindestes ein zi = 1)
und: 1 − z1 · · · zn = max((1 − z1), . . . , (1 − zn))
(beide Seiten sind genau dann 1, wenn mindestes ein zi = 0)
10
Die Ein-Ausschalt-Regel:
P(G1 ∪ · · · ∪ Gn) =
X
i
P(Gi)−
X
P(Gi ∩Gj )+· · ·+(−1)n+1P(G1 ∩· · ·∩Gn)
i<j
11
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
=1−
X
i
I(G1∪···∪Gn)c =
IGi +
X
i<j
n
Y
(1 − IGi )
i=1
IGi IGj − · · · + (−1)nIG1 · · · IGn
Daraus folgt:
=
P
i
IGi −
P
i<j
IG1∪···∪Gn
IGi IGj + · · · + (−1)n+1IG1 · · · IGn
Die Behauptung folgt durch Bilden des Erwartungswerts. 12
Ein Wort zu Erwartungswert und Integral:
Jede nichtnegative Zufallsvariable X ist Grenzwert
einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von
Linearkombinationen von Indikatoren:
Setze
Xn :=
n −1
n2X
k=0
k2−nI{k2−n≤X<(k+1)2n } + nI{X≥n}
13
Die Xn sind diskret,
also ist ihr Erwartungswert elementar definiert.
Man kann nun definieren:
E[X] := n→∞
lim E[Xn]
Dafür kann man kann zeigen:
14
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
2) Der Erwartungswert erfüllt die “monotonen Konvergenz”:
Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen
Zufallsvariablen mit Xn → X gilt:
E[Xn] → E[X]
3) Der Erwartungswert setzt die Wahrscheinlichkeit fort:
E[IG] = P(G).
15
Fürs konkrete Rechnen erinnern wir an die folgende Regel,
ohne sie hier zu beweisen:
Ist X eine Zufallsvariable mit Dichte f (x) dx
und h eine “messbare” nichtnegative Abbildung∗
definiert auf dem Zielbereich S von X,
dann gilt:
E[h(X)] =
Z
h(x) f (x) dx.
S
∗ Nähres
zu diesem Begriff in der Analysis III oder in einer weiterführenden StochastikVorlesung. Zur Beruhigung: Alle in der Praxis auftretenden Funktionen sind messbar!
16
Herunterladen