Vorlesung 9b Rechnen mit Ereignissen und Indikatoren

Werbung
Vorlesung 9b
Rechnen mit Ereignissen
und Indikatoren
1
{0, 1}-wertige Zufallsvariablen nennen wir auch
2
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
Wir nennen Z den Indikator des Ereignisses G
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
Wir nennen Z den Indikator des Ereignisses G
und schreiben
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
Wir nennen Z den Indikator des Ereignisses G
und schreiben
Z = IG.
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
Wir nennen Z den Indikator des Ereignisses G
und schreiben
Z = IG.
Es besteht die wichtige Beziehung
{0, 1}-wertige Zufallsvariablen nennen wir auch
Indikatoren.
Mit einem Indikator Z assoziieren wir das Ereignis
G := {Z = 1}.
Wir nennen Z den Indikator des Ereignisses G
und schreiben
Z = IG.
Es besteht die wichtige Beziehung
E[IG] = P(G).
Beispiel:
3
Beispiel:
X sei eine S-wertige Zufallsvariable
und B sei eine Teilmenge von S.
Beispiel:
X sei eine S-wertige Zufallsvariable
und B sei eine Teilmenge von S.
Die Zufallsvariable 1B (X) ist
der Indikator des Ereignisses {X ∈ B}:
Beispiel:
X sei eine S-wertige Zufallsvariable
und B sei eine Teilmenge von S.
Die Zufallsvariable 1B (X) ist
der Indikator des Ereignisses {X ∈ B}:
1B (X) = I{X∈B} .
Beispiel:
X sei eine S-wertige Zufallsvariable
und B sei eine Teilmenge von S.
Die Zufallsvariable 1B (X) ist
der Indikator des Ereignisses {X ∈ B}:
1B (X) = I{X∈B} .
Denn
Beispiel:
X sei eine S-wertige Zufallsvariable
und B sei eine Teilmenge von S.
Die Zufallsvariable 1B (X) ist
der Indikator des Ereignisses {X ∈ B}:
1B (X) = I{X∈B} .
Denn
{1B (X) = 1} = {X ∈ B}.
Rechnen mit Indikatoren:
4
Rechnen mit Indikatoren:
Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator:
Rechnen mit Indikatoren:
Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator:
{Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1}
Rechnen mit Indikatoren:
Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator:
{Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1}
=: {Z1 = 1} ∩ {Z2 = 1}
Rechnen mit Indikatoren:
Mit Z1 und Z2 ist auch Z1 · Z2 ein Indikator:
{Z1 · Z2 = 1} = {Z1 = 1, Z2 = 1}
=: {Z1 = 1} ∩ {Z2 = 1}
lies: . . . und . . .
Fazit:
5
Fazit:
IG1 IG2 ist der Indikator
des Ereignisses G1 ∩ G2
(lies: G1 und G2)
Fazit:
IG1 IG2 ist der Indikator
des Ereignisses G1 ∩ G2
(lies: G1 und G2)
IG1 IG2 = IG1∩G2
Fazit:
IG1 IG2 ist der Indikator
des Ereignisses G1 ∩ G2
(lies: G1 und G2)
IG1 IG2 = IG1∩G2
Den Indikator des Ereignisses “G1 und G2” bekommt man
durch Multiplikation
(oder äquivalent durch Bilden des Minimums)
der Indikatoren von G1 und G2.
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
6
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Durch Bilden des Maximums der Indikatoren von G1 und G2.
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Durch Bilden des Maximums der Indikatoren von G1 und G2.
Denn für Indikatoren gilt:
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Durch Bilden des Maximums der Indikatoren von G1 und G2.
Denn für Indikatoren gilt:
{Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1}
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Durch Bilden des Maximums der Indikatoren von G1 und G2.
Denn für Indikatoren gilt:
{Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1}
Also:
Wie aber bekommt man den Indikator
des Ereignisses G1 ∪ G2 (lies “G1 oder G2”)?
Antwort:
Durch Bilden des Maximums der Indikatoren von G1 und G2.
Denn für Indikatoren gilt:
{Z1 = 1} oder {Z2 = 1} = {max(Z1, Z2) = 1}
Also:
IG1∪G2 = max(IG1 , IG2 )
Notation:
7
Notation:
max(a, b) =: a ∨ b
Notation:
max(a, b) =: a ∨ b
Bemerkung:
Notation:
max(a, b) =: a ∨ b
Bemerkung:
Für a, b ∈ {0, 1} ist
a ∨ b = a + b − ab.
Notation:
max(a, b) =: a ∨ b
Bemerkung:
Für a, b ∈ {0, 1} ist
a ∨ b = a + b − ab.
Also:
Notation:
max(a, b) =: a ∨ b
Bemerkung:
Für a, b ∈ {0, 1} ist
a ∨ b = a + b − ab.
Also:
IG1∪G2 = IG1 ∨ IG2
Notation:
max(a, b) =: a ∨ b
Bemerkung:
Für a, b ∈ {0, 1} ist
a ∨ b = a + b − ab.
Also:
IG1∪G2 = IG1 ∨ IG2
= IG1 + IG2 − IG1 · IG2 .
Insbesondere ist für eine S-wertige Zufallsvariable X
und Teilmengen B1, B2 von S:
8
Insbesondere ist für eine S-wertige Zufallsvariable X
und Teilmengen B1, B2 von S:
{X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2}
Insbesondere ist für eine S-wertige Zufallsvariable X
und Teilmengen B1, B2 von S:
{X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2}
und
Insbesondere ist für eine S-wertige Zufallsvariable X
und Teilmengen B1, B2 von S:
{X ∈ B1 ∪ B2} = {X ∈ B1} ∪ {X ∈ B2}
und
1B1∪B2 (X) = 1B1 (X) + 1B2 (X) − 1B1∩B2 (X).
Das sichere Ereignis hat den Indikator 1.
9
Das sichere Ereignis hat den Indikator 1.
Das unmögliche Ereignis hat den Indikator 0.
Das sichere Ereignis hat den Indikator 1.
Das unmögliche Ereignis hat den Indikator 0.
Das Gegenereignis zum Ereignis G
Das sichere Ereignis hat den Indikator 1.
Das unmögliche Ereignis hat den Indikator 0.
Das Gegenereignis zum Ereignis G
(Bezeichnung:
Gc)
Das sichere Ereignis hat den Indikator 1.
Das unmögliche Ereignis hat den Indikator 0.
Das Gegenereignis zum Ereignis G
(Bezeichnung:
Gc)
hat den Indikator
Das sichere Ereignis hat den Indikator 1.
Das unmögliche Ereignis hat den Indikator 0.
Das Gegenereignis zum Ereignis G
(Bezeichnung:
Gc)
hat den Indikator
IGc = 1 − IG.
Es gelten die de Morgan’schen Regeln:
10
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
(G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
(G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn
Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn)
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
(G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn
Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn)
(beide Seiten sind genau dann 0, wenn mindestes ein zi = 1)
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
(G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn
Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn)
(beide Seiten sind genau dann 0, wenn mindestes ein zi = 1)
und: 1 − z1 · · · zn = max((1 − z1), . . . , (1 − zn))
Es gelten die de Morgan’schen Regeln:
(G1 ∪ · · · ∪ Gn)c = Gc1 ∩ · · · ∩ Gcn
(G1 ∩ · · · ∩ Gn)c = Gc1 ∪ · · · ∪ Gcn
Denn: 1 − max(z1, . . . , zn) = (1 − z1) · · · (1 − zn)
(beide Seiten sind genau dann 0, wenn mindestes ein zi = 1)
und: 1 − z1 · · · zn = max((1 − z1), . . . , (1 − zn))
(beide Seiten sind genau dann 1, wenn mindestes ein zi = 0)
Die Ein-Ausschalt-Regel:
11
Die Ein-Ausschalt-Regel:
P(G1 ∪ · · · ∪ Gn) =
Die Ein-Ausschalt-Regel:
P(G1 ∪ · · · ∪ Gn) =
X
i
P(Gi)−
X
i<j
P(Gi ∩Gj )+· · ·+(−1)n+1P(G1 ∩· · ·∩Gn)
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
12
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
I(G1∪···∪Gn)c =
n
Y
(1 − IGi )
i=1
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
=1−
X
i
I(G1∪···∪Gn)c =
IGi +
X
i<j
n
Y
(1 − IGi )
i=1
IGi IGj − · · · + (−1)nIG1 · · · IGn
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
=1−
X
i
I(G1∪···∪Gn)c =
IGi +
X
i<j
n
Y
(1 − IGi )
i=1
IGi IGj − · · · + (−1)nIG1 · · · IGn
Daraus folgt:
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
=1−
X
i
I(G1∪···∪Gn)c =
IGi +
X
i<j
n
Y
(1 − IGi )
i=1
IGi IGj − · · · + (−1)nIG1 · · · IGn
Daraus folgt:
IG1∪···∪Gn
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
=1−
X
i
I(G1∪···∪Gn)c =
IGi +
X
i<j
n
Y
(1 − IGi )
i=1
IGi IGj − · · · + (−1)nIG1 · · · IGn
Daraus folgt:
=
P
i
IGi −
P
i<j
IG1∪···∪Gn
IGi IGj + · · · + (−1)n+1IG1 · · · IGn
Beweis der Ein-Ausschalt-Regel: Nach de Morgan ist
=1−
X
i
I(G1∪···∪Gn)c =
IGi +
X
i<j
n
Y
(1 − IGi )
i=1
IGi IGj − · · · + (−1)nIG1 · · · IGn
Daraus folgt:
=
P
i
IGi −
P
i<j
IG1∪···∪Gn
IGi IGj + · · · + (−1)n+1IG1 · · · IGn
Die Behauptung folgt durch Bilden des Erwartungswerts. Ein Wort zu Erwartungswert und Integral:
13
Ein Wort zu Erwartungswert und Integral:
Jede nichtnegative Zufallsvariable X ist Grenzwert
einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von
Ein Wort zu Erwartungswert und Integral:
Jede nichtnegative Zufallsvariable X ist Grenzwert
einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von
Linearkombinationen von Indikatoren:
Ein Wort zu Erwartungswert und Integral:
Jede nichtnegative Zufallsvariable X ist Grenzwert
einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von
Linearkombinationen von Indikatoren:
Setze
Ein Wort zu Erwartungswert und Integral:
Jede nichtnegative Zufallsvariable X ist Grenzwert
einer wachsenden Folge X1 ≤ X2 ≤ X3 ≤ · · · von
Linearkombinationen von Indikatoren:
Setze
Xn :=
n −1
n2X
k=0
k2−nI{k2−n≤X<(k+1)2n } + nI{X≥n}
Die Xn sind diskret,
also ist ihr Erwartungswert elementar definiert.
14
Die Xn sind diskret,
also ist ihr Erwartungswert elementar definiert.
Man kann nun definieren:
Die Xn sind diskret,
also ist ihr Erwartungswert elementar definiert.
Man kann nun definieren:
E[X] := n→∞
lim E[Xn]
Die Xn sind diskret,
also ist ihr Erwartungswert elementar definiert.
Man kann nun definieren:
E[X] := n→∞
lim E[Xn]
Dafür kann man kann zeigen:
1) Der Erwartungswert ist linear:
15
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
2) Der Erwartungswert erfüllt die “monotonen Konvergenz”:
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
2) Der Erwartungswert erfüllt die “monotonen Konvergenz”:
Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen
Zufallsvariablen mit Xn → X gilt:
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
2) Der Erwartungswert erfüllt die “monotonen Konvergenz”:
Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen
Zufallsvariablen mit Xn → X gilt:
E[Xn] → E[X]
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
2) Der Erwartungswert erfüllt die “monotonen Konvergenz”:
Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen
Zufallsvariablen mit Xn → X gilt:
E[Xn] → E[X]
3) Der Erwartungswert setzt die Wahrscheinlichkeit fort:
1) Der Erwartungswert ist linear:
E[αX + βY ] = αE[X] + β E[Y ]
2) Der Erwartungswert erfüllt die “monotonen Konvergenz”:
Für jede Folge X1 ≤ X2 ≤ . . . von nichtnegativen
Zufallsvariablen mit Xn → X gilt:
E[Xn] → E[X]
3) Der Erwartungswert setzt die Wahrscheinlichkeit fort:
E[IG] = P(G).
Fürs konkrete Rechnen erinnern wir an die folgende Regel,
16
Fürs konkrete Rechnen erinnern wir an die folgende Regel,
ohne sie hier zu beweisen:
Fürs konkrete Rechnen erinnern wir an die folgende Regel,
ohne sie hier zu beweisen:
Ist X eine Zufallsvariable mit Dichte f (x) dx
und h eine “messbare” nichtnegative Abbildung∗
definiert auf dem Zielbereich S von X,
dann gilt:
∗ Nähres
zu diesem Begriff in der Analysis III oder in einer weiterführenden StochastikVorlesung. Zur Beruhigung: Alle in der Praxis auftretenden Funktionen sind messbar!
Fürs konkrete Rechnen erinnern wir an die folgende Regel,
ohne sie hier zu beweisen:
Ist X eine Zufallsvariable mit Dichte f (x) dx
und h eine “messbare” nichtnegative Abbildung∗
definiert auf dem Zielbereich S von X,
dann gilt:
E[h(X)] =
Z
h(x) f (x) dx.
S
∗ Nähres
zu diesem Begriff in der Analysis III oder in einer weiterführenden StochastikVorlesung. Zur Beruhigung: Alle in der Praxis auftretenden Funktionen sind messbar!
Herunterladen