Vorlesung Mathematik für Informatiker 3 Wahrscheinlichkeitstheorie

Werbung
Vorlesung Mathematik für
Informatiker 3
Wahrscheinlichkeitstheorie
Prof. Dr. Linde
WS 2002/2003
Vorwort
Dieses Skript ist im Rahmen des Projekts „Vorlesungsskripte der Fakultät für Mathematik und
Informatik“ entstanden und wird im Rahmen dieses Projekts weiter betreut. Das Skript ist
nach bestem Wissen und Gewissen entstanden. Dennoch garantiert weder der auf der Titelseite genannte Dozent, noch die Mitglieder des Projekts für dessen Fehlerfreiheit. Für etwaige
Fehler und dessen Folgen wird von keiner der genannten Personen eine Haftung übernommen.
Es steht jeder Person frei, dieses Skript zu lesen, zu verändern oder auf anderen Medien verfügbar zu machen und es an andere zu verteilen, solange ein Verweis die Internetadresse des
Projekts http://uni-skripte.lug-jena.de/ enthalten ist.
Diese Ausgabe trägt die Versionsnummer 1700 und ist vom 21. Oktober 2008. Eine aktuellere
Ausgabe könnte auf der oben genannten Internetseite verfügbar sein.
Jeder ist dazu aufgerufen, Verbesserungen, Erweiterungen und Fehlerkorrekturen für das
Skript einzureichen bzw. zu melden oder selbst bzw. zu melden oder selbst einzupflegen – einfach eine E-Mail an die Mailingliste <[email protected]> senden. Weitere Informationen sind unter der oben genannten Internetadresse des Projekts verfügbar.
Hiermit möchten wir allen Personen, die an diesem Skript mitgewirkt haben, vielmals danken:
• Christian Raschka <[email protected]> (2003)
• Matti Bickel <[email protected]> (2005)
• Stefan Tilchner <[email protected]> (2008)
3
Inhaltsverzeichnis
1 Das Modell der Wahrscheinlichkeitstheorie
1.1 Der Wahrscheinlichkeitsraum . . . . . . . . . . . . . . .
1.1.1 Grundraum Ω . . . . . . . . . . . . . . . . . . .
1.1.2 Wahrscheinlichkeitsmaß und Ereignis-σ-Algebra
1.2 Einfache Eigenschaften von Wahrscheinlichkeitsmaßen .
1.3 Diskrete Wahrscheinlichkeitsmaße . . . . . . . . . . . .
1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße . . . . . .
1.5 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . .
1.6 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . .
1.7 Unabhängigkeit von Ereignissen . . . . . . . . . . . . .
1.8 Verteilungsfunktion . . . . . . . . . . . . . . . . . . . .
2 Zufällige Größen
2.1 Definition und Verteilungsgesetz .
2.2 Gemeinsame Verteilung . . . . . .
2.3 Unabhängigkeit zufälliger Größen
2.4 Transformation zufälliger Größen
2.5 Rechnen mit zufälligen Größen . .
2.6 Erwartungswert . . . . . . . . . .
2.7 Varianz und Kovarianz . . . . . .
3 Grenzwertsätze
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
7
10
11
13
18
27
30
36
.
.
.
.
.
.
.
39
39
43
47
50
55
61
68
76
1 Das Modell der
Wahrscheinlichkeitstheorie
1.1 Der Wahrscheinlichkeitsraum
WT = Mathematisches Modell zur Beschreibung von Versuchen mit zufälligem Ergebnis, von
Zufallsexperimenten und von zufälligen Erscheinungen.
• kein philosophischer Ansatz
• Modell vs. Realität? (nie 100%)
• Versuch mit zufälligem Ergebnis =
b bei identischer Versuchsanordnung sind verschiedene Ergebnisse möglich (nicht vorhersehbar)
• Zufallsexperiment =
b gezieltes Experiment und Aussagen über den wahren Sachverhalt
zu bekommen.
Beobachtung = Stichprobe (Statistisches Experiment)
• zum Beipiel Meinungsforschung, Gütekontrolle o.ä.
• zufällige Erscheinung =
b Dinge der realen Welt, die anscheinend völlig gesetzlos auftreten, zum Beispiel Anzahl Anrufe in einem Callcenter an einem Tag, Ausfallszeit eines
Bauteils, Anzahl der Verkehrsunfällen in einer Stadt pro Tag, Brände usw.
• Zwei Typische Beispiele
1. Würfeln:
– Einmaliges Würfeln:
Ergebnis, zufällige Zahl aus {1, . . . , 6}
– n-maliges Würfeln:
Ergebnis, zufälliger Vektor, Länge n, ω = (ω1 , . . . , ωn ) ωj ∈ {1, . . . , 6}
2. Lebensdauer eines Bauteils, Lebewesens
Zum Zeitpunkt 0 nehmen wir Bauteil in Betrieb
Zum zufälligen Zeitpunkt t > 0 Ausfall des Bauteils
Zufall: t > 0; Beobachten zufällige reelle zahl t ∈ [0, ∞).
5
1 Das Modell der Wahrscheinlichkeitstheorie
Axiom 1.1
Vorgänge, bei denen zufällige Erscheinungen auftreten, werden durch einen Wahrscheinlickeitsraum
!
Ω
,
|{z}
A
|{z}
,
P
|{z}
Grundraum Ereignis−σ−Algebra W ahrscheinlichkeitsmaß
beschrieben.
1.1.1 Grundraum Ω
Der Raum der Elementarereignisse Ω enhält (mindestens) alle möglichen Versuchsausgänge.
Aus mathematischen Gründen wählt man manchmal Ω größer.
Beispiel 1
1. Einmaliges Würfeln:
Ω = {1, . . . , 6} möglich wäre Ω = {1, 2, 3, . . . } oder Ω = R,
nicht möglich Ω = {1, . . . , 5}
2. n-maliges Würfeln:
Ω = {1, . . . , 6}n = {ω = (ω1 , . . . , ωn ) : ωj ∈ {1, . . . , 6}}
Beispiel 2
Urne mit weißen und schwarzen Kugeln
Man ziehe zwei Kugeln
Ω = {(s, s), (s, w), (w, s), (w, w)}
Interesse Anzahl weiße Kugeln: Ω = {0, 1, 2}
Beispiel 3
Würfeln bis erste Sechs
Registriere die Anzahl der Würfeldauer
Ω = {0, 1, 2, 3, . . . } = N0
Beispiel 4
Lebensdauer eines Bauteils
Ω = [0, ∞)
Definition 1.2
Eine Teilmenge A ⊆ Ω heißt Ereignis.
ω ∈ Ω wurde beobachtet:
• ω ∈ A, d.h. A ist eingetreten
• ω∈
/ A, d.h. A ist nicht eingetreten
6
1.1 Der Wahrscheinlichkeitsraum
Beispiel 5
Sei Ω = {1, . . . , 6} A = {2, 4, 6}
Würfel zeigt „Drei“ y A ist nicht eingetreten!
Die einpunktigen Teilmengen von Ω heißen Elementarereignisse!
Sei Ω = {1, . . . , 6}
Ereignisse: ∅, {1} , . . . , {6} , {1, 2} , {1, 3} , . . . , Ω
|
{z
}
Elementarereignisse
Beispiel 6
Lebensdauer eines Bauteils A = [0, ∞)
A ist eingetreten ⇔ Bauteil arbeitet mindestens 100 Zeiteinheiten ⇔ Zum Zeitpunkt 100 ist
es noch nicht defekt! Ein Elementarereignis {ω0 } tritt ein ⇔ ω0 beobachtet wird.
Eigenschaften
1. Ω tritt stets ein y sicheres Ereignis
2. ∅ tritt niemals ein y unmögliches Ereignis
3. A, B ⊆ Ω; A ∪ B tritt ein ⇔ A oder B tritt ein
4. A ∩ B tritt ein ⇔ A und B treten ein
5. AC (Komplement)= Ω\A tritt ein ⇔ A tritt nicht ein
Zusammenfassung:
Der Grundraum Ω besteht aus allen möglichen Versuchsausgängen. Die Teilmengen treten
ein, gdw. ein Element der Teilmenge beobachtet wird.
1.1.2 Wahrscheinlichkeitsmaß und
Ereignis-σ-Algebra
Der Zufall unterliegt gewissen Gesetzmäßigkeiten. Ereignisse treten nicht völlig willkürlich
ein, sondern mit gewisser Wahrscheinlichkeit.
Ziel:
Jedem Ereignis A ⊆ Ω die Wahrscheinlichkeit P(A) zuordnen.
0 ≥ P(A) ≥ 1
P(A) = 0, d.h. Wahrscheinlichkeit des Eintretens A ist Null.
P(A) = 1, d.h. A tritt sicher ein
Beispiel 1
Ω = {1, . . . , 6}, Würfel sei fair
A = {1} ⇒ P(A) = 61 A = {2, 5} ⇒ P(A) =
Was bedeutet P({2, 5}) = 31 ?
2
3
P(Ω) = 1
7
1 Das Modell der Wahrscheinlichkeitstheorie
Beispiel 2
Krankheit X: Überlebenschance ist
1
2
! Was bedeutet das?
P(A)=
b mathematische Abstraktion für den Grenzwert der relativen Häufigkeiten rn
n-unabhängige Versuche:
rn :=
] Versuche, bei denen A eingetreten ist
n
rn → P(A)
Bestimmung von P(A):
1. Theoretische Überlegung: (z.B. Symmetrie)
2. Statistische Untersuchung
3. Subjektive Annahme aufgrund von Erfahrungen
Ziel:
Abbildung P : R(Ω) → [0, 1], die jedem Ereignis A ⊆ Ω die Wahrscheinlichkeit seines
Eintretens zuordnet.
Welche Eigenschaft sollte P besitzen?
1. P(∅) = 0,
P(Ω) = 1
!
2. A ∩ B = ∅ → P(A ∪ B) = P(A) + P(B)S
(endliche Additivität)
P
⇒ A1 , . . . , An : Ai ∩ Aj = ∅; i 6= j ⇒ P( nj=1 Aj ) = nj=1 P(AJ )
endliche Additivität reicht nicht aus.
Beispiel 3
Würfeln bis erste Sechs
An := {Erste Sechs erscheint in (n + 1)-ten Versuch} ; n = 0, 1, . . .
Frage: Wahrscheinlichkeit von B := {erste Sechs nach ungerader Wurfzahl}
P(B) = P(
∞
[
!
A2n ) =
n=0
∞
X
P(A2n )
n=0
Definition 1.3
P : R(Ω) → [0, 1] heißt σ-additiv, wenn für A1 , A2 , . . . mit Ai ∩ Aj ∅; i 6= j, stets
P(
∞
[
j=1
folgt.
8
Aj ) =
∞
X
P(Aj )
1.1 Der Wahrscheinlichkeitsraum
Problem: Ω „groß“ z.B. Ω = R, dann existiert keine solche Abbildung Lösung: Teilsystem
A ⊆ R(Ω) und man definiert P(A) nunmehr nur für Mengen A ∈ A, d.h. nicht alle Ereignisse
besitzen eine Wahrscheinlichkeit ihres Eintretens.
A sollte die „wichtigen“ Teilmengen enthalten, z.B. alle Intervalle, Punkte usw.
Definition 1.4
A heißt σ-Algebra, wenn
1. ∅, Ω ∈ A
2. A ∈ A y AC ∈ A
3. A1 , A2 , · · · ∈ A y
S∞
j=1
Aj ∈ A
Eigenschaften:
T∞
1. A1 , A2 , · · · ∈ A y
j=1 Aj ∈ A
Beweis: A1 , A2 , . . . y AC
, AC , · · · ∈ A
S∞1 2
S∞ C C
( j=1 Aj ) ∈ A y
j=1 Aj ∈ A;
y
2. A, B ∈ A y A ∪ B ∈ A
Beweis: A1 := A, A2 := B, A3 := ∅, A4 := ∅, . . .
y A1 ∪ A2 = A ∪ B;
S∞
j=1
y
AC
j ∈ A
S∞
j=1
y
Aj ∈ A
Definition 1.5 (Wahrscheinlichkeitsraum(Ω, A, P))
Grundraum Ω 6= ∅
A ⊆ R(Ω) − σ-Algebra
P : A → [0, 1] mit P(∅) = 0, P(Ω) = 1, und P ist σ-additiv!
Beispiel 4
Modell des Würfelns:
({1, . . . , 6} , R, P)
](A)
P(A) =
6
Versuch mir zufälligem Ausgang;
Aufgabe : Man finde das passende Modell!
9
1 Das Modell der Wahrscheinlichkeitstheorie
1.2 Einfache Eigenschaften von
Wahrscheinlichkeitsmaßen
(Ω, A, P)
Satz 1.1
S
P
1. Sind A1 , . . . , An ∈ A disjunkt, so folgt P( nj Aj ) = nj P(Aj ) endliche Additivität
2. A ⊆ B y P(A) ≤ P(B) Monotonie
3. A ⊆ B y P(B\A) = P(B) − P(A)
4. P(AC ) = 1 − P(A)
S
5. A1 ⊆ A2 ⊆ . . . y P( ∞
j=1 Aj ) = limn→∞ P(An ) (Stetigkeit von unten)
T
6. A1 ⊇ A2 ⊇ . . . y P( ∞
j=1 Aj ) = limn→∞ P(An ) (Stetigkeit von oben)
Beweis:
Bn+1 := ∅; Bn+2 : ∅; . . . ;
1. B1 := A1 ; B2 := A2 ; . . . ; Bn := An ;
Bi ∩ Bj = ∅; i 6= j;
y σ − Add. :
∞
[
P(
Bj ) =
j=1
|
{z
P(
=
n
[
∞
X
P(Bj )
j=1
}
Aj ) =
j=1
|
n
X
j=1
{z
=
}
P(Aj ) + P(∅) + . . .
| {z }
2. P(B) = P(A) + P(B\A) ≥ P(A)
3. B = A ∪ (B\A) y(1)
| {z }
P(B) = P(A) + P(B\A)
disjunkt
siehe Abbildung 1.1
4. Ω = A ∪ AC
10
P(Ω) = 1 = P(A) + P(AC )
=0
1.3 Diskrete Wahrscheinlichkeitsmaße
.........................................
.........
.............
........
.......
.......
......
......
......
.
.
.
.
.....
...
.
.
.
.....
.
....
...
.
.....
.....
.
.
.
.... .........
....
.
.
........
..
.
.
.
.
.
.
..... ...
...
..... .....
...
.....
...
.....
........................
...
...
.....
.........
......
.
.
.
...
.
.
....
.....
..
...
...
..
.....
...
...
...
....
.
...
...
....
...
...
...
...
...
...
...
..
....
....
.
...
...
...
...
...
..
.
...
.
.
.
.
...
...
.
.
.
.
.
...
.
.
...
.
.
.
.
.....
...
.....
......
...
...
......
........
...
..........................
...
...
...
...
...
.
.
...
...
...
....
...
.....
....
.....
.....
.
.
.
.
.....
.
......
.....
.....
......
......
.......
.......
.........
........
.............
........................................
A
B\A
B
Abbildung 1.1: zu Satz 1.1 (3)
.........................................
.........
.............
........
.......
.......
......
......
......
.
.
.
.
.....
...
.
.
.
.....
.
...
.
.....
.
.
.
....
............................
.
.
.
.
....
.
.
.
.
.
.
.
.
.
...
........
.....
..
.
.
.
.
...
.
.
.
.
.
.
.
......
....
...
.
.
...
.
.
.
.
.
.....
...
...
.
.
..
.
.
.
.
.
...
...
...
..
.
.
...
.
.
.
...
...
...
....
.
.
...
.........................
.
...
.
..
.
.
...
.
.
...
.....
...
....
..
.
.
.
.
...
.
.
...
...
...
...
.
....
.
...
...
...
...
....
.
...
...
...
...
...
....
..
....
....
.
..
...
...
...
...
.
.
.
..
.
.
...
.
.
...
...
.
.
.
.
.
.
...
.
...
...
.
.
.
.
.
.
.....
..
.
.
...
.
...
.
.
.
.
.
.
.
.
.
.
......... ........
...
...
..........
...
...
...
...
..
...
...
...
..
...
.....
...
...
.....
.....
.
.
.
.
...
.
.
.
.
......
.
...
......
.......
...
...
.......
.........
....
...
........................................
.....
....
.....
.....
.
.
.
.
.....
.
......
.....
.....
......
......
.......
.......
.........
........
.............
........................................
A1
A2
A3
Abbildung 1.2: zu Satz 1.1 (5)
5. A0 := ∅; Bn := An \An−1
S∞ (Ringe), fürS∞n = 1, 2, . . .
y Bn sind disjunkt & n=1 Bn := A = j=1 Aj
P
P∞
P∞
(3)
P(A) = ∞
n=1 P(Bn ) =
n=1 P(An \An−1 ) y 
n=1 [P(An ) −
P(An−1 )]
= limn→∞
Pn
j=1
[P(Aj ) − P(Aj−1 )] = limn→∞ P(An ) − P(A0 ) = limn→∞ P(An )
| {z }
=
siehe Abbildung 1.2
T
C
6. A1 ⊇ A2 ⊇ . . .
A := ∞ n = 1An y AC
1 ⊆ A2 ⊆ . . .
de Morgan
T
S∞
C
C
C z}|{
= ( ∞
n=1 An ) = A
n=1 An
C
y(5) lim P(An ) = P(AC )
n→∞
| {z }
=
1 − limn→∞ P(An ) = 1 − P(A)
1.3 Diskrete Wahrscheinlichkeitsmaße
Experiment: endlich viele der höchstens abzählbar unendlich vielen Werte können auftreten:
y Ω = {ω1 , . . . , ωn } oder Ω = {ω1 , ω2 , . . .}
Beispiel 1
Würfel n-mal y Ω = {1, . . . , 6}n = {(x1 , . . . , xn ) : xj ∈ {1, . . . , 6}}
Beispiel 2
Würfel bis erste „Sechs“, Registriere Anzahl Würfe
y Ω = {0, 1, 2, . . .} ∪ {∞}
Man kann in beiden Fällen stets A = R(Ω) wählen!
11
1 Das Modell der Wahrscheinlichkeitstheorie
zu Beispiel 1:
Ω = {ω1 , . . . , ωn }
pj = P({ωj }), 1 ≤ j ≤ N.
n
n
n
[
X
X
pj ≥ 0; 1 = P(Ω) = P( ωj ) =
P({ωj }) =
pj
j=1
A⊆Ω
j=1
P(A) = P(
[
ωj ) =
wj ∈A
j=1
X
pj
{j:ωj ∈A}
PN
P ist Wahrscheinlickeitsmaß ⇒eindeutig (pj )N
j=1 mit pj ≥ 0;
j pj = 1
PN
Seien nunmehr pj ≥ mit j pj = 1 gegeben. Definieren nun:
Definition 1.6
P:
R(Ω) → [0, 1]
durch
P(A) :=
X
pj
→ P Wahrscheinlichkeitsmaß
wj ∈A
Ω = {ω1 , . . . , ωn }
{P : P Wahrscheinlichkeitsmaß auf Ω}
⇔
o
n
PN
p
=
1
:
p
≥
0;
(pj )N
j
j=1
j=1 j
P
„⇒“ pj := P({ωj })
“⇐“ P(A) := ωj ∈A pj
Beispiel 3
Ω = {1, . . . , 6}
Wahrscheinlichkeitsmaße auf Ω entsprechen eineindeutig Zahlen p1 , . . . , p6 ≥ 0;
p1 + . . . + p6 = 1
Würfel(fair):
p1 = . . . = p6 = 61
Würfel(unfair): p1 = p2 = p5 = 0; p3 = p4 = 14 ; p6 = 12
Frage:
P({1, 2, 3}) = 41
P({4, 6}) = 43
zu Beispiel 2:
Ω = {ω1 , ω2 , . . .}
pj ≥ 0;
j = P({ωj }), j = 1, 2, . . .
Pp∞
∞
P ⇒ (pj )j=1 ; pj ≥ 0; j=1 pj = 1
Seien nun (pj )∞
j=1 mit diesen Eigenschaften gegeben:
P(A) :=
X
ωj ∈A
y P ist ein Wahrscheinlichkeitsmaß auf R(Ω)
12
pj
P∞
j=1
pj = 1
1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße
Beispiel 4
P
1
Ω = {1, 2, . . .}
pj := 21j ; y pj ≥ 0; y ∞
j=1 pj = 1− 1 − 1 = 1
2
P
P(A) := j ∈ A 21j ; Erzeugendes
Wahrscheinlichkeitsmaß
P
1
1
1
A = {2, 4, 6, . . .}
P(A) = ∞
j=1 22j = 1− 1 − 1 = 3
4
P∞ 1
P({2, 3, 4, . . .}) = j=2 2j
besser: 1 − P({1}) = 1 − 12 = 12
Allgemeiner: Ω beliebig; D ⊆ Ω mit D = {ω1 , . . . , ωn } oder D = {ω1 , ω2 , . . .}, so daß
P(D) = 1. Dann heißt D diskret.
P(A) = P(A ∩ D) =
X
P(ωj )
ωj ∈A
Beispiel 5
Ω=R
D = {1, 2, 3, . . .}
Sei P(D) = 1 y Pdiskret.
1.4 Wichtigste diskrete
Wahrscheinlichkeitsmaße
a) Einpunktverteilung:
(
Ω beliebig; ω0 ∈ Ω fest.
P(A) =
1 :ω0 ∈ A
0 :ω0 ∈
/A
y P ist Einpunktverteilung in ω0 („Dirac“-Maß)
D := {ω0 } y P(D) = 1 diskretes WahrscheinlichkeitsmaßP({ω0 }) = 1; das heißt mit
Wahrscheinlichkeit von 1 tritt ω0 ein: Deterministisches Experiment
b) Zweipunktverteilung:
Ω = {0, 1}
P({1}) = p,
0≥p≥1
P({0}) = 1 − p
c) Klassische Verteilung bzw. Gleichverteilung
Ω = {ω1 , . . . , ωn }
Alle Elemtarereignisse sind gleichwahrscheinlich. y p1 = p2 = . . . = pn =
P
P
P(A) = ωj ∈A pj = N1 ωj ∈A 1 = N1 card(A) = ](A)
N
1
N
P nennt man Gleichverteilung auf Ω
Merkregel:
13
1 Das Modell der Wahrscheinlichkeitstheorie
P(A) =
Anzahl der günstigen Fälle für A ](A)
=
Anzahl aller möglichen Fälle
](Ω)
Beispiel 1
Werfe n-mal faire Münze (0,1) Ω = {0, 1}N Alle Folgen von 0 und 1 sind gleichwahrscheinlich
N−
= 22N = 12
P({ω}) = 21N A := {1. Wurf 0 } y ](A) = 2N −1 y P(A)
B := {Genau k-mal „Eins“ } ](B) = nk
y P(B) = 21N nk
Beispiel 2
6 aus 49 y Ω = {x1 , . . . , xn } ; xj ∈ {1, . . . , 49} ; xi 6= xj ; i 6= j
](Ω) = 49 · 48 · 46 · 45 · 44
Tippe 6 Zahlen t1 , . . . , t6
6!
A := {6 Richtige}
](A) = 6! y P(A) = 49·...·44
= 491 ≈ 7, 151 · 10−8
(6)
Beispiele aus der Physik
N Kästen, n Teilchen, n ≤ N
Verteile Teilchen auf die Kästen so, dass alle Verteilungen gleichwahrscheinlich sind.
Fall I: (Boltzmann-Statistik)
Teilchen tragen Namen (unterscheidbar)
Fall II: (Bose-Einstein-Statistik)
Teilchen sind anonym
Fall III: (Fermi-Dirac-Statistik)
Teilchen sind anonym und maximal 1 Teilchen pro Kasten
A := {In n vorgegebenen Kästen K1 , . . . , Kn befindet sich genau ein Teilchen}
B := {In keinem Kasten ist mehr als ein Teilchen}
Zu Fall
I: Boltzmann-Statistik (Teilchen
tragen Namen)
Ω = (a1 , . . . , an ); aj ∈ {1, . . . , N }
(a1 , . . . , an ) ist eingetreten ⇔ Teilchen k im Kasten ak (für k = 1, . . . , N )
](Ω) = N n
Günstig für A: Ist (K1 , . . . , Kn ) und alle Permutationen davon
](A) = n!
14
⇒
P(A) =
n!
Nn
1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße
Man kann
N
m
Kästen K1 , . . . , Kn vorher auswählen
y
N
N
n!
N!
P(B) =
P(A) =
=
n
(N − n)!N n
n
n
N
Zu Fall II: Bose-Einstein-Statistik (Teilchen anonym)
N Kästen ⇔ n − 1 Trennwände (2 äußere Trennwände fest)
Alle Anordnungen von N − 1 Trennwände und n Teilchen
Ω = {(ω1 , . . . , ωN +n−1 )}
n der ωj sind Teilchen, N-1 Trennwände
y ](Ω) = (N + n − 1)!
](A) = n!(N − 1)!
N !(N −1)!
N
y P(B) = n P(A) = (N −m)!(N +n−1)!
P(A) =
n!(N −1)!
(N +n−1)!
Zu Fall III: Fermi-Dirac-Statistik (Teilchen anonym, max. ein Teil pro Kasten)
Ω = (k1 , . . . , kn ) : 1 ≤ kj ≤ N ;
ki 6= kj ;
i 6= j
(k1 , . . . , kj ) tritt ein gdw. in den Kästen k1 , . . . , kj befindet sich genau ein Teilchen
](Ω) = N · (N − 1) · (N − 2) · . . . · (N − n + 1)
Günstig für A: (k1 , . . . , kn ) und alle Permutationen davon
y
n!
1
P(A) =
= N ;
N · . . . · (N − n + 1)
n
y
](A) = n!
N 1
=1
P(B) =
n Nn
d) Binominialverteilung:
Modell: In jedem Versuch ist das Resultat entweder Null oder Eins
Die Wahrscheinlichkeit einer „1“ ist: p ∈ [0, 1] und „0“ mit 1 − p
Es gibt n unabhängige Versuche. Wir suchen die Wahrscheinlichkeit P(k − mal1)
später z}|{ n k
P(k − mal1) =
p (1 − p)n−k
k
Ω = {0, . . . , n}
0 ≤ p ≤ 1;
n k
Bn,p ({k}) :=
p (1 − p)n−k ; k = 0, . . . , n
k
15
1 Das Modell der Wahrscheinlichkeitstheorie
zu zeigen: Bn,p ({k}) ≥ 0 (klar), bleibt zu zeigen:
n
X
Bn,p ({k}) = 1
k=0
Mit dem binomischen Satz gilt:
n X
n k
p (1 − p)n−k = (p + (1 − p))n = 1n = 1
k
k=0
y Bn,p ist Wahrscheinlichkeitsmaß auf Ω: Binominialverteilung mit Parametern n,p.
n = 1 y Ω({0, 1}) B1,p = 1 − p
B1,p ({1}) = p : Zweipunktverteilung
n≥4
A = {0, 1, 2} Bn,p (A) = (1 − p)n + np(1 − p)1·n + n2 p2 (1 − p)n−2
e) Hypergeometrische Verteilung
Lieferung von N-Geräten. Davon sind M ≤ N defekt. Entnehme aus der Lieferung
zufällig n ≤ N Geräte und prüfe sie. Gesucht ist die Wahrscheinlichkeit
P(Genau m der geprüften Geräte sind defekt). Insgesamt Nn Möglichkeiten, Geräte zu
entnehmen. Damit davon genau m defekt sind, m Geräte aus den M defekten entnehmen,
n-m Geräte aus den N-M nicht defekten.
M
N −M
Möglichkeiten
m
n−m
Ansatz:
M
m
P({m}) :=
N −M
n−m
N
n
;
m = 0, . . . , n
⇒ Hypergeometrische Verteilung mit Parametern N,M,n.
z. z.
n X
M
N −M
N
=
Übungsaufgabe!
m
n−m
N
m=0
y P ist Wahrscheinlichkeitsmaß auf Ω({0, . . . , n})
M
m
= 0 für m ≤ M
f) POISSON-Verteilung:
Starten mit Bn,p (n Versuche, Erfolgswahrscheinlichkeit p)
„n → ∞,
Gegeben: λ > 0
16
pn :=
λ
→
n n→∞
0
p → 0“
1.4 Wichtigste diskrete Wahrscheinlichkeitsmaße
Satz 1.2
Poissonscher-Grenzwertsatz
λ > 0,
k ∈ N0
lim Bn, λ ({k}) =
n→∞
n
λk −λ
e
k!
Beweis:
k
n
λ
λ
Bn, λ ({k}) =
(1 − )n−k
n
k
n
n
k
n!
λ
λ
λ
=
(1 − )n (1 − )−k
k
(n − k)!k! n
n
n
k
λ n(n − 1) · . . . · (n − k + 1)
λ
λ
=
(1 − )n (1 − )−k
k!
n
· . . . · n}
n
n
| · n {z
k−mal
k
→
n→∞
k
=
λ
·
k!
e−λ ·
1·
1
λ −λ
e
k!
Definition 1.7
Die Abbildung Pλ mit
Pλ ({k}) :=
λk −λ
e ;
k!
k = 0, 1, . . .
heißt Poisson-Verteilung mit Parameter λ > 0
Probe: Ω = N0
P
?
zu zeigen: ∞
k=0 Pλ ({k}) = 1
−λ
e
∞
X
λk
k=0
k!
= e−λ · eλ = 1
Bn, λ ({k}) → Pλ ({k})
n
n→∞
Poisson-Verteilung trifft auf, wenn viele Versuche und geringe Erfolgswahrscheinlichkeiten herrschen
• Telefonzentrale, viele Teilnehmer, Wahrscheinlichkeit, dass einzelner Kunde anruft ist sehr gering
⇒ ges. Zahl der Anrufe pro Tag ist Poisson-Verteilung
17
1 Das Modell der Wahrscheinlichkeitstheorie
• Anzahl der Hausbrände pro Jahr
Bemerkung: Bn,p ({k}) schlecht berechenbar für n groß, Pλ mit λ := np ist Approximation für Bn,p
Beispiel 1
500 Studenten, gesucht ist P(Genau k Studenten haben am 24.12. Geburtstag)
Exakt:
500−k
500 1 k 364
B500, 1 ({k}) =
365
k 365 365
Appr. Lösung: λ =
500
365
Pλ ({k}) =
500 k
− 500
365
365
k!
e
Beispiel 2
10.000 Würfe auf ein Ziel mit Trefferwahrscheinlichkeit
Pλ ({k}) =
1
,
1000
λ = 10
10k −10
e
k!
Pλ ({0}) = e−10 ≈ 0, 0000453 . . .
1.5 Stetige Verteilungen
Bauteil, Lebenszeit ist zufällig, wir registrieren den Zeitpunkt t > 0, an dem der Defekt
eintritt. t > 0 ist zuf. reelle Zahl
Ziel: diesen Vorgang zu beschreiben
Hier: Ω = [0, ∞)
Keinen Sinn zu fragen, nach der Wahrscheinlichkeit, dass der Ausfall zum Zeitpunkt
t0 > 0 (t0 = 2.000000000 . . .) eintritt. → wäre 0
Interesse: P(Ausfall im Zeitintervall [a,b])
Suchen: P([a, b]) = ?
Definition 1.8
Eine Riemann-integrierbare Funktion p :
gilt:
1) p(x) ≥ 0,
2)
R∞
−∞
18
x∈R
p(x) dx = 1
R → R heisst Wahrscheinlichkeitsdichte, wenn
1.5 Stetige Verteilungen
.
.....
... ..
............. .......................
........
.........
.......
.........
.......
........
.......
..........
.
.
.
.
.
.........
....
.
.
.
.
.
........
.
.
.
.
......
..
..
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
........
.....
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....................
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
....................
.....
......
.....
.....
.
.
.
.
.
... ... ... ..............................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.......... .........
........
........
.......
......
...........
......
P
W
a
b
Abbildung 1.3: Definition der Wahrscheinlichkeitsdichte
Definition 1.9
Die Wahrscheinlichkeit eines Intervalls [a, b] ist
Zb
p(x) dx
P([a, b]) :=
a
p Dichte des Wahrscheinlichkeitsmaß P
• P([a, b]) ≥ 0
• P(R) =
R∞
p(x) dx = 1
−∞
Problem: Ω = R, σ-Algebra ? P([a, b]) definiert. Was ist P(A) = ? für A ∈ A
Beispiel 1
p(x) :=
0
−λx
λe
Z∞
p(x) ≥ 0,
0
Zb
P([a, b]) =
: x≤0
: x>0
λe−λx
λ>0
∞
−λx dx = −e = 1
0
λe−λx dx = e−λa − e−λb
a
Diskrete Wahrscheinlichkeistmaße sind ungeeignet zur Beschreibung von Vorgängen, bei denen das Ergebnis eine reelle Zahl ist. Stetige Wahrscheinlichkeitsmaße:
19
1 Das Modell der Wahrscheinlichkeitstheorie
Ω=R
Suchen σ-Algebra A ⊆ R(R), so dass
P:
A → [0, 1]
Im Moment ist P nur auf {[a, b] : a ≤ b} definiert.
Aussage: Ω beliebig, E ⊆ R(Ω)
Dann existiert eine kleinste E-umfassende σ-Algebra A.
Beweis:





\
A0 :=
A : A ⊇ E, A ist σ-Algebra
{z
}


|
6=∅ ,da R(Ω)⊇E
man zeigt: A0 ist σ-Algebra; A0 ⊇ E
Ll(R) kleinste E-umfassende σ-Algebra.
Ein stetiges Wahrscheinlichkeitsmaß P lässt sich eindeutig von E auf L(R) fortsetzen. →
(R, Ll(R), P) mit P erzeugt von der Dichte p
Eigenschaften stetiger Wahrscheinlichkeitsmaße
1) Da p(x) ≥ 0 →
Rb
p(x) dx ≥ 0 → P([a, b]) ≥ 0
a
2) P(R) =
R∞
p(x) dx = 1
−∞
3) P({a}) =
Ra
p(x) dx = 0
a
4) P ((a, b)) = P([a, b]) − P({a}) − P({b}) = P([a, b])
5) Sei p(x) > 0 auf [a, b] →
Rb
p(x) dx > 0
a
6) Sei p(x) = 0 für x 6∈ [a, b] → P([a, b]) = 1
Wichtige Stetige Verteilungsgesetze
1.) Gleichverteilung auf I = (a, b) Experiment: Zufälliges Ziehen einer Zahl aus [a, b].
Wahrscheinlichkeit dass ein Intervall eintritt hängt nur von der Länge, nicht aber von
der Lage des Intervalls ab.
1
: x∈I
|I|
p(x) =
; |I| = b − a
0 : sonst
• p(x) = 0
20
1.5 Stetige Verteilungen
•
Z∞
Zb
p(x) dx =
−∞
1
p(x) dx =
|I|
Zb
dx =
b−a
=1
b−a
a
a
[α, β] ⊆ [a, b]
Zβ
P([α, β]) =
1
p(x) dx =
ba
α
→
Zβ
dx =
β−α
=1
b−a
α
Wahrscheinlichkeit ist proportional zur Länge von [a, b]
a α1
β1
α2
β2
b
Abbildung 1.4: Beispiel zur Gleichverteilung
Beispiel 1
Straßenbahn fährt alle 15 Minuten. man gehe zufällig zur Strassenbahnhaltestelle. Wie
groß ist die Wahrscheinlichkeit, mehr als 5 Minuten zu warten?
= 32
Wahrscheinlichkeit ist 10
15
1
.......
.... ....
10
15
5 min und länger
Abbildung 1.5: 2. Beispiel zur Gleichverteilung
2.) n-dimenstionale Gleichverteilung Sei p :
dann gilt:
Rn → R, Wahrscheinlichkeitsdichte,
• p(x) ≥ 0; x ∈ Rn
R
R∞
• 1 = Rn p(x) dx = −∞ · · · Int∞
−∞ p(x1 , . . . , xn ) dx1 , . . . , xn
A ⊂ Rn
Quader oder Kugel oder ähnliches
Z
P(A) := p(x) dx Wahrscheinlichkeitsmaß
A
21
1 Das Modell der Wahrscheinlichkeitstheorie
Beispiel 1 x1 + x2
p(x1 , x2 ) :=
0
2
p: R →R
: 0 ≤ x1 , x2 ≤ 1
: sonst
1) P(x1 , x2 ) ≥ 0
2)
Z∞ Z∞
Z1 Z1
p(x1 , x2 ) dx1 dx2 =
(x1 + x2 ) dx1 dx2
−∞−∞
0 0
Z1 =
1 2
x + x1 x2
2 1
0
Z1 =
1
+ x2
2
1
dx2
0
dx2
0
1 1
+ =1→p
2 2
=
A := {(x1 + x2 ) :
ist Wahrscheinlichkeitsmaß!
x1 ≤ x2 }
x2
.....
... ..
...
.....
..... ..... ...
.....
..
.....
...... .......
.....
.
... .....
.... ..... .........
.....
...
...
...
....
...
.
.
.
.
.
.
.
...
...
...
....
...
...
... .....
.....
...
.
...
...
.....
...
...
... .....
.....
...
...
...
...
...
.....
.
.
...
.
.
.
.
...
.
...
....
...
... .....
...
.....
...
.
...
...
.....
...
...
... ..
...
.....
...
...
.
.....
...
...
.
.
...
.
...
.
...
..
...
...
...
.....
...
...
...
...
.....
.
...
.....
...
.
..
.
.
.
...
.
...
...
..
....
.
.
...
.
.
.
.
.
...
...
...
...
.
.
.
.
.
...
...
....
...
...
...
.....
...
...
.....
...
.....
...
...
.....
.
...
.
...
.
.
..
....
...
.....
...
.....
...
.....
.....
.
.
.
.
.
.....
.....
.....
A
x1
Abbildung 1.6: Fläche A
Z
P(A) =
(x1 + x2 ) dx1 dx2
A
0≤x1 ,x2 ≤1
Zx1Zx2
=
(x1 + x2 ) dx1 dx2
0 0
Z1
=
3
0
22
x22
1
dx2 =
2
2
1.5 Stetige Verteilungen
Sei nun B ⊆ Rn Quader, Kugel oder ähnliches
Voln (B) n-dimensionale Volumen von B
(n = 1 → Länge; n = 2 → Fläche; n = 3 → Volumen . . .
p : Rn → R
1
: x∈B
Voln (B)
p(x) :=
0
: sonst
p Wahrscheinlichkeitsdichte?
0
.......................
................... ............................
...............
.......
.......
.........
.............
....
.......
......
............
....
.....
......
...........
.
.....
.
.......
....
.
.
.
.
.
.
.
.
.
.
.....
........
......
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
....
.
............
.
..
...
............... ................................
.
.
...
...
...
...
..
..
...
..
...
...
.
..
..
..
..
..
..
..
..
..
..
.
.
..
..
..
..
...
..
...
..
...
..
.
.
...
.
...
...
....
...
....
....
....
....
.....
.
.
.
.....
....
......
.....
......
......
.........
......
........................... .... ........................................... ....................
.......
.
..............
.
.
.
.
.
.
............
..
............
..........
.................
...........
.......... ............................
1
Voln (B)
B
Abbildung 1.7: 2-dimensionale Gleichverteilung
1) p(x) ≥ 0
R
R
2) Rn p(x) dx = B
1
Voln (B)
A⊆B
Z
P(A) =
dx =
Voln (B)
Voln (B)
=1
1
p(x) dx =
Voln (B)
Z
dx =
Voln (A)
Voln (B)
A
A
→ n-dimensionale Gleichverteilung auf B von (A ⊆ B)
Beispiel 1
Zwei Freunde treffen zufällig zwischen 12-13 Uhr auf dem Marktplatz ein. Jeder wartet
nach Eintreffen noch 20 Minuten, dann geht er. Wie groß ist die Wahrscheinlichkeit,
dass sich beide treffen? t1 sei Zeitpunkt Freund1 ; t2 Zeitpunkt Freund2 treffen ein.
(t1 , t2 ) gleichverteilt auf [12, 13] × [12, 13]
Treffen ⇔ t2 ≤ t1 + 31 oder t1 ≤ t2 + 13 ⇔ |t1 − t2 | ≤ 13
P(A) = 1 − 92 − 92 = 59
Beispiel 2
Kugel mit Radius R > 0
Gleichverteilung auf dieser Kugel
P(A) =
Vol3 (A)
4
πR3
3
23
1 Das Modell der Wahrscheinlichkeitstheorie
2
3
13
.....
.....
.....
.....
.
.
.
....
.....
.....
.....
.....
.
.
.
.
.....
....
.....
.....
.....
.
.
.
.
.....
.....
....
.....
.....
.....
.....
....
.
.....
.
.
.
.....
...
.
.
.
.
.
.
.
.
....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.
.
.
.
.
.
.
....
....
.....
.....
.....
.....
.....
.....
.....
.....
.
.
.
.
.....
.....
.....
.....
.....
.
.
.
....
.....
.....
.....
.....
.
.
.
.
..
.....
....
.....
.....
.....
1
3
2
3
A
12
1
3
13
Abbildung 1.8: Fläche für das Treffen
0<r<R
x2 + y 2 + z 2 ≤ r 2
A = (x, y, z) :
r3
P(A) = 3
R
⇒
Beispiel 3
Nadeltest von Buffon (~1740)
lineares Papier und Nadel der Länge a < 1
Gesucht ist die Wahrscheinlichkeit, dass die Nadel eine Gerade (Linie) schneidet.
0≤x≤1
− π2 ≤ θ ≤ + π2
θ ∈ [− π2 , π2 ]
x Mittelpunkt
θ Winkel
Zufälliges Werfen der Nadel bedeutet:
Wähle Punkt (x, θ) ∈ [0, 1] × [− π2 , π2 ] entsprechend der Gleichverteilung.
Nadel schneidet untere Gerade
a
⇔ x ≤ cos θ
2
Nadel schneidet untere Gerade
a
⇔ 1 − x ≤ cos θ
2
π
P(A) =
Vol2 (A)
1
= 2
π
π
Z2
− π2
zum Beispiel für a =
rn :=
24
π
4
→ P(A) =
π
a
a
2a
2
cos θ dθ = sin θ π =
2
π
π
−2
1
2
Anzahl der Schritte bei n Versuchen
n
(Relative Häufigkeit)
1.5 Stetige Verteilungen
rn →n→∞
Wolf (1850)
Smith (1855)
..
.
Lazzerini (1913)
Reinhard (1925)
→
π≈
2a
rn
a
0.8
0.6
..
.
n
5000
3204
..
.
Anzahl der Schritte
2532
1218
..
.
π
3.160
3.157
..
.
5
6
3408
2520
1808
859
3.142
3.179
0.5419
Tabelle 1.1: Versuche zur Bestimmung der Kreiszahl Pi
3.) Normalverteilung (Gauß-Verteilung) .
Satz 1.3
Z∞
x2
e− 2 dx =
√
2π
−∞
Beweis:
Z∞
a:=
x2
e− 2 dx
−∞

a2 = 
Z∞

x2
e− 2 dx 
−∞
Z∞ Z∞
=
Z∞

y2
e− 2 dy 
−∞
1
e− 2 (x
2 +y 2 )
dx dy
−∞ −∞
x = r cos θ
y = r sin θ
dx dy = r dr dθ
Z∞ Z2π 2
Z∞
r2
2
− r2
→a =
e r dr dθ = 2π re− 2 dr
0
0
h
= 2π −e
√
→ a = 2π
0<r<∞
0 ≤ θ < 2π
0
2
− r2
i∞
= 2π
0
25
1 Das Modell der Wahrscheinlichkeitstheorie
.........
... ....
..
...
..
..
...
.
.
...
..
..
..
.
..
..
.
.
.. ............................ ....
.
.......
..........
.
.........
....
.
.
.
... .......
... .
.. ........
..... ..
.
.......
..... ..
....
..... .... ...................................................
.
.
.
.
...........
.................. .................
..
.
.
.
.
.
.
.
.
.
.
.
..... ................ .........
....... .................
.
.
.
.........................
.
.
.
.
.
.
.
.
.....
......................... ...
....................................... .......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...............
.
...........
.
........
.....
..............................
...........
... ... ... .................................
........................ .......................
.................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................
.
.
.
... ... ..................................
...........
......
......
... ..
√1
2πσ
σ größer
a
←a→
σ kleiner
Abbildung 1.9: Normalverteilung
a, x ∈ R;
σ>0
1
2
− 2 (x−a)
1
Pa,σ2 (x) := √
e σ2
2πσ
Behauptung:
Pa,σ2 ist eine Wahrscheinlichkeitsdichte!
Pa,σ2 (x) ≥ 0 klar, da ex > 0; ∀x ∈ R
R∞ 1 − 12 (x−a)2
√
e σ2
2πσ
−∞
Substitution: y :=
x−a
σ
dx = σ dy
1
√
2πσ
Z∞
e
−∞
2
− y2
1
σ dy = √
2π
Z∞
y2
e− 2 dy = 1
−∞
|
{z
√
= 2π
}
Definition 1.10
N (a, σ 2 ) heißt das von Pa,σ2 erzeugte Wahrscheinlichkeitsmaß, d.h.
1
N (a, σ )([α, β]) = √
2πσ
2
Zβ
e
2
−1
2 (x−a)
σ2
dx
α
N (a, σ 2 ) Normalverteilung mit Erwartungswert a ∈ R und Varianz σ 2 > 0
x2
N (0, 1) heißt Standardnormalverteilung und hat die Dichte
scheinlichkeitsmaß!)
26
− 2
e√
2π
(Wichtigstes Wahr-
1.6 Bedingte Wahrscheinlichkeiten
4.) Exponentialverteilung
.
−λx
λe
λ > 0; p(x) :=
0
: x>0
: x≤0
Behauptung:
p ist eine Wahrscheinlichkeitsdichte:
1) p(x) ≥ 0 (klar)
2)
R∞
p(x) dx =
−∞
R∞
−λx
λe
0
dx = λ
h
e−λx
−λ
i∞
=1
0
Das erzeugte Wahrscheinlichkeitsmaß Eλ heißt Exponentialverteilung mit Parameter
λ>0
Zβ
Eλ ([α, β]) =
β
λe−λx dx = −e−λx α = e−λα − e−λβ
(α ≥ 0)
α
E − lambda wird verwendet zur Beschreibung von Lebensdauerverteilungen (ohne Altern).
Beispiel 1
Lebensdauer eines Bauteils sei Exponentialverteilt mit Parameter λ = 12 . Wie groß ist
die Wahrscheinlichkeit, dass das Bauteil zum Zeitpunkt t > o noch funktioniert?
A := {arbeitet zum Zeitpunkt t} = {Ausfall nach t} = (t, ∞)
t
P(A) = E 1 ((t, ∞)) = e− 2 − 0!
2
1.6 Bedingte Wahrscheinlichkeiten
Urne mit 4 weißen und 3 schwarzen Kugeln. Man ziehe 2 Kugeln ohne Zurücklegen. Ω =
{(s, s), (s, w), (w, s), (w, w)}
Wir suchen z.B. P({(s, w)}) = ?
A := {Erste Kugel schwarz} = {(s, s), (s, w)}
B := {Zweite Kugel weiß} = {(w, w), (s, w)}
Was ist berechenbar?
1) P(A) =
3
7
2) P(B) unter der Bedingung, dass A eingetreten ist = P(A|B)
P({(s, w)}) = P(A) · P(B|A) =
3 2
2
· =
7 3
7
27
1 Das Modell der Wahrscheinlichkeitstheorie
Definition 1.11
Sei (Ω, A, P) ein Wahrscheinlichkeitsraum; B ∈ A mit P(B) > 0, dann ist
P(A|B) :=
P(A ∩ B)
P(B)
die Wahrscheinlichkeit des Eintretens von A, unter der Bedingung, dass B bereits eingetreten
ist.
Beispiel 1
Eλ ([0, 5])|[2, ∞])
Wahrscheinlichkeit, dass ein Teilchen vor Erreichen des Alters 5 stirbt, unter der Bedingung,
mindestens 2 Jahre alt geworden zu sein:
e−2λ − e−5λ
Eλ ([0, 5] ∩ [2, ∞])
=
= 1 − e−3λ = Eλ ([0, 3])
Eλ ([2, ∞])
e−2λ
ist die Wahrscheinlichkeit, dass ein neugeborenes Teilchen höchstens 3 Jahre alt wird. (nicht
altert)
Satz 1.4
1) Die Zuordnung A → P(A|B) ist Wahrscheinlichkeitsmaß auf (Ω, A)
2) P(B|B) = 1;
P(B C |B) = 0
Beweis:
P(∅∩B)
=0
P(B)
P(Ω∩B)
= P(B) = 1
1) P(∅|B) =
P(Ω|B)
A1 , A2 , . . . disjunkt →
P(
∞
[
Aj |B) =
P(
S∞
Aj ∩ B)
P(
=
P(B)
j=1
j=1
P∞
=
j=1
S∞
j=1 (Aj
P(B)
∞
P(Aj ∩ B) X
=
P(Aj |B)
P(B)
j=1
→ σ − Addidivität → (1)
2)
P(B|B) =
P(B ∩ B)
=1
P(B)
P(B C ∩ B)
P(∅)
P(B |B) =
=
=0
P(B)
P(B)
C
28
∩ B))
1.6 Bedingte Wahrscheinlichkeiten
Beispiel 2
Gegeben sind zwei Urnen U1 und U2 . In der ersten Urnen befinden sich zwei weiße und eine
schwarze Kugel, in der zweiten eine weiße und zwei schwarze Kugeln, wobei die Wahrscheinlichkeit, dass die erste Urne gezogen wird gleich 31 , die der zweiten gleich 23 ist. Als erstes wird
eine Urne ausgewählt und dann eine Kugel aus dieser Urne gezogen. Gesucht ist die Wahrscheinlichkeit, dass die gezogene Kugel weiß ist.
Ω = {w1 , w2 , s1 , s2 } mit w1 ist aus U1
U1 = {w1 , s1 }
U2 = {s2 , w2 }
W = {w1 , w2 }
S = {s1 , s2 }
2
2
1
P(U2 ) = 3
P(W |U1 ) = 3
P(W |U2 ) = 31
P(U1 ) = 3
Wir suchen P(W )
Ω = U1 ∪ U2
P(W ) = P(U1 ) · P(W |U1 ) + P(U2 ) · P(W |U2 ) = 13 · 23 + 23 · 13 = 49
Beispiel 3
Nun umgekehrte Fragestellung:
Wir haben weiß beobachtet. Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel aus
Urne U1 stammt?
Wir suchen also die Wahrscheinlichkeit P(U1 |W )
Am Anfang vorgegebene Wahrscheinlichkeiten für U1 , U2
→ a priori Wahrscheinlichkeit (in unserem Fall 31 , 32 )
Versuch durchgeführt und weiß beobachtet:
P(U1 |W )
P(U2 |W )
→a posteriori Wahrscheinlichkeit
Allgemeine Situation:
n
S
Ω=
Bj (disjunktiv)
j=1
P(B1 ), . . . , P(Bn ) a priori Wahrscheinlichkeiten
A ∈ A eingetreten
P(B1 |A), . . . , P(Bn |A) a posteriori Wahrscheinlichkeiten
Satz 1.5 (Formel über die totale Wahrscheinlichkeit)
(Ω, A, P), B1 , . . . , Bn ∈ A
S
P(Bj ) > 0, disjunkt und ∞
j=1 Bj := Ω
P(A) =
n
X
P(Bj ) · P(A|Bj )
j=1
Beweis:
Pn
Pn
j=1 P(Bj ) · P(A|Bj ) =
j=1 P(Bj ) ·
P(A∩B)
P(Bj )
=
Pn
j=1
S
P(A ∩ Bj ) = P( nj=1 (A ∩ Bj ))
| {z }
disjunkt
29
1 Das Modell der Wahrscheinlichkeitstheorie
= P(A ∩
[n
Bj ) = P(A)
| {z }
j=1
nach Vorr.=Ω
Satz 1.6 (Formel von Bayes)
P(Bj ) · P(A|Bj )
P(Bj |A) = Pn
i=1 P(Bi ) · P(A|Bi )
Beweis: P
P(A) = nj=1 P(Bj )P(A|Bj )
P(Bj )P(A|Bj )
P(A)
→ Rechte Seite =
Bemerkungen:
=
P(Bj )·
P(A∩Bj )
P(Bj )
P(A)
=
P(A∩Bj )
P(A)
= P(Bj |A)
1) Kennt man bereits P(A), so vereinfacht sich obige Formel:
P(Bj |A) =
P(Bj )P(A|Bj )
P(A)
2) Ω = B ∪ B C
P(B|A) =
P(B)P(A|B)
P(B)P(A|B) + P(B C )P(A|B C )
Beispiel 4 (TBC-Test)
Person hat TBC → Test ist in 96% der Fälle positiv
Person hat kein TBC → Test ist in 94% der Fälle negativ
0.4% der Bevölkerung hat TBC.
Wir suchen Wahrscheinlichkeit, dass eine zufällige Person mit positiven Test wirklich TBC
hat?
A := {Test positiv}; B := {Person hat TBC} Wir suchen P(B|A)!
P(B) = 0.004 → P(B C ) = 0.996
P(A|B) = 0.96;
P(A|B C ) = 0.06
P(B)P(A|B)
0.004·0.96
= 0.06
P(B|A) = P(B)P(A|B)+P(B C )P(A|B C ) = 0.004·0.96+0.996·0.06
Nur 6% der positiv getesteten Personen haben TBC.
1.7 Unabhängigkeit von Ereignissen
Ziel: Mathematische Formulierung der Unabhängigkeit von Ereignissen
30
1.7 Unabhängigkeit von Ereignissen
Beispiel 5
2-maliges Würfeln
Ω = {(i, j) : 1 ≤ i, j ≤ 6}
P Gleichverteilung
A := {1. Wurf gerade Zahl}
B := {2. Wurf ist ≥ 3}
Intuitiv sind A und B unabhängig, d.h. Eintreten von B ist unabhängig davon, ob A eintritt;
!
P(B|A) = P(B)
Beispiel 6
Graswachstum und Mondphasen abhängig oder unabhängig?
P(Gras wächst pro Tag ≤ 1 cm | Vollmond) = P(Gras wächst pro Tag 1 cm)
B unabhängig von A, falls P(B|A) = P(B)
P(B) =
P(A ∩ B)
= P(B|A)
P(A)
→
P(A ∩ B) = P(A) · P(B)
Definition 1.12
(Ω, A, P) Wahrscheinlichkeitsraum, A, B ∈ A
A und B heißen stochastisch unabhängig, wenn gilt:
P(A ∩ B) = P(A) · P(B)
Satz 1.7
1) A unabhängig B ⇔ B unabhängig A
2) ∅, Ω sind unabhängig von jedem A ∈ A
3) A, B unabhängig→ A, B C unabhängig → AC , B unabhängig
Beweis:
1) P(A ∩ ∅) = P(∅) = 0 = P(∅) · P(A)
P(A ∩ Ω) = P(A) = 1 · P(A) = P(Ω) · P(A)
2) P(A ∩ B C ) = P(A) · P(B C ) = P(A)(1 − P(B)) = P(A) − P(A) · P(B) = P(A) −
P(A ∩ B) = P(A \ A ∩ B) = P(A ∩ B C )
Wir wissen: B C , A unabhängig → B C , AC unabhängig (analog zu obigem Beweis!)
Beispiel 7
Zahlenlotto 6 aus 49:
A := {1. gezogene Zahl ist gerade}
B := {2. gezogene Zahl ist ungerade}
!
P(A ∩ B) = P(A) · P(B) ?
P(1. Zahl gerade und 2. Zahl ungerade) =
24·25
49·48
=
25
98
31
1 Das Modell der Wahrscheinlichkeitstheorie
P(1. Zahl gerade) = 24
49
P(2. Zahl ungerade) = P(B|A) · P(A) + P(B|AC ) · P(AC ) =
24·25
P(A ∩ B) = 49·48
6= 24·25
= P(A) · P(B)
49·49
Beispiel 8
n-facher Münzwurf mit fairer Münze:
a := {1. Wurf 0}
B := {n. Wurf 1}
A := {(0, ω2 , . . . , ωn ) : ωj ∈ {0, 1}}
n−1
P(A) = 2 2n = 12 = P(B)
A ∩ B = {(0, ω2 , . . . , ωn−1 , 1)}
n−2
P(A ∩ B) = 2 2n = 41 = 12 · 21 = P(A) · P(B)
25
48
· 24
+ 24
· 25 = 2 · 24·25
=
49
48 49
48·49
25
49
→A und B unabhängig!
Unabhänigkeit von n-Ereignissen
Gegeben: A1 , . . . , An ∈ A
Wann heißen A1 , . . . , An unabhängig?
• Falls P(Ai ∩ Aj ) = P(Ai ) · P(Aj ); i 6= j → paarweise unabhängig
aber nicht P(A1 ∩ . . . ∩ An ) = P(A1 ) · . . . · P(An )
• P(A1 ∩ . . . ∩ An ) = P(A1 ) · . . . · P(An ) → folgt nicht die paarweise Unabhängigkeit!
• beides ungeeignet, müsste vereint werden!
Definition 1.13
A1 , . . . , Aj ∈ A heißen unabhängig,wenn für alle 1 ≤ i1 < . . . < im ≤ n und m = 2, . . . , n
gilt:
P(Ai1 ∩ . . . ∩ Aim ) = P(Ai1 ) · . . . · P(Aim )
Beispiel 9 (n=3)
.
m = 2 i1 = 1 i2 = 2
i1 = 1 i2 = 3
i1 = 2 i2 = 3
P(A1 ∩ A2 ) = P(A1 ) · P(A2 )
P(A1 ∩ A3 ) = P(A1 ) · P(A3 )
P(A2 ∩ A3 ) = P(A2 ) · P(A3 )
m = 3 i1 = 1 i2 = 2 i3 = 3 P(A1 ∩ A2 ∩ A3 ) = P(A1 ) · P(A2 ) · P(A3 )





(*)




(*) alle müssen erfüllt sein, keine folgt aus der anderen!
Beispiel 10
2-faches Würfeln:
A1 := {1. Würfel gerade}
A2 := {2. Würfel ungerade}
A3 := {beide Würfe gerade oder beide Würfe ungerade}
P(A1 ) = P(A2 ) = 21
A3 = {(1, 1), (1, 3), (1, 5), (3, 1), (3, 3), (3, 5), (5, 1), (5, 3), (5, 5), (2, 2), (2, 4), . . .}
32
1.7 Unabhängigkeit von Ereignissen
P(A3 ) = 18
= 21
36
P(A1 ∩ A3 ) = P(A1 ) · P(A3 )
A1 ∩ A3 = {(2, 2), (2, 4), (2, 6, (4, 2), (4, 4), (4, 6), (6, 2), (6, 4), (6, 6)}
→ P(A1 ∩ A3 ) = 14 = 12 · 21 o.k.
analog A1 ∩ A2 und A2 ∩ A3 →paarweise unabhängig!
P(A1 ∩ A2 ∩ A3 ) = 0
6=
P(A1 ) · P(A2 ) · P(A3 ) = 81
→ A1 , A2 , A3 nicht unabhängig!
Beispiel 11 (Veranschaulichung)
Maschine M, n Bauteile, B1 , . . . , Bn Ausfall unabhängig!
p(Bj fällt aus) = pj
0 ≤ pj ≤ 1
1) M fällt aus, wenn mindestens ein Bauteil ausfällt
P(M
Qn fällt nicht aus) = P(B1 , . . . , Bn fällt nicht aus) = P(B1 nicht) · . . . · P(Bn nicht) =
j=1 (1 − pj )
Q
→ P(M fällt aus) = 1 − nj=1 (1 −
Qpj )
pj nahe bei 1:→ 1 − pj nahe 0→ nahe 0 → P(M fällt aus) ≈ 1
2) Maschine fällt aus, wenn alle Bauteile ausfallen
P(M fällt
Qnaus) = P(B1 fällt aus, . . . , Bn fällt aus) = P(B1 fällt aus) · . . . · P(Bn fällt
pj
aus) = j=1Q
pj nahe 0→ nahe 0 → P(M fällt aus) ≈ 0
Bernoulli-Schema
Man betrachte ein stochastiches Experiment, bei dem es nur die zwei Ergebnisse Erfolg (=1)
und Mißerfolg (=0) gibt. Die Wahrscheinlichkeit für Erfolg sei p ∈ [0, 1] und entsprechend
ergibt sich die Wahrscheinlichkeit für Mißerfolg als 1 − p. Für n unabhängige Experimente
(Idee/Gedanke von Bernoulli) erhält man so einen Vektor ω = (ω1 , . . . , ωn ), wobei die ωj ∈
{0, 1} sind, und Ω = {0, 1}n
A = R(Ω)
Beispiel 12 (Bernoulli-Schema für p = 21 )
Legt man für P die Gleichverteilung zugrunde, also p = 12 , so bekommt man für die Wahrscheinlichkeit des Ereignisses ω
P({ω}) =
1
2n
Beispiel 13 (Bernoulli-Schema für p > 12 )
Ist eines der Teilergebnisse wahrscheinlicher als das andere (p > 12 ), wird das Ereignis
(1, . . . , 1) wahrscheinlicher als das Ereignis (0, . . . , 0) und P ist keine Gleichverteilung!
33
1 Das Modell der Wahrscheinlichkeitstheorie
Bei n = 4 Schritten ist beispielsweise P (0, 1, 0, 1) = p2 (−p)2 oder P (0, 0, 0, 1) = p(1 −
p)3 . Allgemein gilt:
k
n−k
p (1 − p)
k = ] {j : ωj = 1} bzw. k =
= P(A)
n
X
wi
i
Ω = {0, 1}n
0≤p≤1
k
P({ω}) = p (1 − p)n−k
ω = (ω1 , . . . , ωn ), k = ω1 + . . . + ωn
Probe: P ist Wahrscheinlichkeitsmaß
1) pk (1 − p)n−k ≥ 0
2)
X
!
p({ω}) = 1 =
ω∈R
n
X
X
k=0 ω:ω1 +,...,+ωn =k
p({ω})
| {z }
pk (1−p)k−n
n
X
pk (1 − p)n−k ] {ω : ω1 +, . . . , +ωn = k}
|
{z
}
k=0
n
(k )
n
X n
=
pk (1 − p)n−k = (p + (1 − p))n = 1
k
k=0
=
A := {n-ter Versuch = 1} ⊆ {0, 1}n
A = {(ω1 , . . . , ωn−1 , 1) : ωj ∈ {0, 1}}
P(A) =
X
P({ω}) =
ω∈A
n
X
n
X
X
pk (1 − p)n−k
k=1 ω∈A;ω1 +...+ωn =k
pk (1 − p)n−k · ] {ω ∈ A : ω1 + . . . + ωn = k}
|
{z
}
k=1
(n−1
)
k−1
n n X
X
n − 1 n−k
n − 1 k−1
n−1−k
=
p (1 − p)
=p
p (1 − p)n−1−(k−1)
k
k
k=1
k=1
n−1 X
n−1 k
=p
p (1 − p)n−1−k
k
k=0
=
= p(p + (1 − p))n−1 = p = P(A)
0
0
0
0
P(ω1 =1, . . . , ωn =1) = P(ω1 =1) · . . . · P(ωn =1)
unabhängig von Ereignissen, deren Eintreten nur vom j-ten Versuch abhängt.
34
1.7 Unabhängigkeit von Ereignissen
Beispiel 14
.
A = {2. Versuch 0}
B = {4. Versuch 1}
C = {7. Versuch 0}


unabhängig

A := {genauP
k mal Erfolg}
pk (1 − p)n−k =
P(A) =
n
k
k
p (1 − p)n−k
ω1 +...+ωn =k
Binominialverteilung Bn,p beschreibt folgendes Experiment:
Führe n unabhängige Versuche durch: 1 mit p und 0 mit 1-p:
Bn,p ({k}) = P(Genau k-mal Erfolg)
Geometrische Verteilungen
Eins erscheint mit Wahrscheinlichkeit p, Null mit Wahrscheinlichkeit 1 − p
Gesucht ist P(Im (k + 1)-ten Versuch erscheint erstmals eine Eins)
Wir führen Hilfsraum ein:
Ω = {ω := (ω1 , ω2 , . . .), ωj ∈ {0, 1}}
A = {ω : ω1 = a1 , . . . , ωn = an , ωn+1 beliebig}
für vorgegebene a1 , . . . , an ∈ {0, 1}
P(A) := pk (1 − p)n−k
k = a1 + . . . + an
P lässt sich eindeutig zu einem Wahrscheinlichkeitsmaß auf der von solchen Mengen A erzeugten σ-Algebra fortsetzen (ohne Beweis!)
Spezialfall:
A = {ω : ω1 = 0, . . . , ωn = 0, ωn+1 = 1} = {im (n + 1)-ten Versuch das erste Mal Eins}
→ P(A) = p(1 − p)n
Definition 1.14
P({n}) = P(im (n + 1). Versuch erstmals Erfolg)
0 < p < 1, Ω = N0 = {0, 1, 2, . . .}
Das Wahrscheinlichkeitsmaß von P auf R(N0 ) mit:
P({n}) := p(1 − p)n
heisst geometrische Verteilung mit Parameter p.
35
1 Das Modell der Wahrscheinlichkeitstheorie
Problem:
P
?
zu zeigen: ∞
n=0 P({n}) = 1
Beweis:
P
P∞
∞
n
n
n=0 p(1 − p) = p
n=0 (1 − p) = p ·
1
1−(1−p)
=1
→ Wahrscheinlichkeitsmaß
Beispiel 1
Wahrscheinlichkeit, dass beim Würfeln die 6 erstmals im 10. Versuch erscheint:
p = 16 ; 1 − p = 65
P({9}) = 16 · ( 56 )9 ≈ 0.0323 . . .
Beispiel 2 (Roulette)
P(Im 88. Versuch erstmals rot) = P({87})
→ P({87}) = 18
· ( 19
)87 ≈ 3.19951 · 10−26
37
37
p=
18
;
37
1−p=
19
37
1.8 Verteilungsfunktion
P sei ein Wahrscheinlichkeitsmaß auf R (besser Ll(R)), stetig oder diskret
Definition 1.15
Die Funktion F : R → R mit
F (t) := P((−∞, t]),
t∈R
heisst Verteilungsfunktion des Wahrscheinlichkeitsmaßes P.
Beispiel 1
P({0}) = 1 − p
P({1}) = p
1
1−p
......
... ..
......
...........
F (t)
1
Abbildung 1.10: Verteilungsfunktion zu Beispiel 1
36
1.8 Verteilungsfunktion
1
.
.....
... ..
.................................... ........ ..... ..... ....
................
.......
......
.....
.
.
.
.
....
....
.....
....
....
.
.
.
....
...
.....
.....
......
.
.
.
.
.
.
.
... ... ... ..... .......................
1
2
...
= N ((−∞, t])
...........
......
F (t)
Abbildung 1.11: Verteilungsfunktion zu Beispiel 2
Beispiel 2
P = N (0, 1) (Standardnormalverteilung)
Rt − x2
F (t) = P((−∞, t]) = √12π
e 2 dx
−∞
Satz 1.8
Sei F die Verteilungsfunktion eines Wahrscheinlichkeitsmaßes
1) F ist monoton wachsend
2) F (−∞) := lim F (t) = 0;
t→−∞
F (∞) := lim F (t) = 1
t→∞
3) F ist rechtsseitig stetig
Beweis:
1) t ≤ s → (−∞, t] ⊆ (−∞, s]
1)
Monotonie der W.-Maße
→
P((−∞, t]) ≤ P((−∞, s])
→
T
2) tn & −∞, An := (−∞, tn ] → A1 ⊇ A2 ⊇ . . . und ∞
n=1 An = ∅
→ P(An ) →n→∞ P(∅) = 0 → → F (t) →t→−∞S
0
tn % ∞, An := (−∞, tn ] → A1 ⊆ A2 ⊆ . . . und ∞
n=1 An = (−∞, ∞)
→ P(An ) →n→∞ P(R) = 1 → F (∞) = 1
3) zu zeigen: tn & t → F (tn ) → F (t)
T
tn & t, An := (−∞, tn ] A1 ⊇ A2 ⊇ . . . und ∞
n=1 An = (−∞, t]
→ P(An ) →n→∞ P(−∞, t] = F (t)
Ohne Beweis:
Sei F : R → R mit 1),2),3). Dann existiert ein eindeutig bestimmtes Wahrscheinlichkeitsmaß P auf R mit F (t) = P((−∞, t])
37
1 Das Modell der Wahrscheinlichkeitstheorie
Weitere Eigenschaften
F (b) − F (a) = P((−∞, b]) − P((−∞, a]) = P((−∞, b] \ (−∞, a]) = P((a, b))
2) P({t0 }) = lim P((t0 − n1 , t0 ]) = lim F (t0 ) − F (t0 − n1 ) = F (t0 ) − F (t0 − 0)
1) b > a
n→∞
n→∞
F ist stetig in t0 ⇔ F (t0 − 0) = F (t0 ) ⇔ P({t0 }) = 0
F hat einen Sprung der Höhe h > 0 ⇔ P({t0 }) = h
Wenn P stetig → F stetig
Wenn P diskret → F hat nur Sprünge (dazwischen konstant)
Beispiel 3
P Poisson-Verteilung
P({n}) =
λn −λ
e
n!
.
.....
... ..
2
e−λ(1 + λ + λ2 )
e−λ + λe−λ
e−λ
......
...........
F (t)
Abbildung 1.12: Verteilungsfunktion zu Beispiel 3

Beispiel 4  0 : −∞ < t < 1
1
:
1≤t<2
Sei F (t) =
 4
1 :
t≥2
P([ 12 , 4]) = 1
P([ 12 , 32 ) = 14
P([ 32 , ∞)) =
3) P habe eine Dichte p
F (t) = P((−∞, t]) =
Rt
3
4
p(x) dx
−∞
F 0 (t) =
d
dt F (t)
= p(t)
Beispiel 5 0
F (t) :=
2
1 − e−t
38
(p stetig integrierbar)
: t≤0
: t>0
→
p(t) =
0
2
2te−t
: t≤0
: t>0
2 Zufällige Größen
2.1 Definition und Verteilungsgesetz
Zufälliges Experiment, Beschreibung erfolgt durch (Ω, A, P);
Transformieren ω :
Gegeben sei Abbildung X : Ω → R
Wir beobachten ω ∈ Ω
(fest)
transformiert ω → X(ω) ∈ R
beobachte am Ende den Wert X(ω)
Beispiel 1
Ω = Rn , ω = (ω1 , . . . , ωn )
(n Versuchsergebnisse)
n
P
X(ω) := n1
ωj
(Mittelwert)
j=1
Beispiel 2
Würfel 2 mal
Ω = {1, . . . , 6}2 ;
P Gleichverteilung
X(ω1 , ω2 ) := ω1 + ω2
(Summe)
z.B. X(1, 5) = 6, X(2, 6) = 8;
Beispiel 3
Ω = [0, 1];
P Gleichverteilung
2
X(t) := t
es tritt t ∈ [0, 1] ein, transformiere zu t2 .
Beobachtete ω’s treten mit gewissen Wahrscheinlichkeiten auf.
→ X(ω)’s treten mit gewissen Wahrscheinlichkeiten auf.
P(α ≤ X(ω) ≤ β) =?
Definition 2.1
Eine Abbildung X : Ω → R heisst zufällige Größe (oder „reellwertige Zufallsvariable“ oder
„zufällige reelle Zahl“), falls für jede Zahl t ∈ R stets gilt:
{ω ∈ Ω : X(ω) ≤ t} ∈ A
39
2 Zufällige Größen
Bemerkungen:
1) B ∈ (R)
X sei Zufallsgröße
−1
X (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ A
(Wir wissen dies nur für B = (−∞, t],
t ∈ R)
2) Nehme X nur die Werte x1 , x2 , . . . ∈ R an
Dann ist X Zufallsgröße ⇔ {ω ∈ Ω : X(ω) = xk } ∈ A,
k = 1, 2, . . .
3) Gilt A = R(Ω) → jede Abbildung X von Ω nach R ist Zufallsgröße
Definition 2.2
Sei X : Ω → R eine Zufallsgröße,
B ∈ (R).
PX (B) := P({ω ∈ Ω : X(ω) ∈ B}) = P(X −1 (B)) = P(X ∈ B) (Kurzschreibweise)
Satz 2.1
PX ist Wahrscheinlichkeitsmaß auf (R, (R)).
PX nennt man das Verteilungsgesetz der Zufallsgröße X
Beispiel 1
Ω = {1, . . . , 6}2 ;
P Gleichverteilung
X(ω1 , ω2 ) := max {ω1 , ω2 }
Werte von X ? Zahlen von 1 bis 6 (1, . . . , 6)
1
PX ({1}) = P(X = 1) = 36
11
PX ({6}) = P(X = 6) = 36
P(ω ∈ Ω : X(ω) = 6) = P((1, 6), . . . , (6, 6), (6, 1), . . . , (6, 5)) =
Beispiel 2
Ω = R;
P = N (0, 1);
11
36
X(x) := x2
P(X ≤ t) =
: t≤0
: t>0
0
N (0, 1) {x ∈ R : x2 ≤ t}
√
√ √
1
= N (0, 1)([− t, t]) = √
2π
√
2
=√
2π
Z
t
Z
x2
e− 2 dx
√
− t
t
x2
e− 2 dx
0
X:Ω→R
V
gilt:
x∈R
{X ≤ t} = X −1 ((−∞, t]) = {ω ∈ Ω : X(ω) ≤ t} ∈ A
X Zufallsgröße
40
2.1 Definition und Verteilungsgesetz
PX (B) = P(X ∈ B) = P(X −1 (B)) Verteilungsgesetz von X
Satz 2.2
PX ist Wahrscheinlichkeitsmaß auf (R, (R))
Beweis:
PX (∅) = P {ω : X(ω) ∈ ∅} = P(∅) = 0
PX (R) = P {ω : X(ω) ∈ R} = P(Ω) = 1
X −1 (A ∩ B) = X −1 (A) ∩ X −1 (B) (A,B disjunkt)
∞
∞
S
S
X −1 ( Bj ) =
X −1 (Bj )
j=1
j=1
dann seien B1 , B2 disjunkte Ordnungen
i 6= j ∅ = X −1 (Bi ∩ Bj ) = X −1 (Bj ) ∩ X −1 (Bi )
| {z }
=∅
→ X −1 (Bi ) disjunkte Teilmengen von Ω
PX (
∞
S
Bj ) = P(X −1 (
j=1
∞
S
Bj )) = P(
j=1
∞
∞
P
P
PX (Bj )
X −1 (Bj )) =
P(X −1 (Bj )) =
j=1
j=1 | {z }
j=1
∞
S
disjunkt
→ PX Wahrscheinlichkeitsmaß
→ PX Verteilungsgesetz von X
Beispiel 1
Würfel 2 mal
Ω = {1, . . . , 6}2
X {ω1 , ω2 } := ω1 − ω2 ,
PX =?
X hat Werte in {−5, . . . , 0, . . . , 5}
PX ({−5}) = P(X = −5) = P(X −1 ({5})) = P((1, 6)) =
PX ({0}) = 16
X −1 ({0}) = {(1, 1), . . . , (6, 6)}
1
36
Beispiel 2
P sei Gleichverteilung auf [0, 1]!
ω = (ω1 , ω2 ) X(ω) := ω1 + ω2
P(X ≤ t) = P {(ω1 , ω2 : ω1 + ω2 ≤ t}
0 : t≤0
P(X ≤ t) =
1 : t≥2
2
0≤t≤1
P(X ≤ t) = t2
2
2
1≤t≤2
P(X ≤ t) = 1 − (2−t)
= 2t − 1 − t2
2
Sprechweisen
1) Eine Zufallsgröße X heisst gleichverteilt auf {x1 , . . . , xn } ⊆ R, falls PX die Gleichverteilung auf {x1 , . . . , xn } ist, das heisst
PX ({xi }) =
1
N
P(X = xi ) =
1
N
j = 1, . . . , N
41
2 Zufällige Größen
2) X ∼ Bn,p , das heisst PX = Bn,p , das heisst
n n
P(X = k) =
p (1 − p)n−k
k
k = 0, . . . , n
insbesondere ist P(X ∈ {0, . . . , n}) = 1
3) X ist Poissonverteilt mit λ > 0,wenn gilt:
P(X = k) =
λk −λ
e
k!
k = 0, 1, . . .
insbesondere ist P(X ∈ N0 ) = 1
4) X ∼ N (a, σ 2 ), das heisst
1
P(α ≤ x ≤ β) = √
{z
}
|
2πσ
=P(ω:α≤X(ω)≤β)
Zβ
e−
(t−a)2
2σ 2
α
5) X exponentialverteilt mit λ > 0, falls gilt:
P(X ≥ t) = e−λt ;
≥0
insbesondere gilt: P(X ≥ 0) = 1
Bemerkung 1:
X heisst diskret
Sbzw. stetig, falls PX diskret bzw. stetig
X diskret ⇔
abzählbar, mit P(X ≤ D) = 1
D⊆R
zum Beispiel: Poissonverteilt → X diskret
X stetig ⇔
S
mit P(α ≤ X ≤ β) =
W-Dichte p
Rβ
p(s) ds
α
zum Beispiel: X ∼ N (0, 1) → X stetig
Bemerkung 2:
FX (t) := PX ((−∞, t]) = P(X ≤ t) Verteilungsfunktion von X
42
dt
2.2 Gemeinsame Verteilung
2.2 Gemeinsame Verteilung
(Ω, A, P) Wahrscheinlichkeitsraum

X1 : Ω → R 

..
n zufällig
.


Xn : Ω → R
Beispiel 3
3 mal würfeln
X1 (ω) := max {ω1 , ω2 , ω3 }
X2 (ω) := min {ω1 , ω2 , ω3 }
X3 (ω) := ω1 + ω2 + ω3
Definition 2.3
→
−
Die Abbildung X = (X1 . . . Xn ) mit
→
−
X = (X1 (ω) . . . Xn (ω)) ∈ Rn
heisst n-dimensional zufälliger Vektor mit Koordinaten X1 . . . Xn
Beispiel 3 (obiges Beispiel)
Würfel:
−
→
X
(1, 1, 4) → (4, 1, 6)
(2, 3, 6) → (6, 2, 11)
→
−
X : Ω → Rn
Definition 2.4
→ → P(X ...Xn ) mit:
Die Abbildung P−
1
X
n
o
→
−
→ (B) = P ω ∈ Ω : X (ω) ∈ B
P−
X
heisst gemeinsames Verteilungsgesetz von X1 . . . Xn .
→ ist Wahrscheinlichkeitsmaß auf (Rn , (Rn )).
P−
X
Beispiel 1
B = [α1 , β1 ] × . . . × [αn , βn ] Quader
→ (B) = P(α1 ≤ X1 ≤ β1 , . . . , αn ≤ Xn ≤ βn )
P−
X
gleichtzeitig muss α1 ≤ X1 ≤ β1 und . . . und αn ≤ Xn ≤ βn erfüllt sein
43
2 Zufällige Größen
Beispiel 2
Würfel 2 mal:
X1 (ω1 , ω2 ) := min {ω1 , ω2 }
X2 (ω1 , ω2 ) := max {ω1 , ω2 }
→ ({(1, 4)}) = P(X1 = 1, X2 = 4) =
P−
X
1
18
→ ({(4, 1)}) = P(X1 = 4, X2 = 1) = 0
P−
X
→ ({(3, 3)}) = P(X1 = 3, X2 = 3) =
P−
X
1
X2
1
2
3
4
5
6
2
0
1
36
1
18
1
18
1
18
1
18
1
18
1
36
1
18
1
18
1
18
1
18
X1
4
0
0
1
0
36
3
0
0
1
18
1
18
1
18
1
36
1
18
1
18
5
0
0
0
0
1
36
1
18
1
36
6
0
0
0
0
0
1
36
X1 . . . Xn gegeben
P(X1 . . . Xn ) Wahrscheinlichkeitsmaß auf Rn (gemeinsame Verteilung)
PX1 ...Xn n Wahrscheinlichkeitsmaße auf R (Randverteilungen)
Frage:
Was ist informativer? n Randverteilungen oder eine gemeinsame Verteilung?
Beispiel 1
ω ist zufällig herausgenommener Student:
X1 (ω) Alter
X2 (ω)
PX1 ({22}) =
PX2 ({w}) =
m oder w
Anzahl der 22-Jährigen
N
Anzahl der Mädchen
N
→ ((22, w)) = P(X1 = 22, X2 = w) =
P−
X
Anzahl der 22-jährigen Mädchen
N
Satz 2.3
Die gemeinsame Verteilung P(X1 . . . Xn ) bestimmt die Randverteilung von PX1 ...Xn .
44
2.2 Gemeinsame Verteilung
Beweis:
PX1 (B) = P {ω ∈ Ω : X1 (ω) ∈ B}
= P(ω ∈ Ω : X1 (ω) ∈ B, X2 (ω) ∈ R, . . . , Xn (ω) ∈ R)
→
−
= P(ω ∈ Ω : X (ω) ∈ B × R × . . . × R)
→ (B × R × . . . × R)
= P−
X
Konkrete Rechenregeln
W
1) n = 2, X und Y zufällig und beide diskret:
W
mit :
x1 ,x2 ...∈R y1 ,y2 ...∈R
∞
X
P(X = xi ) = 1 und P(Y ∈ {y1 , y2 , . . .}) = 1
i=1
pij := P(X = xi , Y = yj ) = P(X,Y ) ({(xi , yj )})
∞
X
pij ≥ 0
pij = 1
i,j=1
pi := P(X = xi ) = P(X = xi , Y ∈ {y1 , y2 , . . .}) =
∞
X
P(X = xi , Y = yj ) =
j=1
X
P(x,y) (B) =
∞
X
pij
j=1
pij
(xi ,yj )∈B
pj := P(Y = yj ) =
∞
X
P(X = xi , Y = yj ) =
i=1
∞
X
pij
i=1
X
1
Y
2
P10 P20 P30 P40 P50
6
P61 P01
P02
P03
P04
P05
P06
P60
11
36
1
36
1
2
3
4
5
6
3
4
5
P33
9
36
11
36
5
=
36
P(Y = 6) = P6̇ =
P(X = 4) = P40
7
36
5
36
3
36
1
36
3
36
5
36
7
36
9
36
11
36
P(X = 6, Y = 1) = P61 = 0
P(X = 2, Y = 2) = P22 =
1
36
45
2 Zufällige Größen
X1 . . . Xn :
(X1 . . . Xn )
Ω→R
Ω → Rn
n zufällige Größen
zufälliger Vektor
ω → (X1 (ω) . . . Xn (ω))
P(xx ,x2 ) gemäß Verteilung, Wahrscheinlichkeitsmaß auf (Rn )
→ PX1 . . . PXn Wahrscheinlichkeitsmaße auf R Randverteilungen
2) stetiger Fall:
∃ Dichte p :
Rn → R mit
Zβn
Zβ1
···
P(α1 ≤ X1 ≤ β1 , . . . , αn ≤ Xn ≤ βn ) =
p(t1 , . . . , tn ) dtn . . . dt1
αn
α1
Welche Dichten haben die Randverteilungen?
PXj ([α, β]) = P(α ≤ Xj ≤ β)
= P(−∞ < X1 < ∞, . . . , α ≤ Xj ≤ β, . . . , −∞ < Xn < ∞)
Zβ Z∞
Z∞
=
···
p(t1 , . . . , tn ) dt1 . . . dtn dtj
α −∞
−∞
{z
|
}
q(tj )
→ PX hat Dichte q
PXj hat die Dichte
Z∞
Z∞
···
t=
−∞
p(t1 , . . . , tj , . . . , tn ) dt1 . . . dtj . . . dtn
−∞
Beispiel 1
P(X,Y ) sei Gleichverteilung auf Einheitskreis
1
π
p(t, s) =
0
t2 + s2 ≤ 1
sonst
→ PX hat Dichte q mit
Z∞
q(t) =
−∞
√
1
p(t, s) ds =
π
Z1−t2
ds =
√
− 1−t2
2
→ P(α ≤ X ≤ β) =
π
Zβ √
α
−1 ≤ α ≤ β ≤ 1
46
2√
1 − t2 für |t| ≤ 1
π
1 − t2 dt
2.3 Unabhängigkeit zufälliger Größen
.
.....
... ..
...........................................
.........
.............
.......
.........
......
.......
......
......
.
.
.
.
.....
.
....
.....
.
.
.
.
.....
...
.
.
.
.....
.
....
...
.
.
...
..
.
.
...
...
...
.
..
...
.
...
..
.
...
..
.
...
..
−1
...........
......
1
Abbildung 2.1: Dichte von PX (Beipiel 1)
Frage: Bestimmen die Randverteilungen die gemeinsame Verteilung?
Beispiel 2
In einer Urne befinden sich zwei Kugeln mit Wert 0 und zwei Kugeln mit Wert 1. Wir ziehen
zwei Kugeln ohne zurücklegen:
X Wert Kugel 1
Y Wert Kugel 2
P(X = 0, Y = 0) = P(X = 0) · P(Y = 0|X = 0) =
X
0 1
Y
0
1
1
6
1
3
1
2
1
3
1
6
1
2
1
1 1
· =
2 3
6
PX = PX̃
PY = PỸ
aber: P(X,Y ) 6= P(X̃,Ỹ )
1
2
1
2
mit zurücklegen:
X
0 1
Y
0
1
1
4
1
4
1
2
1
4
1
4
1
2
1
2
1
2
Randbedingungen bestimmen im Allgemeinen nicht die gemeinsamen Verteilungen!
2.3 Unabhängigkeit zufälliger Größen
Beispiel 1
Würfel 3 mal
X Wert 1. Wurf
Y Summe 2. und 3. Wurf
Frage: X und Y unabhängig?
47
2 Zufällige Größen
Definition 2.5
n zufällige Größen X1 , . . . , Xn heißen unabhängig, wenn für alle B1 , . . . , Bn ∈ (R) stets gilt:
P(X1 ∈ B1 , . . . , Xn ∈ Bn ) = P(X1 ∈ B1 ) · . . . · P(Xn ∈ Bn )
(*)
Bemerkung:
1) es reicht aus, wenn (*) für Intervalle gilt.
2) es reicht aus, wenn (*) für Intervalle der Form (−∞, X] gilt, d.h. wenn
V
:
tj ∈R
P(X1 ≤ t1 , . . . , Xn ≤ tn ) =
n
Y
P(Xj ≤ tj )
j=1
3) X1 , . . . , Xn sind unabhängig ⇔
V
∈ (R) stehts {X1 ∈ B1 } , . . . , {Xn ∈ Bn } un-
B1 ,...,Bn
abhängig sind (nicht trivial! ;-) )
Konkrete Fälle
1) Diskreter Fall, n = 2
X hat Werte X1 , X2 , . . .
Y hat Werte Y1 , Y2 , . . .
pij = P(X = xi , Y = yj )
pi0 = P(X = xi ) =
∞
X
pij
j=1
p0j = P(Y = yj ) =
∞
X
pij
i=1
Satz 2.4
Die zufälligen Größen X und Y sind dann und nur dann unabhängig, wenn gilt:
pij = pi0 · p0j
^
i,j
48
1 ≤ i, j < ∞
2.3 Unabhängigkeit zufälliger Größen
Beweis: „⇒“
pij = P(X ∈ {xi } , Y ∈ {yj })
unabh.
= P(X ∈ {xi }) · P(Y ∈ {yi }) = pi0 · p0j
Beweis: „⇐“
X
P(X ∈ B1 , Y ∈ B2 ) =
pij =
xi ∈B1 ,yj ∈B2
=
X
pi0 ·
xi ∈B1
X
pi0 · p0j
xi ∈B1 ,yj ∈B2
X
p0j = P(X ∈ B1 ) · P(Y ∈ B2 )
yj ∈B2
⇒ unabhängig
2) Stetiger Fall
P(X1 , . . . , Xn ) hat Dichte p : Rn →
[0, ∞)
• Randverteilungen PX1 , . . . , PXn
• dann sind X1 , . . . , Xn genau dann unabhängig, wenn
p(t1 , . . . , tn ) = p1 (t1 ) · . . . · pn (tn )
Beweis: „⇒“
(∗) = P(α1 ≤ X1 ≤ β1 , . . . , αn ≤ Xn ≤ βn )
= P(α1 ≤ X1 ≤ β1 ) · . . . · P(αn ≤ Xn ≤ βn )
Zβ1
Zβn
= p1 (t1 ) dt1 · . . . · pn (tn ) dtn
α1
αn
Zβ1
Zβn
···
=
p1 (t1 ) · . . . · pn (tn ) dtn . . . dt1
α1
αn
Zβ1
Zβn
···
(∗) =
α1
^
p(t1 , . . . , tn ) dtn . . . dt1
αn
p(t1 . . . tn ) = p1 (t1 ) · . . . · pn (tn )
αi <βi
Umkehrung analog
49
2 Zufällige Größen
2.4 Transformation zufälliger Größen
→ R Zufallsgröße,
X:Ω
→R
f :R
Y := f (X)
(Prüfungs-)Frage:
Wie berechnet sich PY aus PX ?
Beispiel 1
X Sei gleichverteilt auf {1 . . . 6}
f :R
→ R sei gegeben durch f (x) =
1
0
: x≥4
: x<4
Y := f (X)
1
2
1
P(Y = 0) = P(X < 4) =
2
P(Y = 1) = P(X ≥ 4) =
P(Y ) = B1, 1
2
Beispiel 2
Y = X2
X ∼ N (0, 1)
P(Y ≤ t) = P(X 2 ≤ t)
√
√
= P(− t ≤ X ≤ t)
√
1
=√
2π
2
=√
2π
t
Z
x2
e− 2 dx
√
− t
√
Zt
x2
e− 2 dx
0
√
r Zt
x2
2
FY (t) = P(Y ≤ t) =
e− 2 dx
π
0
q Dichte von PY → q(t) =
50
d
FY (t)
dt
2.4 Transformation zufälliger Größen
r Zn
x2
2
e− 2 dx
H(n) =
π
√
FY (t) = H( t)
r
H 0 (n) =
2 − n2
e 2 dx
π
0
√
√
1
d
1
H( t) = H 0 ( t) · · t− 2
dt
2
1 −1 − t
= √ t 2e 2,
t>0
2π
(
t
√ 1 e− 2
: t>0
2πt
q(t) =
0
: t≤0
Lineare Transformationen
→
f (t) = at + b
Y =a·X +b
• 1. Fall a > 0:
P(Y ≤ t) = P(aX + b ≤ t) = P(X ≤
t−b
)
a
t−b
)
a
FY (t) = FX (
• 2. Fall a < 0:
t−b
t−b
) = 1 − P(X <
)
a
a
FY (t) = P(aX + b ≤ t) = P(X ≥
falls X stetig →
1 − P(X ≤
t−b
t−b
) = 1 − FX (
)
a
a
X hat Verteilungsdichte p
→ q(t) =
t−b
1 t−b
d
a>0 d
FY (t) =
FX (
) = p(
)
dt
dt
a
a
a
t−b
1 t−b
a<0 d
=
(1 − FX (
)) = − p(
)
dt
a
a
a
q Dichte von aX + b
q(t) =
1 t−b
p(
)
|a|
a
Beispiel 1
X ∼ N (0, 1)
Y = σX + b
σ>0
51
2 Zufällige Größen
t2
1
p(t) = √ e− 2
2π
q(t) =
(t−b)2
1 t−b
1
p(
)= √
e− 2σ2
σ
a
2πσ
σX + b ∼ N (b, σ 2 )
Beispiel 2
p(t) =
λe−λt
0
: t>0
: t≤0
Y = aX
a>0
λ λ
1 t
t>0
q(t) = p( ) = e− a t
a a
a
Y ist exponentialverteilt mit Parameter
λ
a
Simulation zufälliger Größen
1. Schritt
Simulation auf einer [0, 1] gleichverteilten Zufallsgröße. Unabhängigkeit wählt
Zahlen ω1 , ω2 , . . . ∈ {0, 1} mit
1
2
Erhalten zufällige Folge ω1 , ω2 , . . . von Nullen und Einsen ω = (ω1 , ω2 , . . .),
setzen
∞
X
ωj
U (ω) :=
2j
j=1
P {ωj = 0} = P(ωj = 1) =
dass heisst, U (ω) = 0, ω1 ω2 . . . im Binärsystem
1
+ 214 + 215 + 217 + . . .
0, 0, 1, 1, 1, 0, 1
23
U (ω) ∈ [0, 1] → U gleichverteilt auf [0, 1],d.h.
P(α ≤ U ≤ β) = β − α
für 0 ≤ α ≤ β ≤ 1.
U (ω) ist eine gleichverteilte zuf. Zahl aus [0, 1].
2. Schritt
52
2.4 Transformation zufälliger Größen
Q : Wahrscheinlichkeitsmaß auf R,
Q habe Dichte q mit q(x) > 0, x ∈ (a, b),
a = −∞, b = ∞ möglich!
q(x) = 0 für x 6∈ [a, b]
Zt
F (t) = Q((−∞, t]) =
q(x) dx
−∞
→ F streng monoton wachsend auf [a, b]:
F
......
... ...
..
....................
..................
...............
............
.
.
.
.
.
.
.
.
.
.........
........
.......
......
......
.
.
.
.
.
......
......
......
......
.......
.
.
.
.
.
.
.
.........
... ... ... ..... .......................
...........
......
Abbildung 2.2: F
→ F −1 :
(0, 1) → (a, b) existiert:
...
....
.. ...
.
..
..
..
..
...
..
..
..
..
..
.
.
..
..
..
..
.
.
...
...
...
....
...
.
.
.
...
.....
.....
....
....
.
.
.
....
....
....
...
..
.
.
..
..
..
..
....
..
...
...
....
..
F −1
...........
......
Abbildung 2.3: F −1
Satz 2.5
Sei Q wie oben mit Verteilungsfunktion F und sei U gleichverteilt auf [0, 1]
Sei X := F −1 (U ), so folgt
PX = Q
Beweis:
53
2 Zufällige Größen

 0 : s<0
s : 0≤s≤1
P(U ≤ S) =

1 : s>1
P(X ≤ t) = P(F −1 (U ) ≤ t)
F −1 wachs.
=
P(U ≤ F (t)) = F (t)
|{z}
∈[0,1]
^
→
= Q((−∞, t])
t → PX = Q
Anwendung
1) Wollen ein x ∈ R wählen gemäß N (0, 1)
1
Φ(t) = √
2π
Φ−1 (t) :
Zt
x2
e− 2 dx
−∞
(0, 1) → R
−1
Ist U gleichverteilt auf [0, 1], so ist Φ (U ) gemäß N (0, 1)-verteilt.
...
....
.. ..
..
..
...
..
...
..
...
..
..
...
..
..
..
..
.
.
..
...
....
....
...
.
.
.
....
....
.....
....
....
.
.
.
...
....
....
...
..
.
.
..
..
..
...
.....
..
...
...
....
..
1
2
Φ−1
...........
......
1
Abbildung 2.4: Φ−1
Suchen x ∈ R mit P(α ≤ x ≤ β) =
Rβ
s2
e− 2 ds
α
Im 1. Schritt u ∈ [0, 1] gleichverteilt,
x := Φ−1 (u)
→
x ist N (0, 1)-verteilt
Suchen unabhängige X1 , . . . , Xn normalverteilt

(1)
(1)
ω1 , ω2 , . . . ∈ {0, 1} 


(2)
(2)
ω1 , ω2 , . . . ∈ {0, 1} 
u1 , u2 , . . . , un gleichverteilt und unabhängig
..

.



(n)
(n)
ω1 , ω2 , . . . ∈ {0, 1}
54
2.5 Rechnen mit zufälligen Größen
x1 := Φ−1 (u1 ); . . . ; xn := Φ−1 (un )
Bemerkung:
Y1 := σx1 + a; . . . ; Yn = σxn + a,
σ > 0, a ∈ R
→ Y1 , . . . , Yn unabhängig und N (a, σ 2 )-verteilt!
2) Man konstruiert n unabhängige exponentialverteilte Zahlen t1 , . . . , tn mit Parameter
λ>0
Im 1.Schritt: u1 , . . . , un wie oben
Zt
F (t) =
λe−λx dx = 1 − e−λt
0
1 − e−λt = s
(0 < s < 1)
→
e−λt = 1 − s
−λt = ln (1 − s)
1
1
t = ln (
)
λ
1−s
1
1
ln (
)
λ
1−s
1
U gleichverteilt auf [0, 1] → ln ( 1−n
) ist exponential verteilt mit Parameter λ > 0.
1 − U ist ebenfalls gleichverteilt auf [0, 1]. → λ1 ln ( n1 ) ist exponential verteilt mit
λ>0
u1 , . . . , un unabhängig gleichverteilte Zahlen aus [0, 1]
F −1 (s) =
xj :=
→
1
1
ln ( ),
λ
n
1≤j≤n
t1 , . . . , tn unabhängig exponential verteilt
Sei Q ein diskretes Wahrscheinlichkeitsmaß. Wie simuliert man Q?
Beispiel 1
Wollen eine Bn,p -Verteilung simulieren. Suchen ein k ∈ {0, . . . , n} gemäß Bn,p verteilt.
2.5 Rechnen mit zufälligen Größen
Problem
X, Y unabhängige Zufallsgrößen
Z := X + Y
55
2 Zufällige Größen
n 0
p (1 − p)n
0
|
{z
}
0
n ∈ Ik→ k zufällige Zahl!
n gleichverteilt
z }|
{ z }|
{
n 1
n
p (1 − p)n−1
pk (1 − p)n−k
1
k
1
n + 1 Intervalle
Abbildung 2.5: Simulation einer zuf. Größe
Frage
Wie berechnet sich das Verteilungsgesetz von Z aus denen von X und Y?
Beispiel 1
X,Y beide gleichverteilt auf {1, . . . , 6}
P(X + Y = 2) =
1
;
36
P(X + Y = 7) =
1
6
Satz 2.6
X,Y seine Zufallsgrößen mit Werten in N0 = {0, 1, . . .}, X,Y sind unabhängig, dann gilt:
P(X + Y = k) =
k
X
P(X = i) · P(Y = k − i)
i=0
Beweis:
Bk := {(i, j) : i, j ∈ N0 , i + j = k}
P(X + Y = k) = P((X, Y ) ∈ Bk ) = PX,Y (Bk )
Bk :=
=
k
[
i=0
k
X
{(i, k − i)} =
k
X
PX,Y ({(i, k − i)})
i=0
P(X = i, Y = k − i)
i=0
unabh.
= P(X = i) · P(Y = k − i)
Beispiel 2
P(X = i) = 16 ; i = 1, . . . , 6; Null sonst
P(Y = i) = 61 ; i = 1, . . . , 6; Null sonst
P(X + Y = 3) = P(X = 0)P(X = 3) + P(X = 1)P(Y = 2) + P(X = 2)P(Y = 1)
1
+ P(X = 3)P(Y = 0) = 0 + 61 · 16 + 16 · 16 + 0 = 18
56
2.5 Rechnen mit zufälligen Größen
Satz 2.7
Sei X Poissonverteilt mit λ > 0 und Y Poissonverteilt mit µ > 0
X,Y unabhängig ⇒ X + Y Poissonverteilt mit λ + µ
Beweis:
P(X + Y = k) =
=
k
X
P(X = i)P(Y = k − i)
i=0
k
X
i=0
µk−i −µ
λi −λ
e ·
e
i!
(k − i)!
k
e−(λ+µ) X
k!
=
·λi µk−i
k!
i!(k − i)!
i=0 |
{z }
(ki)
=
e−(λ+µ)
(λ + µ)k
k!
Deutung
Telefonzentralen in A und B
Anzahl der Anrufe in A (B bzw. A+B) sein Poissonverteilt mit Parameter λ > 0 ( µ > 0 bzw.
λ + µ > 0)
Lemma 2.8
Für k = 0, 1, . . . , m + n gilt:
k X
n
m
n+m
=
i
k−i
k
i=0
Satz 2.9
X ∼ Bn,p ,
s.o.
Y ∼ Bm,p
X, Y unabh.
→
X + Y ∼ Bn+m,p
57
2 Zufällige Größen
Beweis:
k X
m
n i
n−i
pk−i (1 − p)m−(k−i)
P(X + Y = k) =
p (1 − p)
k
−
i
i
i=0
k X
n
m
k
n+m−k
= p (1 − p)
i
k−i
i=0
n+m k
2.8.
=
p (1 − p)n+m−k ; k = 0, . . . , n
k
→ X + Y ist Bn+m,p -verteilt
Folgerung
X1 , . . . , XN unabhängig, P(Xj = 1) = p;
→ Xj ∼ B1,p
2.9.
⇒ X1 + . . . + Xn ∼ Bn,p
P(Xj = 0) = 1 − p
n k
P(X1 + . . . + Xn = k) =
p (1 − p)n−k
k
P {ω : Genau k der Xj (ω) sind 1}
Addition stetiger Zufallsgrößen
Zβ
P(α ≤ X ≤ β) =
p(t) dt
α
Zβ
P(α ≤ Y ≤ β) =
q(s) ds
α
Zβ
P(α ≤ X + Y ≤ β) =
r(z) dz
α
58
2.5 Rechnen mit zufälligen Größen
Frage
Wie berechnet sich r aus p und q?
Theorem 2.10
X habe Verteilungsdichte p, Y q und X,Y unabhängig. Dann hat X + Y die Verteilungsdichte
r mit r = p ∗ q (Faltung) und
Z∞
Z∞
p(x − y) q(y) dy =
r(x) =
−∞
p(x) q(x − y) dy
−∞
Beweis:
Z := X + Y, t ∈ R,
Bt := {(x, y) : x + y ≤ t} ⊆ R2
P(Z ≤ t) = P((x, y) ∈ Bt ) = PX,Y (Bt ) = (∗)
entscheidend:
X,Y unabhängig: PX,Y hat Dichte p(x)q(y), d.h.
ZZ
PX,Y (B) =
p(x) q(y) dx dy
B
Z∞
ZZ
(∗)
=
p(x) p(y) dx dy =
−∞
Bt

 t−x
Z
 q(y) p(x) dy  dx
−∞
|
−∞<y ≤t−x
(1)
→
{z
(1)
−∞ < y + x ≤ t
}
u := y + x
Z∞ Z t
⇒
q(u − x) du p(x) dx
=
−∞ −∞
Zt
⇒
=

Z∞

−∞

p(x) q(u − x) dx du
−∞
|
(2)
{z
(2)
}
= r(u) = (p ∗ q)(u)
Zt
P(Z ≤ t) =
r(u) du
→
r Verteilungsdichte von Z.
−∞
Rest durch Substitution
59
2 Zufällige Größen
Sei P(X ≤ t) =
Rt
p(x) dx
P(Y ≤ t) =
Rt
q(y) dy
−∞
−∞
Zt
→
X,Y unabhängig
P(X + Y ≤ t) =
r(z) dz
−∞
wobei r = p ∗ q, d.h.
Z∞
Z∞
p(z − x) q(x) dx =
r(z) =
−∞
p(x) q(z − x) dx
−∞
Beispiel 1
Zwei Bauteile gleicher Art, Lebensdauer exponential verteilt
• nehmen 1. Bauteil in Betrieb
• bei Ausfall ersetzen durch 2. Bauteil
Frage
P(2. Bauteil in [1, b] ausfällt)=?
Xi Lebenszeit des i-ten Bauteils (i = 1, 2)
Dichten: p(x) = λe−λx
x>0
q(y) = λe−λy
y>0
..
.....
.. ...
..........................................
..........................................
........
........
......
......
......
..... ..........
.....
..........
.....
.....
.
..
.....
X1
......
...........
X1 + X2
Abbildung 2.6: Beispiel 1
Z∞
→ r(z) =
p(z − x) q(x) dx = λ
−∞
2
Zt
e
−λ(z−x) −λx
e
0
→ P(X1 + X2 ≥ t) = λ
Zt
dx = λ
e−λz dx = λ2 ze−λz
0
2
Z∞
t
60
2
zeλz dz = λ(λ + t)e−λt
t>o
z>0
2.6 Erwartungswert
Beispiel 2
X ∼ N (a, σ 2 ),
Y ∼ N (b, µ2 ),
X, Y unabhängig
1
2
1 (x−a)2
(y−b)
1
1
2
−2 2
µ
p(x) = √
e− σ 2
q(x) = √
e
2πσ
2πµ
Z∞ − 1 (z−x−a)2 − 1 (x−b)2
2
1
2
σ2
dx
r(z) =
e
e µ2
2πσµ
−∞
X + Y ∼ N (a + b, σ 2 + µ2 )
2.6 Erwartungswert
Gegeben sei eine Zufallsgröße X, suchen einen „mittleren“ Wert von X
Analyse
X nimmt nur die Werte x1 , . . . , xn ∈ R an
P(X = xk ) = pk ,
1≤k≤n
N unabhängige Versuche gemäß X, dann nimmt X ungefähr N · pk den Wert xn an
1
{x1 · Eintreten Zahl von x1 + . . . + xn · Eintreten Zahl von xn }
N
1
=
{x1 N p1 + . . . + xn N pn }
N
n
n
X
X
=
xj p j =
xj P(X = xj )
Durchschnitt =
j=1
j=1
Beispiel 1
Würfel
P(X = 1) = . . . = P(X = 6) = 61
Durchschnitt= 1 · P(X = 1) + . . . + 6 · P(X = 6) =
1+...+1
6
= 3.5
Beispiel 2
P(X = 2) = 13
P(X = −4) = 23
Durchschnitt= 2 · 13 + (−4) 23 = −2
Definition 2.6
Sei X eine Zufallsgröße mit möglichen Werten x1 , x2 , . . . aus R
61
2 Zufällige Größen
1) gilt xk ≥ 0 für k = 1, 2, . . ., so setzt man:
EX :=
∞
X
xk · P(X = xk )
(EX = ∞ möglich)
k=1
2) Sind die xn ∈ R beliebig und gilt:
∞
X
|xk |P(X = xk ) < ∞
k=1
so setzt man:
EX :=
∞
X
xk · P(X = xk )
k=1
EX heisst Erwartungswert der Zufallsgröße X
Beispiel 1
Münzwurf, 0 oder 1 mit p = 21
x Euro Einsatz: 0 → verloren (x = 0)
1 → Gewinn 2x
Strategie:
1. Spiel 1 Euro Einsatz
bei Verlust
2. Spiel 2 Euro Einsatz
bei Verlust
3. Spiel 4 Euro Einsatz
bei Verlust
..
.
k. Spiel 2k−1 Euro Einsatz
Im k-ten Spiel Gewinn: → 2k Euro Gewinn →
1 + 2 + 3 + . . . + 2k−1 Einsatz bis
dato= 2k − 1 →
Gewinn: 2k − (2k − 1) = 1 Euro
k
{ Einsatz 2 − 1 = { Im k-ten Spiel eine 1}
X benötigter Einsatz
EX =
∞
X
k=1
k
k
(2 − 1) · P(X = 2 − 1) =
|
{z
}
1
∞
X
2k − 1
k=1
2k
(deshalb: Höchsteinsatz)
Beispiel 2
X ∼ Bn,p
Mögliche Werte von X sind 0 . . . n
n k
P(X = k) =
p (1 − p)n−k
k
62
2k
= ∞!
2.6 Erwartungswert
n
X
n k
→ EX =
k
p (1 − p)n−k
k
k=0
=
n
X
k=1
= np
k
n!
pk (1 − p)n−k
k!(n − k)!
n
X
k=1
(n − 1)!
pk (1 − p)n−k
(k − 1)!(n − k)!
n
X
(n − 1)!
pk (1 − p)n−1−k
k!(n
−
1
−
k)!
k=0
n−1 X
n−1 k
= np
p (1 − p)n−1−k
k
k=0
= np
= np(p + 1 − p)n−1 = np
⇒ bei einem verfälschten Münzwurf tritt im Durchschnitt np oft die 1 ein
Beispiel 3
X Sei gleichverteilt auf {x1 . . . xn }
EX =
n
X
n
1X
xk P(X = xk ) =
xk
| {z } n
k=1
k=1
1
n
arithmetisches Mittel
Beispiel 4
X Poissonverteilt
∞
∞
X
X
λk −λ
λk−1
EX =
k e =λ
k!
(k − 1)!
K=0
k=0
!
e
−λ
−λ
= λe
∞
X
λk
k!
| {z }
=λ
k=0
eλ
Deutung: Zugriff auf eine Seite
im Schnitt pro Tag 1000 Zugriffe
k
1
→ P(k Zugriffe pro Tag) = 1000
e− 000
k!
Beispiel 5
P(X = k) = p(1 − p)k k = 0, 1, . . .
X = k ⇔ im (k + 1). Versuch erstmals eine 1
63
2 Zufällige Größen
EX =
∞
X
pk(1 − p)k
k=0
∞
X
=p
k=0⇒0
k(1 − p)k
k=1
= p(1 − p)
∞
X
k(1 − p)k−1
k=1
f (p) :=
∞
X
(1 − p)k
=
K=0
{z
|
∞
P
f 0 (p)=−
1
=
1 − (1 − p)
}
1
p
|{z}
f 0 (p)=−
k(1−p)k−1
1
p2
k=0
→
∞
X
k(1 − p)k−1 =
k=1
EX =
1
p2
p(1 − p)
1−p
=
2
p
p
Beispiel 1
Würfeln bis zum ersten Erscheinen einer 6
Wie viele Würfe sind im Durchschnitt nötig, bis zum ersten Erscheinen der 6?
1 − p = 56
p = 16 ;
EX = 5
Im Durchschnitt erscheint die 6 im 6. Wurf
Beispiel 2
Erstmals Rot im Roulette
18
prot = 37
;
1 − p = 19
37
EX =
10
37
18
37
=
19
18
Erwartungswert stetiger Zufallsgrößen
Zt
P(X ≤ t) =
p(s) ds
−∞
64
EX =?
2.6 Erwartungswert
.
.....
... ..
............. .......................
........
.........
..
.......
.........
.......
......
........
...... ....
.......
..........
.
.
.
.
.
.........
...... ..........
....
.
.
.
.
.
........
.
.
.
.
.
.
... .......
......
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.. ........
........
.
.
.
.
.
.
.
.
.
.
.
.
....................
.
.
.
.
.
.
.
.
.
....................
... ... ... ..............................
.....
...........
......
P
t1
t2
Abbildung 2.7: Erwartungswert einer stetigen Zufallsgröße
Analyse
Zt2
p(s) ds ∼ (t2 − t1 )p(t1 )
P(t1 ≤ X ≤ t2 ) =
t1
n
X
k=1
tk P(tk−1 ≤ X ≤ tk ) ∼
n
X
Z∞
tk (tk − tk−1 )p(tk−1 )
→
k=1
tp(t) dt
−∞
EX Erwartungswert oder auch Mittelwert
Wenn X höchstens abzählbar viele Werte annimmt, x1 , x2 , . . . ∈ R, dann ist der (diskrete)
Erwartungswert (falls er existiert):
EX :=
∞
X
xk P(X = xk )
k=1
X stetige Zufallsgröße, d.h. es existiert eine Verteilungsdichte p : R → [0, ∞) mit
Zt
P(X ≤ t) =
p(s) ds,
t∈R
−∞
EX =?
Approximation von X durch diskrete Zufallsgröße
Definition 2.7
X mit Verteilungsdichte p besitzt ein Erwartungswert, wenn gilt:
Z∞
|t|p(t) dt < ∞
−∞
Z∞
Stetiger Erwartungswert: EX =
tp(t) dt
−∞
65
2 Zufällige Größen
Beispiel 1
X sei gleichverteilt auf [a, b], d.h. Verteilungsdichte p hat die Gestalt:
1
b−a
p(t) =
0
Z∞
EX =
: a≤t≤b
: sonst
Zb
tp(t) dt =
t
−∞
1
b 2 − a2 1
a+b
dt =
=
b−a
2 b−a
2
a
Mitte des Intervalls
Beispiel 2
X ∼ N (a, σ 2 )
1
EX = √
2πσ
=√
1
2πσ
1
=√
2πσ
Z∞
−∞
Z∞
te−
t−a)2
2σ 2
Substitution: t − a := s
dt
s2
(s + a)e− 2σ2 ds
−∞
Z∞
se
−
s2
2σ 2
−∞
1
ds + a √
2πσ
Z∞
s2
e− 2σ2 ds
−∞
=0+a·1=a
Beispiel 3
X exponentialverteilt mit λ > 0
p(t) =
Z∞
→ EX = λ
te
−λt
λe−λt
0
1
dt =
λ
0
: t>0
: t<0
Z∞
se−s ds =
1
1
·1=
λ
λ
0
Die Lebensdauer eines Bauteils sei exponentialverteilt. Im Durchschnitt arbeitet das Bauelement 10 Zeiteinheiten.
→
1
= 10
λ
λ=
1
10
t
→ P(Bauelement arbeitet t Zeiteinheiten oder mehr) = e− 10
66
2.6 Erwartungswert
.
.....
... ..
EX
.......................................
........
.........
.
.......
.........
...
.......
........
.......
..........
.
.
.
.
.
.
.........
...
....
.
.
.
.
.
........
.
.
.
.
.
......
.
.........
.
.
.
.
.
.
.
.
.
............
...
........
.
.
.
.
.
.
.
.
.
.
.
....................
.
.
.
.
.
.
.
.
.
....................
... ... ... ..............................
...
.
...........
.
......
a
Abbildung 2.8: Erwartungswert (zu Beispiel 3)
...
....
.. ..
...
...
..
...
...
...
....
....
.....
...
............
......
......
...
......
......
........
...
.........
....................
...
.............. ..................
.
...
.
.
EX
...........
......
1
2
Abbildung 2.9: Erwartungswert (zu Beispiel 3)
Beispiel 4
X sei Cauchy-verteilt, d.h.
p(t) =
Z∞
1 1
;
π 1 + t2
2
|t|p(t) dt =
π
−∞
Z∞
t
t∈R
1
dt = ∞
1 + t2
0
⇒ X besitzt keinen Erwartungswert
Eigenschaften von Erwartungswerten
1) Linerarität
X, Y : Ω → R zufällige Größen,
α, β ∈ R
E(αX + βY ) = αEX + βEY
Anwendung:
Erwartungswert beim Würfeln ist 3.5
Würfel 3 mal, Summe der drei Würfe
Erwartungswert: 3 · 3.5 = 10.5
67
2 Zufällige Größen
2) Transformationssatz
f :R→R
=
Ef (X)
=
∞
P
k=1
R∞
f (xk )P(X = xk )
(diskret)
f (t)p(t) dt
(stetitg)
−∞
Beispiel 1
X sei Bn,p -verteilt
n
X
n k
EX =
f (k )
p (1 − p)n−k
k
k=1
2
2
Beispiel 2
X sei exponential verteilt
Z∞
λ
E log X = (log t)λe− t dt
0
1
E =
X
Z∞
1 −λ
λe t dt = ∞
t
0
3) Multiplikationsformel
X,Y unabhängig
E(X · Y ) = (EX) · (EY )
4) Monotonie
X ≤ Y, d.h. X(ω) ≤ Y (ω),
^
ω∈Ω
→
EX ≤ EY
E(X + c) = EX + Ec = EX + c
(c ist Konstante)
2.7 Varianz und Kovarianz
Definition 2.8
Eine zufällige Größe X hat ein 2. Moment, wenn gilt:
∞
P
2
E|X| < ∞, d.h.
k=1
R∞
−∞
68
x2k P(X = xk ) < ∞
(diskret)
t2 p(t) dt < ∞
(stetig)
2.7 Varianz und Kovarianz
Satz 2.11
Besitzt X ein 2. Moment, so existiert EX.
Beweis:
(a − b)2 ≥ 0
b=1
→
(a2 + b2 )
≥a·b
2
→
a2 + 1
≥a
2
1
1
E|X| ≤ E|X|2 + < ∞
2
2
→
a, b > 0
1
1
|X(ω)| ≤ |X(ω)|2 +
2
2
 ∞

R




|t|p(t) dt


−∞
E|X| =
Def. EW. ex.
∞
P



|xk |P(X = xk ) 


→
k=1
Aufgabe
Man konstruiere X mit EX aber ohne 2. Moment!
Folgerung
X habe 2. Moment, a = EX
E(X − a)2 = EX 2 − 2aEX + a2 < ∞
Definition 2.9
Sei X eine Zufallsgröße mit 2. Moment. Die Varianz (Streuung, Dispersion)
VX := E(X − EX)2
ist der mittlere quadratische Abstand von X zum Erwartungswert. Wenn VX groß: Im Mittle
nimmt X Werte weit entfernt von EX an.
Wichtigste Kenngröße von X ist Erwartungswert, zweitwichtigste ist die Varianz!
69
2 Zufällige Größen
Rechenregeln
1) a = EX
→
VX = E(X − a)2 = E[X 2 − 2aX + a2 ]
Linearität
=
EX 2 − 2aEX + a2
= EX 2 − (EX)2 = VX
a = EX
2) Sei X diskret,
→ VX =
∞
X
(xk − a)2 P(X = xk )
K=1
3) Sei X stetig, p Dichte
Z∞
→ VX =
(t − a)2 p(t) dt
−∞
4) P(X = c) = 1
EX = c
→ P(X − c = 0) = 1
→
VX = 0 · P(X = c) = 0
5)
V(αX + β) = E((αX + β) − E(αX + β))2 = Eα2 (X − EX)2 = α2 VX
| {z }
=αEX+β
V(αX + β) = α2 VX
6) X,Y sind unabhängig,
a = EX, b = EY
V(X + Y ) = E(X + Y − E(X + Y ))2
| {z }
a+b
2
= E(X − a) − 2E(X − a)(Y − b) + E(Y − b)2
= VX − (∗) + VY
da X,Y unabhängig → X − a, Y − a sind unabhängig
→ E(X − a)(Y − b) = E(X − a)E(Y − b) = 02
V(X + Y ) = VX + VY
für X,Y unabhängig
Beispiel 1
X sei gleichverteilt auf {x1 , . . . , xn }
N
1 X
xj
a = EX =
N j=1
70
→
VX =
1 X
(xj − a)2
N j=1
2.7 Varianz und Kovarianz
X sei gleichverteilt auf {1, . . . , 6}
→
a = 3.5
1
7
7
7
VX = [(1 − )2 + (2 − )2 + . . . + (6 − )2 ]
6
2
2
2
1 25 9 1 1 9 25
= ( + + + + + )
6 4
4 4 4 4
4
1 70
35
= ·
=
(Varianz beim Würfeln)
6 4
12
Beispiel 2
X sei gleichverteilt auf [a, b]
EX =
1
EX 2 =
a−b
Zb
t2 dt =
a+b
2
1 b 3 − a3
a2 + ab + b2
=
3 b−a
4
a
VX = EX 2 − (EX)2 =
Beispiel 3
X ist B1,p -verteilt
→ P(X = 1) = p;
a2 + ab + b2 a2 + 2ab + b2
a2
b2
ab
(b − a)2
−
=
+
−
=
3
4
12 12
6
12
P(X = 0) = 1 − p
EX = p
EX 2 = 02 (1 − p) + 12 p = p
VX = p − p2 = p(1 − p)
X1 , . . . , Xn unabhängig B1,p -verteilt
n
P
X=
Xi → X ∼ Bn,p
i=1
VX = VX1 + . . . + VXn = n · p(1 − p)
Varianz wird maximal für p =
1
2
Beispiel 4
X Poissonverteilt mit λ > 0
EX = λ
71
2 Zufällige Größen
2
EX =
=
∞
X
k=0
∞
X
k2
k
k=1
∞
X
=λ
λk
k!
λk
e−λ
(k − 1)!
(k + 1)
λk −λ
e
k!
k=0
"
#
∞
∞
X
λk −λ X λk −λ
=λ
e
k e +
k!
k!
k=0
k=0
= λ [EX + 1]
= λ2 + λ
→
VX = λ2 + λ − λ2 = λ
Beispiel 5
X sei N (a, σ 2 )-verteilt
EX = a
1
VX = √
2πσ
y :=
Z∞
1 (x−a)2
2 −2
(x − a) e
(x − a)
σ
2-malige part. Integration
X ∼ N (a, σ 2 )
(∗)
−∞
1
→ (∗) = √
2π
=
dx
σ2
dx = σdy
Z∞
y2
y 2 σ 2 e− σ2 dy
−∞
σ2
√
2π
Z∞
y2
y 2 e− σ2 dy = σ 2 · 1
−∞
a Erwartungswert, σ 2 Varianz
Kovarianz
Gegeben seien Zufallsgrößen X und Y. Im Allgemeinen sind X und Y nicht unabhängig. Wir
suchen ein Maß für die Abhängigkeit
Beispiel 1
X sei Körpergröße einer Person, Y sei Gewicht
„Wie“ abhängig sind X und Y?
72
2.7 Varianz und Kovarianz
kleine Varianz
.......
... .....
..
...
..
..
.
...
...
...
..
..
.
..
..
.
...
....
..
.
..
.
...
..
.
...
.
.
.
..
..
.
.
.. ..................................................
.
..............
...........
.
.
.
.... ...............
........
.
.
.....
.................
.
.
.
.
.
........................
.....
...... ..
........ ...
............................. .............
........
.
...........................
.
.
.
.
.
.
............................
..........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..............................
..
................
... ... .........................................
..........
......
... ...
große Varianz
Abbildung 2.10: Verschieden Varianzen der Normalverteilung
Vorbetrachtung
Seien X,Y unabhänig, a = EX, b = EY
unabh.
E(X − a)(Y − b) = E(X − a)E(Y − b) = (a − a)(b − b) = 0
Definition 2.10
X,Y seien zufällige Größen mit 2. Moment, a = EX, b = EY
cov(X, Y ) = E(X − a)(Y − b)
die Kovarianz von X und Y
Eigenschaften
1) cov(X, Y ) = cov(Y, X)
2) X und X heißen unkorrelliert, wenn cov(X, Y ) = 0
unabhängig ⇒ unkorrelliert 6⇐
3)
cov(X, Y ) ≤ (VX)(VY )
cov(X, Y )
(Korrelationskoeffizient)
%(X, Y ) := √
VX · VY
−1 ≤ %(X, Y ) ≤ 1
%(X, Y ) nahe bei 1 oder -1: Starke Korrelation
%(X, X) = 1
%(X, −X) = −1
%(X,
X
)=1
2
73
2 Zufällige Größen
4) pij := P(X = xi , Y = yj )
cov(X, Y ) =
(diskreter Fall)
∞
X
a = EX =
pij (xi − a)(yj − b)
b = EY =
i,j=1
∞
P
i=1
∞
P
pi. · xi
p.j · xj
j=1
5) Stetiger Fall:P(X,Y ) hat eine Dichte von p : R2 → [0, ∞)
Z∞Z
p(t, s)(t − a)(s − b) dt ds
cov(X, Y ) =
−∞
a = EX;
b = EY
Z∞
a=

Z∞
t
−∞
tp(t, s) ds dt
−∞
Z∞
b=


Z∞
s
−∞

p(t, s) ds dt
−∞
Beispiel 1
Urne mit vier Kugeln (0, 0, 1, 1)
Ziehen zwei Kugeln ohne zurücklegen
X (Y) ist der Wert der ersten (zweiten) Kugel
EX = 12 · 0 + 12 · 1 = 12
1
1
1
EX = 12
6
3
2
1
1
1
VX = 12 (0 − 12 )2 + 12 (1 − 12 )2 = 41
3
6
2
1
1
VY = 14
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
cov(X, Y ) = (0− )(0− )+ (0− )(1− )+ (1− )(0− )+ (1− )(1− ) = −
6
2
2
3
2
2
3
2
2
6
2
2
12
1
− 12
4
1
%(X, Y ) = q q = − = −
12
3
1
1
0 1
X\Y
0
1
4
4
Beispiel 2
Zweimaliges Würfeln, X ist Minimum der beiden Würfe, Y ist das Maximum
X\Y
1
2
3
4
5
6
1
2
1
36
1
18
1
36
0
0
0
0
0
1
36
74
0
0
0
0
3
36
3
1
18
1
36
0
0
0
5
36
4
5 6
···
···
1
···
18
1
1
···
36
18
1
1
0 36 18
1
0 0 36
7
36
9
36
11
36
11
36
9
36
7
36
5
36
3
36
1
36
9
1
EX = 1 11
+ 2 36
+ . . . + 6 36
= 91
≈ 2.528
36
36
1
3
11
161
EY = 1 36 + 2 36 + . . . + 6 36 = 36 ≈ 4.472
1
VX = 11
(1 − 91
)2 + . . . + 36
(6 − 91
)2
36
36
36
2555
= 1296 ≈ 1.97 = VY
2.7 Varianz und Kovarianz
161
91
)(Y −
)
36
36
1
91
161
1
91
161
= (1 − )(1 −
) + (1 − )(2 −
)
36
36
36
18
36
36
91
161
1225
1
)=
+ . . . + (6 − )(6 −
36
36
36
1296
cov(X, Y ) = E(X −
%(X, Y ) =
1225
1296
2555
1296
=
35
1225
=
≈ 0.479
2555
73
Beispiel 3
Der Vektor (X,Y) sei gleichverteilt auf dem Einheitskreis
V := (t, s) : t2 + s2 ≤ 1
A ⊆ K,
P((X, Y ) ∈ A) =
V ol2 (A)
π
Wissen: X;Y sind abhängig
p(t, s) =
1
π
: t2 + s2 ≤ 1
: sonst
0
EX = EY = 0
Z∞Z
(t − 0)(s − 0) p(t, s) dt ds
cov(X, Y ) =
−∞
1
=
π
ZZ
ts dt ds
t2 +s2 ≤1


√

Z1 
Z1−t2


1


=
t
s ds dt = 0
√

π

−1 − 1−t2
| {z }
0
X,Y abhängig, aber unkorrelliert!
75
3 Grenzwertsätze
Vorbemerkung
Gesetze der Wahrscheinlichkeitstheorie wirken bei einer großen Anzahl unabhängiger Versuche. Zum Beispiel Wahrscheinlichkeit, dass man in einem Spiel gewinnt:
→ Keinerlei Aussage über Ausgang eines Spiels
→ Sehr viele Spiele→ es wirken Gesetze der Wahrscheinlichkeitstheorie
Mathematisches Modell
X1 , X2 , . . . Folge unabhängiger identisch verteilter Zufallsgrößen
P(X
V 1 ∈ B1 , . . . , Xn ∈ Bn ) = P(X1 ∈ B1 ) · . . . · P(Xn ∈ Bn )
P(X1 ∈ B1 ) = . . . = P(Xn ∈ Bn )
n
Xn Ergebnis im n-ten Versuch
a = EX1 = EX2 = . . . = EXn
X1 + . . . + Xn
→n→∞ a
n
Satz 3.1 (Tschebyschefsche Ungleichung)
Sei Y Zufallsgröße mit P(Y ≥ 0) = 1. Dann gilt für c > 0 stets
EY
c
P(Y ≥ c) ≤
Beweis:
(Y stetig)
Z∞
Z∞
tp(t) dt ≥
EY =
0
Z∞
tp(t) dt ≥ c
c
p(t) dt = cP(Y ≥ c)
c
Satz 3.2
Sei X Zufallsgröße mit 2. Moment (E|X|2 < ∞)
P(|X − EX| ≥ ε) ≤
76
VX
ε2
(ε > 0)
Beweis:
Y := (X − EX)2 ;
c := ε2
P(Y ≥ c) = P(|X − EX|)2 ≥ ε2 ) = P(|X − EX|) ≥ ε)
EY = VX
→
Behauptung nach 3.1
Beispiel 1
X ∼ N (a, σ 2 )
VX
1
=
2
9σ
9
3σ-Regel, mit großer Wahrscheinlichkeit liegt der beobachtete Wert in [a − 3σ, a + 3σ]
P(|X − a| ≥ 3σ) ≤
Folgerung
X1 , X2 , . . .unabhängig, identisch verteilt
Sn := X1 + X2 + . . . + Xn
a = EX1
ESn = EX1 + EX2 + . . . + EXn = n · a
VSn = nVX1 = n · σ 2
Sn
Sn
1
σ2
E( ) = a;
V( ) = V(Sn ) =
n
n
n
n
2
Sn
VSn
1σ
→ P(| − a| ≥ ε) ≤ 2 =
→n→∞ 0
n
ε
n 2
Deutung
α > 0, ε > 0 vorgegeben → es existiert ein n0 = n0 (α, ε) mit n ≥ n0 → Wahrscheinlichkeit,
ein ω ∈ Ω mit
Sn
| − a| ≥ ε
n
ist ≤ α.
(Schwache Gesetz der großen Zahlen!)
Beispiel 1
Würfel n mal
X1 , X2 , . . . Ergebnisse im 1.,2.,. . . Wurf
a = EX1 = 72 ;
σ 2 = VX1 = 35
12
35
→ P(| Snn − 72 | ≥ ε) ≤ 12nε
35
n = 10000; ε = 0.1 → P(| Snn − 72 | ≥ 0.1) ≤ 12·100
≈ 0.0291
Sn
35
→ P(3.4 ≤ n ≤ 3.6) ≥ 1 − 21·100 ≈ 0.971 → P(34000 ≤ Snn ≤ 36000) ≥ 0.971 . . .
77
3 Grenzwertsätze
Anwendung
Führen beliebig viele gleichartige Versuche durch:
X1 , X2 , . . . Ergebnisse. B ⊆ R (Borelmenge)
1 : Xj (ω) ∈ B
Yj ω) :=
0 : Xj (ω) 6∈ B
Yj (ω) = 1 ⇔ B im j-ten Versuch eingetreten
Y1 + . . . + Yn = ] {j ≤ n : Xj ∈ B}
rn :=
Y1 , . . . , Yn
n
rel. Häufigkeit des Eintretens von B beim n-ten Versuch
?
EYj = 0P(Yj = 0) + 1P(Yj = 1) = P(Xj ∈ B) = P(X1 ∈ B)
Wahrscheinlichkeit des Eintretens von B in einem Versuch
VYj = p(1 − p)
p = P(X1 ∈ B) → P(|rn − p| ≥ ε) ≤ p(1−p)
→n→∞ 0
nε2
Relative Häufigkeiten konvergieren gegen die Wahrscheinlichkeiten des Eintretens
Starkes Gesetz der großen Zahlen
a = EX1 , X1 , X2 , . . . unabhängig, identisch verteilte Zufallsgrößen
n
1X
Xj (ω) = a) = 1
n→∞ n
j=1
P(ω ∈ Ω : lim
V
existiert ein zufälliges n0 , so dass für n > n0 stets gilt:
ε>0
n
1 X
X j − a ≤ ε
n
j=1
Zentraler Grenzwertsatz
X1 , X2 , . . . unabhängig identisch verteilte Zufallsgrößen,
a = EX1 , σ 2 = VX1 , Sn := X1 + . . . + Xn
ESn = n · a
VSn = n · σ 2
E
78
Sn − na
√
nσ
= 0,
V
Sn − na
√
nσ
=1
.
.....
... ..
X1
............
..... ....................
..
..............
..........
.....
.......... ..................
...
.....
..........
...
....
.
.
.
.
...
....
.
.
...
.
..
.
.
...
.
.....
.
...
.
.. ......................
.
.
.
..................
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
..
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
....
....
...............
..
..
.....
..............
.
........
.....
...............
.
..... .....
...............
.....
...............
. .........
.
.
.
...
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....
..
.. ......................
.
.
.
.
.
.
.............................
...............
...............
...............
...............
...............
...............
...............
...............
...............
...............
...............
...............
..............
nε
X 1 + X2
a=0
...........
......
n
−nε
Abbildung 3.1: Gesetz der großen Zahlen
.
.....
... ...
→ na
↓ nσ 2 → ∞
....................................
.........
.......
......
......
.....
.....
....
....
.
.
.
....
..
.
.
.
.
.
...
.
.
.
.............................................
.
...
........... .......
.
........
.
.
.
.
.
.
.
.
.
.
.
.......
.......
....
.
.
...
.
.
.
.
.
.
.
........
.
........
.
.
.
.
...
...........
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........................................................
.
...
...........................
... ..... ..... ..........................................................................
................
....... ............................
...........
......
na
n0a
Theorem 3.3 (Zentraler Grenzwertsatz)
X1 , X2 , . . . unabhänig, identisch verteilte zufällige Größen
2
a = EX
V 1 , σ = VX1 ;
gilt:
−∞≤α<β≤∞
Sn − na
1
√
P(α ≤
≤ β) →n→∞ √
σ n
2π
Zβ
x2
e− 2 dx
α
−na
d.h. Sσn√
ist „fast“ N (0, 1)-verteilt
n
Sn ist „fast“ N (na, nσ 2 )-verteilt
79
3 Grenzwertsätze
Spezialfall:
P(Xj = 0) = 1 − p
a = p, σ 2 = 1 − p
P(Xj = 1) = p
1
Sn − np
≤ β) →n→∞ √
P(α ≤ p
2π
np(1 − p)
Sn ∼ Bn,p
n k
p (1 − p)n−k
k
X
k≤n:α≤ √ k−np
np(1−p)
Zβ
x2
e− 2 dx
α
Moivre-Laplace (1740?)
≤β
Anwendungsbeispiele
Für „große“ n ersetze man die Verteilung von
Verteilung von Sn durch N (na, nσ 2 )
1) Würfel n mal,a = 27 ,
P(α ≤
σ2 =
S√
n −na
nσ
durch die N (0, 1)-Verteilung bzw. die
35
12
Sn − na
Sn − na
√
≤ β) ≈ N (0, 1)([α, β])
≤ β) = P(α ≤ q
nσ
35n
12
α = −2, β = −2
r
r
Z2
x2
35
35
1
P(35000 − 200
≤ Sn ≤ 35000 + 200
)≈ √
e− 2 dx ≈ 0.9545
12
12
2π
n = 10000,
−2
2) Rechnungen bei Banken
Gewinn oder Verlust der Banken seien gleichverteilt in [−0.005, 0.005]
2
−4
= 1012
a = 0, σ 2 = (b−a)
12
106 Rundungen
Zβ
x2
Sn
1
P(α ≤ q
≤ β) ≈ √
e− 2 dx
106 ·10−4
2π
α
12
P(α √1012 ≤ Sn ≤ β √1012 )
P(Ein Euro oder mehr Verlust) → β = −
→≈ 0.364517 . . .
2 Euro ≈ 0.149349
..
.
10 Euro ≈ 0.00026603
80
√
12
,
10
α = −∞
3) Zufällige Irrfahrt
Sn - Ort nach n Schritten, d.h. Mögliche Werte: −n, −n + 2, . . . , n − 2, n
p = 21 , ESn = 0, VSn = n4
Sn
1
P(α ≤ p n ≤ β) ≈ √
2π
2
Zβ
√
√
x2
e− 2 dx = P(2 nα ≤ Sn ≤ 2 nβ)
α
√
√
α = −1, β = 1 → P(−2 n ≤ Sn ≤ 2 n) ≈ 0.6826
√
√
α = −2, β = 2 → P(−4 n ≤ Sn ≤ 4 n) ≈ 0.9545
81
Index
3σ-Regel, 77
a posteriori, 29
a priori, 29
Bedingte Wahrscheinlichkeiten, 27
Bernoulli-Schema, 33
Binminialverteilung, 35
Binominialverteilung, 15
Boltzmann-Statistik, 14
Bose-Einstein-Statistik, 14
Grenzwertsätze, 76
Grundraum Ω, 6
Hypergeometrische Verteilung, 16
Häufigkeit
relative, 8
klass. Verteilung, siehe Gleichverteilung
Kovarianz, 68, 72
Lineare Transformationen, 51
Linerarität, 67
Cauchy, 67
Dichte, siehe Wahrscheinlichkeitsdichte
Dispersion, siehe Varianz
Einpunktverteilung, 13
Ereignis, 6
Eigenschaften, 7
Elementar-, 7
sicheres, 7
unmögliches, 7
Ereignis-σ-Algebra, 6
Erwartungswert, 61
stetiger Zufallsgrößen, 64
Exponentialverteilung, 27
Fermi-Dirac-Statistik, 14
Formel von Bayes, 30
Formel über die totale Wahrscheinlichkeit,
29
Gauß-Verteilung, siehe Normalverteilung
Gemeinsame Verteilung, 43
Geometrische Verteilung, 35–36
Gleichverteilung
diskret, 13
stetig, 20–25
82
Mittelwert, 39
Moment, 68
Monotonie, 68
Multiplikationsformel, 68
Normalverteilung, 25
Poisson-Verteilung, 16
Poissonscher-Grenzwertsatz, 17
posteriori, siehe a posteriori
priori, siehe a priori
Simulation
zufälliger Größen, 52
Streuung, siehe Varianz
totale Wahrscheinlichkeit, 29
Transformation, 50
zufälliger Größen, 50
Transformationssatz, 68
Unabhängigkeit, 30–33
zufälliger Größen, 47
Varianz, 68, 69
Wahrscheinlichkeitsdichte, 18
INDEX
Wahrscheinlichkeitsmaß, 6
diskret, 11
Eigenschaften, 10
stetig, 20
Eigenschaften, 20
Wahrscheinlichkeitsraum, 5, 6
Definition, 9
Wahrscheinlichkeitstheorie, 5
Zentraler Grenzwertsatz, 78
Zufallsexperiment, 5
Zufällige Größen, 39
Definition, 39
Verteilungsgesetz, 39
Zweipunktverteilung, 13
83
Herunterladen