Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Werbung
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Ein Wahrscheinlichkeitsraum
I eine Menge
Ω
(Ω, P)
ist
(Menge aller möglichen Ausgänge eines
Zufallsexperiments: Ergebnismenge)
versehen mit
P : P(Ω) → [0, 1] (Wahrscheinlichkeit):
Teilmenge von Ω (Ereignis ) wird eine Zahl
I einer Abbildung
Jeder
zwischen 0 und 1 zugeordnet (Wahrscheinlichkeit, dass
das Ereignis eintritt)
mit folgenden Eigenschaften (KolmogorovAxiome):
1.
2.
P(Ω) = 1 (sicheres Ereignis),
P(A ∪ B) = P(A) + P(B), falls A ∩ B = ∅
(Additionsregel für unvereinbare Ereignisse).
wahrscheinlichkeit.pdf, Seite 1
Beispiel fairer Würfel
Ω = {1, ..., 6} mit P({i}) = P(i) =
Augenzahlen i = 1, 2, ..., 6.
bzw. allgemeiner
P(A) =
1
6
· #A
1
6 für jede der möglichen
für jede Teilmenge
(#A bezeichnet die Anzahl der Elemente von
A⊂Ω
A).
Z. B. entspricht das Ereignis
Augenzahl ist nicht durch 3 teilbar der Menge
A = {1, 2, 4, 5}
mit
Für die Ereignisse
C:
P(A) =
B:
4
6
=
2
3.
Augenzahl durch 3 teilbar und
Augenzahl durch 5 teilbar gilt
B = {3, 6}, C = {5} ⇒ B ∩ C = ∅
und
B ∪ C = {3, 5, 6}
und somit
P(B ∪ C ) = P(B) + P(C ) =
1
3
+
1
6
=
1
2
= 50%.
wahrscheinlichkeit.pdf, Seite 2
Ereignisse
Als Ereignisse werden Teilmengen der Ergebnismenge
Ω
bezeichnet. Mengenoperationen beschreiben die Verknüpfung
von Ereignissen.
I
I
I
A ∩ B bedeutet sowohl A als auch B tritt ein,
A ∪ B bedeutet (mindestens) eines der Ereignisse A
B tritt ein,
A = Ω \ A bedeutet das Ereignis A tritt nicht ein
oder
wahrscheinlichkeit.pdf, Seite 3
Folgerungen aus den KolmogorovAxiomen
I
I
I
P(A ∪ B) = P(A) + P(B) − P(A ∩ B) für beliebige A, B ,
P(A) ≤ P(B), falls A ⊂ B (Monotonie),
P(A) = 1 − P(A),
c
wobei A = A = Ω \ A das Komplementärereignis zu A
bezeichnet.
I
P(∅) = 0
(unmögliches Ereignis)
Beispiele
I
I
P(Augenzahl durch 2 oder 3 teilbar )
= P({2, 4, 6}) + P({3, 6}) − P({6}) = 21 + 13 − 61 =
P(Augenzahl nicht durch 3 teilbar )
= 1 − P(Augenzahl durch 3 teilbar ) = 1 − 13 = 32
2
3.
wahrscheinlichkeit.pdf, Seite 4
Bestimmung von Wahrscheinlichkeiten
ist auf unterschiedliche Weise möglich. Die wichtigsten sind:
I durch ein Symmetrieprinzip:
Ein Zufallsexperiment hat endlich viele mögliche
Ausgänge, die alle als gleichwahrscheinlich angenommen
werden (Beispiel Augenzahl eines Würfels). Man spricht
von einem LaplaceExperiment.
I durch Schätzung anhand von Beobachtungen
I durch Berechnung ausgehend von bekannten
Wahrscheinlichkeiten
(Beispiel: Wahrscheinlichkeit, bei dreimaligem Würfeln
mindestens eine 6 zu erhalten)
wahrscheinlichkeit.pdf, Seite 5
Ein Laplace-Experiment
ist ein Zufallsexperiment, bei dem alle möglichen Ausgänge
gleich wahrscheinlich sind.
Ω
ist dabei endliche Menge mit
P({x}) =
1
n
für alle
x ∈A
=
1
n
· #A =
1
n
Elementen mit
(Gleichverteilung).
Für eine beliebige Teilmenge
P(A) =
n
A⊂Ω
folgt dann
mal Zahl der Elemente von
A
Zahl der günstigen durch Zahl der möglichen Fälle.
Beispiele
I fairer Würfel
I Münzwurf:
P (Wappen) = P (Zahl) =
1
2
= 50%
I Ziehen einer Spielkarte aus 32:
Die Wahrscheinlichkeit, dass ein Ass gezohen wird, ist
4/32
=
1
8
= 12, 5%.
wahrscheinlichkeit.pdf, Seite 6
Kombinatorik
Zur Bestimmung der Zahl der möglichen Ausgänge eines
Zufallsexperiments sind oft kombinatorische Überlegungen
erforderlich.
Wir betrachten drei Fälle:
I Permutationen: Zusammenstellungen von verschiedenen
Objekten in unterschiedlicher Reihenfolge
I Variationen: Auswahl einer Teilmenge von Objekten mit
Beachtung der Reihenfolge,
entweder mit oder ohne Wiederholung
I Kombinationen: Auswahl ohne Beachtung der Reihenfolge
wahrscheinlichkeit.pdf, Seite 7
Permutationen
Zahl der Möglichkeiten,
n
Elemente anzuordnen, ist gleich
Pn = n · (n − 1) · ... · 2 · 1 = n!
Beispiel 1:
Fakultät).
Traveling Salesman Problem
Geschäftsreisender besucht nacheinander
⇒ n!
(n
n
Orte
mögliche Reiserouten.
Beispiel 2
Zum Bespiel gibt es
P5 = 5! = 120
fünfstellige Zahlen, in
denen jede der Ziern 1, 2, 3, 4 und 5 genau einmal vorkommt.
wahrscheinlichkeit.pdf, Seite 8
Variationen (geordnete Auswahl) ohne Wiederholung
n!
= n · (n − 1) · ... · (n − k + 1)
(n−k)!
Möglichkeiten, k aus n Elementen auszuwählen, wenn die
Es gibt
Vnk =
Reihenfolge der Auswahl eine Rolle spielt.
Beispiel 1
In einer Liga mit 18 Mannschaften gibt es
5
V18
= 18 · 17 · 16 · 15 · 14 = 1.028.160
Möglichkeiten für die
Belegung der ersten 5 Tabellenplätze.
Beispiel 2
Es gibt
5
V26
=
26!
21!
= 26 · 25 · ...
22
= 7 893 600
aus
5 Kleinbuchstaben bestehende Passwörter, in denen kein
Buchstabe mehrfach vorkommt.
wahrscheinlichkeit.pdf, Seite 9
Variationen mit Wiederholung
Kann jedes Element mehrfach ausgewählt werden, so gibt es
k
bei der Auswahl von k aus n Elementen n Möglichkeiten.
Beispiele
I Beim viermaligen Werfen eines Würfels sind (bei
Berücksichtigung der Reihenfolge) 6
4
= 1296 verschiedene
Ergebnisse möglich, die Wahrscheinlichkeit für eine
Augenkombination (z. B. 3, 6, 6, 5) beträgt 1/1296.
I Es gibt 55
= 3125
fünfstellige Zahlen, die keine anderen
Ziern als 1, 2, 3, 4 und 5 enthalten.
wahrscheinlichkeit.pdf, Seite 10
Kombinationen
Die Zahl der Möglichkeiten,
k
von
n
Elementen auszuwählen,
ohne Beachtung der Reihenfolge (Kombinationen), ist gleich
n!
=
(n − k)! · k!
n
n
= Cnk
k
ist gleich der Anzahl der
k
nelementigen Menge.
Dabei setzt man 0!
=1
und
(Binomialkoezient n über
k elementigen
n
k
=0
falls
k ).
Teilmengen einer
k >n
oder
k < 0.
Beispiel
Die Zahl der Möglichkeiten beim Lotto 6 aus 49 ist
49
6
=
49!
43!
· 6!
=
49
· 48 · 47 · 46 · 45 · 44
= 13 983 816.
6·5·4·3·2·1
Die Wahrscheinlichkeit für eine bestimmte Zahlenkombination
ist damit 1/13.983.816
< 0, 00001%
wahrscheinlichkeit.pdf, Seite 11
Eigenschaften der Binomialkoezienten
Für Binomialkoezeineten gibt es eine Reihe von
Rechenregeln. Die wichtigsten sind:
I
I
I
n
0
=
=
n
=
n
1
2
n
n
=1
n
=
n−1
n·(n−1)
n
Pn−1
= j=
1 j = 1 + 2 + ... + (n − 1)
2
n
n
I
= n−k
k
(Symmetrie: Auswahl von
k
aus
n
Objekten ist
gleichbedeutend mit der Bestimmung von
I
I
n−k
Pn
Objekten, die nicht ausgewählt werden)
n
n
k=0 k = 2
(Anzahl aller Teilmengen einer
n+1
k
=
n
k
+
n
k−1
nelementigen
Menge)
(Summationseigenschaft)
wahrscheinlichkeit.pdf, Seite 12
Das Pascalsche Dreieck
liefert eine rekursive Berechnung der Binomialkoezienten mit
Hilfe der Summationseigenschaft:
n + 1-te Zeile enthält die Binomialkoezienten kn für
k = 0, ..., n. Dabei ist jeder Eintrag die Summe der beiden
Die
Einträge darüber, z. B. ist
8
3
= 56 =
7
2
+
7
3
= 21 + 35
wahrscheinlichkeit.pdf, Seite 13
Kombinationen mit Wiederholung
Dürfen bei der Auswahl von
nelementigen
k
Elementen aus einer
Menge ohne Beachtung der Reihenfolge
n+k−1
k
Elemente mehrfach vorkommen, so gibt es
Möglichkeiten.
Beispiel
Es gibt Gummibärchen in
k =4
n=6
Farben. Für die Auswahl von
Gummibärchen, die nicht alle verschiedenfarbig sein
müssen, gibt es dann
6+4−1
4
=
9
4
=
9·8·7·6
4!
= 126
verschiedene Möglichkeiten.
Warnung!
In dieser Situation sind nicht alle Kombinationen
gleichwahrscheinlich, d. h. obige Formel kann nicht zur
Bestimmung von Wahrscheinlichkeiten genutzt werden (siehe
Beispiel zu 2 Würfeln).
wahrscheinlichkeit.pdf, Seite 14
Zusammenfassung
Ein LaplaceExperiment, bei dem alle Ausgänge als
gleichwahrscheinlich angenommen werden können, erhält man
bei zufälliger Auswahl in folgenden Situationen:
I Anordnung von
n
Objekten:
n!
Möglichkeiten
I geordneter Auswahl von k aus n Objekten ohne
n!
Möglichkeiten
Wiederholung:
(n−k)!
I geordneter Auswahl von k aus n Objekten mit
k
Wiederholung: n Möglichkeiten
I Auswahl von
k
aus
n
Objekten ohne Wiederholung ohne
n
Beachtung der Reihenfolge:
Möglichkeiten
k
Dagegen liegt bei der Auswahl mit Wiederholung ohne
Beachtung der Reihenfolge kein LaplaceExperiment vor.
wahrscheinlichkeit.pdf, Seite 15
Berechnung von Wahrscheinlichkeiten, Beispiel 1
Wie groÿ ist die Wahrscheinlichkeit für 4 Richtige beim Lotto?
Die Wahrscheinlichkeit berechnet sich als
g
n
=
Zahl der günstigen Fälle durch Zahl der möglichen Fälle
Letztere ist
n=
49
6
= 13 983 816.
Die Zahl der günstigen Fälle erhält man durch folgende
Überlegung: Von den 6 getippten Zahlen müssen genau 4
gezogen werden. Dafür gibt es
6
4
= 15
Möglichkeiten.
Daneben müssen von den 43 nicht getippten Zahlen 2 gezogen
werden, wofür es
Somit ist
43
2
= 903
Möglichkeiten gibt
g = 15 · 903 = 13 545
und die gesuchte
Wahrscheinlichkeit
6
P=
43
( )·( )
=
( )
4
2
49
6
13 545
13 983 816
≈ 0, 1 %
wahrscheinlichkeit.pdf, Seite 16
Verallgemeinerung
Von
N
Objekten, von denen
haben, werden
n
K
eine besondere Eigenschaft
zufällig ausgewählt. Dann ist die
Wahrscheinlichkeit, dass unter den ausgewählten Objekten
genau
k
die besondere Eigenschaft haben, gleich
K
k
·
N−K
n−k
,
falls k ≥ 0, k ≥ n und k
N
n
Man spricht von einer hypergeometrischen Verteilung.
P(k) =
≤ K.
Weiteres Beispiel
Wie groÿ ist die Wahrscheinlichkeit, dass ein Skatspieler genau
2 Buben bekommt?
Es gibt
N = 32
Karten, unter denen
K =4
Buben sind. Der
Spieler bekommt n = 10 Karten ausgeteilt. Somit ist
(4)·(32−4)
(4)·(28)
P(k = 2) = 2 324−2 = 2 32 2 ≈ 28, 9%.
( )
4
( )
4
wahrscheinlichkeit.pdf, Seite 17
Berechnung von Wahrscheinlichkeiten, Beispiel 2
Wie groÿ ist die Wahrscheinlichkeit, beim viermaligen Würfeln
genau 2 Sechsen zu erhalten?
Es gibt
n = 64 = 1296
Möglichkeiten. Günstige Fälle sind
66XX, 6X6X, 6XX6, X66X, X6X6 und XX66, wobei X jeweils
für eine Augenzahl zwischen 1 und 5 steht. Für jede dieser
= 42 Kombinationen gibt es noch einmal
2
5 = 25 Möglichkeiten für die beiden X.
6
Somit ist die Gesamtzahl der günstigen Möglichkeiten
g = 6 · 25 = 150
P=
150
1296
( )·5
4
=
und die gesuchte Wahrscheinlichkeit
2
2
6
4
=
4
2
·
1 2
6
·
5 2
6
≈ 11, 6 %.
Bemerkung: Die benutzte Formel ist ein Spezialfall einer
Binomialverteilung, die dann vorliegt, wenn ein
Zufallsexperiment mit zwei möglichen Ausgängen
(Erfolg/Misserfolg, 6/keine 6)
n
mal wiederholt wird und
die Anzahl der Erfolge gezählt wird.
wahrscheinlichkeit.pdf, Seite 18
Zwei Würfel
Es gibt 36 Möglichkeiten, jede hat Wahrscheinlichkeit 1/36.
Ω = {(i, j) : 1 ≤ i, j ≤ 6}
mit
P(i, j) =
1
36 .
Mit
A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)}
(erster Würfel 2)
und
B = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)}
(zweiter Würfel 3)
ist
1
6 und
1
P(2, 3) = 36
=
P(A) = P(B) =
P(A ∩ B) =
P(A) · P(B)
Unabhängigkeit
A
und
B
heiÿen unabhängig, wenn
P(A ∩ B) = P(A) · P(B)
Interpretation: Das Eintreten von Ereignis
Einuss auf die Wahrscheinlichkeit von
B
A
hat keinen
und umgekehrt.
wahrscheinlichkeit.pdf, Seite 19
Beispiele
A = Augenzahl des ersten Würfels
B = Augensumme gerade ist
P(A) = P(B) = 12 und P(A ∩ B) = 14 ,
I Mit
gerade und
also sind die beiden Ereignisse unabhängig.
A = erster Würfel 4 und B = Augensumme
1
1
ist P(A) = , P(B) =
6
12 und
1
1
P(A ∩ B) = P(4, 6) = 36
6= 16 · 12
,
also sind A und B nicht unabhängig.
Mit A = erste gezogene Spielkarte ist ein Ass
und B = zweite Karte ist ein Bube ist
P(A) = P(B) = 81 und
4
1
P(A ∩ B) = 18 · 31
= 62
6= 81 · 18 ,
I Mit
I
10
d. h. die beiden Ereignisse sind nicht unabhängig.
wahrscheinlichkeit.pdf, Seite 20
Bedingte Wahrscheinlichkeit
Unabhängigkeit umformuliert:
P(A ∩ B) = P(A) · P(B) ⇔ P(A) = P(A ∩ B)/P(B).
Allgemein deniert man die bedingte Wahrscheinlichkeit von
unter
B
als
P(A|B) =
P(A ∩ B)
.
P(B)
Interpretation: Wahrscheinlichkeit für
dass
B
A
A,
wenn bekannt ist,
eingetreten ist.
Bemerkungen
I
I
P(A|B) ist nur deniert, wenn P(B) > 0.
Falls P(A), P(B) > 0, so gilt
A und B unabhängig ⇔ P(A|B) = P(A) ⇔ P(B|A) = P(B).
wahrscheinlichkeit.pdf, Seite 21
Beispiele bei zwei Würfeln
I
A:
Augensumme 10,
Dann ist
P(A) =
⇒ P(A|B) =
P(B|A) =
I
I
1/36
1/6
1/36
1/12
=
3
36
=
1
3
B : erster Würfel 4,
1
= 12
,
P(B) = 61 , P(A ∩ B) =
1
6
6= P(A) =
6= P(B) =
1
36
1
12 sowie
1
6.
A: Augensumme 7, B : erster Würfel 6,
1
P(A|B) = 11//36
6 = 6 = P(A) sowie
P(B|A) = 61 = P(B),
d. h. A und B sind unabhängig.
A: 6 Richtige beim Lotto,
B : die ersten 5 gezogenen Zahlen stimmen,
1
P(A|B) = 44
≈ 2, 27% > P(A) sowie
P(B|A) = 1 6= P(B).
wahrscheinlichkeit.pdf, Seite 22
Beispiel Kartenspiel (mit 32 Karten)
Es werden zwei Karten (ohne Zurücklegen) gezogen. Wie groÿ
ist die Wahrscheinlichkeit, dass zwei Asse gezogen werden?
Mit
A=
erste Karte ist ein Ass
und
B=
zweite Karte ist ein Ass
ist
P(A) =
4
32
=
1
8 und
P(B|A) =
(da unter der Annahme, dass
A
3
31
eingetreten ist, unter den
verbleibenden 31 Karten noch 3 Asse sind).
Daraus kann jetzt die gesuchte Wahrscheinlichkeit berechnet
werden:
P(A ∩ B) = P(A) · P(B|A) =
1
8
·
3
31
=
3
248
≈ 0, 012 = 1, 2%
wahrscheinlichkeit.pdf, Seite 23
Mehrstuge Zufallsexperimente
Die Formel
P(A ∩ B) = P(A) · P(B|A)
eignet sich zur
Bestimmung von Wahrscheinlichkeiten bei mehrstugen
Zufallsexperimenten.
Beispiel
In einer Kiste benden sich 7 weiÿe und 4 schwarze Socken.
Wo groÿ ist die Wahrscheinlichkeit, dass zwei zufällig
herausgegriene Socken die gleiche Farbe haben?
Mit den Ereignissen
A = erste Socke weiÿ und B = zweite
(A ∩ B) ∪ (A ∩ B) das Ereignis Beide
Socke weiÿ beschreibt
Socken haben die gleiche Farbe.
7
6
P(A ∩ B) = P(A) · P(B|A) = 11
· 10
=
4
3
6
P(A ∩ B) = P(A) · P(B|A) = 11 · 10 = 55 .
Es ist
Da
A∩B
und
A∩B
21
Wahrscheinlichkeit
55
21
55 sowie
unvereinbar sind, beträgt die gesuchte
+
6
55
=
27
55
≈ 49, 1 %.
wahrscheinlichkeit.pdf, Seite 24
Totale Wahrscheinlichkeit
Sind
A
sowie
und
B
Ereignisse, so gilt
B = (A ∩ B) ∪ (A ∩ B)
(A ∩ B) ∩ (A ∩ B) = ∅.
Aus den KolmogorovAxiomen folgt daher
P(B) = P(A ∩ B) + P(A ∩ B)
= P(A) · P(B|A) + P(A) · P(B|A).
Allgemeiner gilt
P(B) =
wenn
Pn
k=1
P(Ak ) · P(B|Ak ),
Ω = A1 ∪ ... ∪ An
mit
Ai ∩ Aj = ∅
eine Zerlegung des
Wahrscheinlichkeitsraumes ist.
Im letzten Sockenbeispiel
Mit
P(B|A) =
7
10 erhält man
P(B) = P(A) · P(B|A) + P(A) · P(B|A) =
7
11
·
6
10
+
4
11
·
7
10
=
wahrscheinlichkeit.pdf, Seite 25
7
11 .
Weiteres Beispiel
Es werden EMails untersucht, die zum Teil Spam sind.
Betrachtet werden die Ereignisse
S =Mail
ist Spam sowie
G =Mail
enthält das Wort Gewinn
Aus Erfahrungswerten seien folgende Wahrscheinlichkeiten
bekannt:
P(S) = 0, 25, P(G |S) = 0, 19
und
P(G |S) = 0, 01,
d. h. jede 4. Mail ist Spam und 19% aller Spammails sowie 1%
aller NichtSpamMails enthalten das Wort Gewinn. Es folgt
P(G ) = P(S) · P(G |S) + P(S) · P(G |S) = 0, 055,
also enthalten 5, 5% aller Mails das Wort Gewinn.
wahrscheinlichkeit.pdf, Seite 26
Formel von Bayes
Nach Denition der bedingten Wahrscheinlichkeit gilt für
Ereignisse
A
und
B
P(A ∩ B) = P(A) · P(B|A)
sowie
P(A ∩ B) = P(B) · P(A|B)
Durch Gleichsetzen dieser beiden Ausdrücke erhält man mit
der Formel der totalen Wahrscheinlichkeit den Satz von Bayes:
P(A|B) =
P(A) · P(B|A)
P(A) · P(B|A)
=
,
P(B)
P(A) · P(B|A) + P(A) · P(B|A)
bzw. bei einer Zerlegung
Ω = A1 ∪ ... ∪ An
P(Ak ) · P(B|Ak )
P(Ak |B) = Pn
.
i=1 P(Ai ) · P(B|Ai )
wahrscheinlichkeit.pdf, Seite 27
Anwendung: Bayes'scher Spamlter
Im letzten Beispiel:
P(S) = 0, 25
(25% SpamMails),
P(G |S) = 0, 19
(19% davon enthalten das Wort Gewinn)
P(G |S) = 0, 01
(1% der übrigen Mails enthalten das Wort Gewinn)
Dann folgt
P(S) · P(G |S)
P(S) · P(G |S) + P(S) · P(G |S)
0, 25 · 0, 19
=
≈ 0, 864,
0, 25 · 0, 19 + 0, 75 · 0, 01
P(S|G ) =
d. h. eine Mail mit dem Wort Gewinn ist zu 86, 4% Spam.
wahrscheinlichkeit.pdf, Seite 28
Herunterladen