Grundbegriffe der Wahrscheinlichkeitstheorie 1 Zufällige Ereignisse

Werbung
Grundbegriffe der Wahrscheinlichkeitstheorie
Die Stochastik ist ein Teilgebiet der Mathematik und fasst als Oberbegriff die
Gebiete Wahrscheinlichkeitstheorie und Statistik zusammen.
Mathematik des Zufalls −→ Modellierung zufallsabhängiger Phänomene (die Ergebnisse dieser Phänomene sind unsicher; der Zufall ist etwas was man nicht vorausgesehen hat, was nicht beabsichtigt war, was unerwartet geschah).
ars conjectandi [lat.]= Kunst des Vermutens, Ratekunst
aleatorius [lat.] =zufällig
alea [lat.]= Spielwürfel
Im Alltag werden Ausdrücke benutzt wie: es ist möglich, wahrscheinlich, welches
sind die Chancen, unmöglich, unsicher... Unabsichtlich passiert Unerklärliches.
1
Zufällige Ereignisse und Elementarereignisse
In der Wahrscheinlichkeitstheorie bezeichnet ein Zufallsexperiment (auch Zufallsvorgang oder Zufallsversuch genannt) einen Versuch, der unter genau festgelegten Versuchsbedingungen durchgeführt wird und einen zufälligen Ausgang
hat.
Beispiele:
• Einmaliges Werfen eines Würfels oder einer Münze;
• Einmaliges Ziehen einer Karte aus einem gemischten Stapel;
• Einmaliges Drehen eines Glücksrades;
• Ziehen von mehreren Losen aus einer Lostrommel bzw. mehrerer Kugeln aus
einer Urne (mit oder ohne Zurücklegen);
• Es wird zuerst gewürfelt und anschließend werden so viele Kugeln aus einer Urne
gezogen, wie die Augenzahl des Würfels zeigt;
• Man würfelt solange bis eine ”1” erzielt wird.
Der Grundraum Ω (Ergebnismenge oder Ergebnisraum) des Experimentes enthält
alle möglichen Ausgänge des Experiments. Die Elemente ω aus Ω nennt man die
Elementarereignisse des Experiments und man schreibt ω ∈ Ω. Eine Teilmenge
A von Ω heißt zufälliges Ereignis und man schreibt A ⊆ Ω.
Das unmögliche Ereignis ∅ ist das Ereignis das im Experiment nie auftaucht und
das sichere Ereignis ist das Ereignis das in jeder Durchführung des Experiments
auftaucht.
1
• A ist das Komplement des Ereignisses A , d.h. A enthält alle Elementarereignisse die nicht in A sind.
• Aus dem Ereignis A folgt das Ereignis B wenn jedes Element aus A auch element
aus B ist, d.h. A ⊆ B. Wenn aus A B folgt und ausB folgt A, dann sind die beiden
Ereignisse A und B gleich A = B.
• Die Vereinigung der Ereignisse A und B
A ∪ B = {e ∈ S : e ∈ A or e ∈ B}.
• Der Durchschnitt der Ereignisse A und B:
A ∩ B = {e ∈ S : e ∈ A and e ∈ B}.
• Die Ereignisse A und B sind disjunkt wenn A ∩ B = ∅.
• Die Differenzder zufälligen Ereignisse A und B
A \ B = A ∩ B.
• Die symmetrische Differenzder zufälligen Ereignisse A und B:
A∆B = (A ∪ B) \ (A ∩ B).
• Die Vereinigung, Durchschnitt und symmetrische Differenz sind kommutativ:
A ∪ B = B ∪ A,
A ∩ B = B ∩ A,
A∆B = B∆A;
assoziativ:
(A ∪ B) ∪ C = A ∪ (B ∪ C),
(A ∩ B) ∩ C = A ∩ (B ∩ C),
(A∆B)∆C = A∆(B∆C);
und distributiv:
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C),
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C),
A ∩ (B∆C) = (A ∩ B)∆(A ∩ C).
• Für beliebige Ereignisse (Ai )i∈I aus Ω gelten die Regeln von De Morgan:
∪
i∈I
Ai =
∩
∩
Ai ,
i∈I
i∈I
2
Ai =
∪
i∈I
Ai .
• Die Folge (An )n∈N von zufälligen Ereignissen aus Ω ist monoton wachsend,
wenn
An ⊆ An+1 ∀ n ∈ N,
und sie ist monoton fallend, wenn
An+1 ⊆ An
∀ n ∈ N.
Definition 1.1. Eine Menge von Ereignissen (Ai )i∈I aus Ω heißt vollständiges
System von Ereignissen (Partition, Unterteilung) aus Ω, wenn
∪
Ai = Ω
i∈I
und für alle i, j ∈ I, i ̸= j, die Ereignisse Ai und Aj disjunkt sind.
2
σ-Algebren und Wahrscheinlichkeiten
Definition 2.1. Eine Menge K von Ereignissen aus Ω heißt σ-Algebra wenn folgende Bedingungen erfüllt sind:
(i) K ̸= ∅;
(ii) wenn A ∈ K, dann A ∈ K;
(iii) wenn An ∈ K für alle n ∈ N, dann
∞
∪
An ∈ K.
n=1
Wenn K eine σ-Algebra im Grundraum Ω ist, dann wird das Paar (Ω, K) meßbarer
Raum genannt.
Beispiel 2.2.
(1) Die Menge aller Teilmengen aus Ω ist eine σ-Algebra und wird mit P(Ω) bezeichnet.
(2) Seien (S, K) und (S ∗ , K∗ ) meßbare Räume und sei T : S → S ∗ eine Funktion.
Dann ist
T −1 (K∗ ) = {T −1 (A∗ ) : A∗ ∈ K∗ }
♢
eine σ-Algebra in Ω.
Eigenschaft 2.3. Sei K eine σ-Algebra in Ω, dann gilt:
3
(1) ∅, Ω ∈ K.
(2) Für A, B ∈ K gilt A ∩ B, A \ B, A∆B ∈ K.
(3) Seien An ∈ K für alle n ∈ N. Es folgt
∞
∩
An ∈ K.
n=1
Definition 2.4. Sei K eine σ-Algebra in Ω. Eine Abbildung P : K → R heißt
Wahrscheinlichkeit wenn folgende Axiome erfüllt sind:
(i) P(Ω) = 1;
(ii) P(A) ≥ 0 für alle A ∈ K;
(iii) für jede Folge (An )n∈N von paarweise disjunkten Ereignissen aus K gilt
∞
∞
(∪
) ∑
P
An =
P(An ),
n=1
n=1
d.h. P ist σ-additiv.
Das Tripel (Ω, K, P) wird Wahrscheinlichkeitsraum genannt.
Satz 2.5. Sei (Ω, K, P) ein Wahrscheinlichkeitsraum und A, B ∈ K. Es gelten
folgende Eigenschaften:
(1) P(A) = 1 − P(A) und 0 ≤ P(A) ≤ 1.
(2) P(∅) = 0.
(3) P(A \ B) = P(A) − P(A ∩ B).
(4) Wenn A ⊆ B, dann P(A) ≤ P(B), d.h. P ist monoton.
(5) P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Satz 2.6. Sei (Ω, K, P) Wahrscheinlichkeitsraum und sei (An )n∈N eine Folge von
Ereignissen aus K. Dann gelten folgende Eigenschaften:
(1) Einschluß-Ausschluß Formel:
n
n
n
(∪
)
∑
∑
P
Ai =
P(Ai ) −
P(Ai ∩ Aj ) + . . .
i=1
i=1
i,j=1
i<j
+(−1)
n−1
4
P(A1 ∩ . . . ∩ An ) ∀ n ∈ N
(2) P ist subadditiv, d.h.
∞
∞
(∪
) ∑
P
An ≤
P(An ).
n=1
n=1
Satz 2.7. Sei (Ω, K, P) Wahrscheinlichkeitsraum. Es gelten folgende Eigenschaften:
(1) Wenn (An )n∈N eine wachsende Folge von Ereignissen aus K ist, dann
∞
)
(∪
lim P(An ) = P
An .
n→∞
n=1
(2) Wenn (Bn )n∈N eine fallende Folge von Ereignissen aus K ist, dann
∞
(∩
)
lim P(Bn ) = P
Bn .
n→∞
n=1
2.1 Klassische Definition der Wahrscheinlichkeit
Wir betrachten ein Experiment welches endlich viele, gleichwahrscheinliche Ergebnisse hat. Die Wahrscheinlichkeit, dass das Ereignis A eintretet ist
P(A) =
Anzahl der günstigen Fälle für das Eintreten von A
.
Anzahl aller möglichen Fälle innerhalb des Experiments
Beispiel 2.8 (Würfelspiele - XVII. Jh.).
Der Provinzadelige Chevalier de Méré war ein leidenschaftlicher Spieler. Gerne
verführte er am Pariser Hof seine Mitspieler zu folgendem Würfelspiel:
(1) “Wir werfen einen Würfel viermal. Wenn eine oder mehrere Sechsen dabei
sind, gewinne ich. Wenn keine Sechs dabei ist, gewinnen Sie”.
Tatsächlich gewann der Chevalier mit diesem Spiel regelmäßig Geld. Er dachte
sich eine neue Variante aus, die ebenso lukrativ sein sollte:
(2) “Wir werfen ein Paar von Würfeln 24 mal. Wenn dabei eine Doppel-Sechs oder
mehrere sind, gewinne ich. Wenn keine Doppel-Sechs dabei ist, gewinnen Sie.”
Würden Sie die Wette annehmen?
Eine Wette ist für Sie von Vorteil, wenn Ihre Gewinnchance größer als 50% ist.
(3) Wenn man statt 24 Würfen 25 mal würfelt, ändert sich die Schlussfolgerung
von (2)?
Wir berechnen die Wahrscheinlichkeiten folgender Ereignisse:
A: man erhält mindestens eine 6 in 4 Würfen mit einem Würfel;
B: man erhält mindestens ein Paar (6,6) in 24 Würfen mit zwei Würfeln;
5
C: man erhält mindestens ein Paar (6,6) in 25 Würfen mit zwei Würfeln.
A bezeichnet das Ereignis, dass keine 6 eingetreten ist in 4 Würfen von einem
Würfel. Dieses Experiment hat 64 mögliche Ergebnisse. Dieses ist die Anzahl der
Funktionen F welche man definieren kann
F : {r1 , r2 , r3 , r4 } → {1, 2, 3, 4, 5, 6},
wobei F (ri ) anzeigt welche Zahl in dem i-ten Wurf erhalten wurde, i = 1, . . . , 4.
Um die Anzahl der günstigen Fälle für das Eintreten des Ereignisses A zu berechnen, bemerkt man, dass man in jedem Wurf 5 Möglichkeiten hat keine 6 zu erhalten. Somit hat man in 4 Würfen 54 Möglichkeiten keine 6 zu erhalten. Dieses ist
die Anzahl der Funktionen G die man definieren kann
G : {r1 , r2 , r3 , r4 } → {1, 2, 3, 4, 5},
wobei G(ri ) anzeigt welche Zahl 1, 2, 3, 4 oder 5 (keine 6) erhalten wurde in dem
i-ten Wurf, i = 1, . . . , 4. Es folgt,
P(A) =
also
P(A) = 1 −
54
,
64
54
≈ 0.5177.
64
B bezeichnet das Ereignis, dass kein Paar (6,6) in 24 Würfen von zwei Würfeln
erhalten wurde. Das Experiment hat 3624 mögliche Ergebnisse. Dieses ist die
Anzahl der Funktionen F die man definieren kann
F : {r1 , r2 , . . . , r24 } → {(1, 1), (1, 2), . . . , (6, 6)},
wobei F (ri ) anzeigt welches Paar in dem i-ten Wurf von zwei Würfeln erhalten
wurde, i = 1, . . . , 24. Um die Anzahl der günstigen Fälle für das Eintreten des
Ereignisses B zu berechnen, bemerkt man, dass man in jedem Wurf von zwei
Würfeln 35 Möglichkeiten hat kein Paar (6,6) zu erhalten. Somit hat man in 24
Würfen von zwei Würfeln 3524 Möglichkeiten kein Paar (6,6) zu erhalten. Dieses
ist die Anzahl der Funktionen G die man definieren kann
G : {r1 , r2 , . . . , r24 } → {(1, 1), (1, 2), . . . , (6, 5)},
wobei G(ri ) anzeigt welches Paar (ohne dem Paar (6,6)) in dem i-ten Wurf von
zwei Würfeln erhalten wurde, i = 1, . . . , 24. Somit
P(B) =
6
3524
,
3624
also
3524
≈ 0.4914
3624
P(B) = 1 −
und analog
3525
≈ 0.5055.
3625
Wir vergleichen die erhaltenen Wahrscheinlichkeiten
P(C) = 1 −
P(B) <
1
< P(C) < P(A).
2
♢
2.2 Bedingte Wahrscheinlichkeiten
Definition 2.9. Sei (Ω, K, P) ein Wahrscheinlichkeitsraum und seien A, B ∈ K.
Die bedingte Wahrscheinlichkeit von A durch B ist P(·|B) : K → R definiert
durch
P(A ∩ B)
P(A|B) =
,
P(B)
wenn P(B) > 0. P(A|B) ist die Wahrscheinlichkeit des Eintretens des Ereignisses
A unter der Bedingung, dass das Eintreten des Ereignisses B bereits bekannt ist.
Eigenschaft 2.10. Sei (Ω, K, P) ein Wahrscheinlichkeitsraum und sei B ∈ K so
dass P(B) > 0. Dann ist (Ω, K, P(·|B)) ein Wahrscheinlichkeitsraum.
Proof. Es gilt
P(A|B) =
P(A ∩ B)
≥ 0,
P(B)
P(Ω|B) =
P(Ω ∩ B)
=1
P(B)
und für ein vollständiges System von Ereignissen (An )n∈N aus K rechnet man
P
∞
(∪
An |B
P
)
∞
(∪
n=1
=
P(B)
n=1
=
)
(An ∩ B)
∞
∑
P(An |B).
n=1
7
=
∞
∑
P(An ∩ B)
n=1
P(B)
Eigenschaft 2.11 (Multiplikationsregel). Sei (Ω, K, P) ein Wahrscheinlichkeitsraum
und seien A1 , . . . , An ∈ K so dass
P(A1 ∩ . . . ∩ An−1 ) > 0.
Es gilt
P(A1 ∩ . . . ∩ An ) = P(A1 )P(A2 |A1 ) . . . P(An |A1 ∩ . . . ∩ An−1 ).
Proof. Anhand der Definition der bedingten Wahrscheinlichkeit gilt
P(A1 )P(A2 |A1 ) . . . P(An |A1 ∩ . . . ∩ An−1 )
P(A1 ∩ A2 )
P(A1 ∩ . . . ∩ An−1 ∩ An ))
= P(A1 )
...
P(A1 )
P(A1 ∩ . . . ∩ An−1 )
= P(A1 ∩ . . . ∩ An ).
Eigenschaft 2.12 (Satz von der totalen Wahrscheinlichkeit). In einem Wahrscheinlichkeitsraum (Ω, K, P) sei (Ai )i∈I ein vollständiges System von Ereignissen mit
P(Ai ) > 0 und Ai ∈ K für alle i ∈ I. Für A ∈ K gilt
∑
P(A) =
P(Ai )P(A|Ai ).
i∈I
Proof. Da (Ai )i∈I ein vollständiges System von Ereignissen aus Ω ist, folgt
(∪
) ∑
∑
P(A) = P
(A ∩ Ai ) =
P(A ∩ Ai ) =
P(Ai )P(A|Ai ).
i∈I
i∈I
i∈I
Eigenschaft 2.13 (Formel von Bayes). In einem Wahrscheinlichkeitsraum (Ω, K, P)
sei (Ai )i∈I ein vollständiges System von Ereignissen mit P(Ai ) > 0 und Ai ∈ K
für alle i ∈ I und sei A ∈ K, so dass P(A) > 0. Es gilt
P(Aj )P(A|Aj )
P(Aj |A) = ∑
P(Ai )P(A|Ai )
i∈I
8
∀j ∈ I.
Proof. Da (Ai )i∈I ein vollständiges System von Ereignissen aus Ω ist, folgt
(∪
) ∑
P(A) = P
(A ∩ Ai ) =
P(A ∩ Ai ).
i∈I
i∈I
Anhand der Definition der bedingten Wahrscheinlichkeit gilt
P(Aj |A) =
P(Aj )P(A|Aj )
P(Aj ∩ A)
P(Aj )P(A|Aj )
= ∑
=∑
.
P(A)
P(A ∩ Ai )
P(Ai )P(A|Ai )
i∈I
i∈I
Bemerkung 2.14.
P(Ai ) für i ∈ I sind die a priori Wahrscheinlichkeiten und P(Aj |A) heißt a
posteriori Wahrscheinlichkeit.
△
Beispiel 2.15.
Ein Laden verkauft elektronische Chips, die von drei Lieferanten S1 , S2 , S3 stammen. 40% der Chips sind von S1 , 35% von S2 und 25% von S3 . Man weiss,
dass 2% der Chips von S1 fehlerhaft sind, 1% von S2 sind fehlerhaft und 3% von
S3 haben Fehler. Jemand wählt zufällig einen Chip und stellt fest, dass er fehlerhaft ist. Welches ist die Wahrscheinlichkeit, dass der Chip vom Lieferanten S2
stammt? Welches ist die Wahrscheinlichkeit, dass ein zufällig gewählter Chip aus
dem Laden fehlerhaft ist?
Wir betrachten die Ereignisse:
D: Chip ist fehlerhaft
Ai : Chip wurde von Si hergestellt, i = 1, 2, 3.
Es gilt
35
25
40
, P(A2 ) =
, P(A3 ) =
P(A1 ) =
100
100
100
und
2
1
3
P(D|A1 ) =
, P(D|A2 ) =
, P(D|A3 ) =
.
100
100
100
Laut der Bayesschen Formel
P(A2 |D) =
P(A2 )P(D|A2 )
3
∑
P(Ai )P(D|Ai )
i=1
9
=
7
≈ 0.1842 .
38
Die Wahrscheinlichkeit, dass ein Chip fehlerhaft ist wird berechnet durch
P(D) =
3
∑
P(Ai )P(D|Ai ).
i=1
♢
2.3 Unabhängigkeit von Ereignissen
Definition 2.16. Sei (Ω, K, P) ein Wahrscheinlichkeitsraum. Die Ereignisse A, B ∈
K sind unabhängig, wenn
P(A ∩ B) = P(A)P(B).
Eine Folge von Ereignissen (An )n∈N aus K heißt unabhängig, wenn
P(Ai1 ∩ . . . ∩ Aim ) = P(Ai1 ) . . . P(Aim )
für jede endliche Menge {i1 , . . . , im } ⊂ N.
Eine Folge (An )n∈N aus K heißt Folge von paarweise unabhängigen Ereignissen,
wenn
P(Ai ∩ Aj ) = P(Ai )P(Aj )
für alle i, j ∈ N, i ̸= j.
Bemerkung 2.17. Die Ereignisse A und B sind unabhängig wenn und nur wenn
die Wahrscheinlichkeit von A nicht durch B beeinflusst wird und umgekehrt.
Eigenschaft 2.18. Sei (Ω, K, P) ein Wahrscheinlichkeitsraum und seien A, B ∈ K.
Folgende Aussagen sind äquivalent:
(1) A und B sind unabhängig.
(2) A und B sind unabhängig.
(3) A und B sind unabhängig.
(4) A und B sind unabhängig.
Proof. Wir benutzen die Eigenschaften aus Satz 2.5 und Definition 2.16.
(1)⇔(2):
P(A ∩ B) = P(A)P(B) ⇔ P(B) − P(A ∩ B) = P(B)P(A)
⇔ P(B \ A) = P(B)P(A) ⇔ P(A ∩ B) = P(A)P(B).
10
(1)⇔(3):
P(A ∩ B) = P(A)P(B) ⇔ P(A) − P(A ∩ B) = P(A)P(B)
⇔ P(A \ B) = P(A)P(B) ⇔ P(A ∩ B) = P(A)P(B).
(1)⇔(4):
P(A ∩ B) = P(A)P(B) ⇔ P(A ∪ B) = P(A) + P(B) − P(A)P(B)
⇔ 1 − P(A ∪ B) = P(A)P(B) ⇔ P(A ∩ B) = P(A)P(B).
3 Kombinatorik
Wie viele Möglichkeiten gibt es, k Elemente aus n Elementen auszuwählen?
Beispiel: k = 2, n = 3
geordnet
ungeordnet
(Variation)
(Kombination)
mit
Wiederholung
(1, 1), (1, 2), (1, 3)
(2, 1), (2, 2), (2, 3)
(3, 1), (3, 2), (3, 3)
{1, 1}, {1, 2}, {1, 3}
{2, 2}, {2, 3}, {3, 3}
ohne
Wiederholung
(1, 2), (1, 3), (2, 1)
(2, 3), (3, 1), (3, 2)
{1, 2}, {1, 3}, {2, 3}
• Variationen mit Wiederholung:
n
· · · · · n} = nk
| · n {z
k−mal
Möglichkeiten gibt es k Elemente aus einer n-elementigen Menge auszuwählen
mit Berücksichtigung der Reihenfolge (geordnete Auswahlen, mit Wiederholung /
Ziehen mit Zurücklegen).
• Permutationen: Die Elemente einer n-elementigen Menge lassen sich auf
n! := 1 · 2 · 3 · · · · · n
Arten anordnen (geordnete Auswahl, ohne Wiederholung ). Für n = 0 gilt die
Vereinbarung 0! := 1.
• Variationen ohne Wiederholung:
Vnk
:= n(n − 1)(n − 2) · · · (n − k + 1) =
k−1
∏
(n − i)
i=0
11
zeigt an wie viele Möglichkeiten es gibt k verschiedene Elemente aus einer nelementigen Menge auszuwählen mit Berücksichtigung der Reihenfolge (geordnete Auswahlen, ohne Wiederholung / Ziehen ohne Zurücklegen).
• Kombinationen (Binomialkoeffizienten): Für n, k ∈ N∗ mit k ≤ n heißt
( )
n
n!
k
Cn =
:=
k
k!(n − k)!
der Binomialkoeffizient von n über k und zeigt an wie viele Möglichkeiten es
gibt k verschiedene Elemente aus n Elementen auszuwählen ohne die Reihenfolge
zu berücksichtigen (ungeordnete Auswahlen, ohne Wiederholung / Ziehen ohne
Zurücklegen).
Satz 3.1 (Binomischer Lehrsatz). Für a, b ∈ R und n ∈ N∗ gilt:
(a + b)n =
n
∑
k=0
12
Cnk ak bn−k .
Herunterladen