Wahrscheinlichkeitstheorie Rohfassung

Werbung
Wahrscheinlichkeitstheorie
Rohfassung
Prof. Dr. Hans-Jürgen Steens
Fachhochschule Kaiserslautern Standort Zweibrücken
[email protected]
6. Januar 2015
2
Kapitel 1
Kombinatorik und elementare
Wahrscheinlichkeitsrechnung
1.1
Endliche Mengen
M
N → M
Endliche Mengen
lassen sich dadurch charakterisieren, dass es keine injekti-
ve Funktion
gibt. Man kann zeigen (etwa mit Hilfe des sog. Zorn'schen
Lemmas), dass eine Menge genau dann endlich ist (im Sinne der geschilderten Charakterisierunges), wenn es eine natürliche Zahl
bijektiv auf
M
n ∈ N
gibt, so dass
{0, 1, · · · , n}
abgebildet werden kann. Das heiÿt aber nichts anderes, als dass
die Elemente von
M
als Aufzählung
{m0 , m1 , · · · , mn } geschrieben werden können,
oder aber, wenn man die Indizes stellvertretend für die Elemente benutzt, direkt
als Zahlenmenge
{0, 1, · · · , n}
selbst.
Die Anzahl der Elemente einer endlichen Menge
demnach
n
M = {m0 , m1 , · · · , mn−1 }
beträgt
und man schreibt hierfür
|M | = n.
Zwei endliche Mengen
M
und
N
sind demnach gleichmächtig, wenn sie dieselbe
Anzahl von ELementen beinhalten, wenn also gilt
|M | = |N |.
Für die Mächtigkeiten gelten folgende Formeln
Satz 1.1.
i) Für paarweise disjunkte Mengen Mi (i = 1, · · · , n) gilt
n
n
∪
∑
|Mi |.
Mi =
i=1
i=1
(Paarweise disjunkt bedeutet, dass Mi ∩ Mj = ∅ für i ̸= j .)
ii) Für das nfache kartesische Produkt M1 × · · · × Mn ergibt sich
|M1 × M2 × · · · × Mn | = |M1 | · |M2 | · · · |Mn |.
iii) Für die Menge aller Abbildungen einer Menge M in eine Menge N notiert
mit N M gilt
M
N = |N ||M | .
3
4KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
iv) Für die Menge aller Teilmengen einer Menge M notiert mit 2M gilt
M
2 = 2|M | .
Beweis.
to be done
2
1.1.1 Permutationen
Wir betrachten im folgenden sog. Permutationen einer endlichen Menge. Unter einer Permutation verstehen wir intuitiv eine Vertauschung von Elementen, also eine
Art Umsortierung.
Stellt man sich eine Sortierung so vor, dass jedes Element der betrachteten Menge
gleichsam eine (fortlaufende) Platznummer besitzt (so wie die Besucher eíner ausverkauften Kinovorstellung), dann bedeutet das Umsortieren der Elemente nichts
anderes als die Zuweisung anderer Platznummern. Diese kann durch eine Ziehung"vorgenommen werden: alle Platznummern kommen in eine Lostrommel und
werden der Reihe nach gezogen. Das Element der ersten gezogenen Platznummer
erhält die 0 als neue Platznummer, das Element der zweiten gezogenen Platznummer erhält die 1 als neue Platznummer etc.
Auf diese Weise ist automatisch mit der Umsortierung eine Funktion
π(i)
verbun-
den, die bijektiv ist, da bei einer Umsortierung kein Platz frei bleibt (die Funktion
also surjektiv ist) und auch kein Platz doppelt belegt wird (die Funktion also injektiv ist).
Umgekehrt kann jede bijektive Funktion von
{0, 1, · · · n}
auf sich selbst oensicht-
lich als die Festlegung einer Umsortierung im obigen Sinne angesehen werden. Es ist
deshalb naheliegend den mathematischen Begri einer Permutation im Sinne einer
Umsortierung wie folgt festzulegen:
tion
Denition 1.2.
Eine Permutation π ist (nichts anderes) eine bijektive Funkπ : {0, 1, · · · n} → {0, 1, · · · n}.
Eine Permutation kann damit als Rechteckmatrix in der Rolle als Wertetabelle
dargestellt werden:
(
0
1
···
π(0) π(1) · · ·
n
π(n)
)
Diese Matrix repräsentiert also eine Ziehung, bei der als erste Platznummer
als zweite die Nummer
π(1)
Die Anzahl aller denkbaren bijektiven Funktionen von
ist mit wachsendem
Satz 1.3.
tionen.
Beweis.
n
{0, 1, · · · n}
auf sich selbst
(extrem) stark wachsend. Es gilt nämlich:
Für eine nelementige Menge M gibt es n! verschiedene Permuta-
per Induktion über
n
2
k Nummern
k Permutation. Streng
Führen wir nun eine unvollständige Ziehung durch, indem wir nur
ziehen mit
π(0),
etc. gezogen worden ist.
k 5 n + 1,
so kommen wir zum Begri einer
1.1.
5
ENDLICHE MENGEN
genommen sprechen wir von einer
Eine
k Permutation
k Permutation
ohne Wiederholung.
ist also eine injektive Funktion
{0, 1, · · · k − 1} → {0, 1, · · · , n}
mit folgender Matrix als Wertetabelle
(
1
···
π(1) · · ·
0
π(0)
k−1
π(k − 1)
)
Es gilt:
Satz 1.4.
Es gibt n · (n − 1) · · · (n − k + 1) =
Permutationen einer nelementigen Menge.
Beweis.
per Induktion über
k
n!
verschiedene k (n − k)!
2
Wir führen nun eine Modikation unserer Ziehungen durch, indem wir die gezogenen
Nummern jeweils wieder zurücklegen, so dass ein und dieselbe Nummer theoretisch
beliebig oft gezogen werden kann. Dies führt zum Begri einer sog.
k Permutation
mit Wiederholung.
Eine
k Permutation mit Wiederholung kann also aufgefasst werden als eine (be{0, 1, · · · k − 1} → {0, 1, · · · , n}. Tritt ein Funktionswert mehrfach
liebige) Funktion
auf, ist die Funktion m.a.W. nicht injektiv, dann bedeutet das im obigen Bild, dass
dieser Wert gleichsam mehrfach gezogen wurde.
Nach Satz (1.1) erhalten wir sofort:
ge.
Satz 1.5.
Es gibt nk verschiedene k Permutationen einer nelementigen Men-
1.1.2 Kombinationen
Oensichtlich spielt bei einer Permutation die Reihenfolge der Ziehungen eine entscheidende Rolle. Denken wir nun aber an Vorgänge wie die Ziehung der Lottozahlen, so hat die Ziehung selbst zwar seriell also mit einer Reihenfolge der gezogenen
Zahlen verbunden. Da es hier aber nur auf die Teilmenge (der gezogenen Zahlen)
selbst ankommt, wird spielt die besondere Reihenfolge, mit der gewisse Zahlen gezogen worden sind, keine Rolle. Bei der Nennung der Lottozahlen werden diese also
der Einfachheit halber stets der Gröÿe nach angegeben.
In einer solchen Situation haben wir es also nicht mehr mit einer Permutation zu
tun und sprechen vielmehr von einer Kombination:
Denition 1.6. Eine kKombination (ohne Wiederholung) einer nelementigen
Menge M ist eine Teilmenge von M bestehend aus k Elementen.
Bei der Lottoziehung haben wir es demnach mit einer 6-Kombination aus einer
49-elementigen Menge zu tun. Dementsprechend wird die Lottoziehung auch 6 aus
49 genannt.
Nehmen wir als
nelementige
Menge die Menge der Zahlen
1, 2, · · · , n
dann ist
6KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
eine
k Kombination
eindeutig bestimmt durch die der Gröÿe nach geordnete Folge
der Elemente der kelementigen Teilmenge von
{1, 2, · · · , n}.
Eine der Gröÿe nach
geordnete Folge
1 5 n1 < n 2 < · · · < n k 5 n
bestimmt also eindeutig eine
k Kombination
und umgekehrt.
k Kombinationen gilt:
( )
n
n!
Satz 1.7. Es gibt
verschiedene k Kombinationen einer
=
k! · (n − k)!
k
nelementigen Menge.
Bezüglich der Anzahl der
Beweis. Wir können eine kKombination auassen als eine kPermutation aufk! verk Kombination
fassen, bei der die Reihenfolge der Ziehung keine Rolle spielt. Es gibt nun
schiedene Reihenfolgen einer Ziehung derselben Zahlen. Bei einer
werden also jeweils
samt
n!
(n − k)!
k!
verschiedene Permutationen zusammengefasst. Da es insge-
verschiedene Permutationen gibt, folgt die Behauptung.
2
Werden auch bei einer Kombination die gezogenen Nummern wieder zurückgelegt,
haben wir es analog mit einer Kombination mit Wiederholung zu tun.
Satz 1.8.
(
Es gibt
holung.
Beweis.
Eine
)
n+k−1
verschhiedene k Kombinationen mit Wiederk
k Kombination
mit Wiederholung kann aufgefasst werden als
geordnete Folge
1 5 n1 5 n2 5 · · · 5 nk 5 n.
Jeder solchen Folge entspricht eineindeutig eine Folge
1 5 n1 < n2 + 1 < · · · < nk + k 5 n + k − 1.
Letztere entspricht einer
k Kombination ohne Wiederholung einer n+k−1elementigen
2
Menge. Daraus folgt die Behauptung.
1.1.3 Eigenschaften der Binomialkoezienten
Für die im letzten Abschnitt eingeführten Binomialkoezienten gelten eine Reihe
von Eigenschaften:
Satz 1.9.
sowie
Beweis.
Es ist für alle n, k ∈ N
( ) (
)
n
n
=
k
n−k
( ) (
) (
)
n
n−1
n−1
=
+
.
k
k
k−1
Einsetzen in die Denition
2
Letztere Eigenschaft bedeutet, dass man die Binomialkoezienten in Form eines
1.2.
7
EREIGNISSE
Dreiecks (einer Dreiecksmatrix) darstellen kann, bei dem sich jedes Element als
Summe der beiden links und rechts darüberstehenden Elemente ergibt.
1
1
1
1
1
· ·
1
2
3
4
·
·
·
1
3
6
·
·
1
4
·
·
1
·
·
Legt man nämlich über dieses Dreieck ein (schiefwinkliges) Koordinatensystem, mit
dem Nullpunkt bei der obersten 1, und zählt die erste Koordinate nach links unten
und die zweite Koordinate horizontal jeweils nach rechts, dann hat das Element mit
den Koordinaten
n
und
k
exakt den Wert des Binomialkoezienten
( )
n
.
k
Eine wichtige Rolle spielen die Binomialkoezienten in der allgemeinen binomischen Formel (was den Koezienten letztlich ihren Namen gegeben hat):
Satz 1.10.
Für alle (reellen) Zahlen a, b und alle natürlichen Zahlen n gilt:
n ( )
∑
n k n−k
(a + b)n =
a b
.
k
k=0
Beweis.
durch Induktion
Folgerung 1.11.
Es gilt
2
n ( )
∑
n
2 =
.
k
n
k=0
2
1.2
Ereignisse
In der Wahrscheinlichkeitstheorie sprechen wir von Ereignissen, denen gewisse Wahrscheinlichkeiten zugewiesen werden. Ereignisse bilden demnach den Denitionsbereich für Wahrscheinlichkeitswerte. In der klassischen Wahrscheinlichkeitstheorie
werden die Ereignisse i.A. aus sog. Elementarereignissen zusammengesetzt. Elementarereignisse haben dabei die Eigenschaft atomar zu sein, also in einem intuitiven
Sinn nicht weiter zerlegbar zu sein. Die Elementarereignisse bilden eine Menge, die
i.A. mit
Ω
notiert wird.
Betrachten wir beispielsweise das Würfelpiel, dann werden die Elementarereignisse
aus den 6 Zahlen
1
bis
6,
den Augen des Würfels gebildet.
Ω
besteht in diesem Fall
also aus
Ω = {1, 2, 3, 4, 5, 6}.
Die Die allgemeinen Ereignisse ergeben sich dann als geeignete Vereingungen der
Elementarereignisse. Sie sind also so betrachtet nichst anderes als Teilmengen von
Ω. In der elementaren Wahrscheinlichkeitstheorie, in der man sich auf endliche Mengen Ω beschränkt, werden alle Teilmengen als denkbare Ereignisse zugelassen. (Dies
ist in der allgemeinen Wahrscheinlichkeitstheorie nicht mehr der Fall.)
8KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
Betrachten wir z.B. noch einmal das Würfelspiel, dann ergibt sich das Ereignis,
eine gerade Augenzahl zu würfeln, als folgende Vereinigung von Elementarereignissen:
{2} ∪ {4} ∪ {6},
mithin als Teilmenge
{2, 4, 6} ⊂ Ω.
Streng genommen ist das Elementarereignis selbst kein Ereignis, sondern diejenige
Menge, die das Elementarereignis als (einziges) Element enthält. Der Einfachheit
halber verzichtet man aber häug auf diese Unterscheidung.
1.2.1 Boolesche Algebren und Wahrscheinlichkeitsräume
Ω bilden zusammen mit den mengentheoretischen Ope∅ als kleinstem und Ω als
gröÿtem Element. Es gelten dann folgende Eigenschaften für beliebige A, B, C ∈ Ω :
Die Teilmengen einer Menge
ration
∪, ∩,¯ eine
boolesche Algebra mit der leeren Menge
i)
(A ∪ B) ∪ C = A ∪ (B ∪ C)
(A ∩ B) ∩ C = A ∩ (B ∩ C)
ii)
A∪B =B∪A
A∩B =B∩A
iii)
(A ∪ B) ∩ A = A
(A ∩ B) ∪ A = A
iv)
A∩∅=∅
A∩Ω=A
v)
A∪A=Ω
A∩A=∅
darüber hinaus gelten weitere Eigenschaften wie z.B:
A=A
A∩B =A∪B
A∪B =A∩B
Boolesche Algebren bilden in der Rolle von Ereignismengen den Denitionsbereich für die Zuweisung von Wahrscheinlichkeiten. Und im Falle eines endlichen
Ω besteht die boolesche Algebra einfach aus der Potenzmenge 2Ω . Wenn also jedem
Ereignis eine Wahrscheinlichkeit zugewiesen werden soll, geschieht in Form einer
Funktion:
pr : 2Ω → [0, 1].
Die Wahrscheinlichkeiten sind hier wie üblich auf den Wert 1 normiert. Von Wahrscheinlichkieten erwartet man intuitiv einige Eigenschaften, die nicht von jeder belieΩ
bigen Funktion 2 → [0, 1] erfüllt werden. So wird etwa Ω selbst (im obigen Beispiel
also das Ereignis, dass beim Würfeln eine der Zahlen 1 bis 6 fällt) die Wahrscheinlichkeit 1 haben. Oder die Wahrscheinlichkeit einer Vereinigung disjunkter Ereignisse sollte sich als Summe der Einzelwahrscheinlichkeiten ergeben. Beim Würfeln
sollte also die Wahrscheinlichkeit, dass man eine gerade Augenzahl erwürfelt gleich
der Summe der Wahrscheinlichkeiten sein, dass man eine 2 bzw. eine 4 bzw. eine 6
erwürfelt.
Im Einzelnen fordert man von der Funktion
pr
folgende Eigenschaften:
1.2.
9
EREIGNISSE
P1 pr(Ω) = 1.
P2 pr(A ∪ B) = pr(A) + pr(B)
für
A ∩ b = ∅.
Damit denieren wir:
Denition 1.12.
Ist Ω eine endliche Menge und ist pr : 2Ω → [0, 1] eine
Funktion mit den Eigenschaften P1 und P2, dann heiÿt (Ω, 2Ω , pr) ein (endlicher)
Wahrscheinlichkeitsraum. pr heiÿt dann auch Wahrscheinlichkeitsfunktion.
Für die Wahrscheinlichkeitsfunktion erhalten wir automatisch:
Folgerung 1.13.
Es ist (für alle A, B ⊂ Ω):
i) pr(∅) = 0
ii) pr(A ∪ B) = pr(A) + pr(B) − pr(A ∩ B)
iii) pr(A) 5 pr(B) falls A ⊂ B .
Beweis.
2
Übung
1.2.2 Laplacesche Wahrscheinlichkeitsräume
Häug sind die Elementarereignisse so beschaen, dass sie alle dieselbe Wahrscheinlichkeit haben. Da die Wahrscheinlichkeit von
Elementarereignisse
ei ∈ Ω
pr({ei }) =
Die Wahrscheinlichkeit eines Ereignisses
Eigenschaft
P1
Ω auf 1 normiert ist, haben somit alle
die Wahrscheinlichkeit:
1
.
|Ω|
A ⊂ Ω
zu
pr(A) =
ergibt sich dann auf Grund der
|A|
.
|Ω|
Hier ergeben sich also die Wahrscheinlichkeiten eines Ereignisses
zählen der zu
A
A
i.W. durch Ab-
gehörenden Elementarereignisse, die zu der Gesamtzahl aller Ele-
mentarereignisse (also
|Ω|)
ins Verhältnis gesetzt werden.
in diesem Fall sprechen wir von einem Laplaceschen Wahrscheinlichkeitsraum.
Beispiele:
i) Lotto 6 aus 49: die Elementarereignisse bestehen hier aus den jeweiligen 6
elementigen Teilmengen. (Warum darf man annehmen, dass diese jeweils dieselbe Wahrscheinlichkeit besitzen?) Das Ereignis, 6 Richtige zu haben, besteht aus
einem einzigen Elementarereignis. Die Anzahl aller Elementarereignisse, d.h. die
Anzahl aller 6elementigen Teilmengen ist gleich
einen Sechser zu haben, ist also
( )
49
1:
,
6
( )
49
).
6
Die Wahrscheinlichkeit
d.h. etwa 1:14000000.
ii) Würfeln mit 2 Würfeln: würden wir die Elementarereignisse als 2Kombinationen
einer 6elementigen Menge mit Wiederholung wählen, was ja naheliegen würde,
dann wären diese Elementarereignisse nicht gleichwahrscheinlich. (Warum?) Gleiche Wahrscheinlichkeiten erhielte man hingegen, wenn man als Elementarereignisse 2Permutationen mit Wiederholung nimmt. Interessierende Ereignisse, wie das
10KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
Würfeln eines 6er Pasches oder das Würfeln einer 1 und einer 2 sind dann Teilmengen unterschiedlicher Gröÿe: der 2er Pasch besteht nur aus einem einzigen
Elementareignis, das Würfeln einer 1 und einer 2 besteht hingegen aus 2 Elementarereignissen und ist deshalb doppelt so wahrscheinlich.
iii) Würfeln mit 2 Neutronen: es liegt in der Natur der Neutronen, ununterscheidbar
zu sein (und zwar absolut perfekt). Dies hat zur Folge, dass in diesem (gleichwahrscheinliche) Elementarereignisse aus 2Kombinationen einer 2elementigen Menge
mit Wiederholung gebildet werden. Dies entspricht eine 2Kombination einer 3
elementigen Menge ohne Wiederholung und umfasst
( )
3
=3
2
Möglichkeiten.
iv) Ratespiel mit 3 Türen. (in Vorlesung)
1.2.3 Bedingte Wahrscheinlichkeiten und Unabhängigkeit
Die Wahrscheinlichkeit eines Ereignisses
eignis
B
A
unter der Voraussetzung, dass ein Er-
stattgefunden hat wird deniert als
pr(A|B) :=
Zwei Ereignisse
A
und
B
pr(A ∩ B)
.
pr(B)
heiÿen unabhängig, wenn
pr(A|B) = pr(A).
Für zwei
unabhängige Ereiegnisse gilt demnach:
pr(A ∩ B) = pr(A) · pr(B).
Beispiel:
Werfen mit 2 Würfeln: das Ereignis, dass mit dem zweiten Würfel eine 1 geworfen wird ist unabhängig davon, dass mit dem ersten Würfel eine 1 geworfen wird.
Es gilt folgender Satz :
Satz 1.14.
Sind A1 und A2 disjunkte Ereignisse mit A1 ∪ A2 = Ω, dann gilt:
pr(B) = pr(A1 )pr(B|A1 ) + pr(A2 )pr(B|A2 ).
Es ist
B = Ω ∩ B = (A1 ∪ A2 ) ∩ B = (A1 ∩ B) ∪ (A2 ∩ B).
Damit erhalten wir
pr(B) = pr(A1 ∩ B) + pr(A2 ∩ B)
da auch
A1 ∩ B
und
A2 ∩ B
disjunkt sind. Die Behauptung folgt nun sofort aus der
Denition der bedingten Wahrscheinlichkeit.
2
Beispiel:
In zwei Urnen benden sich schwarze und weiÿe Kugeln. In der ersten Urne drei
weiÿe und zwei schwarze und in der zweiten eine weiÿe und neun schwarze. Die
Wahrscheinlichkeit eine weiÿe Kugel zu greifen, wenn man zufällig in eine der Urnen greift und dort eine Kugel entnimmt ergibt sich damit folgendermaÿen: Das
Ereignis
Ereignis
A1
A2
bestehe darin eine der Kugeln aus der ersten Urne zu greifen und das
darin, eine aus der zweiten Urne zu entnehmen. Das Ereignis
weiÿe Kugel zu greifen, kann nun entweder zusammen mit
A2
A1
eintreten. Nach dem obigen Satz erhalten wir:
pr(weiÿ) = pr(Urne1 )pr(weiÿ|Urne1 ) + pr(Urne2 )pr(weiÿ|Urne2 ).
Dies berechnet sich zu
B,
eine
oder zusammen mit
pr(weiÿ) = 0.5 cot 0.6 + 0.2 · 0.1 ≈= 0.29.
1.3.
11
ZUFALLSVARIABLE
1.2.4 Bayessche Formel
Die Formel für die bedingte Wahrscheinlichkeit ausgehend von
Ai ∩ B
kann auf
Grund der Kommutativität zwei Arten entwickelt werden:
pr(Ai ∩ B) = pr(Ai |B)pr(B)
sowie
pr(Ai ∩ B) = pr(B ∩ Ai ) = pr(B|Ai )pr(Ai ).
Wir erhalten damit:
pr(Ai |B)pr(B) = pr(B|Ai )pr(Ai )
und nach Auösung nach
pr(Ai |B) =
pr(Ai |B):
pr(B|Ai )pr(Ai )
pr(B|Ai )pr(Ai )
=
.
pr(B)
pr(A1 )pr(B|A1 ) + pr(A2 )pr(B|A2 )
Ai
pr(B).
Die bedingte Wahrscheinlichkeit eines Ereignisses
aus den bedingten Wahrscheinlichkeiten von
1.3
lässt sich damit rückrechnen
Zufallsvariable
Repräsentiert man Elementarereignisse durch Zahlen, erhält man den Begri einer
(numerischen) Zufallsvariablen
X : Ω → R.
Wir erhalten dann automatisch eine induzierte Wahrscheinlichkeitsfunktion auf
einer Zahlenmenge. Hierzu betrachtet man (reelle) Zahlenintervalle
wählt diejenigen Ereignisse
A
(−∞, x)
und
aus, die Urbild eines solchen Intervalls sind:
A = X −1 (−∞, x).
Die Wahrscheinlickeit des Ereignisses
A
fungiert dann als Wahrscheinlichkeit, dass
die Zufallsvariable einen Wert im Intervall
(∞, x)
annimmt. Wir schreiben hierfür:
pr(X < x)
und nennen die hierdurch denierte Funktion
F : R → [0, 1]
mit
F (x) = pr(X < x)
die Verteilungsfunktion der Zufallsvariablen
Die Verteilungsfunktion
F
hat Sprungstellen für diejenigen
x,
X.
die als Funktions-
wert der Zufallsvariablen auftreten. Die Sprunghöhe ergibt sich aus der Summe
∑
pr(e).
X(e)=x
Man sieht sofort, dass eine Verteilungsfunktion monoton wachsend ist.
Beispiel:
Für das Würfeln mit einem Würfel ist
pr(X < x) = (⌈x⌉ − 1)/6.
Auch wenn man von Laplacescher Gleichverteilung des
Ω
ausgeht, muss die Wahr-
scheinlichkeit auf den Zahlen nicht mehr notwendig gleichverteilt sein. (Bsp. Summer der Augen beim Werfen zweier Würfel.) Mit Hilfe einer Zufallsvariablen lässt
sich der Begri eines Erwartungswertes (Mittelwertes) denieren.
12KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
1.3.1 Erwartungswerte
Erwartungswerte sind das, was man intuitiv als statistische Mittelwerte bezeichnet. Da bei der Mittelwertbildung Zahlen (gewichtet) addiert werden, kann dieser
Begri in der Wahrscheinlichkeitstheorie nur in Zusammenhang mit Konzept einer
Zufallsvariable gebildet werden.
Ist also
X : Ω → R
eine Zufallsvariable, dann ergibt sich der Erwartungswert
zu:
E(X) =
∑
pr(e) · X(e)
e∈Ω
oder wenn man die Elementarereignisse durchnumeriert
pr(ei ) = pi
bzw.
X(ei ) = xi
Ω = {e1 , e2 , e3 , · · · }
und
setzt:
E(X) =
∑
pi · xi .
i
Die Zufallsvariable kann wie schon angedeutet mehrere Elementarereignisse
auf denselben Zahlenwert abbilden (sie ist m.a.W. nicht notwendig injektiv). In der
xi
obigen Summe können die
also mehrfach vorkommen. Fassen wir die Summe so
zusammen, dass die unterschiedlichen
pi
dort zu
qj
xi
nur einmal auftreten, wobei die jeweiligen
zusammengefasst werden sie stellen dann die Sprunghöhen der
Verteilungsfunktion an den Stellen
xj
dar dann erhält
E(X) =
∑
E(X)
die Form:
qj xj .
j
Beispiele:
i) Betrachten wir die Zufallsvariable eines Münzwurfes mit zwei Elementarereignissen (Kopf , Zahl). Es sei
und
pr(Zahl) = 1 − p.
X(Kopf ) = 1
und
X(Zahl) = 0.
pr(Kopf ) = p
p = 1/2.) Für den
Es sei
(Bei einer nicht gezinkten Münze ist
Erwartungswert erhalten wir dann
E(X) = 1 · p + 0 · (1 − p) = p.
ii) Wir verallgemeinern das letzte Beispiel eines Münzwurfes mit einer einzigen
Münze zu einem Münzwurf mit
n
(gleichgearteten) Münzen. Die Elementarereig-
nisse bestehen dann in 2Permutationen mit Wiederholung einer
n
Menge. Es gibt also 2 Elementarereignisse.
nelementigen
Diese Elementarereignisse sind (i.A.) nicht gleichwahrscheinlich, jedenfalls dann
nicht, wenn
p ̸= 1/2
ist. Ein Elementarereignis mit
k
Köpfen hat die Wahrschein-
lichkeit
pk · (1 − p)n−k .
Denieren wir die Zufallsvariable
X
so, dass
X(e)
= Anzahl der Köpfe. Dabei ab-
strahiert man von der Reihenfolge, mit der die Köpfe gefallen sind. Bei
haben es dann also mit einer
k Kombination
k
Köpfen
ohne Wiederholung zu tun. Dies knn
man sich so klarmachen, dass die gefallenen Köpfe eine
k
elementige Teilmenge
deniert. Hierzu numerieren wir die Münzen der Reihe nach durch, erhalten also
eine Menge bestehend aus den Zahlen (nämlich den Indizes)
1
bis
n.
elementige Teilmenge. Deshalb haben wir es also mit einer
Hiervon gibt es
( )
n
k
viele. Die Wahrscheinlichkeit, dass
k Kombination
X
k
k
Fallen also
Köpfe, dann denieren die Indizes derjenigen Münzen, die Kopf zeigen, eine
den Wert
k
zu tun.
annimmt,
1.3.
13
ZUFALLSVARIABLE
ist deshalb
pr(X = k) =
( )
n
· pk · (1 − p)n−k .
k
Eine Zufallsvariable, die eine solche Wahrscheinlichkeitsfunktion besitzt, wird binomialverteilt genannt. Binomialverteilung treten wie gesehen typischerweise bei
n
unabhängigen NullEins Entscheidungen auf.
Als Erwartungswert einer binomialverteilten Zufallsvariable erhalten wir:
( )
n
E(X) =
k·
· pk · (1 − p)n−k
k
k=0
( )
n
∑
n
=
k·
· pk · (1 − p)n−k
k
n
∑
=
k=1
n
∑
k·
k=1
= np
n!
· pk · (1 − p)n−k
k!(n − k)!
n
∑
(n − 1)!
· pk−1 · (1 − p)n−k
k!(n − k)!
k=1
n−1
∑
(n − 1)!
· pk · (1 − p)n−1−k
(k − 1)!(n − 1 − k)!
k=0
n−1
∑ (n − 1)
= np
· pk · (1 − p)n−1−k
k
= np
k=0
= np(p + (1 − p))n−1
= np.
Wir werden im folgenden noch eine weitere wichtige Verteilung betrachten, die
sich als Grenzfall der Binomialverteilung ergibt. Lässt man im obigen Szenario die
Anzahl
n
der Münzen wachsen und gleichzeitig die Wahrscheinlichkeit p reziprok
n · p eine Konstante λ bildet (i.e. p = nλ ), dann erhalten wir die
so fallen, dass
sog. PoissonVerteilung. Für die binomialverteilte Zufallsvariable
erhalten wir:
Xn
von
( )
n k
p (1 − p) n − k
k
( )
n λ k
λ n−k
=
( ) (1 −
k n
n
pr(Xn = k) =
=
n!
λ
λ n−k
( )k (1 −
k!(n − k)! n
n
= λk
1 (1 − nλ )n
n!
k!(n − k)! nk (1 − nλ )k
=
λk
λ n(n − 1)(n − k + 1
1
(1 − )n
k
k!
n
n
(1 − nλ )k
=
λ
1
k−1
1
λk
(1 − )n 1 · (1 − ) · · · (1 −
)
.
k!
n
n
n (1 − nλ )k
Letzterer Ausdruck konvergiert für wachsendes
pr(X = k) =
n
gegen:
λk −λ
e .
k!
n Münzen
14KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
Man kann sich auf Grund der geschilderten Verwandschaft zwischen der Binomialverteilung und der Poissonverteilung shnell plausibel machen, dass der Erwartungswert der Poissonverteilung sich zu
E(X) = λ(= n · p)
ergibt. Zu demselben Ergebnis kommt man auch direkt:
E(X) =
∞
∑
k · e−λ
k=0
= λe−λ
= λe−λ
−λ
= λe
= λ.
λk
k!
∞
∑
λk−1
(k − 1)!
k=1
∞
∑
k=0
λ
λk
k!
·e
Beispiele Poissonverteilter Zufallsvariablen:
i) Anzahl der Todesfälle in preuÿischen Kavallerieregimentern durch Hufschlag pro
Jahr.
ii) Anzahl von Zerfallsprozessen pro Zeiteinheit in einer radioaktiven Substanz.
1.3.2 Varianzen
Neben dem Mittelwert gibt es eine weitere wichtige statistische Parameter. Wir betrachten im folgenden noch die sog. Varianz einer Zufallsvariablen. Diese gibt uns
Auskunft über die Streuung der Werte einer Zufallsvariable.
Sei also
X
eine Zufallsvariable, dann betrachten wir die neue Zufallsvariable
Y = (X − E(X))2 .
Y , also gewissermÿen der Mittelwert der quadratischen
E(X), wird Varianz von X genannt und mit σ 2 bezeichnet.
Der Erwartunsgwert von
Abweichung von
X
von
Eine genaue Rechnung ergibt
σ 2 = E(X 2 ) − E(X)2 .
σ
selbst heiÿt auch Standardabweichung.
Beipiele:
i) Die Varianz der Binomialverteilung ergibt sich zu
σ 2 = pqn.
ii) Die Varianz der Poissonverteilung ergibt sich zu
λ.
Die Rolle der Varianz wird deutlich an der Tschebyscheschen Ungleichung:
pr(|X − E(X)| = kσ) 5
1
.
k2
1.3.
ZUFALLSVARIABLE
1.3.3 Korrelationen
15
Herunterladen