Wahrscheinlichkeitstheorie Rohfassung

Werbung
Wahrscheinlichkeitstheorie
Rohfassung
Prof. Dr. Hans-Jürgen Steffens
Fachhochschule Kaiserslautern Standort Zweibrücken
[email protected]
6. Mai 2009
2
Kapitel 1
Kombinatorik und elementare
Wahrscheinlichkeitsrechnung
1.1
Endliche Mengen
Endliche Mengen M lassen sich dadurch charakterisieren, dass es keine injektive Funktion N → M gibt. Man kann zeigen (etwa mit Hilfe des sog. Zorn’schen
Lemmas), dass eine Menge genau dann endlich ist (im Sinne der geschilderten Charakterisierunges), wenn es eine natürliche Zahl n ∈ N gibt, so dass {0, 1, · · · , n}
bijektiv auf M abgebildet werden kann. Das heißt aber nichts anderes, als dass
die Elemente von M als Aufzählung {m0 , m1 , · · · , mn } geschrieben werden können,
oder aber, wenn man die Indizes stellvertretend für die Elemente benutzt, direkt
als Zahlenmenge {0, 1, · · · , n} selbst.
Die Anzahl der Elemente einer endlichen Menge M = {m0 , m1 , · · · , mn−1 } beträgt
demnach n und man schreibt hierfür
|M | = n.
Zwei endliche Mengen M und N sind demnach gleichmächtig, wenn sie dieselbe
Anzahl von ELementen beinhalten, wenn also gilt
|M | = |N |.
Für die Mächtigkeiten gelten folgende Formeln
Satz 1.1. i) Für paarweise disjunkte Mengen Mi (i = 1, · · · , n) gilt
¯
¯
n
n
¯[
¯ X
¯
¯
|Mi |.
¯ Mi ¯ =
¯
¯
i=1
i=1
(Paarweise disjunkt bedeutet, dass Mi ∩ Mj = ∅ für i 6= j.)
ii) Für das n–fache kartesische Produkt M1 × · · · × Mn ergibt sich
|M1 × M2 × · · · × Mn | = |M1 | · |M2 | · · · |Mn |.
iii) Für die Menge aller Abbildungen einer Menge M in eine Menge N — notiert
mit N M — gilt
¯ M¯
¯N ¯ = |N ||M | .
3
4KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
iv) Für die Menge aller Teilmengen einer Menge M — notiert mit 2M — gilt
¯ M¯
¯2 ¯ = 2|M | .
Beweis. to be done
1.1.1
2
Permutationen
Wir betrachten im folgenden sog. Permutationen einer endlichen Menge. Unter einer Permutation verstehen wir intuitiv eine Vertauschung von Elementen, also eine
Art Umsortierung.
Stellt man sich eine Sortierung so vor, dass jedes Element der betrachteten Menge
gleichsam eine (fortlaufende) Platznummer besitzt (so wie die Besucher eíner ausverkauften Kinovorstellung), dann bedeutet das Umsortieren der Elemente nichts
anderes als die Zuweisung anderer Platznummern. Diese kann durch eine “Ziehung"vorgenommen werden: alle Platznummern kommen in eine Lostrommel und
werden der Reihe nach gezogen. Das Element der ersten gezogenen Platznummer
erhält die 0 als neue Platznummer, das Element der zweiten gezogenen Platznummer erhält die 1 als neue Platznummer etc.
Auf diese Weise ist automatisch mit der Umsortierung eine Funktion π(i) verbunden, die bijektiv ist, da bei einer Umsortierung kein Platz frei bleibt (die Funktion
also surjektiv ist) und auch kein Platz doppelt belegt wird (die Funktion also injektiv ist).
Umgekehrt kann jede bijektive Funktion von {0, 1, · · · n} auf sich selbst offensichtlich als die Festlegung einer Umsortierung im obigen Sinne angesehen werden. Es ist
deshalb naheliegend den mathematischen Begriff einer Permutation im Sinne einer
Umsortierung wie folgt festzulegen:
Definition 1.2. Eine Permutation π ist (nichts anderes) eine bijektive Funktion
π : {0, 1, · · · n} → {0, 1, · · · n}.
Eine Permutation kann damit als Rechteckmatrix in der Rolle als Wertetabelle
dargestellt werden:
µ
¶
0
1
···
n
π(0) π(1) · · · π(n)
Diese Matrix repräsentiert also eine “Ziehung”, bei der als erste “Platznummer” π(0),
als zweite die Nummer π(1) etc. gezogen worden ist.
Die Anzahl aller denkbaren bijektiven Funktionen von {0, 1, · · · n} auf sich selbst
ist mit wachsendem n (extrem) stark wachsend. Es gilt nämlich:
Satz 1.3. Für eine n–elementige Menge M gibt es n! verschiedene Permutationen.
Beweis. per Induktion über n
2
Führen wir nun eine unvollständige “Ziehung” durch, indem wir nur k Nummern
ziehen mit k 5 n + 1, so kommen wir zum Begriff einer k–Permutation. Streng
1.1. ENDLICHE MENGEN
5
genommen sprechen wir von einer k–Permutation ohne Wiederholung.
Eine k–Permutation ist also eine injektive Funktion
{0, 1, · · · k − 1} → {0, 1, · · · , n}
mit folgender Matrix als Wertetabelle
µ
0
1
···
π(0) π(1) · · ·
k−1
π(k − 1)
¶
Es gilt:
Satz 1.4. Es gibt n · (n − 1) · · · (n − k + 1) =
Permutationen einer n–elementigen Menge.
Beweis. per Induktion über k
n!
verschiedene k–
(n − k)!
2
Wir führen nun eine Modifikation unserer Ziehungen durch, indem wir die gezogenen
Nummern jeweils wieder zurücklegen, so dass ein und dieselbe Nummer theoretisch
beliebig oft gezogen werden kann. Dies führt zum Begriff einer sog. k–Permutation
mit Wiederholung.
Eine k–Permutation mit Wiederholung kann also aufgefasst werden als eine (beliebige) Funktion {0, 1, · · · k − 1} → {0, 1, · · · , n}. Tritt ein Funktionswert mehrfach
auf, ist die Funktion m.a.W. nicht injektiv, dann bedeutet das im obigen Bild, dass
dieser Wert gleichsam mehrfach gezogen wurde.
Nach Satz (1.1) erhalten wir sofort:
Satz 1.5. Es gibt nk verschiedene k–Permutationen einer n–elementigen Menge.
1.1.2
Kombinationen
Offensichtlich spielt bei einer Permutation die Reihenfolge der Ziehungen eine entscheidende Rolle. Denken wir nun aber an Vorgänge wie die Ziehung der Lottozahlen, so hat die Ziehung selbst zwar seriell also mit einer Reihenfolge der gezogenen
Zahlen verbunden. Da es hier aber nur auf die Teilmenge (der gezogenen Zahlen)
selbst ankommt, wird spielt die besondere Reihenfolge, mit der gewisse Zahlen gezogen worden sind, keine Rolle. Bei der Nennung der Lottozahlen werden diese also
der Einfachheit halber stets der Größe nach angegeben.
In einer solchen Situation haben wir es also nicht mehr mit einer Permutation zu
tun und sprechen vielmehr von einer Kombination:
Definition 1.6. Eine k–Kombination (ohne Wiederholung) einer n–elementigen
Menge M ist eine Teilmenge von M bestehend aus k Elementen.
Bei der Lottoziehung haben wir es demnach mit einer 6-Kombination aus einer
49-elementigen Menge zu tun. Dementsprechend wird die Lottoziehung auch “6 aus
49” genannt.
Nehmen wir als n–elementige Menge die Menge der Zahlen 1, 2, · · · , n dann ist
6KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
eine k–Kombination eindeutig bestimmt durch die der Größe nach geordnete Folge
der Elemente der k–elementigen Teilmenge von {1, 2, · · · , n}. Eine der Größe nach
geordnete Folge
1 5 n1 < n 2 < · · · < n k 5 n
bestimmt also eindeutig eine k–Kombination und umgekehrt.
Bezüglich der Anzahl der k–Kombinationen gilt:
µ ¶
n!
n
Satz 1.7. Es gibt
verschiedene k–Kombinationen einer
=
k! · (n − k)!
k
n–elementigen Menge.
Beweis. Wir können eine k–Kombination auffassen als eine k–Permutation auffassen, bei der die Reihenfolge der Ziehung keine Rolle spielt. Es gibt nun k! verschiedene Reihenfolgen einer Ziehung derselben Zahlen. Bei einer k–Kombination
werden also jeweils k! verschiedene Permutationen zusammengefasst. Da es insgen!
samt
verschiedene Permutationen gibt, folgt die Behauptung. 2
(n − k)!
Werden auch bei einer Kombination die gezogenen Nummern wieder zurückgelegt,
haben wir es analog mit einer Kombination mit Wiederholung zu tun.
µ
¶
n+k−1
Satz 1.8. Es gibt
verschhiedene k–Kombinationen mit Wiederk
holung.
Beweis. Eine k–Kombination mit Wiederholung kann aufgefasst werden als
geordnete Folge
1 5 n1 5 n2 5 · · · 5 nk 5 n.
Jeder solchen Folge entspricht ein–eindeutig eine Folge
1 5 n1 < n2 + 1 < · · · < nk + k 5 n + k − 1.
Letztere entspricht einer k–Kombination ohne Wiederholung einer n+k−1–elementigen
Menge. Daraus folgt die Behauptung. 2
1.1.3
Eigenschaften der Binomialkoeffizienten
Für die im letzten Abschnitt eingeführten Binomialkoeffizienten gelten eine Reihe
von Eigenschaften:
Satz 1.9. Es ist für alle n, k ∈ N
µ ¶ µ
¶
n
n
=
k
n−k
sowie
µ ¶ µ
¶ µ
¶
n
n−1
n−1
=
+
.
k
k
k−1
Beweis. Einsetzen in die Definition
2
Letztere Eigenschaft bedeutet, dass man die Binomialkoeffizienten in Form eines
1.2. EREIGNISSE
7
Dreiecks (einer “Dreiecksmatrix”) darstellen kann, bei dem sich jedes Element als
Summe der beiden links und rechts darüberstehenden Elemente ergibt.
1
1
1
1
·
1
·
1
2
3
4
·
·
·
1
3
6
·
·
1
4
·
·
1
· ·
Legt man nämlich über dieses Dreieck ein (schiefwinkliges) Koordinatensystem, mit
dem Nullpunkt bei der obersten 1, und zählt die erste Koordinate nach links unten
und die zweite Koordinate horizontal jeweils nach rechts, dann hat dasµ Element
mit
¶
n
den Koordinaten n und k exakt den Wert des Binomialkoeffizienten
.
k
Eine wichtige Rolle spielen die Binomialkoeffizienten in der allgemeinen binomischen Formel (was den Koeffizienten letztlich ihren Namen gegeben hat):
Satz 1.10. Für alle (reellen) Zahlen a, b und alle natürlichen Zahlen n gilt:
(a + b)n =
n µ ¶
X
n
k=0
Beweis. durch Induktion
Folgerung 1.11. Es gilt
k
ak bn−k .
2
n µ ¶
X
n
2 =
.
k
n
k=0
2
1.2
Ereignisse
In der Wahrscheinlichkeitstheorie sprechen wir von Ereignissen, denen gewisse Wahrscheinlichkeiten zugewiesen werden. Ereignisse bilden demnach den Definitionsbereich für Wahrscheinlichkeitswerte. In der klassischen Wahrscheinlichkeitstheorie
werden die Ereignisse i.A. aus sog. Elementarereignissen zusammengesetzt. Elementarereignisse haben dabei die Eigenschaft “atomar” zu sein, also in einem intuitiven
Sinn nicht weiter zerlegbar zu sein. Die Elementarereignisse bilden eine Menge, die
i.A. mit Ω notiert wird.
Betrachten wir beispielsweise das Würfelpiel, dann werden die Elementarereignisse
aus den 6 Zahlen 1 bis 6, den Augen des Würfels gebildet. Ω besteht in diesem Fall
also aus
Ω = {1, 2, 3, 4, 5, 6}.
Die Die allgemeinen Ereignisse ergeben sich dann als geeignete Vereingungen der
Elementarereignisse. Sie sind also so betrachtet nichst anderes als Teilmengen von
Ω. In der elementaren Wahrscheinlichkeitstheorie, in der man sich auf endliche Mengen Ω beschränkt, werden alle Teilmengen als denkbare Ereignisse zugelassen. (Dies
ist in der allgemeinen Wahrscheinlichkeitstheorie nicht mehr der Fall.)
8KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
Betrachten wir z.B. noch einmal das Würfelspiel, dann ergibt sich das Ereignis,
eine gerade Augenzahl zu würfeln, als folgende Vereinigung von Elementarereignissen: {2} ∪ {4} ∪ {6}, mithin als Teilmenge {2, 4, 6} ⊂ Ω.
Streng genommen ist das Elementarereignis selbst kein Ereignis, sondern diejenige
Menge, die das Elementarereignis als (einziges) Element enthält. Der Einfachheit
halber verzichtet man aber häufig auf diese Unterscheidung.
1.2.1
Boolesche Algebren und Wahrscheinlichkeitsräume
Die Teilmengen einer Menge Ω bilden zusammen mit den mengentheoretischen Operation ∪, ∩,¯eine boolesche Algebra mit der leeren Menge ∅ als kleinstem und Ω als
größtem Element. Es gelten dann folgende Eigenschaften für beliebige A, B, C ∈ Ω :
i) (A ∪ B) ∪ C = A ∪ (B ∪ C)
(A ∩ B) ∩ C = A ∩ (B ∩ C)
ii) A ∪ B = B ∪ A
A∩B =B∩A
iii) (A ∪ B) ∩ A = A
(A ∩ B) ∪ A = A
iv) A ∩ ∅ = ∅
A∩Ω=A
v) A ∪ A = Ω
A∩A=∅
darüber hinaus gelten weitere Eigenschaften wie z.B:
A=A
A∩B =A∪B
A∪B =A∩B
Boolesche Algebren bilden — in der Rolle von Ereignismengen — den Definitionsbereich für die Zuweisung von Wahrscheinlichkeiten. Und im Falle eines endlichen
Ω besteht die boolesche Algebra einfach aus der Potenzmenge 2Ω . Wenn also jedem
Ereignis eine Wahrscheinlichkeit zugewiesen werden soll, geschieht in Form einer
Funktion:
pr : 2Ω → [0, 1].
Die Wahrscheinlichkeiten sind hier wie üblich auf den Wert 1 normiert. Von Wahrscheinlichkieten erwartet man intuitiv einige Eigenschaften, die nicht von jeder beliebigen Funktion 2Ω → [0, 1] erfüllt werden. So wird etwa Ω selbst (im obigen Beispiel
also das Ereignis, dass beim Würfeln eine der Zahlen 1 bis 6 fällt) die Wahrscheinlichkeit 1 haben. Oder die Wahrscheinlichkeit einer Vereinigung disjunkter Ereignisse sollte sich als Summe der Einzelwahrscheinlichkeiten ergeben. Beim Würfeln
sollte also die Wahrscheinlichkeit, dass man eine gerade Augenzahl erwürfelt gleich
der Summe der Wahrscheinlichkeiten sein, dass man eine 2 bzw. eine 4 bzw. eine 6
erwürfelt.
Im Einzelnen fordert man von der Funktion pr folgende Eigenschaften:
1.2. EREIGNISSE
9
P1 pr(Ω) = 1.
P2 pr(A ∪ B) = pr(A) + pr(B) für A ∩ b = ∅.
Damit definieren wir:
Definition 1.12. Ist Ω eine endliche Menge und ist pr : 2Ω → [0, 1] eine
Funktion mit den Eigenschaften P1 und P2, dann heißt (Ω, 2Ω , pr) ein (endlicher)
Wahrscheinlichkeitsraum. pr heißt dann auch Wahrscheinlichkeitsfunktion.
Für die Wahrscheinlichkeitsfunktion erhalten wir automatisch:
Folgerung 1.13. Es ist (für alle A, B ⊂ Ω):
i) pr(∅) = 0
ii) pr(A ∪ B) = pr(A) + pr(B) − pr(A ∩ B)
iii) pr(A) 5 pr(B) falls A ⊂ B.
Beweis. Übung
1.2.2
2
Laplacesche Wahrscheinlichkeitsräume
Häufig sind die Elementarereignisse so beschaffen, dass sie alle dieselbe Wahrscheinlichkeit haben. Da die Wahrscheinlichkeit von Ω auf 1 normiert ist, haben somit alle
Elementarereignisse ei ∈ Ω die Wahrscheinlichkeit:
pr({ei }) =
1
.
|Ω|
Die Wahrscheinlichkeit eines Ereignisses A ⊂ Ω ergibt sich dann auf Grund der
Eigenschaft P1 zu
|A|
pr(A) =
.
|Ω|
Hier ergeben sich also die Wahrscheinlichkeiten eines Ereignisses A i.W. durch Abzählen der zu A gehörenden Elementarereignisse, die zu der Gesamtzahl aller Elementarereignisse (also |Ω|) ins Verhältnis gesetzt werden.
in diesem Fall sprechen wir von einem Laplaceschen Wahrscheinlichkeitsraum.
Beispiele:
i) Lotto 6 aus 49: die Elementarereignisse bestehen hier aus den jeweiligen 6–
elementigen Teilmengen. (Warum darf man annehmen, dass diese jeweils dieselbe Wahrscheinlichkeit besitzen?) Das Ereignis, 6 Richtige zu haben, besteht aus
einem einzigen Elementarereignis. Die Anzahl allerµ Elementarereignisse,
d.h. die
¶
49
Anzahl aller 6–elementigen Teilmengen ist gleich
). Die Wahrscheinlichkeit
6
µ ¶
49
einen “Sechser” zu haben, ist also 1:
, d.h. etwa 1:14000000.
6
ii) Würfeln mit 2 Würfeln: würden wir die Elementarereignisse als 2–Kombinationen
einer 6–elementigen Menge mit Wiederholung wählen, was ja naheliegen würde,
dann wären diese Elementarereignisse nicht gleichwahrscheinlich. (Warum?) Gleiche Wahrscheinlichkeiten erhielte man hingegen, wenn man als Elementarereignisse 2–Permutationen mit Wiederholung nimmt. Interessierende Ereignisse, wie das
10KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
Würfeln eines 6–er Pasches oder das Würfeln einer 1 und einer 2 sind dann Teilmengen unterschiedlicher Größe: der 2–er Pasch besteht nur aus einem einzigen
Elementareignis, das Würfeln einer 1 und einer 2 besteht hingegen aus 2 Elementarereignissen und ist deshalb doppelt so wahrscheinlich.
iii) Würfeln mit 2 Neutronen: es liegt in der Natur der Neutronen, ununterscheidbar
zu sein (und zwar absolut perfekt). Dies hat zur Folge, dass in diesem (gleichwahrscheinliche) Elementarereignisse aus 2–Kombinationen einer 2–elementigen Menge
mit Wiederholung gebildet werden. Dies entspricht µ
eine
¶ 2–Kombination einer 3–
3
elementigen Menge ohne Wiederholung und umfasst
= 3 Möglichkeiten.
2
iv) Ratespiel mit 3 Türen. (in Vorlesung)
1.2.3
Bedingte Wahrscheinlichkeiten und Unabhängigkeit
Die Wahrscheinlichkeit eines Ereignisses A unter der Voraussetzung, dass ein Ereignis B stattgefunden hat wird definiert als
pr(A|B) :=
pr(A ∩ B)
.
pr(B)
Zwei Ereignisse A und B heißen unabhängig, wenn pr(A|B) = pr(A). Für zwei
unabhängige Ereiegnisse gilt demnach:
pr(A ∩ B) = pr(A) · pr(B).
Beispiel:
Werfen mit 2 Würfeln: das Ereignis, dass mit dem zweiten Würfel eine 1 geworfen wird ist unabhängig davon, dass mit dem ersten Würfel eine 1 geworfen wird.
Es gilt folgender Satz :
Satz 1.14. Sind A1 und A2 disjunkte Ereignisse mit A1 ∪ A2 = Ω, dann gilt:
pr(B) = pr(A1 )pr(B|A1 ) + pr(A2 )pr(B|A2 ).
Es ist B = Ω ∩ B = (A1 ∪ A2 ) ∩ B = (A1 ∩ B) ∪ (A2 ∩ B). Damit erhalten wir
pr(B) = pr(A1 ∩ B) + pr(A2 ∩ B)
da auch A1 ∩ B und A2 ∩ B disjunkt sind. Die Behauptung folgt nun sofort aus der
Definition der bedingten Wahrscheinlichkeit. 2
Beispiel:
In zwei Urnen befinden sich schwarze und weiße Kugeln. In der ersten Urne drei
weiße und zwei schwarze und in der zweiten eine weiße und neun schwarze. Die
Wahrscheinlichkeit eine weiße Kugel zu greifen, wenn man zufällig in eine der Urnen greift und dort eine Kugel entnimmt ergibt sich damit folgendermaßen: Das
Ereignis A1 bestehe darin eine der Kugeln aus der ersten Urne zu greifen und das
Ereignis A2 darin, eine aus der zweiten Urne zu entnehmen. Das Ereignis B, eine
weiße Kugel zu greifen, kann nun entweder zusammen mit A1 oder zusammen mit
A2 eintreten. Nach dem obigen Satz erhalten wir:
pr(weiß) = pr(Urne1 )pr(weiß|Urne1 ) + pr(Urne2 )pr(weiß|Urne2 ).
Dies berechnet sich zu pr(weiß) = 0.5 cot 0.6 + 0.2 · 0.1 ≈= 0.29.
1.3. ZUFALLSVARIABLE
1.2.4
11
Bayessche Formel
Die Formel für die bedingte Wahrscheinlichkeit ausgehend von Ai ∩ B kann auf
Grund der Kommutativität zwei Arten entwickelt werden:
pr(Ai ∩ B) = pr(Ai |B)pr(B)
sowie
pr(Ai ∩ B) = pr(B ∩ Ai ) = pr(B|Ai )pr(Ai ).
Wir erhalten damit:
pr(Ai |B)pr(B) = pr(B|Ai )pr(Ai )
und nach Auflösung nach pr(Ai |B):
pr(Ai |B) =
pr(B|Ai )pr(Ai )
pr(B|Ai )pr(Ai )
=
.
pr(B)
pr(A1 )pr(B|A1 ) + pr(A2 )pr(B|A2 )
Die bedingte Wahrscheinlichkeit eines Ereignisses Ai lässt sich damit rückrechnen
aus den bedingten Wahrscheinlichkeiten von pr(B).
1.3
Zufallsvariable
Repräsentiert man Elementarereignisse durch Zahlen, erhält man den Begriff einer
(numerischen) Zufallsvariablen
X : Ω → R.
Wir erhalten dann automatisch eine induzierte Wahrscheinlichkeitsfunktion auf
einer Zahlenmenge. Hierzu betrachtet man (reelle) Zahlenintervalle (−∞, x) und
wählt diejenigen Ereignisse A aus, die Urbild eines solchen Intervalls sind:
A = X −1 (−∞, x).
Die Wahrscheinlickeit des Ereignisses A fungiert dann als Wahrscheinlichkeit, dass
die Zufallsvariable einen Wert im Intervall (∞, x) annimmt. Wir schreiben hierfür:
pr(X < x)
und nennen die hierdurch definierte Funktion
F : R → [0, 1]
mit F (x) = pr(X < x) die Verteilungsfunktion der Zufallsvariablen X.
Die Verteilungsfunktion F hat Sprungstellen für diejenigen x, die als Funktionswert der Zufallsvariablen auftreten. Die Sprunghöhe ergibt sich aus der Summe
X
pr(e).
X(e)=x
Man sieht sofort, dass eine Verteilungsfunktion monoton wachsend ist.
Beispiel:
Für das Würfeln mit einem Würfel ist pr(X < x) = (dxe − 1)/6.
Auch wenn man von Laplacescher Gleichverteilung des Ω ausgeht, muss die Wahrscheinlichkeit auf den Zahlen nicht mehr notwendig gleichverteilt sein. (Bsp. Summer der Augen beim Werfen zweier Würfel.) Mit Hilfe einer Zufallsvariablen lässt
sich der Begriff eines Erwartungswertes (“Mittelwertes”) definieren.
12KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
1.3.1
Erwartungswerte
Erwartungswerte sind das, was man intuitiv als statistische Mittelwerte bezeichnet. Da bei der Mittelwertbildung Zahlen (gewichtet) addiert werden, kann dieser
Begriff in der Wahrscheinlichkeitstheorie nur in Zusammenhang mit Konzept einer
Zufallsvariable gebildet werden.
Ist also X : Ω → R eine Zufallsvariable, dann ergibt sich der Erwartungswert
zu:
X
pr(e) · X(e)
E(X) =
e∈Ω
oder wenn man die Elementarereignisse durchnumeriert Ω = {e1 , e2 , e3 , · · · } und
pr(ei ) = pi bzw. X(ei ) = xi setzt:
X
E(X) =
pi · xi .
i
Die Zufallsvariable kann — wie schon angedeutet — mehrere Elementarereignisse
auf denselben Zahlenwert abbilden (sie ist m.a.W. nicht notwendig injektiv). In der
obigen Summe können die xi also mehrfach vorkommen. Fassen wir die Summe so
zusammen, dass die unterschiedlichen xi nur einmal auftreten, wobei die jeweiligen
pi dort zu qj zusammengefasst werden — sie stellen dann die Sprunghöhen der
Verteilungsfunktion an den Stellen xj dar — dann erhält E(X) die Form:
X
qj x j .
E(X) =
j
Beispiele:
i) Betrachten wir die Zufallsvariable eines Münzwurfes mit zwei Elementarereignissen (“Kopf”, “Zahl”). Es sei X(Kopf ) = 1 und X(Zahl) = 0. Es sei pr(Kopf ) = p
und pr(Zahl) = 1 − p. (Bei einer nicht gezinkten Münze ist p = 1/2.) Für den
Erwartungswert erhalten wir dann
E(X) = 1 · p + 0 · (1 − p) = p.
ii) Wir verallgemeinern das letzte Beispiel eines Münzwurfes mit einer einzigen
Münze zu einem Münzwurf mit n (gleichgearteten) Münzen. Die Elementarereignisse bestehen dann in 2–Permutationen mit Wiederholung einer n–elementigen
Menge. Es gibt also 2n Elementarereignisse.
Diese Elementarereignisse sind (i.A.) nicht gleichwahrscheinlich, jedenfalls dann
nicht, wenn p 6= 1/2 ist. Ein Elementarereignis mit k “Köpfen” hat die Wahrscheinlichkeit
pk · (1 − p)n−k .
Definieren wir die Zufallsvariable X so, dass X(e) = Anzahl der “Köpfe”. Dabei abstrahiert man von der Reihenfolge, mit der die “Köpfe” gefallen sind. Bei k “Köpfen”
haben es dann also mit einer k–Kombination ohne Wiederholung zu tun. Dies knn
man sich so klarmachen, dass die gefallenen “Köpfe” eine k– elementige Teilmenge
definiert. Hierzu numerieren wir die Münzen der Reihe nach durch, erhalten also
eine Menge bestehend aus den Zahlen (nämlich den Indizes) 1 bis n. Fallen also k
“Köpfe”, dann definieren die Indizes derjenigen Münzen, die “Kopf” zeigen, eine k–
elementige Teilmenge.
µ ¶ Deshalb haben wir es also mit einer k–Kombination zu tun.
n
viele. Die Wahrscheinlichkeit, dass X den Wert k annimmt,
Hiervon gibt es
k
1.3. ZUFALLSVARIABLE
13
ist deshalb
pr(X = k) =
µ ¶
n
· pk · (1 − p)n−k .
k
Eine Zufallsvariable, die eine solche Wahrscheinlichkeitsfunktion besitzt, wird binomialverteilt genannt. Binomialverteilung treten wie gesehen typischerweise bei n
unabhängigen Null–Eins” Entscheidungen auf.
Als Erwartungswert einer binomialverteilten Zufallsvariable erhalten wir:
µ ¶
n
X
n
E(X) =
k·
· pk · (1 − p)n−k
k
k=0
µ ¶
n
X
n
=
k·
· pk · (1 − p)n−k
k
=
k=1
n
X
k·
k=1
=
np
n!
· pk · (1 − p)n−k
k!(n − k)!
n
X
(n − 1)!
· pk−1 · (1 − p)n−k
k!(n − k)!
k=1
=
=
n−1
X
(n − 1)!
· pk · (1 − p)n−1−k
(k − 1)!(n − 1 − k)!
k=0
n−1
X µn − 1¶
np
· pk · (1 − p)n−1−k
k
np
k=0
=
=
np(p + (1 − p))n−1
np.
Wir werden im folgenden noch eine weitere wichtige Verteilung betrachten, die
sich als Grenzfall der Binomialverteilung ergibt. Lässt man im obigen Szenario die
Anzahl n der Münzen wachsen und gleichzeitig die Wahrscheinlichkeit p reziprok
so fallen, dass n · p eine Konstante λ bildet (i.e. p = nλ ), dann erhalten wir die
sog. Poisson–Verteilung. Für die binomialverteilte Zufallsvariable Xn von n Münzen
erhalten wir:
µ ¶
n k
pr(Xn = k) =
p (1 − p) n − k
k
µ ¶
n λ k
λ n−k
=
( ) (1 −
k n
n
=
λ
λ n−k
n!
( )k (1 −
k!(n − k)! n
n
= λk
n!
1 (1 − nλ )n
k!(n − k)! nk (1 − nλ )k
=
λk
λ n(n − 1)(n − k + 1
1
(1 − )n
k
k!
n
n
(1 − nλ )k
=
λk
λ
1
k−1
1
.
(1 − )n 1 · (1 − ) · · · (1 −
)
k!
n
n
n (1 − nλ )k
Letzterer Ausdruck konvergiert für wachsendes n gegen:
pr(X = k) =
λk −λ
e .
k!
14KAPITEL 1. KOMBINATORIK UND ELEMENTARE WAHRSCHEINLICHKEITSRECHNUNG
Man kann sich auf Grund der geschilderten Verwandschaft zwischen der Binomialverteilung und der Poissonverteilung shnell plausibel machen, dass der Erwartungswert der Poissonverteilung sich zu
E(X) = λ(= n · p)
ergibt. Zu demselben Ergebnis kommt man auch direkt:
E(X) =
∞
X
k · e−λ
k=0
=
λe−λ
=
λe−λ
=
=
−λ
λe
λ.
λk
k!
∞
X
λk−1
(k − 1)!
k=1
∞
X
k=0
λ
λk
k!
·e
Beispiele Poissonverteilter Zufallsvariablen:
i) Anzahl der Todesfälle in preußischen Kavallerieregimentern durch Hufschlag pro
Jahr.
ii) Anzahl von Zerfallsprozessen pro Zeiteinheit in einer radioaktiven Substanz.
1.3.2
Varianzen
Neben dem Mittelwert gibt es eine weitere wichtige statistische Parameter. Wir betrachten im folgenden noch die sog. Varianz einer Zufallsvariablen. Diese gibt uns
Auskunft über die Streuung der Werte einer Zufallsvariable.
Sei also X eine Zufallsvariable, dann betrachten wir die neue Zufallsvariable
Y = (X − E(X))2 .
Der Erwartunsgwert von Y , also gewissermßen der Mittelwert der quadratischen
Abweichung von X von E(X), wird Varianz von X genannt und mit σ 2 bezeichnet.
Eine genaue Rechnung ergibt
σ 2 = E(X 2 ) − E(X)2 .
σ selbst heißt auch Standardabweichung.
Beipiele:
i) Die Varianz der Binomialverteilung ergibt sich zu
σ 2 = pqn.
ii) Die Varianz der Poissonverteilung ergibt sich zu λ.
Die Rolle der Varianz wird deutlich an der Tschebyscheffschen Ungleichung:
pr(|X − E(X)| = kσ) 5
1
.
k2
1.3. ZUFALLSVARIABLE
1.3.3
Korrelationen
15
Herunterladen