Kapitel 2 Wahrscheinlichkeitstheorie

Werbung
Kapitel 2
Wahrscheinlichkeitstheorie
Wir betrachten Ereignisse, die in fast gleicher Form
öfter auftreten
oder zumindest öfter auftreten können.
Beispiele: Werfen eines Würfels,
Sterben an Herzversagen während eines Gewitters,
Ziehen von Losen aus einer Urne,
Messen der Körpergröße einer bestimmten Person
aus einer Menge von Personen,
Werfen einer geraden Zahl beim Würfeln,
Sterben eines preußischen Soldaten infolge eines Hufschlags durch ein Militärpferd in einem bestimmten
Jahr
Gewissen Ereignissen werden gewisse Wahrscheinlichkeiten zugesprochen.
1
2.1
2.1.1
Zufallsexperimente
Bezeichnungen
Jedes Ergebnis eines Zufallsexperiments ist ein
Elementarereignis (z.B. eine sechs beim Würfeln).
Die möglichen Ergebnisse eines Zufallsexperiments
bilden eine Menge von Elementarereignissen,
die wir mit E bezeichnen.
Jedes Ereignis ist eine Menge von Elementarereignissen. (z.B. Würfeln einer geraden Zahl, gemessene
Körpergröße zwischen 1,52 m und 1,56 m, mehr als
15 und weniger als 21 Vögel sind an einem bestimmten Standort zu sehen)
Alle Ereignisse sind Teilmengen von E.
Ist A ⊂ E ein Ereignis, so ist das Gegenteil Ā von
A die Menge aller Elementarereignisse, die nicht zu
A gehören:
Ā = {e ∈ E : e ∈
/ A}.
Beispiel: Ist E = {1, 2, 3, 4, 5, 6}, A = {1, 3, 5},
so ist
2
Ā = {2, 4, 6}.
Ā heißt auch Komplementärereignis zu A.
Das Ereignis A oder B, in Zeichen A + B oder
A ∪ B tritt ein, wenn ein Elementarereignis aus A
oder ein Elementarereignis aus B eintritt.
nicht ausschließendes oder!
Das Ereignis A und B, in Zeichen A · B oder AB
oder A ∩ B tritt ein, wenn ein Elementarereignis
eintritt, das sowohl zu A als auch zu B gehört.
Das Ereignis A − B oder A \ B tritt ein, wenn ein
Elementarereignis eintritt, das zu A aber nicht zu B
gehört.
Es gibt: A − B = AB̄ ist die Differenzmenge
von A und B (in dieser Reihenfolge!).
Zwei Ereignisse A, B mit AB = ∅ heißen unvereinbar.
E heißt das sichere Ereignis.
3
∅ heißt das unmögliche Ereignis.
2.1.2
Axiome der Wahrscheinlichkeitstheorie
Jedem betrachteten Ereignis A ⊂ E wird eine Wahrscheinlichkeit w(A) zugeordnet, so dass gilt:
I. w(A) := wE (A) ≥ 0.
II. w(E) = 1.
III. AB = ∅ ⇒ w(A + B) = w(A) + w(B).
In Worten besagt III.: Sind zwei Ereignisse A, B
unvereinbar, so ist die Wahrscheinlichkeit, dass A
oder B eintritt gleich der Summe der Wahrscheinlichkeiten des Eintretens von A und von B.
Passt das zu unserer Vorstellung?
Beispiel: E = {1, 2, 3, 4, 5, 6},
A = {1, 2}, B = {2, 3}, C = {3, 4}
Dann ist A + B = {1, 2, 3}, A + C = {1, 2, 3, 4}.
4
Wie üblich schreiben wir den Elementarereignissen
i als Wahrscheinlichkeit w(i) zu:
1
w(i) = .
6
Wir erwarten:
w(A) = 31 , w(B) = 13 , w(A+B) = 21 , w(A+C) = 23 .
Tatsächlich gilt nur für die unvereinbaren Ereignisse
A und C die Beziehung w(A + C) = w(A) + w(C).
2.1.3
Einfache Folgerungen aus den Axiomen
AĀ = ∅ ⇒
1 = (AxiomII) = w(E) = w(A+Ā) = (AxiomIII) =
w(A) + w(Ā)
Folgerung 1: Für jedes Ereignis A gilt:
w(Ā) = 1 − w(A)
Nach Axiom I gilt: 0 ≤ w(Ā)
Nach Folgerung 1 gilt w(Ā) = 1 − w(A).
Folglich ist w(A) ≤ 1.
5
Folgerung 2: Für jedes Ereignis A gilt:
0 ≤ w(A) ≤ 1
Jedes Ereignis A mit w(A) = 1 heißt fast sicher.
Jedes Ereignis A mit w(A) = 0 heißt fast unmöglich.
Axiom IV kommt noch.
2.1.4
Additionsgesetz
Seien A1, A2, . . . , An paarweise unvereinbare Ereignisse.
Dann ist
w(A1 + A2 + . . . + An) = w(A1 + (A2 + . . . + An)).
Nach Axiom III ist also
w(A1 + A2 + . . . + An) = w(A1) + w(A2 + . . . + An).
Wiederholung des Vorgehens für den letzten Summanden ergibt das Additionsgesetz:
Sind A1, A2, . . . , An paarweise unvereinbare Ereignisse, so gilt:
6
w(A1+A2+. . .+An) = w(A1)+w(A2)+. . .+w(An).
2.1.5
Allgemeiner Additionssatz
Seien A, B beliebige Ereignisse. Dann gilt:
A + B = A + (B − AB)
Die Ereignisse A und B − AB sind unvereinbar.
(Skizze!)
Folglich gilt:
w(A+B) = w(A+(B−AB)) = w(A)+w(B−AB)
also
w(A + B) = w(A) + w(B − AB)
(∗)
Wie kann man w(B − AB) noch ”schöner“ ausdrücken?
w(B) = w(AB + (B − AB))
Wieder sind AB und B − AB unvereinbar. Folglich
ist
w(B) = w(AB) + w(B − AB),
also
7
w(B − AB) = w(B) − w(AB)
(∗∗)
Aus (*) und (**) folgt der allgemeine Additionssatz für zwei Ereignisse:
w(A + B) = w(A) + w(B) − w(AB)
2.1.6
Noch ein Axiom
Das Additionsgesetz für endlich viele paarweise unvereinbare Ereignisse konnten wir aus den vorhergehenden Axiomen beweisen.
Für unendlich viele können wir es nicht beweisen
und setzen es als Axiom voraus:
IV. A1, A2, . . . paarweise unvereinbar ⇒
w(A1 + A2 + . . .) = w(A1) + w(A2) + . . .
2.2
Abzählregel
E Menge der Elementarereignisse, A ein Ereignis.
Wir nehmen an, wir finden Ereignisse A1, A2, . . . , An,
so dass gilt:
(1) E = A1 + A2 + . . . + An
8
(2) A = A1 + A2 + . . . + Am
(1 ≤ m ≤ n!)
(3) w(A1) = w(A2) = . . . = w(An)
(4) A1, A2, . . . , An paarweise unvereinbar.
Dann ist
1 = w(E) = (1) = w(A1 + . . . + An)
= (4) = w(A1) + . . . + w(An)
(1 ≤ i ≤ n)
Damit folgt aus (3): w(Ai) = n1
und
w(A) = w(A1 +. . .+Am) = w(A1)+. . .+w(Am) =
1 m
m· = .
n
n
Pierre Simon de Laplace (1749 - 1827):
w(A) =
Anzahl der A günstigen unvereinbaren gleichwahrscheinlichen Ereignisse
9
geteilt durch
Anzahl der möglichen unvereinbaren gleichwahrscheinlichen Ereignisse
2.3
2.3.1
Bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit
Vor.: w(A) 6= 0
Dann heißt wA(B) := w(AB)
w(A) die bedingte Wahrscheinlichkeit von B unter der Bedingung
A.
Da tritt einfach A an die Stelle von E,
und man betrachtet von B nur diejenigen Elementarereignisse, die in A liegen, also AB.
Beispiel: An der MUT gibt es den Studiengang
Hühnerologie und den Studiengang Gänsologie. In
jedem der beiden Studiengänge befinden sich 50 Studierende im 1. Studienjahr. In den beiden Prüfungen
in Brutistik und Fütteristik war die Anzahl der erfolgreichen Teilnehmer wie folgt:
10
Brutistik Fütteristik
Hühnerologie
30
20
Gänsologie
10
40
Bezeichnungen:
H . . . studiert Hühnerologie
G . . . studiert Gänsologie
B . . . hat die Prüfung in Brutistik bestanden
F . . . hat die Prüfung in Fütteristik bestanden
w(B) = 0,4 = 40 %
w(F ) = 0,6 = 60 %
wH (B) = 0,6 = 60 %
wH (F ) = 0,4 = 40 %
wG(B) = 0,2 = 20 %
wG(F ) = 0,8 = 80 %
wB (H) = 0,75 = 75 %
wB (G) = 0,25 = 25 %
wF (H) = 26 ≈ 33, 33 %
wF (G) = 46 ≈ 66, 67 %
Mitteilung: (ohne Beweis, aber nicht schwer zu
überlegen)
Auch für die bedingte Wahrscheinlichkeit unter der
Bedingung A gelten die Axiome und die Rechenregeln aus den vorhergehenden Abschnitten.
11
Andere Schreibweise: wA(B) = w(B|A).
2.3.2
Multiplikationssatz
Gilt w(A) 6= 0 und w(B) 6= 0, so gilt auch:
w(AB) = w(A) · wA(B) = w(B) · wB (A)
Das ist eigentlich kein Satz, nur die Definition der
bedingten Wahrscheinlichkeiten wA(B) und wB (A)
noch einmal anders hingeschrieben.
2.3.3
Unabhängigkeit von Ereignissen
B heißt unabhängig von A, wenn gilt: w(B) =
wA(B).
(Das ist nur sinnvoll für w(A) 6= 0!)
Satz: Ist w(A) 6= 0 6= w(B), so gilt:
Ist B unabhängig von A, so ist auch A unabhängig
von B.
Warum?
Das folgt aus dem Multiplikationssatz.
12
Darum darf man sagen: A und B sind unabhängig
voneinander.
2.3.4
Produktsatz
A, B voneinander unabhängig ⇒ w(AB) = w(A)·w(B)
Das folgt aus dem Multiplikationssatz zusammen
mit der Definition der Unabhängigkeit von Ereignissen.
2.3.5
Einfache Folgerungen
Vor.: A, B voneinander unabhängig ⇒
wA(B̄) = 1 − wA(B) = 1 − w(B) = w(B̄)
Satz:
A, B voneinander unabhängig ⇒
A, B̄ unabhängig undB, Ā unabhängig
Wir rechnen weiter:
wĀ(B̄) = 1 − wĀ(B) = 1 − w(B) = w(B̄).
Satz:
A, B voneinander unabhängig ⇒
13
Ā, B̄ voneinander unabhängig
2.3.6
Mehrere voneinander unabhängige Ereignisse
Ereignisse A1, A2, . . . , An heißen voneinander
unabhängig, wenn gilt:
Jedes Ereignis Ak ist unabhängig von jedem der
Ereignisse Ak1 Ak2 Ak3 . . . Akm , wobei m < n und
k 6= k1, k 6= k2, . . . , k 6= km.
Achtung: Daraus folgt, dass jedes Ereignis Ak unabhängig ist von jedem Ereignis Aj mit k 6= j.
Die Umkehrung folgt nicht!
Bei der Unvereinbarkeit ist paarweise Unvereinbarkeit eine Voraussetzung, die meist ausreicht.
Bei der Unabhängigkeit ist die Voraussetzung meist
komplizierter!
Aber das kann man sich nicht aussuchen.
2.4
2.4.1
Zufallsvariable
Definition der Zufallsvariablen
Sei E die Menge der Elementarereignisse.
14
Eine Abbildung X : E → R heißt eine eindimensionale Zufallsvariable, falls gilt:
Für jedes x ∈ R steht die Wahrscheinlichkeit fest,
dass X einen Wert ≤ x annimmt.
Für diese Wahrscheinlichkeit schreibt man:
w(X ≤ x).
2.4.2
Beispiele für Zufallsvariable
1. Münzwurf:
X(Zahl oben) = 0, X(Zahl unten) = 1
(oder umgekehrt!)
2. Würfeln:
X(Wurf) = Augenzahl
3. Würfeln mit zwei Würfeln gleichzeitig:
X(Wurf) = Summe der Augenzahlen beider Würfel
4. Bernoulli-Experiment:
15
X = Zahl der ”Erfolge“ in n Versuchen,
die unter gleichen Bedingungen durchgeführt werden, und für die gilt:
Die Wahrscheinlichkeit für ”Erfolg“ ist in allen
Versuchen gleich groß.
(Würfeln einer Zahl größer als vier,
Sechser im Lotto (bei immer gleichbleibendem
System!),
kein Sechser im Lotto (bei immer gleichbleibendem System!))
5. Qualitätskontrolle:
X = Istwert - Sollwert
w(X ≤ x) ist hier nicht von vornherein bekannt,
wenn man nicht über die Fertigung mehr weiß
und darüber sinnvolle Annahmen trifft.
16
6. X = Schlachtgewicht der angelieferten Schweine
in einem Schlachthof
2.4.3
Diskrete Zufallsvariable
Eine Zufallsvariable heißt diskret, wenn sie nur
endliche viele Werte annimmt
(oder höchstens abzählbar unendlich viele Werte).
Achtung: Diskrete Zufallsvariable mit vielen Werten ersetzt man oft (näherungsweise) durch ”stetige
Zufallsvariable“,
weil man für bestimmte ”stetige Zufallsvariable“ oft
Gesetze oder Rechenverfahren anwenden kann
oder Tabellen hat.
2.4.4
Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen
X diskrete Zufallsvariable, die die Werte x1, x2,
. . . mit den Wahrscheinlichkeiten p1, p2, . . . annimmt.
17
Dann heißt f : R → [0, 1], definiert durch
pk für x = xk
f (x) :=
0 sonst
die Wahrscheinlichkeitsfunktion von X.
2.4.5
Verteilungsfunktion einer Zufallsvariablen
X Zufallsvariable. Dann heißt
F (x) := w(X ≤ x)
die Verteilungsfunktion von X.
Ist X diskret, so gilt:
X
pk
F (x) =
xk ≤x
2.4.6
Münzwurf: 3 Würfe
X := Summe der Werte aus dem Beispiel ”Münzwurf“
bei drei aufeinanderfolgenden Würfen
Tafelskizze der zugehörigen Wahrscheinlichkeitsfunktion
Tafelskizze der zugehörigen Verteilungsfunktion
18
2.4.7
Eigenschaften von Verteilungsfunktionen
1.
F : R → [0, 1]
2.
lim F (x) = 0 =: F (−∞)
x→−∞
lim F (x) = 1 =: F (∞)
x→∞
3.
F (x1) ≤ F (x2), falls x1 ≤ x2
(F ist monoton wachsend (nicht notwendig streng!))
4.
F (x) ist rechtsseitig stetig.
2.4.8
Stetige Zufallsvariable
Eine Zufallsvariable X heißt stetig, wenn für ihre
Verteilungsfunktion F gilt:
Es gibt eine stetige Funktion f : R → R, so dass
gilt:
1.
f (x) ≥ 0
2.
Z
x
F (x) =
f (t)dt
−∞
19
Dabei heißt f die (Wahrscheinlichkeits-)Dichte
von X.
Achtung: Eine stetige Zufallsvariable ist nicht das
Gegenteil einer diskreten Zufallsvariablen.
20
Herunterladen