Kombinatorik 1. Ziehen mit Zurücklegen in

Werbung
Kombinatorik
In der Kombinatorik geht es um die Anzahl von Möglichkeiten, die Elemente von
Mengen zu ordnen oder m-Tupel daraus zu bilden. Das Ordnen von Mengen kann
dabei durch das Ziehen von Objekten aus einer Urne dargestellt werden. Die
Kombinatorik spielt in der Wahrheitlichkeitstheorie als Hilfsmittel eine Rolle. Dies ist
der Fall, wenn gleiche Wahrscheinlichkeit der Elementarereignisse vorausgesetzt
werden kann. Die Kombinatorik erlaubt eine wirksame Berechnung der Anzahl
möglicher, gleichwahrscheinlicher Fälle. Die Kombinatorik gehört selber aber nicht
zur Wahrscheinlichkeitstheorie.
In der Kombinatorik können folgende vier Grundtypen von Problemen
unterschieden werden:
1. Ziehen mit Zurücklegen in Reihenfolge
Wieviele m-Tupel sind mit den Objekten einer Menge bildbar, wenn die Objekte
mehrmals verwendet werden können. z.B. A  1, 2, 3, 4, 5. Wieviele Möglichkeiten
gibt es, 2-Tupel aus A zu bilden, wobei Objekte mehrmals verwendet werden
können. Offenbar erhalten wir für A, wenn m  2:
 1, 1 ,  1, 2 ,  1, 3 ,  1, 4 ,  1, 5 ,
 2, 1 ,  2, 2 ,  2, 3 ,  2, 4 ,  2, 5 ,
 3, 1 ,  3, 2 ,  3, 3 ,  3, 4 ,  3, 5 ,
 4, 1 ,  4, 2 ,  4, 3 ,  4, 4 ,  4, 5 ,
 5, 1 ,  5, 2 ,  5, 3 ,  5, 4 ,  5, 5 
Die Anzahl der Elemente dieser Menge  5  5  25
Übung 1: Bilden Sie Menge der Tripel, die aus A bildbar sind (mit Zurücklegen).
Eine Berechnung der Anzahl m-Tupel durch Abzählen ist etwas aufwändig.
Deshalb versuchen wir eine schnellere Methode zu entwickeln, um solche Mengen
abzuzählen: eine Menge A enthalte n Elemente und wir bilden die Menge der
m-Tupel, wobei die Elemente von A wiederverwendet werden können. Offenbar gibt
es n Möglichkeiten, ein erstes Objekt aus A auszuwählen. Es gibt n Möglichkeiten,
ein zweites Objekt aus A auszuwählen (da Elemente mehrmals verwendet werden
können). Wenn m  2, gibt es offensichtlich n  n  n 2 mögliche geordnete Paare.
Es gibt n Möglichkeiten, ein drittes Objekt aus A auszuwählen. Somit gibt es n 3
Tripel, die mit Elementen von A bildbar sind. Allgemein gibt es n m Möglichkeiten,
aus einer Menge A mit n Elementen m-Tupel zu bilden. Die entwickelte Formel
ordnet jedem geordneten Paar n, m (n die Anzahl der Elemente einer Menge A
bei zu bildenden m-Tupeln mit Zurücklegen) die Zahl n m zu. Für die dadurch
bestimmte Funktion schreiben wir:
V n, m : n m
Aufgabe: überprüfen Sie die entwickelte Formel an den obigen zwei Beispielen [
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 121
V 5, 2  ?; V 5, 3  ?]
2. Ziehen ohne Zurücklegen in Reihenfolge
Wieviele Möglichkeiten gibt es, aus Objekten einer Menge m-Tupel zu bilden, wenn
die Objekte nur einmal verwendet werden können.
z.B. A  1, 2, 3, 4, 5.
Offenbar erhalten wir bei m  2:
 1, 2 ,  1, 3 ,  1, 4 ,  1, 5 ,
 2, 1 ,  2, 3 ,  2, 4 ,  2, 5 ,
 3, 1 ,  3, 2 ,  3, 4 ,  3, 5 ,
 4, 1 ,  4, 2 ,  4, 3 ,  4, 5 ,
 5, 1 ,  5, 2 ,  5, 3 ,  5, 4 
Die Anzahl der Elemente dieser Menge  5  4  20
Übung 2: Bilden Sie Menge der Tripel, die derartig aus A bildbar sind.
Auch dieses Problem wollen wir mit effizienteren Methoden als einem Abzählen
von Elementen einer Menge lösen. Eine Menge A enthalte n Elemente und zu
bilden sind m-Tupel ohne Zurücklegen. Offenbar gibt es n Möglichkeiten, ein erstes
Objekt aus A auszuwählen. Es verbleiben n  1 Möglichkeiten, ein zweites Objekt
aus A auszuwählen (da Elemente nur einmal verwendet werden können, steht das
erste nicht mehr zur Verfügung). Wenn m  2, gibt es also offensichtlich n  n  1
mögliche geordnete Paare.
Es gibt n  2 Möglichkeiten, ein drittes Objekt aus A auszuwählen. Somit gibt es
n  n  1  n  2 Möglichkeiten, Tripel aus A zu bilden. Allgemein gibt es
n  n  1  n  2 . . . n  m  1 m-Tupel, die aus einer Menge A mit n Elemente
bildbar sind.
Diese Formel ordnet jedem geordneten Paar n, m (n die Anzahl der Elemente
einer Menge A bei zu bildenden m-Tupeln ohne Zurücklegen) genau eine Zahl zu.
Es handelt sich um eine Funktion, für die wir schreiben: Vn, m 
n  n  1  n  2 . . . n  m  1 (Das Resultat einer Ziehung ohne Zurücklegen in
Reihenfolge wird auch ”Variation” genannt. Daher das ”V”).
Wenn m  n, nennen wir die resultierenden n-Tupel ”Permutationen”. Es gibt
offensichtlich: Anzahl der Permutationen  n  n  1  n  2 . . . 2  1. Für diesen
Ausdruck führen wir eine gängige Abkürzung ein:
n1
Definition : n! : n  n  1  n  2 . . . 2  1 
n  i
i0
”n!” nennen wir n-te Fakultät (Mehrzahl: Fakultäten).
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 122
Es gilt:
0!  1 (durch Festsetzung)
1!  1
n!  nn  1!.
Berechnung mit Excel: Im Funktionenmenu unter ”Math. und
Trigonometrie”Fakultät(n)”.
Mit der Schreibweise für Fakultäten können wir n  n  1  n  2 . . . n  m  1 ohne die etwas unsaubere Schreibweise mit den Punkten - wie folgt ausdrücken
und berechnen:
Vn, m 
n!
n  m!
da durch Erweitern gilt: n  n  1  n  2 . . . n  m  1 
nn1n2...nm1nmnm1...1
nmnm1...1

n!
nm!
Berechnung von n! mit dem HP: mth; nxt; prob;!
Berechnung von Vn, m mit dem HP: n eingeben, enter; m eingeben, enter; mth;
nxt; prob; perm (in der neueren Literatur wird gewöhnlich nicht mehr zwischen
Permutation und Variation unterschieden. Eine ”Permutation” ist ja nur ein
Spezialfall der Variation (n  m).
Aufgabe: Überprüfen Sie die entwickelte Formel an den obigen zwei Beispielen [
V5, 2  ?;V5, 3  ?]
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 123
3. Ziehen ohne Zurücklegen ohne Reihenfolge
Wir ziehen m Elemente aus einer Menge A mit n Elementen ohne Zurücklegen und
ohne die Reihenfolge zu beachten. Damit wird bei m-Tupeln mit denselben
Komponenten jeweils nur ein m-Tupel als Vertreter der Gruppe gezählt. Da
Elemente der Grundmenge hier nur einmal auftauchen, ist das Problem des
Ziehens mit Zurücklegen ohne Reihenfolge mit folgendem Problem identisch:
wieviele Teilmengen mit m Elementen sind aus einer Menge A mit n Elementen
bildbar? Entsprechend könnte man das Problem als ein Abzählproblem der Menge
a 1 , . . . , a m  : a i  A} auffassen. Aus Gründen der Systematik bleiben wir bei
m-Tupeln. Für Mengen von m-Tupeln mit denselben Komponenten wählen wir
jeweils einen Vertreter. Für m  2 erhalten wir z.B.:
 1, 2 ,  1, 3 ,  1, 4 ,  1, 5 
 2, 3 ,  2, 4 ,  2, 5 ,
 3, 4 ,  3, 5 ,
 4, 5 
Die Anzahl der Elemente dieser Menge  4  3  2  1  10
Übung 3: Bilden Sie Menge der Tripel, die derartig aus A bildbar sind.
Auch hier möchten wir das Problem mit einer allgemeinen Formel lösen.
Kn, m 
n!
m!n  m!
Beweis: Die Anzahl der m-Tupel, die aus der Menge A ohne Zurücklegen bildbar
n!
n!
ist Vn, m  nm!
. Somit ist nm!
die Anzahl der Elemente der Menge
S   a 1 , . . . a m : a 1 , . . . a m  A und a i  a j für i  j}. Manche dieser n-Tupel fallen
bei unserem Zählproblem jedoch zusammen, da die Reihenfolge keine Rolle spielt.
Wir definieren folgende Äquivalenzrelation:  a 1 , . . . a m  steht in der Relation R zu
 a ,1 , . . . a ,m  genau dann, wenn a 1 , . . . a m   a ,1 , . . . a ,m . Somit ist ein m-Tupel mit
einem anderen genau dann R-äquivalent, wenn es dieselben Komponenten enthält.
R ist eine Äquivalenzrelation, da ”” eine Äquivalenzrelation ist. Somit zerlegt R die
Menge S in eine Menge Z von Teilmengen X i ( Z  die Menge der
R-Äquivalenzklassen), so dass gilt: die paarweisen Schnittmengen aller
Teilmengen X i von S sind leer und die Vereinigungsmenge aller Teilmengen X i  S.
Zudem gilt: jedes X i enthält gleich viele Elemente, nämlich m!. Somit gilt:
n!
n!
Kn, m  m!  nm!
. Daraus folgt: Kn, m  m!nm!
q.e.d.
K ordnet jedem n und m eine Zahl zu, die der Anzahl der möglichen Fälle beim
Ziehen ohne Zurücklegen ohne Reihenfolge entspricht. (Die Resultate von
Ziehungen ohne Zurücklegen und ohne Reihenfolge werden auch ”Kombinationen”
genannt. Daher das ”K”).
Statt
n!
m!nm!
wird gewöhnlich die folgende Abkürzung verwendet:
Definition:  mn  :
n!
m!nm!
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 124
Es gilt: Mit
0
0
n
0
1
  nn 
0!
 11  1
Beweis: 00  0!00!
n!
n!
n
 0!n0!
 1n!
1
0
n!
n
1
 n   n!nn!  nn!  0!1  11  1
Zudem gilt: Wenn m  n, dann  mn   0
 mn  werden ”Binomialkoeffizienten” genannt, da sie auch beim Ausrechnen von
Binomen der Form a  b n eine zentrale Rolle spielen.
n
gilt nämlich a  b n  
k0
n
k
a k b nk . z.B.
a  b 2 
2
0
a  b 3 
3
0
3
3
3
a 3 b 33 
4
0
4
3
a 3 b 43   44 a 4 b 44 
a  b 4 
a 0 b 20   21 a 1 b 21   22 a 2 b 22  b 2  2ab  b 2
a 0 b 30   31 a 1 b 31   32 a 2 b 32 
b  3ab 2  3a 2 b  a 3
a 0 b 40   41 a 1 b 41   42 a 2 b 42 
b 4  4ab 3  6a 2 b 2  4a 3 b  a 4
Für Binomialkoeffizienten gilt weiterhin:
Wenn m  n, dann  mn   0
Berechnung mit dem HP: ”n”, enter; ”m”, enter; mth, nxt, prob, comb
Berechnung mit Excel: Im Funktionenmenu unter ”Math. und Trigonometrie”:
Kombinationen(n, m)”.
Aufgabe: Überprüfen Sie die entwickelte Formel an den obigen zwei Beispielen
[C5, 2  ?;C5, 3  ?]
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 125
4. Ziehen mit Zurücklegen ohne Reihenfolge
Es werden m Elemente aus einer Menge A mit n Elementen gezogen, wobei die
Elemente mehrmals verwendet werden können und die Reihenfolge keine Rolle
spielt. Auch hier ist das Abzählbarkeitsproblem mit einem Rückgriff auf
Problemlage 1 lösbar, indem jeweils geeignete Vertreter von Tripeln, die nicht
unterschieden werden, gewählt und gezählt werden. Bei m  5 würde z.B. 2, 2, 3,
2, 4 mit 2, 3, 4, 2, 2 zusammenfallen. Wir müssen weiterhin geordnete Paare
wählen, um die Fälle zu repräsentieren, da {a, a, a, a}  {a, a}, während a, a, a, a
 a, a).
z.B. A  1, 2, 3, 4, 5.
Offenbar erhalten wir für m  2 und bei der Wahl geeigneter Vertreter:
 1, 1 ,  1, 2 ,  1, 3 ,  1, 4  1, 5 ,
 2, 2 ,  2, 3 ,  2, 4 ,  2, 5 ,
 3, 3 ,  3, 4 ,  3, 5 ,
 4, 4 ,  4, 5 
 5, 5 
Die Anzahl der Elemente dieser Menge  5  4  3  2  1  15
Aufgabe: Bilden Sie Menge der Tripel, die derartig aus A bildbar sind.
Allgemein gilt:
K n, m 
nm1
m

n  m  1!
n  m  1!

m!n  1!
m!n  m  1  m!
Den - etwas anspruchsvollen - Beweis finden Sie unter http://math.logik.ch in der
Rubrik ”Statistik” 1. HSW ”Beweise”.
Übung 4: Berechnen Sie laut der Formel das obige Beispiel. [ K 5, 2  ?; K 5, 3  ?]
Nicht alle kombinatorischen Probleme entsprechen diesen vier Grundproblemen.
Viele lassen sich jedoch mit Hilfe dieser vier Grundaufgaben lösen.
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 126
5. Übungen
5) Berechnen Sie die Anzahl der Reihenfolgen, in der 8 Personen auf einer Bank sitzen
können?
6) Beim Jassen: 36 Karten, 4 Spieler. Wieviele Möglichkeiten gibt es, die 9 Karten den
Spielern zuzuweisen?
7) Wir betrachten eine Menge von 5 Sätzen: {p,q,r,s,t}. Jeder Satz sei wahr oder falsch.
Wieviele Möglichkeiten gibt es, den Sätzen wahr oder falsch zuzuordnen.
8) In einer Kantine kann das Essen selber aus Beilagen (Reis, Nudeln, Kartoffeln), Fleisch
(Braten, Ragout) und Salat (Grüner, Gemischter) zusammengestellt werden. Wieviele
Zusammenstellungen sind möglich?
9) Man hat drei Flüsse zu überqueren. Über den erste Fluss führen vier Brücken, über den
zweiten fünf und über den dritten zwei. Wieviele mögliche Wege gibt es über die drei
Flüsse (ein Weg A ist von Weg B genau dann verschieden, wenn er über verschiedene
Brücken führt).
10) Ein Würfel wird sechsmal geworfen und man schreibt jeweils die Augenzahl auf.
Wieviele Anordnungen sind denkbar. Wie viele davon enden mit 4? Wie viele enden mit
3 oder 4?
11) Aus 5 Personen A, B, C, D, E soll ein Dreierausschuss gewählt werden. Wieviele
Wahlmöglichkeiten gibt es?
12) Wieviele Möglichkeiten gibt es, beim Zahlenlotto 6 Zahlen anzukreuzen (auf 45).
13) An einem Fest mit 20 Gästen stösst jeder mit jedem an. Wie oft klingen die Gläser?
14) In einer Meisterschaft mit 12 Mannschaften spielt jede Mannschaft gegen jede. Wie
viele Spiele werden ausgetragen?
15) Auf wie viele Arten können 12 Personen auf 3 Vierbettzimmer verteilt werden?
16) Eine Klasse zählt 20 Schülerinnen und Schüler; sechs davon sollen die Klasse bei einer
Veranstaltung der Schüler vertreten. Wie viele Auswahlen sind denkbar?
17) Ein Wort bestehe aus einer Anreihung von Buchstaben (von 2 bis 15 Buchstaben).
Wieviele Wörter lassen sich aus einem Vokabular von 25 Buchstaben bilden?
18) 6 Weisswein- und 4 Rotweingläser werden in einer Reihe aufgestellt. Wieviel
Möglichkeiten gibt es, eine Aufstellung vorzunehmen (Rotweingläser gelten als
ununterscheidbar. Weissweingläser gelten als ununterscheidbar).
19) Beim Würfeln von 4 Würfeln (je 6 Augenzahlen). Wieviele Möglichkeiten gibt es, vier
verschiedene Augenzahlen zu erhalten (mit und ohne Beachtung der Reihenfolge).
20) a) Wieviele Möglichkeiten gibt es, die Geburtstage von 18 Personen auf das Jahr zu
verteilen? (inklusive Mehrfachbelegungen und 360 Tagen).
b) Wieviele Möglichkeiten gibt es, die Geburtstage auf die 360 Tage zu verteilen ohne
Mehrfachbelegungen?
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 127
c) Wieviele Möglichkeiten gibt es, die Geburtstage auf 360 Tage zu verteilen, so dass
mindestens eine Zweifachbelegung erfolgt.
21) Auf wieviele Arten können sich zwei nicht unterscheidbar Spatzen auf 4
Telegraphenleitungen verteilen?
22) Wieviel beträgt die Anzahl der Teilmengen der endlichen Menge A mit |A|  n
23) Auf einem Sporttoto-Tippschein sind 13 Fussballspiele aufgeführt. In einer
danebenstehenden Kolonne ist anzugeben, ob der erste Klub gewinnt, oder der zweite
oder ob unentschieden gespielt wird. Dazu wird ”1”, ”2” oder ”x” verwendet. Wieviele
Möglichkeiten gibt es, Voraussagen zu machen.
24) Wieviele Möglichkeiten gibt es, fünf Tassen mit Kaffee und fünf Tassen mit Tee
anzuordnen (die Tassen mit Tee sowie die Tassen mit Kaffee sind ununterscheidbar).
25) Aus einer Urne mit 30 Kugeln (20 davon sind schwarz, 10 sind weiss) werden 5 Kugeln
gezogen - mit Zurücklegen. Wieviele mögliche Resultate sind dabei denkbar (die
schwarzen Kugeln sowie die weissen sind ununterscheidbar).
26) Wieviele Abbildungen gibt es von A nach B (|A|  n; |B|  m. (Abbildungen
verwenden alle Objekte von A als jeweils erste Komponente in den Elementen der
Funktion).
27) Wieviele vierstellige Ziffern lassen sich aus den Ziffern {1,2,3,4,5,6,7,8,9} bilden,
wenn keine Ziffer zweimal verwendet werden kann.
28) Wieviele Elemente enthält das kartesische Produkt: A  B  C  D  E, wenn
|A|  n; |B|  m; |C|  o; |D|  p; |E|  r.
6. Lösungen
1) Ziehen mit Zurücklegen in Reihenfolge (m  3). A  {1, 2, 3, 4, 5}.
1) 1,1,1, 1,1,2, 1,1,3, 1,1,4,1,1,5
2) 1,2,11,2,2, 1,2,3,1,2,4,1,2,5
3) 1,3,11,3,2, 1,3,3,1,3,4,1,3,5
4) 1,4,11,4,2, 1,4,3,1,4,4,1,4,5
5) 1,5,11,5,2, 1,5,3,1,5,4,1,5,5
6) 2,1,12,1,2,2,1,3,2,1,4,2,1,5
7) 2,2,12,2,2,2,2,3,2,2,4,2,2,5
8) 2,3,12,3,2,2,3,3,2,3,4,2,3,5
9) 2,4,12,4,2,2,4,3,2,4,4,2,4,5
10) 2,5,12,5,2,2,5,3,2,5,4,2,5,5
11) 3,1,13,1,2,3,1,3,3,1,4,3,1,5
12) 3,2,13,2,2,3,2,3,3,2,4,3,2,5
13) 3,3,13,3,2,3,3,3,3,3,4,3,3,5
14) 3,4,13,4,2,3,4,3,3,4,4,3,4,5
15) 3,5,13,5,2,3,5,3,3,5,4,3,5,5
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 128
16) 4,1,14,1,2,4,1,3,4,1,4,4,1,5
17) 4,2,14,2,2,4,2,3,4,2,4,4,2,5
18) 4,3,14,3,2,4,3,3,4,3,4,4,3,5
19) 4,4,14,4,2,4,4,3,4,4,4,4,4,5
20) 4,5,14,5,2,4,5,3,4,5,4,4,5,5
21) 5,1,15,1,2,5,1,3,5,1,4,5,1,5
22) 5,2,15,2,2,5,2,3,5,2,4,5,2,5
23) 5,3,15,3,2,5,3,3,5,3,4,5,3,5
24) 5,4,15,4,2,5,4,3,5,4,4,5,4,5
25) 5,5,15,5,2,5,5,3,5,5,4,5,5,5
Anzahl: 25 * 5  125.
Mit Hilfe der Formel: 5 3  125
2) Ziehen ohne Zurücklegen in Reihenfolge (m  3). A  {1, 2, 3, 4, 5}.
1) 1,2,3,1,2,4,1,2,5
2) 1,3,2, 1,3,4,1,3,5
3) 1,4,2, 1,4,3,1,4,5
4) 1,5,2, 1,5,3,1,5,4
5) 2,1,3,2,1,4,2,1,5
6) 2,3,1,2,3,4,2,3,5
7) 2,4,1,2,4,3,2,4,5
8) 2,5,1,2,5,3,2,5,4
9) 3,1,2,3,1,4,3,1,5
10) 3,2,1,3,2,4,3,2,5
11) 3,4,13,4,2,3,4,5
12) 3,5,13,5,2,3,5,4
13) 4,1,2,4,1,3,4,1,5
14) 4,2,1,4,2,3,4,2,5
15) 4,3,14,3,2,4,3,5
16) 4,5,14,5,2,4,5,3
17) 5,1,2,5,1,3,5,1,4
18) 5,2,1,5,2,3,5,2,4
19) 5,3,15,3,2,5,3,4
20) 5,4,15,4,2,5,4,3
Anzahl: 20 * 3  60.
Mit der Formel: 5*4*3  60.
3) Ziehen ohne Zurücklegen ohne Reihenfolge (m  3). A  {1, 2, 3, 4, 5}. Wir wählen
folgende ”Repräsentaten”:
1) 1,2,3,1,2,4,1,2,5
2) 1,3,4,1,3,5
3) 1,4,5
4) 2,3,4,2,3,5
5) 2,4,5
6) 3,4,5
Anzahl: 10:
5!
54321
Mit der Formel: 3!53!
  32121
 10
4) Ziehen mit Zurücklegen ohne Reihenfolge (m  3). A  {1, 2, 3, 4, 5}. Wir wählen
folgende ”Repräsentanten”:
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 129
1) 1,1,1, 1,1,2, 1,1,3, 1,1,4,1,1,5
2) 1,2,2, 1,2,3,1,2,4,1,2,5
3) 1,3,3,1,3,4,1,3,5
4) 1,4,4,1,4,5
5) 1,5,5
6) 2,2,2,2,2,3,2,2,4,2,2,5
7) 2,3,3,2,3,4,2,3,5
8) 2,4,4,2,4,5
9) 2,5,5
10) 3,3,3,3,3,4,3,3,5
11) 3,4,4,3,4,5
12) 3,5,5
13) 4,4,4,4,4,5
14) 4,5,5
15) 5,5,5
Anzahl: 15  10  6  3  1  35
531
Mit der Formel:  nm1
 73 
m  
3
7!
3!73!
 35
5) Eine Person kann nicht in einer Reihenfolge an zwei Orten sitzen: Es geht somit um das
Problem ”ohne Zurücklegen in Reihenfolge”. Da wir alle anordnen, geht es darum, die
Anzahl der Permutationen zu bestimmen. 8!  40320
6) Es handelt sich um ein Problem, das nicht einem der obigen vier Grundprobleme
entspricht, das jedoch mit Hilfe dieser Grundprobleme gelöst werden kann. Wir können
uns die Frage stellen, wieviele Möglichkeiten es gibt, dem ersten Spieler Karten
zuzuwiesen. Es geht somit um das Problem ”Ziehen ohne Zurücklegen ohne Reihenfolg”
36
Möglichkeiten, Karten zugewiesen
für den ersten (m  9, n  36). Es gibt für ihn
9
zu bekommen. Für den zweiten Spieler bleiben dann noch 27 Karten: 279 . Für den
Dritten bleiben 18: 18
. Für den letzten sind seine Karten durch die den übirgen
9
zugewiesenen Karten bestimmt. Somit beträgt die Anzahl der Möglichkeiten:
36
 27
 18
 2. 14527522663  10 19
9
9
9
(Es wird multipliziert und nicht addiert, da es für jede Möglichkeit des ersten, Karten
Möglichkeiten für den zweiten gibt, Karten
zugewiesen zu bekommen, 27
9
zugewiesen zu bekommen, etc.)
7) ”p” kann ”wahr” oder ”falsch” zugeordnet werden (2 Möglichkeiten). ”q” kann ”wahr”
oder ”falsch” zugordnet werden. Somit gibt es für q auch 2 Möglichkeiten. Für ”p” und
”q” ergibt dies 2  2  4. Wir betrachten eine Menge von 5 Sätzen: {p, q, r, s, t}. Jeder
Satz sei wahr oder falsch. Wieviele Möglichkeiten gibt es, den Sätzen wahr oder falsch
zuzuordnen. Es geht um 5-maliges Ziehen mit Reihenfolge mit Zurücklegen.
(n  2, m  1). Dies ergibt: 2  2  2  2  2  2 5  32. Für n Sätze gibt es 2 n
Möglichkeiten, ”wahr” oder ”falsch” zuzuordnen.
8) 3  2  2  12
9) 4  5  2  40
10) Mit Reihenfolge und Zurücklegen: 6  6  6  6  6  6  6 6  46 656  Anzahl
Zahlenfolgen) Es enden auf 4? 6  6  6  6  6  7776 (ebenso viele enden auf 1, 2, 3, 5
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 130
und 6). Es enden auf 3 oder 4? 6  6  6  6  6  2  15 552
11) Problemlage: ohne Reihenfolge ohne Zurücklegen:
5
3
12) Problemlage: ohne Reihenfolge ohne Zurücklegen:
45
6
 10
 8145 060
13) Die erste Person stösst mit 19 an, die zweite mit 18 (das Anstossen mit der 1. hat schon
1920
 190
stattgefunden), die dritte mit 17, etc. Dies ergibt: 19  18  17 . . . 1 
2
14) Die erste Mannschaft spielt gegen 11, die zweite gegen 10, etc. Somit gilt:
11  10  9 . . . 2  1  1112
 66
2
15) Aufs erste Zimmer: Ziehen ohne Reihenfolge ohne Zurücklegen:  124   495
Es verbleiben 8 Personen: Aufs zweite Zimmer gibt es noch Möglichkeiten:  84   70
Es verbleiben 4 Personen ( 1 Möglichkeit). Somit gilt:  124    84   34650
16) Eine Klasse zählt 20 Schülerinnen und Schüler; sechs davon sollen die Klasse bei einer
Veranstaltung der Schüler vertreten. Wie viele Auswahlen sind denkbar? Ziehen ohne
Reihenfolge ohne Zurücklegen: 206  38760
17) Mit Zurücklegen (da ein Buchstabe mehrmals im Wort auftauchen kann) mit
Reihenfolge:
25 2  25 3  25 4  25 5  25 6  25 7  25 8  25 9  25 10  25 11  25 12  25 13  25 14  25 15
 970 127 681 891 123 453 750
18) Wenn die Gläser alle unterscheidbar wären, gäbe es 10! mögliche Reihenfolgen. Da die
Rotweingläser einerseits, die Weissweingläser andrerseits nicht unterscheidbar sind,
fallen jedoch immer verschiedene Reihenfolgen zusammen: Wir betrachten eine
spezifische Reihenfolge A  wrrwwrwwrw. Die Weissweingläser können in dieser Reihe
untereinander auf 6! Arten angeordnet sein, die Rotweingläser können in dieser Reihe
auf 4! Arten angeordnet sein. Dies bedeutet, dass für die Reihe A jeweils 6!  4!
Reihenfolgen zusammenfallen. Offensichtlich gilt dies für jede Reihenfolge A. Somit gilt
für die k Reihenfolgen ununterscheidbarer Rot- bzw. Weissweingläser:
10!
k  6!  4!  10!  k  6!4!
 106  210
Allgemein gilt: Bei n Objekten, von denen m und n  m ununterscheidbar sind, gibt es
n!
  mn  mögliche Anordnungen. Somit fällt das Problem mit dem Problem
m!nm!
”Ziehen ohne Zurücklegen ohne Reihenfolge” zusammen.
19) Ziehen ohne Zurücklegen mit Reihenfolge: 6  5  4  3  360
b) Ziehen ohne Zurücklegen ohne Reihenfolge:  64   15
20) a) 360 18 b)
360!
36018!
c) 360 18 
360!
36018!
21) 4  3  2  1  10
22) |PA|  2 n .
Beweis: (1) |PA|  2 n gilt für n  1. Ist |A|  1 gibt es ein x, so dass A  x. Die
Anzahl der Teilmengen ist 2, da PA  , x. Nun ist 2 1  2. Somit gilt der Satz für
n  1.
(2) Wir nehmen an, dass der Satz für n gilt und versuchen zu zeigen, dass er für n  1
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 131
gilt. Wenn der Satz für n gilt, ist |PA|  2 n für |A|  n. Für A  A  x gilt
|A|  n  1. Für PA   gilt: PA    PA  B mit B  C : C  D  x und
D  PA}. Nun weist B und PA gleichviele Element auf, da B aus den Elementen von
PA durch Vereinigung mit x entsteht. Somit gilt dann
|PA  |  |PA  B|  2|PA|  2  2 n  2 n1 . Damit gilt der Satz für n  1, wenn er
für n gilt.
(3) Daraus können wir (durch Induktion) schliessen, dass der Satz für alle n gilt.
23) Es gibt drei Möglichkeiten pro Fussballspiel. Dies ergibt 3 13 Möglichkeiten.
24)  105   252
25) Es werden nur Schwarze gezogen: Dann gibt es  205   15504. Anzahl der
Möglichkeiten aus den schwarzen schwarze Kugeln zu ziehen.
Es werden eine weisse und vier schwarze gezogen: Es gibt  101   10 Möglichkeiten,
aus 10 weissen eine Weisse zu ziehen und  204   4845 Möglichkeiten aus den
Schwarzen 4 Schwarze zu ziehen. Insgesamt: 48450 Möglichkeiten:
Es werden zwei weisse und drei schwarze gezogen:  102  203  51300
Es werden drei weisse und zwei schwarze gezogen: 102  203  22800
Es werden vier weisse und eine schwarze gezogen:  104  201   4200
Es werden nur weisse gezogen:  10
  252
5
Damit ergibt sich: 15504  48450  51300  22800  4200  1. 422 5  10 5
26) Für die Menge der Abbildungen von A nach B schreiben wir: AbbA, B. Es gibt m n
Abbildungen f mit f  AbbA, B. Wir beweisen dies durch Induktion:
(1) Der Satz gilt für n  1. In diesem Fall gibt es ein x, so dass A  x. Für jedes
Element y aus B gibt es genau eine Abbildung der Form {x, y}. Somit gibt es
m  m n  m 1 Abbildungen. Der Satz gilt also für n  1.
(2) Der Satz gelte für n. Somit gilt: Die Anzahl der Abbildungen von A nach B beträgt:
m n . Sei nun A  A  z, so dass |A|  n  1. Wir können nun für jede Funktion f von
A nach B eine Funktion f von A nach B bilden: f : f   z, y  mit y  B. Alle m n
Funktionen können mit je m Elementen  z, y  aufgefüllt werden. Damit gibt es dann
m n  m  m n1 Abbildungen von A nach B. Damit gilt der Satz für n  1 wenn er für n
gilt.
(3) Durch Induktion schliessen wir: Der Satz gilt für alle n.
27) Bei Ziffern spielt die Reihenfolge eine Rolle (ohne Zurücklegen):
9!
94!
 3024
28) |A|  |B|  |C|  |D|  |E|  m  m  o  p  r.
7. Lernziele
- die vier Problemlagen ”Ziehen mit/ohne Zurücklegen mit/ohne Reihenfolge” kennen und
die jeweilgen Anzahlen für beliebige n und m berechnen können.
- kombinatorische Probleme von der Art der Übungsaufgaben lösen können (ohne jene mit
Induktionsbeweisen).
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 132
- Die Definition von ”Fakultät” kennen und Fakultäten berechnen können.
- Die Definition von  mn  kennen und entsprechende Ausdrücke berechnen können.
—————————————————————————————————————
Kombinatorik.txt 1. HSW Siders, P.R. 133
Einführung in die Wahrscheinlichkeitstheorie
1. Einleitung
Das Wort ”wahrscheinlich” gehört zum täglichen Sprachgebrauch, wobei wir das
Wort in unterschiedlichen Bedeutungen verwenden. Im Satz ”Wahrscheinlich
mache ich morgen blau” äussere ich mich über meine morgige Tätigkeit, ohne mich
dadurch endgültig festzulegen. Im Satz ”Mit einer grossen Wahrscheinlichkeit
gewinne ich den nächsten Jackpot nicht” drücke ich aus, dass Anteil der Gewinner
an den Lotto-Spielern sehr klein ist. Entsprechend klein ist dann die
Wahrscheinlichkeit, dass ich der Gewinner bin. Die Wahrscheinlichkeitstheorie
interessiert sich nur für Wahrscheinlichkeiten im Sinne von (idealisierten) relativen
Häufigkeiten. Andere Wahrscheinlichkeitsbegriffe werden nicht diskutiert.
Die Wahrscheinlichkeitsrechnung als mathematische Disziplin stellt sich die
Aufgabe, auf dem Hintergrund von relativen Häufigkeiten eine Theorie für die
Eintrittschancen von Ereignissen aufzubauen. Man muss sich dabei auf Ereignisse
beschränken, von denen vorausgesetzt werden kann, dass ihre Eintrittschancen
gemessen werden können.
Man bezeichnet die Wahrscheinlichkeitsrechnung als eine Masstheorie der
Eintrittschancen von Vorgängen. Der Geburtsort der Wahrscheinlichkeitstheorie
war der Spieltisch. Ein leidenschaftlicher Spieler ging vor mehr als 300 Jahren zum
Gelehrten Blaise Pascal (1623-1662), damit ihm dieser errechne, wann er ein
bestimmtes Glücksspiel vorzeitig abbrechen müsse, damit seine Gewinnchancen
höher als jene des Gegners blieben. Pascal schuf als erster die heute noch
verwendeten grundlegenden Formeln und Regeln der
Wahrscheinlichkeitsrechnung.
2. Diskrete Wahrscheinlichkeitsräume
2.1 Zufallsexperimente, diskrete Stichprobenräume und Ereignisse.
Lässt man einen Stein aus einer bestimmten Höhe fallen, so kann der
zurückgelegte Weg zu jedem Zeitpunkt vorausgesagt werden. Das Ergebnis des
Experimentes ist unter gleichbleibenden Voraussetzungen mit Sicherheit
voraussagbar. Wirft man einen Würfel, so kann die Augenzahl 1, 2, 3, 4, 5 oder 6
eintreffen. Das Ergebnis, die eintreffende Augenzahl, kann nicht vorausgesagt
werden. Man nennt solche Experimente Zufallsexperimente. Bei
Zufallsexperimenten hängt das Ergebnis vom Zufall ab. Zufallsexperimente
müssen zudem beliebig oft unter denselben Bedingungen wiederholt werden
können, so dass die relativen Häufigketen der Ergebnisse der Experimente in
Erfahrung gebracht werden können. Der Begriff des ”Zufallsexperimentes” ist nicht
mathematischer Art, dient jedoch dazu, den intuitiven Hintergrund der
mathematischen Wahrscheinlichkeitstheorie zu beleuchten.
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
133
2.1.1. Definition Elementarereignis und Stichprobenraum: Die
Ergebnisse, die beim Ausführen eines Zufallsexperimentes auftreten
können, heissen Elementarereignisse. Die Menge aller
Elementarereignisse heisst Stichprobenraum S. Ein abzählbarer (endlich
oder nicht) Stichprobenraum heisst ”diskret”.
Dabei definieren wir nicht, was Ergebnisse genau sind. Dies wirkt sich auch auf die
Elementarereignisse aus. Wir können Elementarereignisse im Allgemeinen
sprachlich recht unterschiedlich repräsentieren. Wir betrachten die jeweiligen
Abkürzungen jeweils als Bezeichnungen von sonst nicht näher spezifizierten
Objekten, die wir ”Elementarereignisse” nennen. Wir verlangen von
Elementarereignissen nur, dass sie klar unterscheidbar sind. Man kann
Elementarereignisse etwa auch durch Ziffern repräsentieren, wobei die Ziffern
dann nicht die entsprechenden Zahlen, sondern die entsprechenden
Elementarereignisse repräsentieren. Wir untersuchen zuerst nur diskrete
Stichprobenräume.
Beispiele:
(1) Beim Experiment ”Werfen eines Würfels mit Augen” ist der Stichprobenraum S
 {ein Auge, zwei Augen, drei Augen, vier Augen, fünf Augen, sechs Augen}.
Diesen Stichprobenraum können wir auch wiedergeben mit S  {1, 2, 3, 4, 5, 6},
wobei wir die Ziffern n wie die Ausdrücke ”n Augen” als Abkürzungen für das
Elementarereignis betrachten, dass die Seite des Würfes nach oben schaut, die n
Augen aufweist. Entsprechend betrachten wir nicht die Zahlen selber oder die
Ausdrücke ”zwei Augen” als Elementarereignisse.
(2) Beim Experiment ”Werfen eines Würfes mit Farben” (wobei die die
verschiedenen Seiten des Würfes die Farben grün, gelb, rot schwarz, weiss und
violett aufweisen) kann der Stichprobenraum z.B.durch S  {grün, gelb, rot,
schwarz, weiss, violett} ausgedrückt werden.
(2) Beim Werfen einer Münze sind die Elementarereignisse Kopf oder Zahl
möglich. Der Stichprobenraum kann in der Form S  K, Z dargestellt werden.
(3) Beim Werfen zweier Münzen können die Ergebnisse mit
 K, K ,  K, Z ,  Z, K  und  Z, Z  abgekürzt werden. K,Z bedeutet, dass die
1. Münze Kopf und die 2. Münze Zahl zeigt. Der Stichprobenraum ist also
S   K, K ,  K, Z ,  Z, K ,  Z, Z 
Mit Hilfe von Elementarereignissen können wir nicht alle möglichen Ereignisse
ausdrücken, die wir verwenden möchten. Wie hoch ist z.B. die Wahrscheinlichkeit,
dass wir beim Würfeln eine gerade Zahl erhalten? Dieses Ereignis tritt genau dann
ein, wenn beim Zufallsexperiment eine 2, eine 4 oder eine 6 gewürfelt wird. Um
solche Ereignisse ausdrücken zu können, nehmen wir die folgende Definition vor:
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
134
2.1.2. Definition Ereignis: E ist ein Ereignis genau dann, wenn E  PS
(PS ist die Potenzmenge von S, d.h. die Menge aller Teilmengen von S)
Die Menge der Ereignisse nennen wir ”Ereignisraum”.
Man beachte: Elementarereignisse sind keine Ereignisse. Eine Menge, die ein
Elementarereignis als Element enthält, ist demgegenüber ein Ereignis. Zudem
beachte man, dass die Potenzmenge von S sowohl die leere Menge als auch den
Stichprobenraum S als Element enthält.
2.1.3. Beispiele
(1) Sei S  K, Z (Stichprobenraum des Zufallsexperimentes des Werfens einer
Münze). Dann sind folgende Mengen Ereignisse: , K, Z, K, Z. Die Menge der
Ereignisse ist PS  , K, Z, K, Z  Ereignisraum.
(2) Sei S  1, 2, 3, 4, 5, 6 der Stichprobenraum, der dem Zufallsexperiment des
Werfens eines Würfels entspreche. Dann gibt es 2 6  64 Ereignisse: (man beachte:
in Mengen spielt die Reihenfolge der Aufzählung ihrer Elemente keine Rolle)
PS 
, 1, 2, 3, 4, 5, 6,
1, 2, 1, 3, 1, 4, 1, 5, 1, 6,
2, 3, 2, 4, 2, 5, 2, 6, 3, 4, 3, 5, 3, 6, 4, 5, 4, 6, 5, 6,
1, 2, 3, 1, 2, 4, 1, 2, 5, 1, 2, 6, 1, 3, 4, 1, 3, 5, 1, 3, 6, 1, 4, 5, 1, 4, 6, 1, 5, 6,
2, 3, 4, 2, 3, 5, 2, 3, 6, 2, 4, 5, 2, 4, 6, 2, 5, 6,
3, 4, 5, 3, 4, 6, 3, 5, 6, 4, 5, 6
1, 2, 3, 4, 1, 2, 3, 5, 1, 2, 3, 6, 1, 2, 4, 5, 1, 2, 4, 6, 1, 2, 5, 6,
1, 3, 4, 5, 1, 3, 4, 6, 1, 3, 5, 6, 1, 4, 5, 6,
2, 3, 4, 5, 2, 3, 4, 6, 2, 3, 5, 6, 2, 4, 5, 6, 3, 4, 5, 6
1, 2, 3, 4, 5, 1, 2, 3, 4, 6, 1, 2, 3, 5, 6, 1, 2, 4, 5, 6, 1, 3, 4, 5, 6, 2, 3, 4, 5, 6,
1, 2, 3, 4, 5, 6
Das Ereignis, beim Würfen eine gerade Augenzahl zu erhalten, ist 2, 5, 6. Das
Ereignis, die Augenzahlen 5 oder 3 zu erhalten ist 3, 5.
(3) Sei S   K, K ,  K, Z ,  Z, K ,  Z, Z  (Stichprobenraum des
Zufallsexperiments Werfen zweier Münzen). Dies ergibt den folgenden
Ereignisraum: (Anzahl Ereignisse: 2 4  16
,  K, K ,  K, Z ,  Z, K ,  Z, Z 
 K, K ,  K, Z ,  K, K ,  Z, K ,  K, K ,  Z, Z ,
 K, Z ,  K, Z ,  K, Z ,  Z, Z ,  Z, K ,  Z, Z ,
 K, K ,  K, Z ,  Z, K ,  K, K ,  K, Z ,  Z, Z ,
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
135
 K, K ,  Z, K ,  Z, Z ,  K, Z ,  Z, K ,  Z, Z ,
 K, K ,  K, Z ,  Z, K ,  Z, Z 
Das Ereignis  KZ  oder  K, Z  zu erhalten, ist  KZ ,  K, Z 
(4) Betrachten wir den Stichprobenraum beim Werfen zweier unterscheidbarer
Würfel (Anzahl Elementarereignisse: 6 2 ; siehe Aufgabe oben), so würde sich ein
Ereignisraum von 2 36  6. 871 9  10 10 Elementen ( mögliche Ereignisse) ergeben.
Es ist nicht mehr sinnvoll, diese aufzählen zu wollen. Wir können aber ein paar
Ereignisse näher anschauen:
Das Ereignis, zweimal dieselbe Augenahl zu würfeln, wird ausgedrückt durch:
E   1, 1 ,  2, 2 ,  3, 3 ,  4, 4 ,  5, 5 ,  6, 6 . Dieses Ereignis könnten
wir auch ausdrücken durch E   x, x : x  1, 2, 3, 4, 5
Das Ereignis, beim Würfeln eine Summenzahl von 4 zu erhalten ist:
E   1, 3 ,  3, 1 ,  2, 2    x, y : x  y  4
Das Ereignis, beim Würfeln eine Summenzahl von 6 zu erhalten ist:
E   1, 5 ,  5, 1 ,  2, 4 ,  4, 2 ,  3, 3    x, y : x  y  6
Das Ereignis, beim Würfeln eine durschnittliche Augenzahl von 3.5 zu erhalten ist:
xy
E   1, 6 ,  6, 1 ,  2, 5 ,  5, 2 ,  3, 4 ,  4, 3    x, y : 2  3. 5.
Das Ereignis, beim Würfeln ein Produkt der Augenzahlen von 10 zu erhalten ist:
E   2, 5 ,  5, 2    x, y : xy  10.
Das Ereignis, beim Würfeln ein Produkt der Augenzahlen von 12 zu erhalten ist:
E   2, 6 ,  6, 2 ,  3, 4 ,  4, 3    x, y : xy  10.
(5) Der Ereignisraum beim 5-maligen Münzwurf weist 2 32 mögliche Ereignisse auf
(bei Beachtung der Reihenfolge). Wir betrachten ein paar Ereignisse aus diesem
Ereignisraum:
Das Ereignis, 5 Mal die Zahl zu erhalten ist: E   Z, Z, Z, Z, Z .
Das Ereignis, 2 Mal Zahl und 3 Mal Kopf zu erhalten ist (Anzahl:  52   10 
E   Z, Z, K, K, K ,  Z, K, Z, K, K ,  Z, K, K, Z, K ,  Z, K, K, K, Z ,
 K, Z, Z, K, K ,  K, Z, K, Z, K ,  K, Z, K, K, Z ,  K, K, Z, Z, K ,  K, K, Z, K, Z ,
 K, K, K, Z, Z 
5
3

Das Ereignis, zuerst drei Zahlen zu erhalten ist:
E   Z, Z, Z, K, K ,  Z, Z, Z, Z, K ,  Z, Z, Z, K, Z ,  Z, Z, Z, Z, Z 
2.1.4. Definition: Sei A  B. Dann gilt per Definition: A c : x : x  B und
x  A
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
136
A c wird das Komplement von A bezüglich B genannt. Bezüglich Ereignissen,
nennen wir E c (mit E  S auch Gegenereignis von E (bezüglich S).
(Bemerkung: Es gilt offensichtlich: E  E c  S und E c  E  . E c , E stellt damit
eine Zerlegung von S dar).
Beispiel:
1) Werfen eines Würfels: Stichprobenraum S  {1,2,3,4,5,6}
Ist E  1, 2, dann ist E c  3, 4, 5, 6
Ist E  1, 3, 5, dann ist E c  2, 4, 6
2) Werfen zweier Münzen:
Ist E   K, Z , dann ist E c   K, K ,  Z, K ,  Z, Z 
Ist E   K, Z ,  Z, K , dann ist E c   K, K ,  Z, Z 
2.1.5. Übungen:
1) Zwei unterscheidbare Würfel werden geworfen. Es sind also 36 verschiedene
Elementarereignisse möglich. Geben Sie den Stichprobenraum an.
2) Drei unterscheidbare Münzen werden geworfen. Geben Sie den Stichprobenraum an.
3) Wieviele Elementarereignisse weist S auf, wenn drei unterscheidbare Würfel geworfen
werden. Geben Sie zwei Elementarereignisse an.
4) Wieviele Elementarereignisse weist S auf, wenn fünf unterscheidbare Münzen geworfen
werden. Geben Sie zwei Elementarereignisse an.
5) Geben Sie für Beispiel 2.1.3.1. das Ereignis an, Kopf zu werfen.
6) Geben Sie für Beispiel 2.1.3.2 das Ereignis an,
(i) eine 5 zu Würfeln;
(ii) eine ungerade Zahl zu werfen.
7) Geben Sie für Beispiel 2.1.3.3. das Ereignis an,
(i) mindestens einmal Kopf zu werfen
(ii) genau einmal Kopf zu werfen
(iii) höchstens einmal Kopf zu werfen.
8) Geben Sie für Beispiel 2.1.3.4. das Ereignis an, eine in den natürlichen Zahlen durch 3
teilbare Summe zu würfeln.
9) Geben Sie für Beispiel 2.1.3.5 das Ereignis an, zuerst 2 mal Kopf zu erhalten.
10) Aus einem Kartensatz von 36 Karten (übliches Jassspiel) werden drei Karten gezogen.
(i) Wieviel Elemente enthält der Stichprobenraum? Geben Sie zwei Elemente des
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
137
Stichprobenraums an.
(ii) Wieviel Elemente enthält das Ereignis, dass drei gleiche Karten gezogen werden
(z.B. drei Ass, drei 10er, etc.).
11) Geben Sie das Ereignis an: ”Die Augenzahl beträgt mindestens 10” (Beim Würfeln mit
zwei Würfeln)?
12) Die Zahlen von 1 bis 10 werden auf ein Kärtchen geschrieben und diese in eine Urne
gelegt.
Geben Sie den Stichprobenraum für das Ziehen einer Karte ist an. Geben Sie die
Ereignisse an, die beschrieben werden durch:
(a) Die Zahl ist eine Primzahl.
(b) Die Zahl ist eine ungerade Zahl.
(c) Die gezogene Zahl ist grösser als 7.
13) Es werden drei unterscheidbare Münzen geworfen. Geben Sie folgende Ereignisse als
Mengen an:
(a) Es wird einmal Kopf geworfen.
(b) Es wird mindestens einmal Zahl geworfen.
14) Geben Sie das Gegenereignis des folgenden Ereignisses an: E   x, y :
x, y  N, x  y  20 (S   x, y : x, y  20 und x, y  N
2.1.6. Lösung:
(1) Es gibt 6 2 mögliche Elementarereignisse:
S   1, 1 ,  1, 2 ,  1, 3 ,  1, 4 ,  1, 5 ,  1, 6 ,
 2, 1 ,  2, 2 ,  2, 3 ,  2, 4 ,  2, 5 ,  2, 6 ,
 3, 1 ,  3, 2 ,  3, 3 ,  3, 4 ,  3, 5 ,  3, 6 ,
 4, 1 ,  4, 2 ,  4, 3 ,  4, 4 ,  4, 5 ,  4, 6 ,
 5, 1 ,  5, 2 ,  5, 3 ,  5, 4 ,  5, 5 ,  5, 6 ,
 6, 1 ,  6, 2 ,  6, 3 ,  6, 4 ,  6, 5 ,  6, 6 
(2) Es gibt 2 3 Elementarereignisse:
S   K, K, K ,  K, K, Z ,  K, Z, K ,  K, Z, Z ,  Z, K, K ,
 Z, K, Z ,  Z, Z, K ,  Z, Z, Z 
(3) 6 3  216
Beispiele:  2, 3, 6 ,  1, 1, 1 
(4) 2 5  32.
Beispiele:  K, K, Z, K, K ,  Z, Z, K, K, Z 
5) E  K
6) E  5
E  1, 3, 5
7) i E   K, K ,  K, Z ,  Z, K 
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
138
ii E   K, Z ,  Z, K 
iii E   K, Z ,  Z, K ,  Z, Z 
xy
8) E   x, y : 3  N   2, 4 ,  4, 2 ,  1, 5 ,  5, 1 ,  3, 3 ,
 2, 1 ,  1, 2 ,  3, 6 ,  6, 3 ,  5, 4 ,  4, 5 ,  6, 6 
9) E   K, K, K, K, K ,  K, K, Z, K, K ,  K, K, K, Z, K ,  K, K, K, K, Z ,
 K, K, Z, Z, K ,  K, K, Z, K, Z ,  K, K, Z, Z, K ,  K, K, Z, Z, Z 
10) (i) Es geht um Ziehen ohne Zurücklegen und ohne Reiheinfolge: 363  7140
zwei Elemente des Stichprobenraums: Ass, Ass, Ass, 9, 6, König.
(ii) Es gibt 43  4 Möglichkeiten, aus 4 Ass drei Ass zu ziehen. Dies gilt für jeden
Kartenwert. Damit erhalten wir: 43 9  36 Elementarereignisse, die Element des
gesuchten Ereignisses sind.
11) E   4, 6 ,  6, 4 ,  6, 5 ,  5, 6 ,  6, 6 
12) S  1, 2, 3, 4, 5, 6, 7, 8, 9, 10
(a) E  1, 2, 3, 5, 7
(b) E  1, 3, 5, 7, 9.
(c) E  8, 9, 10
13) (a) {K,Z,Z, Z,K,Z, Z, Z, K}
(b) {Z,K,K,K,Z,K, K,K,Z, Z,Z,K, Z,K,Z, K,Z,Z, Z,Z,Z}
14) E   x, y : x, y  20 und x, y  N und x  y  20
2. 2 Der Begriff der Wahrscheinlichkeit
Der Begriff der Wahrscheinlichkeit wird dem Begriff der relativen Häufigkeit
nachgebildet. Relative Häufigkeiten hx i   mni haben folgende Eigenschaften (m i
sei die Anzahl der Objekte der Ausprägung x i , n sei die Anzahl Objekte der
Gesamtpopulation).
(1) 0  mni  1 für alle i.
(2) Weist eine Ausprägung keine Objekte auf, so gilt:
(3)
n
n
k

i1
mi
n
0
n
0
 1 (k  Anzahl der Ausprägungen).
Dies führt uns zu folgender Definition der Wahrscheinlichkeitsfunktion w und eines
Wahrscheinlichkeitsmasses P:
2.2.1. Definition Wahrscheinlichkeitsfunktion:  ist eine
Wahrscheinlichkeitsfunktion, genau dann, wenn gilt: : S  0, 1 und
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
139

 s i   1. (im endlichen Fall:  s i   1
s i S
i1
Die Wahrscheinlichkeitsfunktion ordnet somit jedem Elementarereignis eine
Wahrscheinlichkeit zu.
Beispiele: Die Wahrscheinlichkeit, bei einer Münze Kopf zu erhalten, sei 0. 6, die
Wahrscheinlichkeit Zahl zu erhalten sei 0. 4. Damit ist S  K, Zund K  0. 6 und
Z  0. 6. In Menschenschreibweise sieht die Wahrscheinlichkeitsfunktion fürs
Beispiel wie folgt aus: {K, 0. 6Z, 0. 4}
Die Wahrscheinlichkeit, bei einem Würfel eine spezifische Augenzahl zu erhalten,
sei 16 . Kürzen wir die Augenzahlen mit den entsprechenden Zahlen ab, so erhalten
wir die folgende Wahrscheinlichkeitsfunktion: {1, 16 , 2, 16 , 3, 16 , 4, 16 , 5,
1
, 6, 16 }.
6
Die Wahrscheinlichkeit, in Zweikindfamilien eine spezifische
Geschlechterkombination - bei Berücksichtigung der Reihenfolge des
Geborenwerdens - zu haben, sei jeweils 14 . Damit ergibt sich die folgende
Wahrscheinlichkeitsfunktion: {M, W, 14 , W, M, 14 , W, W, 14 , M,
M, 14 }. Der Stichprobenraum ist: {M, W, W, M, M, M, W, W}
Wir brauchen allerdings Wahrscheinlichkeiten bezüglich der Ereignisse. Uns würde
z.B. interessieren, wie hoch die Wahrscheinlichkeit ist, beim letzten Beispiel eine
Familie anzutreffen, die einen Buben und ein Mädchen aufweist, wobei uns die
Reihenfolge des Geborenwerdens nicht interessiert. Durch die
Wahrscheinlichkeitsfunktion wird bei diskreten Stichprobenräumen ein
sogenanntes Wahrscheinlichkeitsmass auf die Menge der Ereignisse definiert.
2.2.2. Definition diskretes Wahrscheinlichkeitsmass P auf S:
PE   s i  (für E  S
s i E
Das Wahrscheinlichkeitsmass wird auch ”Wahrscheinlichkeitsverteilung” genannt.
Wir werden später vor allem den Ausdruck ”Verteilung” verwenden. Beachten Sie,
dass P eine Mengenfunktion ist: sie ordnet jeder Teilmenge von S eine
Wahrscheinlichkeit zu. Demgegenüber ist  eine Funktion, die nicht Mengen,
sondern jedem Element von S eine Wahrscheinlichkeit zuordnet. Im Speziellen gilt
Ps i   s i .
2.2.3. Definition diskreter Wahrscheinlichkeitsraum: Das Tripel
 S, PS, P  wird diskreter Wahrscheinlichkeitsraum genannt (S 
Stichprobenraum, PS  Potenzmenge von S, P Wahrscheinlichkeitsmass
auf S).
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
140
Für das Wahrscheinlichkeitsmass gilt nun auf Grund der obigen Definition:
(1) PS  P  s i 
s i S
  s i   1
s i S
(2) PE  0 (für E  S (da : S  0, 1 und PE   s i 
s i E
(3) PE i  E j   PE i   PE j  genau dann, wenn E i  E j  


i1
i1
Dabei ist (3) ein Spezialfall von: P E i    PE i  sofern für alle i  j: E j  E i  .
Fürs Beispiel mit den Familien mit zwei Kindern würde sich folgendes ergeben: Ist
E   M, W ,  W, M , dann ist PE  12 . Ist E   M, M , ergibt sich
PE  14 . Gilt E   W, W , so ist PE  14 . Wir ordnen somit einem Ereignis
als Wahrscheinlichkeit die Summe der Wahrscheinlichkeiten zu, die wir den
Elementarereignissen zugeordnet haben. Im Speziellen gilt: Ps i   s i .
Da die leere Menge  und S Teilmengen von S sind (und damit Elemente von
PS), muss die Wahrscheinlichkeitsverteilung auch diesen Teilmengen Werte
zuordnen. Man kann beweisen, dass gilt:
P  0 und PS  1. Wir nennen  das "unmögliche Ereignis" und S das
"sichere Ereignis".
Ordnet die Wahrscheinlichkeitsfunktion allen Elementarereignissen dieselbe
Wahrscheinlichkeit zu, so wird dadurch eine (diskrete) uniforme
Wahrscheinlichkeitsverteilungen festgelegt. Viele Beispiele der einfachen
Wahrscheinlichkeitstheorie (Würfel, Kartenspiele, etc) setzen die gleiche
Wahrscheinlichkeit der Elementarereignisse voraus. In diesem Fall lassen sich die
Wahrscheinlichkeiten für beliebige Ereignisse einfach berechnen. Sei |S|  n die
Anzahl der Elementarereignisse (oft ”Anzahl der möglichen Ergebnisse” genannt).
Dann gilt: s i   1n für alle s i . Somit gilt dann: PE  1n  |E| wobei |E| die Anzahl
der Elemente von E ist (oft ”Anzahl der günstigen Ergebnisse” genannt). Bei
grösseren Mengen erlauben es kombinatorische Hilfsmittel, |E| sowie |S|  n zu
berechnen. Wir erhalten den sogenannten Laplace-Wahrscheinlichkeitsbegriff:
Anzahl günstiger Ergebnisse
PE 
. Man beachte: diese Redensweise setzt die gleiche
Anzahl möglicher Ergebnisse
Wahrscheinlichkeit der Elementarereignisse voraus! Damit erfasst diese Definition
nur einen kleinen Spezialfall.
Beispiele:
1) Wir nehmen an, die möglichen Ergebnisse eines Würfels seien gleich
wahrscheinlich. Der Stichprobenraum weist damit 6 Elementarereignisse auf, d.h.
|S|  n  6. Das Ereignis, eine gerade Zahl zu würfeln, weist 3 Elemente auf: {2, 4,
6}. Somit ist |E|  |1, 4, 6|  3. Damit gilt für die Wahrscheinlichkeit, eine gerade
Zahl zu würfeln: |E|
 36  12 .
|S|
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
141
Die Wahrscheinlichkeit, 2 oder 4 zu erhalten, ist:
|E|
|S|

2
6

1
3
.
2) Wir nehmen an, bei einer Münze sei die Wahrscheinlichkeit, Kopf oder Zahl zu
werfen, identisch. Der Stichprobenraum erfasst zwei Elemente. Das Ergeignis,
Kopf zu werfen, umfasst ein Element. In diesem Fall ist damit die
Wahrscheinlichkeit, Kopf zu werfen: |E|
 12
|S|
3) Beispiel mit Kombinatorik: Drei Karten werden aus einem Spiel mit 36
verschiedenen Karten gezogen (Jassspiel). Wie gross ist die Wahrscheinlichkeit,
drei Ass zu ziehen. Wir müssen uns zuerst die Frage stellen, wieviele
Möglichkeiten es gibt, 3 Karten zu ziehen. Es geht um Ziehen ohne Zurücklegen
ohne Reihenfolge. Somit gibt es 363  7140 Möglichkeiten, 3 Karten zu ziehen.
Jede dieser Möglichkeiten ist gleichwahrscheinlich (wenn wir die Gleichverteilung
voraussetzen). Damit gilt für die Wahrscheinlichkeit, genau ein spezifisches Set
1
von Karten zu erwischen 7140
. Als nächstes müssen wir die Anzahl der
Elementarereignisse bestimmen, die wir zum Ereignis ”3 Asse” zusammennehmen.
Es geht um Ziehen ohne Zurücklegen ohne Reihenfolge (wir ziehen aus 4 Ass 3
Ass). Dies ergibt 43  4 Möglichkeiten. Somit gilt für das Ereignis E ( 3 Asse zu
4
ziehen): |E|  4. Damit erhalten wir: 7140
als Wahrscheinlichkeit dafür, 3 Asse zu
ziehen. Man beachte: die gleiche Wahrscheinlichkeit wird auf Grund der Situation
postuliert.
Wahrscheinlichkeiten sind eine Art Modell für die relativen Häufigkeiten, wobei ein
Modell zu einem Zufallsexperiment passt, wenn die relativen Häufigkeiten nicht zu
stark vom Modell abweichen. Ein Modell kann angemessen sein, wenn ein
Zufallsexperiment genügend oft durchgeführt zu relativen Häufigkeiten führt, die
vom Modell nur unbedeutend abweichen. Betrachten wir das Beispiel der Münze.
Wir werfen eine Münze 1000 mal. Wir nehmen an, wir erhalten 490 mal Kopf und
490
510
510 mal Zahl. Die relativen Häufigkeiten sind dann 1000
 0. 49 und 1000
 0. 51.
Die Ergebnisse des Zufallsexperimentes scheinen nicht schecht zum Modell
PK  0. 5 und PK  0. 5 zu passen. In diesem Falle ist es durchaus
vernünftig, die gleiche Wahrscheinlichkeit der Elementarereignisse
vorauszusetzen. Man könnte aber auch Münzen machen, die auf einer Seite
schwerer sind als auf der anderen. Die schwerere Seite wird häufiger nach unten
schauen als nach oben (fällt ein Butterbrot auf den Boden, fällt es fast immer mit
der schwereren Seite nach unten!). Damit wäre das Postulat der gleichen
Wahrscheinlichkeit der Elementarereignisse nicht mehr angemessen (In den 70er
Jahren wurde dem Schweizerischen Zahlenlotto nachgewiesen, dass nicht alle
Kugeln mit gleicher Wahrscheinlichkeit gewählt werden. Es erwies sich, dass dies
an den unterschiedlichen chemischen Zusammensetzungen der Farben lag, die für
die Kugeln damals verwendet wurden. Die Farben hatten nicht dieselben
elektrostatischen Eigenschaften, was sich auf die Wahrscheinlichkeit der Auswahl
auswirkte). Ist das Postulat gleicher Wahrscheinlichkeiten nicht haltbar, sind wir auf
relative Häufigkeiten angewiesen, um Wahrscheinlichkeiten festzulegen: wir führen
eine Zufallsexperiment genügend oft durch und wählen als Wahrscheinlichkeiten
die gefundenen relativen Häufigkeiten. Trotzdem ist es wichtig, relative
Häufigkeiten scharf von Wahrscheinlichkeiten zu unterscheiden. Relative
Häufigkeiten sind empirische Kennzahlen, während Wahrscheinlichkeiten Teil
eines Modells sind und damit theoretische Grössen darstellen.
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
142
Beispiel: Wir werfen einen Reissnagels auf eine, harte, glatte Unterlage. Dabei
sind empirisch zwei Resultate möglich. Der Reissnagel fällt auf den Kopf (die
Spitze ragt senkrecht nach oben) oder er kommt seitlich zu liegen (so dass die
Spitze und der Rand des Kopfes aufliegen). Es ist hier kaum möglich,
Gleichwahrscheinlichkeit der Elementarereignisse vorauszusetzen. Nur eine
Experiment könnte hier weiterführen, um zu einer näherungsweisen Bestimmung
angemessener Wahrscheinlichkeiten zu kommen.
Für Gegenereignisse gilt: E  E c  . Damit gilt (s.o.): PE  E c   PE  PE c .
Für Gegenereignisse gilt aber auch: E  E c  S. Nun ist PS  1 s.o. Dies ergibt:
PE  E c   1  PE  PE c . Damit gilt:
PE  1  PE c 
PE c   1  PE
Dieses Ergebnis ist bei der Bestimmung von Wahrscheinlichkeiten oft nützlich.
Beispiel: Wieviel beträgt die Wahrscheinlichkeit, beim Werfen zweier Würfel
mindestens eine Produkt von 34 zu erhalten? Es wäre hier einfacher, die
Wahrscheinlichkeit zu berechnen, ein Produkt von mehr als 34 zu erhalten (dies ist
das Gegenereignis zum ersteren). Es gilt E c   6, 6 . (alle anderen geordneten
Paare führen zu kleineren Produkten). Damit gilt dann:
1
PE  1  PE c   1  36
 35
36
2.2.4. Übungen:
(1) Zufälliges Ziehen von Karten aus 36 Jasskarten.
(a) Wie gross ist die Wahrscheinlichkeit, eine Herzkarte zu ziehen? Ereignis A
(b) Wie gross ist die Wahrscheinlichkeit, eine Zehn oder eine Acht zu ziehen? Ereignis B
(c) Wie gross ist die Wahrscheinlichkeit, beim Ziehen von neun Karten, neun von der
gleichen Farbe (Herz, Kreuz...) zu erhalten? (wir setzen bei allen drei Fragen gleiche
Wahrscheinlichkeiten der Elementarereignisse voraus).
(2) Eine Urne enthält 9 weisse, 3 rote und 4 schwarze Kugeln. Es wird eine Kugel
herausgenommen. Wie gross ist die Wahrscheinlichkeit, dass
(a) eine weisse Kugel gezogen wird? Ereignis A
(b) eine weisse oder schwarze Kugel gezogen wird? Ereignis B (c) keine schwarze Kugel
gezogen wird? Ereignis C
(Wir setzen bei beiden Frage gleiche Wahrscheinlichkeiten der Elementarereignisse
voraus).
(3) Berechnen Sie die Wahrscheinlichkeit, aus einem Spiel von 36 Karten ein As zu ziehen.
(4) In einer Lotterie sind 20’000 Lose mit 1400 Treffern. Welche Wahrscheinlichkeit einen
Treffer zu erhalten, hat der Besitzer eines Loses?
(5) Wie gross ist die Wahrscheinlichkeit, beim Werfen eines Würfels mehr als 3 zu
würfeln?
(6) Wie gross ist die Wahrscheinlichkeit, mit 2 Würfeln eine Summe von 4 Augen zu
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
143
werfen?
(7) Ein Zahlenschloss besitzt fünf Scheiben, die gedreht werden können. Jede Scheibe kann
zehn verschiedene Stellungen einnehmen (Ziffern 0 bis 9). Das Schloss springt nur dann
auf, wenn alle fünf Scheiben richtig eingestellt sind. Wie gross ist die
Wahrscheinlichkeit, dass das Schloss geöffnet werden kann, wenn einfach zufällig eine
Zahlenkombination eingestellt wird?
(8) Wie gross ist die Wahrscheinlichkeit, mit 2 Würfeln höchstens die Augensumme 10 zu
werfen?
(9) Wie gross ist die Wahrscheinlichkeit, dass zwei Spieler, die je einen Würfel werfen,
nicht die gleiche Augenzahl werfen?
2.2.5. Lösungen
1) (a) Der Stichprobenraum enthält 36 Elemente. Damit gilt |S|  n  36. Ein Spiel enthält
9 Herzkarten. Damit enthält das Ereignis E, eine Herzkarte zu ziehen, 9 Elemente. Damit
9
gilt PE  |E|
 36
 14
|S|
(b) Der Stichprobenraum wie oben. Es gibt 4 Zehner und 4 Achter. Damit gilt: |E|  8.
 368  29  0. 222 22
Wir erhalten somit PE  |E|
|S|
(c) Hier müssen wir einen anderen Stichprobenraum S festlegen. Für s i  S gilt offenbar:
s i ist eine Menge, die 9 verschiedene Objekte enthält (die Ordnung spielt keine Rolle).
Um die Anzahl der Elemente von S zu bestimmen, müssen wir die Kombinatorik
verwenden (ziehen ohne Zurücklegen ohne Reihenfolge): wir erhalten |S|  369 
94 143 280. Wir haben zwei Farben (rot und schwarz). Es ist möglich auf 189  48 620
neun rote Karten aus 18 roten Karten zu ziehen (ohne Zurücklegen, ohne Reihenfolge).
Ebensoviele Möglichkeiten gibt es, aus 18 schwarzen Karten 9 schwarze Karten zu
ziehen. Damit erhalten wir |E|  2 189  97 240
PE 
2
18
9
36
9

13
12 586
 0. 001032 9
(2) a) In der Urne befinden sich 16 Kugeln, d.h. |S|  16. Es hat 9 weisse Kugeln. Damit
ist |E|  9.
9
PE  16
 0. 562 5
b) S wie oben. |E|  9  4  13
PE  13
 0. 812 5
16
c) S wie oben. |E|  9  3
 34  0. 75
PE  12
16
4
 36

(3) PE  |E|
|S|
Elementarereignisse)
1
9
1400
 20000

(4) PE  |E|
|S|
Elementarereignisse)
(Voraussetzung: gleiche Wahrscheinlichkeit der
7
100
 0. 07 (Voraussetzung: gleiche Wahrscheinlichkeit der
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
144
(5) Mehr als drei werden gewürfelt, wenn 4, 5 oder sechs gewürfelt werden. Damit ergibt
 36  12
sich bei gleicher Wahrscheinlichkeit der Elementarereignisse: PE  |E|
|S|
(6) Man erhält eine 4 durch 1  3, 3  1 und 2  2. Dies ergibt: PE 
|E|
|S|

3
36

1
12
(7) Wir können die Zahlen von 0 bis 9 der fünf Scheiben indexieren (2 2 ist dann die 2 der
zweiten Scheibe). Wir können nun die Elemente s i  S als Mengen auffassen, die 5
verschiedene Elemente enthalten (je eine Einstellung einer Scheibe). Offenbar enthält S
10 5 Elemente. Das ”günstige Ergebnis” besteht nur aus einem dieser Elemente. wir
 101 5  10 5
erhalten damit: PE  |E|
|S|
(8) Man könnte die Anzahl der Elemente bestimmen, so dass gilt: x  y  10. Dies dürfte
jedoch etwas mühsam sein. Entsprechend berechnen wir die Wahrscheinlichkeit
des
|E c |
c
c
Gegenereignisses: E   5, 6 ,  6, 5 ,  6, 6 . Somit gilt PE   |S|  363 
1
1
und PE  1  PE c   1  12
 11
12
12
(9) Das Gegenereignis, 2 gleiche Augenzahlen zu werfen ist:
E c   1, c1 ,  2, 2 ,  3, 3 ,  4, 4 ,  5, 5 ,  6, 6 
6
 16 .
PE c   |E|S| |  36
Damit ist dann PE  1  16  56 .
,
2.3. Das Rechnen mit Wahrscheinlichkeiten
2.3.1. Addition von Wahrscheinlichkeiten
Die Wahrscheinlichkeit, dass entweder das eine oder das andere von zwei sich
einander ausschliessenden Ereignissen eintritt, errechnet sich durch die Addition
der beiden Einzelwahrscheinlichkeiten (s.o.)
Beispiele: (1) Es gelte beim Würfeln: E  Ereignis, eine gerade Zahl zu würfeln mit
PE  46 (nicht gleichmässiger Würfel!). E  Ereignis, eine 1 zu würfeln mit
PE  121 . Gesucht ist die Wahrscheinlichkeit dafür, eine gerade Zahl oder 1 zu
würfeln.
Da E  E   , gilt PE  E    PE  PE    46  121  34
(2) Es gelte beim Würfeln: E  Ereignis, eine gerade Zahl zu würfeln mit PE  36
(gleichmässiger Würfel!). E  Ereignis, eine 1 oder 2 zu würfeln mit PE  26 .
Gesucht ist die Wahrscheinlichkeit dafür, eine gerade Zahl oder 1 zu würfeln. Da
E  E   , können wir die Wahrscheinlichkeit nicht bestimmen. Nur wenn wir
wissen, dass P2  16 , wissen wir dass P1  16 (Da 1  2   und
P1  2  26  P1  16  P1  16 . In diesem Fall gilt dann:
PE  E    PE  1  36  16  46 (da E  1  .
(3) Wie gross ist die Wahrscheinlichkeit, aus einer Gesamtkartei aller Erwachsenen
in der Schweiz zufällig eine 20-29 jährige (Ereignis A) oder eine 30-39 jährige
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
145
Person (Ereignis B) zu ziehen? (22,4% aller Erwachsenen sind 20-29jährig und
20,6 % 30-39 jährig). Die beiden Ereignisse schliessen sich auch. Entsprechend ist
die gesuchte Wahrscheinlichkeit: 22.430.6
 0. 53
100
(4) Wie gross ist die Wahrscheinlichkeit, aus einer Gesamtkartei aller Erwachsenen
in der Schweiz zufällig eine 20-34 jährige (Ereignis A) oder eine 25-39 jährige
Person (Ereignis B) zu ziehen? (32,4% aller Erwachsenen sind 20-34jährig und
31,6 % 25-39 jährig). Die beiden Ereignisse A und B schliessen sich nicht mehr
aus. Entsprechend können wir die Wahrscheinlichkeiten ohne zusätzliche Angaben
nicht berechnen. Dieses Problem führt uns zu den folgenden Überlegungen.
Überschneiden sich zwei Ereignisse A und B, so könnten wir die
Wahrscheinlichkeit, dass A oder B eintritt offenbar berechnen mit:
(i) PA  B  P A  B c  
Ac  B 
A  B
da A  B c , A c  B und A  B paarweise fremd sind und zudem deren
Vereinigungsmenge mit A  B identisch ist. (siehe Graphik unten. Beschriften Sie
die Mengen im unten stehenden Diagramm).
Zudem gilt: A  B  A c  B  B und A  B  A c  B  
A  B  A  B c   A und A  B  A  B c   
Somit gilt: PB  PA  B  PA c  B und PA  PA  B  PA  B c .
Damit ergibt sich:
PA c  B  PB  PA  B und PA  B c   PA  PA  B und damit in (i)
eingesetzt:
PA  B  PA  PA  B  PB  PA  B  PA  B 
PA  PB  P A  B
Wir können damit festhalten:
2.3.1.1. Additionssatz
PA  B  PA  PB  P A  B
Beachten Sie: Aus der Formel folgt: wenn P A  B  0, dann
PA  B  PA  PB  dies ist genau dann, der Fall, wenn A  B  .
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
146
2.3.2. Bedingte Wahrscheinlichkeiten
Wir betrachten zuerst ein Beispiel. Wir legen fest: S  1, 2, 3, 4, 5, 6 mit gleicher
Wahrscheinlichkeit der Elementarereignisse (Würfelwurf!). E 1  1, 2, 3, 4 und
E 2  4, 5
4
6
Entsprechend gilt: PE 1  
und PE 2  
1
3
.
Wie hoch ist nun die Wahrscheinlichkeit, dass E 2 eintrifft, wenn wir wir den
Stichprobenraum auf E 1 eingrenzen. Nach der Eingrenzung sind nur mehr die
Elementarereignisse 1, 2, 3 oder 4 möglich (5 nicht mehr). Somit kann aus E 2 noch 4
gewürfelt werden, wobei die Wahrscheinlichkeit, dass 4 gewürfelt wird 14 beträgt.
Wir können dabei diese Wahrscheinlichkeit wie folgt berechnen:
|1,2,3,44,5|
|1,2,3,4|

|E 1 E 2 |
|E 1 |
|E 1 E 2 |
|S|

|E 1 |
|S|
durch Erweitern
Wir führen für den Ausdruck
PE 1 E 2 
PE 1 

PE 1 E 2 
PE 1 

1
6
4
6

1
4
eine Abkürzung ein:
2.3.2.1. Definition 1: PE 2  E 1  
PE 2 E 1 
PE 1 
Wir lesen ”PE 2  E 1 " als ”die Wahrscheinlichkeit von E 2 unter der Bedingung
dass E 1 " .
Die Einschränkung des Stichprobenraums auf E 1 wird oft wie folgt beschrieben.
Wir wissen von einem Elementarereignis, dass es in E 1 liegt. Wir wissen aber
nicht, ob es auch in E 2 liegt. Wie hoch ist dann die Wahrscheinlichkeit, dass es in
E 2 liegt. Diese Wahrscheinlichkeit ist die bedingte Wahrscheinlichkeit
PE 2 E 1 
. Ist E 1  E 2  , gilt laut Definition
PE 2  E 1   PE
1
PE 2  E 1  
PE 2 E 1 
PE 1 

0
PE 1 
 0.
Beispiel: Sei S  1, 2, 3, 4, 5, 6, 7, 8 und E 1  3, 4, 5, 6, E 2  6, 7, 8. (Gleiche
Wahrscheinlichkeit der Elementarereignisse):
1
PE 2 E 1 
P6
8
PE 2  E 1   PE


 0. 25. Dasselbe Resultat erhalten wir
4
P3,4,5,6
1
8
durch die folgende Überlegung: Das einzige Elementarereignisse von E 2 , das in E 1
liegt, ist 6. In E 1 liegen 4 Elementarereignisse. Somit beträgt die
Wahrscheinlichkeit, 6 zu ziehen 14 .
PE 1  E 2  
PE 2 E 1 
PE 2 

P6
P6,7,8
1
8
3
8

1
3
Für zwei Ereignisse A, B  S definieren wir nun ”Unabhängigkeit” wie folgt:
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
147
2.3.2.2. Definition: Für A, B  S : A und B sind unabhängig genau dann,
wenn PA  B  PA  PB.
Erläuterung: gilt PA  B  PA  PB, erhalten wir, wenn PB  0, durch
PAB
beidseitige Division mit PB: PA  PB . Der zweite Term dieser Gleichung ist
laut Definition identisch mit: PA  B.
Somit gilt: Wenn PA  B  PA  PB und PB  0, dann PA  PA  B.
Umgekehrt folgt aus PA  PA  B 
PB  0
PAB
PB
: PA  PB  PA  B und
2.3.2.3. Theorem: PA  B  PA  PB genau dann, wenn
PA  PA  B und PB  0
Dies zeigt, dass der eingeführte Unabhängigkeitsbegriff eng mit der bedingten
Wahrscheinlichkeitkeit verhängt ist. ”Unabhängigkeit” in diesem Sinne hat nichts
mit ”Fehlen gegenseitiger Beeinflussung” zu tun, sondern drückt bei Voraussetzung
gleicher Wahrscheinlichkeit der Elementarereignisse aus, dass |AB|
 |A|
(der
|B|
|S|
Anteil der Elementarereignisse von A, die in B liegen, an B ist gleich dem Anteil der
Elementarereignisse von A an S). Mit anderen Worten: Wenn
PA  B  PA  PB, dann ist die Wahrscheinlichkeit, dass A eintrifft, unabhängig
davon, ob wir wissen, dass B eingetroffen ist oder nicht.
Man beachte: Die Multiplikation PA  B  PA  PB gilt (wie bemerkt), wenn A
und B unabhängig sind. Da wir ”Unabhängigkeit” durch PA  B  PA  PB
definieren, ist damit nicht immer viel gewonnen!
Beispiel I: Wir werfen zweimal eine Münze (Kopf oder Zahl). Somit können wir
festlegen: S   K, K ,  K, Z ,  Z, K ,  Z, Z . Wir setzen
Gleichwahrscheinlichkeit der Elementarereignisse voraus. Das Ereignis, im ersten
Wurf K zu werfen ist: E 1   K, K ,  K, Z . Das Ereignis, im zweiten Wurf K zu
werfen ist:
E 2   K, K ,  Z, K . Das Ereignis in beiden Würfen K zu werfen ist:
E 3  E 1  E 2   K, K .
Für die Wahrscheinlichkeiten gilt: PE 1   12 ; PE 2   12 ; PE 3   14
Somit gilt: PE 1  E 2   PE 1   PE 2   PE 3   12  12  14 .
Somit ist E 1 von E 2 unabhängig.
Beispiel 2: S  1, 2, 3, 4, 5, 6; Sind 1, 2, 3, 4 und 3, 4, 5, 6 unabhängige
Ereignisse?
Wir berechnen: P1, 2, 3, 4  46 ;
P3, 4, 5, 6  46 ;
4
4
4
 6  9
6
P1, 2, 3, 4  3, 4, 5, 6  P3, 4  26
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
148
Da
4
9

2
6
sind die beiden Ereignisse nicht unabhängig.
2.3.2.4. Definition: Zwei Ereignisse A und B schliessen sich genau dann
aus, wenn A  B  .
z.B. S  1, 2, 3, 4, 5, 6; 1 und 2 schliessen sich aus, da 1  2  . Somit
ist die Wahrscheinlichkeit P1  2  0.
2.3.2.5. Theorem: Wenn A und B sich ausschliessen, dann PA  B  0.
Merke: Ereignisse, die sich ausschliessen, sind im allgemeinen nicht unabhängig:
Es gilt nämlich für solche Ereignisse: Ist A  B  , so ist A und B genau dann
unabhängig, wenn PA  0 oder PB  0. Gilt nämlich PA  0 und PB  0,
dann gilt: PA  PB  0  PA  B
Wir betrachten ein Beispiel: S  1, 2, 3, 4, 5, 6; 1 und 2 schliessen sich aus.
Zudem gilt: P1  P2  16 .
1
 P1  2  0. Die zwei Ergeignisse sind
Somit ist P1  P2  36
nicht unabhängig, obwohl sie sich ausschliessen.
Dem eben behandelten Begriff von ”Unabhängigkeit” werden wir in der Folge kaum
mehr begegnen. Allerdings ist er mit dem in Kürze eingeführten
Unabhängigkeitsbegriff für Ereignissen aus verschiedenen Stichprobenräumen
verhängt. Wir werden jedoch darauf verzichten, die entsprechenden
Zusammenhänge aufzuzeigen.
2.3.2.6. Übungen:
1) Berechnen Sie folgende bedingte Wahrscheinlichkeiten:
S  1, 2, 3, 4, 5, 6, E 1  1, 2, 3, 4 und E 2  4, 5. Zudem: E 3  1, 5; E 4  2, 6
E 1  1, 2, 3, 4 und E 2  4, 5
PE 3  E 1  
PE 4  E 1  
PE 1  E 2  
PE 2  E 2  
PE 3  E 2  
PE 4  E 2  
PE 3  E 3  
PE 1  E 3  
PE 3  E 4  
PE 1  E 4  
2) Eine Krankheit kommt bei ca. 0.5% der Bevölkerung vor. Ein Test zur
Auffindung der Krankheit führt bei 99% der Kranken zu einer Reaktion, aber auch
bei 2% der Gesunden. Wie gross ist die Wahrscheinlichkeit, dass eine Person, bei
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
149
der die Reaktion eintritt, die Krankheit wirklich hat?
2.3.2.7. Lösungen
1) PE 3  E 1  
PE 3 E 1 
PE 1 

P1,51,2,3,4
P1,2,3,4

P1
P1,2,3,4
PE 4  E 1  
PE 4 E 1 
PE 1 

P2,61,2,3,4
P1,2,3,4

P2
P1,2,3,4
PE 1  E 2  
PE 1 E 2 
PE 2 

P1,2,3,44,5
P4,5

P4
P4,5
PE 2  E 2  
PE 2 E 2 
PE 2 

P4,54,5
P4,5

P4,5
P4,5

PE 3  E 2  


P5
P2,6
P
P4,5


P1,54,5
P4,5
P2,64,5
P4,5

PE 4  E 2  
PE 3 E 2 
PE 2 
PE 4 E 2 
PE 2 
PE 3  E 3  
PE 3 E 1 
PE 1 

P1,51,5
P1,5

P1,5
P1,5

PE 1  E 3  
PE 3  E 4  
PE 1  E 4  
PE 1 E 3 
PE 3 
PE 3 E 4 
PE 4 
PE 1 E 4 
PE 4 




P1,2,3,41,5
P1
 P1,5
P1,5
P1,52,6
P
 P2,6 
P2,6
P1,2,3,42,6
P2,6

P2
P2,6


2
6
2
6
1
6
2
6
0
2
6
2
6
2
6

0
2
6

1
6
2
6

1
6
4
6

1
6
4
6


1
4
1
4
1
2
1

1
2
0
1
1
6
2
6
0
1
6
2
6

1
2
2) a) Variante I: Sei A das Ereignis, zu reagieren. Es gilt: PA  2% von
99. 5%  99% von 0. 5% 
0. 02  99. 5  0. 99  0. 5  2. 485%  0. 02485
Sei B das Ereignis, krank zu sein.
A  B ist dann das Ereignis, zu reagieren und krank zu sein. Da 99% der Kranken
reagieren, sind dies:
PA  B  0. 99  0. 5%  0. 495%  0. 00495
PAB
Entsprechend gilt dann: PB  A  PA  0.00495
 0. 199 2
0.02485
Variante II: 2% der 99.5% zeigen eine Reaktion, obwohl sie gesund sind. Es sind
dies
99.52
 1. 99% der Gesamtbevölkerung.
100
99% der 0.5% zeigen eine Reaktion, wenn sie krank sind. Dies sind:
0.599
 0. 495% der Gesamtbevölkerung.
100
Die Wahrscheinlichkeit, krank zu sein, wenn man reagiert beträgt (der Anteil
0.495
kranken Reagierenden an der Gesamtheit der Reagierenden): 0.4951.99
 0. 199 2
2.3.3. Das Produkt von Ereignissen aus verschiedenen Stichprobenräumen
In diesem Rahmen interessanter als der Unabhängigigkeitsbegriff von Ereignissen
aus einem Stichprobenraum ist die Unabhängigkeit von Ereignissen aus
verschiedenen Stichprobenräumen. Wir betrachten vorgängig ein Beispiel: Wie
gross ist die Wahrscheinlichkeit, dass beim Werfen zweier Würfel, der erste die 6
und der zweite Würfel die 5 zeigen? Wir können die Situation von verschiedenen
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
150
Seiten her anschauen:
(1) Der Stichprobenraum S besteht aus den Zahlenpaaren 1,1, 1,2,...,6,6
(d.h. S   i, j : i, j  N 6 ; |S|  36. Das Ereignis E, ”Es werden eine 6 und eine
5 in dieser Reihenfolge geworfen”, besteht aus dem Element 6,5. Wir haben also
36 mögliche und 1 günstiges Ergebnis, d.h. PE  361 . (Voraussetzung: gleiche
Wahrscheinlichkeit der Elementarereignisse).
(2) Wir können die Fragestellung aber auch unter einem anderen Gesichtspunkt
betrachten: Sei S 1  1, 2, 3, 4, 5, 6 der Stichprobenraum fürs Werfen mit dem
ersten Würfel und S 2  1, 2, 3, 4, 5, 6 der Stichprobenraum fürs Werfen mit dem
zweiten Würfel. Damit gilt S  S 1  S 2 (S ist das kartesische Produkt von S 1 und S 2 .
Somit ist S definiert wie oben, nämlich als S   i, j : i, j  N 6 ). Bestimmte
Ereignisse E  S können wir unmittelbar mit Hilfe der Ereignisse von S i
ausdrücken. Ist E   6, 5   S, so ist mit E 1  6 und E 2  5,
E  E 1  E 2  6  5. Zudem sei P i das auf PS i  definierte
Wahrscheinlichkeitsmass. Fürs Beispiel gilt nun offenbar:
PE  361  16  16  P 1 E 1   P 2 E 2 .
Ist E   2, 3 ,  5, 6 ,  2, 6 ,  5, 3   S , so gilt:
PE  364  P 1 2, 5  P 2 3, 6  26  26  364 .
Wobei wiederum gilt: E  E 1  E 2  2, 5  3, 6.
Formal gilt (bei Voraussetzung gleicher Wahrscheinlichkeit der
Elementarereignisse und dem obigen Zufallsexperiment):
2|
2|
1|
2|
PE  |E|
 |E|S 11 E
 |E|S 11 ||E
 |E
 |E
 P 1 E 1   P 2 E 2 
S 2 |
||S 2 |
|S|
|S 1 |
|S 2 |
PE 1  E 2   P 1 E 1   P 2 E 2  gilt nicht für das kartesische Produkt beliebiger
Stichprobenräume, sondern nur dann, wenn die Ereignisse der unterschiedlichen
Stichprobenräume sich gegenseitig nicht beeinflussen. Würde sich beim Würfeln
von 6 im ersten Wurf für das Würfeln einer 5 im zweiten Wurf eine andere
Wahrscheinlichkeit ergeben als beim Würfeln einer 5 im ersten Wurf, so wären die
Ereignisse nicht unabhängig.
Dies führt uns zur folgenden Definition:
2.3.3.1. Definition: Für A  S 1 und B  S 2 ; P i Wahrscheinlichkeitsmass
auf PS i  : A und B sind unabhängig genau dann, wenn
PA  B  P 1 A  P 2 B.
Man beachte, dass es Ereignisse von S (S definiert wie oben) gibt, die sich nicht
unmittelbar durch E 1  E 2 mit E 1  S 1 und E 2  S 2 ausdrücken lassen. So z.B. ist
E   2, 3 ,  5, 6   S, ohne dass E unmittelbar als kartesisches Produkt von
Teilmengen von S 1 und S 2 dargestellt werden kann. Es gilt aber:
E  2  3  5  6 und
PE  362  P 1 2  P 2 3  P 1 5  P 2 6. Alle Ereignisse von S
lassen sich derart als Vereinigungsmengen von kartesischen Produkten E 1  E 2
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
151
(mit E 1  S 1 , E 2  S 2  ausdrücken.
Beispiele: (1) Wir betrachten drei Urnen. Die erste enthalte 50 Steine, die von 1
bis 50 durchnummeriert sind. Die zweite enthalte 35 Steine, die von 100 bis 134
durchnummeriert sind, die dritte enthalte 10 Steine, die von 1001 bis 1010
durchnummeriert sind. Wir setzen jeweils gleiche Wahrscheinlichkeiten der
Elementarereignisse voraus. Wir ziehen aus jeder Urne einen Stein. Wieviel
beträgt die Wahrscheinlichkeit,  25, 104, 1002  zu ziehen?.
P 25, 104, 1002   P25  104  1002. Es ist vernünftig, davon
auszugehen, dass die Ergebnisse der verschiedenen Züge sich gegenseitig nicht
beeinflussen. Somit gilt dann:
P25  104  1002  P 1 25  P 2 104  P 3 1002  501  351  101 
1
17 500
(2) Es werde aus einer Urne mit 99 Steinen (mit 99 verschiedenen Zahlen i:
i  N 99  zweimal je ein Stein gezogen (mit Zurücklegen, gutes Durchmischen nach
jedem Zug). Wie hoch ist die Wahrscheinlichkeit eine 3 und eine 4 zu erhalten
(Reihenfolge spielt keine Rolle). S i  N 99 . S  S 1  S 2 .
E   3, 4 ,  4, 3   3  4  4  3
PE  P3  4  P4  3  P 1 3  P 2 4  P 1 4  P 2 3 
1
1
1
2
 991  99
 99
 9801
(wir setzen wiederum voraus, dass sich die
99
Ergebnisse die Wahrscheinlichkeit der anderen Ergebnisse nicht beeinflussen).
Beim Zurückblättern werden Sie feststellen, dass man etliche Stichprobenräume,
die wir bisher untersucht haben, als Produkte von Stichprobenräumen darstellen
könnte.
2.4. Vermischte Übungen
1) Wie gross ist die Wahrscheinlichkeit, mit einem Würfel dreimal nacheinander ”1” oder
dreimal ”6” zu werfen?
2) Ein Werkstück besteht aus zwei Hauptteilen und einem Zwischenstück. Diese werden
von drei verschiedenen Spezialfirmen bezogen, welche für die Hauptteile einen
Ausschuss von 4 %, für das Zwischenstück von 10 % garantieren. Wie gross ist die
Wahrscheinlichkeit, dass drei zufällig ausgewählte Teile ein einwandfreies Werkstück
ergeben?
3) Zwei Schützen sehen eine Tontaube und schiessen gleichzeitig auf sie. Normalerweise
trifft der Schütze A in 30 % der Fälle und der Schütze B in 40 % der Fälle.
Wie gross ist die Wahrscheinlichkeit, dass die Tontaube
(a) getroffen wird?
(b) genau einmal getroffen wird?
4) Ein Maturand billigt sich für die Zulassung zum Studium an der Universität A eine
Chance von 65 % zu. Er hat sich auch an der Uni B beworben, die ihn aber mit 45 %
Wahrscheinlichkeit zurückweisen wird. Welche Aussicht hat er, bei mindestens einer der
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
152
Universitäten zugelassen zu werden?
5) Eine Pensionskasse beabsichtigt, von einem Ehepaar ein Grundstück zu erwerben gegen
Gewährung einer Leibrente auf 25 Jahre.
Laut Sterbetafel beträgt die Wahrscheinlichkeit, noch 25 Jahre zu leben, für den
60jährigen Mann (Ereignis A) 0.18 und für die 65jährige Frau (Ereignis B) 0.13 .
Berechnen Sie die Wahrscheinlichkeit, dass nach 25 Jahren
(a) nur der Mann noch lebt.
(b) nur die Frau noch lebt.
(c) eines von beiden noch lebt.
(d) beide noch leben.
(e) keines mehr lebt
(f) mindestens eines noch lebt.
6) Wie gross ist die Wahrscheinlichkeit, beim Ziehen einer Karte aus einem Jassspiel
keinen König zu erhalten?
7) Wie gross ist die Wahrscheinlichkeit, beim gleichzeitigen Ziehen von 2 Kugeln keine
weisse zu erhalten (Ziehen aus 20 weissen und 10 schwarzen Kugeln)?
8) An einem Spiel nehmen zehn Personen teil. Bei jedem Durchgang wird eine Person
ausgelost, die ausscheiden muss. Berechnen Sie die Wahrscheinlichkeiten für folgende
Ereignisse:
a) das Ehepaar Müller bleibt vor der letzten Auslosung im Spiel,
b) Herr Müller bleibt als letzter übrig.
9) Vor einer Prüfung erhält ein Kandidat einen Kataglog mit 20 verschiedenen Fragen, von
denen in der Prüfung drei zu beantworten sind. Der Prüfling wählt zehn Fragen zufällig
aus und bereitet sich nur auf diese vor. Mit welcher Wahrscheinlichkeit hat er sich auf k
der in der Prüfung gestellten Fragen vorbereitet (für k  0, 1, 2, 3). Wir nehmen an, der
Kandidat beantworte vorbereitete Fragen mit dem Maximum der Punkte und bei nicht
vorbereiteten Fragen 0 Punkte. Bei 2 richtig beantworteten Fragen hat er bestanden. Wie
gross ist die Wahrscheinlichkeit, dass er besteht? Wie gross ist die Wahrscheinlichkeit,
dass er besteht, wenn nur eine richtig beantwortete Frage verlangt wird?
10) Eine Hausfrau kauft einen Karton mit 10 Eiern, wovon zwei verdorben sind. Zum
Backen eines Kuchens wählt sie drei Eier zufällig aus, ohne die Eier zu kontrollieren. Mit
welcher Wahrscheinlichkeit gelangt keines der verdorbenen Eier in den Kuchen?
11) Eine Würfel sei so verfälscht,dass die Augenzahlen 2, 3, 4 und 5 die gleiche
Wahrscheinlichkeit besitzen, während die Zahl 6 die doppelte Wahrscheinlichkeit der 2
und die dreifache Wahrscheinlichkeit der 1 besitzt. Berechnen Sie die
Wahrscheinlichkeit der Ereignisse G (gerade Augenzahl), U (ungerade Augenzahl) und
A (die Augenzahl beträgt mindestens 5 beim einmaligen Würfeln).
12) Mit einem Glücksrad sollen die Zahlen 1, 2, 3, 4, 5, 6, erzeugt werden. Dabei besitzen
die zughörigen Kreissektoren die folgenden Innenwinkel
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
153
1 45 o
2 60 o
3 90 o
4 25 o
5 40 o
6 100 o
a) bestimmen Sie die Wahrscheinlichkeit, dass das Rad bei einer spezifischen Zahl stehen
bleibt.
b) wie hoch ist die Wahrscheinlichkeit, dass das Rad bei einer geraden Zahl stehen bleibt.
c) wie hoch ist die Wahrscheinlichkeit, dass das Rad bei einer Zahl grösser-gleich 5 oder
kleiner-gleich 3 stehen bleibt.
13) Eine Firma fertigt Elektrogeräte in drei Produktionsstätten und zwar 25% im Werk A,
35% im Werk B und den Rest im Werk C. Von den im Werk A produzierten Geräten
sind 2%, von den in B produzierten 2.5% und den in C produzierten 3% fehlerhaft.
a) Mit welcher Wahrscheinlichkeit ist ein aus der Gesamtproduktion zufällig
ausgewähltes Gerät fehlerhaft?
b) Aus der Gesamtproduktion wird ein fehlerhaftes Gerät ausgewählt. Mit welcher
Wahrscheinlichkeit wurde es in A, B bzw. C produziert?
14) Aus Erfahrung sei bekannt, dass 92% der in einem Werk produzierten Maschinen
einwandfrei sind. In der Endkontrolle werden 5% der einwandfreien und 98% der
fehlerhaften als fehlerhaft aussortiert. Berechnen Sie die Wahrscheinlichkeiten für
folgende Ereignisse:
a) ein nicht aussortiertes Gerät ist fehlerfrei;
b) ein aussortiertes Gerät ist tatsächlich fehlerhaft.
15) Beim Überqueren eines Landes muss ein Flugkörper fünf Radarstationen überfliegen.
Von jeder Station werde er unabhängig von den anderen mit Wahrscheinlichkeit 0.02
entdeckt.
a) Mit welcher Wahrscheinlichkeit wird er während eines Einzelfluges entdeckt?
b) Mit welcher Wahrscheinlichkeit wird er bei zehn Flügen nicht entdeckt?
16) Mit wie vielen Würfeln muss mindestens geworfen werden, damit das Ereignis ”es
erscheint mindestens eine Sechs” eine Wahrscheinlichkeit von mehr als 0.99 besitzt?
17) Mit welcher Wahrscheinlichkeit kann mit drei Würfeln in einem Wurf eine Summe
grösser als 10 geworfen werden.
18) Beim Würfeln gewinnt der mit der höheren Augenzahl. Der erste würfelt 3. Wieviel
beträgt die Wahrscheinlichkeit, dass der zweite gewinnt? Der erste würfelt 5. Wieviel
beträgt die Wahrscheinlichkeit, dass der zweite gewinnt?
19) In einer Urne befinden sich 20 rote, 30 blaue und 50 schwarze Kugeln. Wie gross ist
die Wahrscheinlichkeit, in einem Zug
- eine rote
- eine rote oder eine blaue
- keine rote zu ziehen?
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
154
20) Beim Lotto: 99 Steine von 1 bis 99 durchnummeriert. Wie gross ist die
Wahrscheinlichkeit, die Reihe [5, 11, 28, 55, 82] auf Grund der ersten fünf ausgerufenen
Zahlen decken zu können.
21) Drei Manager verlassen vorzeitig die Aktionärsversammlung. Sie greifen nacheinander
in der verdunkelten Garderobe auf gut Glück je einmal in den Schirmständer, in welchem
sich 20 Schirme befinden, darunter auch ihre eigenen. Wie gross ist die
Wahrscheinlichkeit, dass jeder durch Zufall gerade seinen eigenen Schirm erwischt?
22) Aus den Buchstaben STUTTGART werden dreimal hintereinander je ein Buchstabe a)
mit und b) ohne Zurücklegen ausgewählt. Berechnen Sie die Wahrscheinlichkeiten für
folgende Ereignisses:A) in der Reihenfolge der Ziehung entsteht das Wort RAT. B) aus
den gezogenen Buchstaben lässt sich das Wort RAT bilden.
23) Die Geburtstage der Bewohnerinnen und Bewohner der Schweiz seien gleichmässig
auf die zwölf Monate verteilt. Zehn Personen werden zufällig ausgewählt. Mit welcher
Wahrscheinlichkeit haben
a) genau drei im Januar,
b) mindestens drei im Januar,
c) alle zehn Personen in verschiedenen Monaten Geburtstag.
24) Aus einer Urne mit fünf schwarzen, drei weissen und zwei blauen Kugeln werden ohne
Zurücklegen drei Kugeln gezogen.
a) Mit welcher Wahrscheinlichkeit weden nur Kugeln mit der gleichen Farbe gezogen?
b) Mit welcher Wahrscheinlichekeit wird beim dritten Zug eine blaue Kugel gezogen?
2.5. Lösungen
Bemerkung: Es gibt oft verschiedene Möglichkeiten, eine Aufgabe anzugehen. Die
gelieferten Lösungen sind als Lösungsvorschläge zu betrachten.
1) Stichprobenraum: S  S 1  S 2  S 3 ist die Menge der Tripel mit den möglichen
Elementarereignissen 1, 2, 3, 4, 5 oder 6. (S i  1, 2, 3, 4, 5, 6. Die einzelnen Ergebnisse
sind unabhängig. Wir setzen die gleiche Wahrscheinlichkeit der Elementarereignisse von
3
1
 108
 0. 0092593
S i voraus. Damit gilt dann: 2 16
2) Stichprobenraum: S  S 1  S 2  S 3 Menge der Tripel, die aus einem Hauptteil der ersten
Art, einem Hauptteil der zweiten Art und einem Zwischenstück bestehen
(S 1  E, A; S 2  E, A; S 3  E, A; E für ”einwandfrei”, ”A” für ”Ausschuss”. Die
Ziehungen sind unabhängig voneinander. Damit können die Wahrscheinlichkeiten
96
.
multipliziert werden. Die Wahrscheinlichkeit, dass ein Stück aus S 1 einwandfrei ist: 100
90
Die Wahrscheinlichkeit, dass ein Zwischenstück aus S 2 einwandfrei ist: 100
. Die
96
. Die
Wahrscheinlichkeit, dass ein Hauptstück aus S 3 einwandfrei ist: 100
96 90 96
Wahrscheinlichkeit, drei einwandfreie Stücke zu erhalen, ist damit: 100
.
100 100
2592
 0. 829 44 Damit müsste die Firma mit einem Ausschuss von ca 17q% rechnen.
3125
3) Stichprobenraum:
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
155
S  S 1  S 2   T, T ,  NT, T ,  T, NT ,  NT, NT . S 1  T, NT; S 2  T, NT
mit T für ”Treffer”, NT für ”Nichttreffer”). Das Treffen sei unabhängig (ist hier nicht
unbedingt selbstverständlich. Ein absolut gleichzeitiges Schiessen ist eher
unwahrscheinlich. Der Knall des ersten Schützen könnte aber eine Auswirkung auf den
zweiten haben). Somit können wir die Wahrscheinscheinlichkeiten multiplizieren.
3 4
3
 25
a) Für beide treffen: 10
10
Für der erste trifft, der zweite nicht: 103 106  509
Für der erste trifft nicht, der zweite trifft: 107 104  257
3
9
Für mindestens einer trifft: 25
 50
 257  29
 0. 58
50
9
7
23
b) Für genau einmal: 50  25  50  0. 46
4) Stichprobenraum:
S  S 1  S 2  Z, NZ  Z, NZ   Z, NZ ,  Z, Z ,  NZ, NZ ,  NZ, Z . (S 1  
Z für ”Zulassung”, NZ für ”Nichtzulassung”). Die Zulassungschancen sind unabhängig.
Wir können somit die Wahrscheinlichkeiten der Ereignisse aus S 1 und S 2 multiplizieren
(für Ereignisse, die deren kartesisches Produkt sind). Die Wahrscheinlichkeit, in keiner
35
45
63
Uni zugelassen zu werden: 100
 100
 400
Die Wahrscheinlichkeit, mindestens an einer Uni zugelassen zu werden ist damit
63
 337
(Gegenwahrscheinlichkeit).
1  400
400
5) Stichprobenraum
S  S 1  S 2  L, LN  L, LN   L, L ,  L, LN ,  LN, L ,  LN, LN 
(S 1 Stichprobenraum für Mann, S 2 für Frau, L für ”lebt nach 25 Jahren”, LN für ”lebt
nicht mehr nach 25 Jahren”). Wir postulieren die Unabhängigkeit der Stichprobenräume
(was hier keineswegs selbstverständlich ist. Der Tod eines Ehepartners kann sehr wohl
Auswirkungen auf die Wahrscheinlichkeit der Lebensdauer des anderen haben).
18 87
783
 5000
 0. 156 6
(a) 100
100
82 13
533
(b) 100 100  5000  0. 106 6
18 87
82 13
(c) 100
 100
 0. 263 2
100
100
18
13
117
(d) 100  100  5000  0. 023 4
82
87
 100
 3567
 0. 713 4
(e) 100
5000
82
87
(f) 1  100  100  1433
 0. 286 6
5000
6) S besteht aus den 36 Kartenzügen, die möglich sind. Gleiche Wahrscheinlichkeit der
Elementarereignisse. Die Wahrscheinlichkeit keinen König zu ziehen ist: 32
 89
36
7) S  S 1  S 2 , wobei S 1 die Menge der 30 Kugeln ist und S 2 die Menge der 29 Kugeln
(mit 9 schwarzen und 20 weissen). Wir setzen gleiche Wahrscheinlichkeit der
Elementarereignisse in S i voraus. Die Ergebnisse sind unabhängig. Damit können wir die
Wahrscheinlichkeiten multiplizieren. Wir erhalten: Die Wahrscheinlichkeit, nur schwarze
9
3
zu erhalten ist: 10
 29
 29
 0. 103 45. Die Wahrscheinlichkeit, keine Weisse zu
30
erhalten, ist offenbar die Wahrscheinlichkeit nur schwarze zu erhalten.
8) Sei H die Menge der 10 Personen. Der Stichprobenraum S ist dann:
S   x i 1 , x i 2 , x i 3 , x i 4 , x i 5 , x i 6 , x i 7 , x i 8 , x i 9 , x i 10 : x i j  H und j  N 10 und x i j  x i k für
j  k
|S|  10! Wir können die gleiche Wahrscheinlichkeit der Elementarereignisse
voraussetzen. Eine günstige Reihenfolge ist eine mit Herr Müller und Frau Müller am
Schluss oder Frau Müller und Herr Müller am Schluss. Damit gibt es zwei
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
156
Möglichkeiten, Herr und Frau Müller in diesem Fall anzuordnen. Für jede dieser zwei
Möglichkeiten gibt es 8! Möglichkeiten, die übrigen Spielteilnehmer anzuordnen. Somit
ergeben sich 2  8! ”günstige Ergebnisse”. Die Wahrscheinlichkeit, Herr oder Frau
 0. 02222 2
Müller am Schluss zu haben ist damit: 28!
10!
b) S wie oben. Es gibt 9! Möglichkeiten, die übrigen 9 Personen anzuordnen. Damit gilt
9!
 101
für die Wahrscheinlichkeit, Herrn Müller am Schluss zu haben: 10!
9) Sie H die Menge der Fragen. Wir nummerieren diese von 1 bis 20 durch. Der
Stichprobenraum S ist: S   F i , F j , F k : F i , F j , F k  H und i  j  k und
i, j, k  N 20 . Durch die Klausel i  j  k berücksichtigen wir in S nur die Tripel, die
unterschiedliche Fragen aufweisen. Zudem wird von den Tripeln, welche die gleichen
Fragen  z.B. F 1 , F 3 , F 4  und F 4 , F 3 , F 1   aufweisen in S nur eines berücksichtigt.
Erhalten wir im konkreten Ziehexperiment  F 18 , F 17 , F 5 , so wird dies als
 F 5 , F 17 , F 18  gedeutet). Es gilt: |S|  20 (Ziehen ohne Zurücklegen und ohne
3
Reihenfolge). Wir setzen die gleiche Wahrscheinlichkeit der Elementarereignisse voraus.
k  3: Wir nehmen an, die drei Fragen befinden sich unter den 10. Es ist möglich, auf
10 Arten drei Fragen aus 10 zu ziehen ( ”günstige” Ergebnisse). Somit ist die
3
10
120
3
 1140
 192 
Wahrscheinlichkeit, dass die drei aus den 10 gezogen werden:
20
3
0. 10526
k  2: Es gibt 10 Möglichkeiten, aus den 10 Fragen zwei Fragen auszuwählen. Für
2
jede gibt es 10 Möglichkeiten, eine dritte Frage aus den nicht vorbereiteten Fragen
auszuwählen. Dies ergibt:
10
2
10 
 1045
 15
1140
38
20
3
k  1: Es gibt 10 Möglichkeiten, aus den 10 Fragen eine Frage auszuwählen. Für jede
gibt es 10 Möglichkeiten, zwei aus den nicht vorbereiteten zu ziehen. Dies ergibt
2
10
2
 1045
 15
.
wiederum 10 
1140
38
20
3
k  0: entweder werden 3 vorbereitete Fragen, 2 Fragen, eine oder keine gezogen (
sicheres Ereignis. Somit ergibt die Summe dieser Wahrscheinlichkeiten 1). Die
paareweisen Schnittemengen dieser Ereignisse ist zudem leer. Entsprechend gilt für k 
2
2
0: 1   15
 15
 19
  19
38
38
Die Wahrscheinlichkeit zu bestehen (2 Fragen sind verlangt) ist: 192  15
 12
38
15
2
Die Wahrscheinlichkeit zu bestehen (1 Fragen ist verlangt) ist: 19  38  15
 17

38
19
0. 894 74
10) Da uns an den Eiern nur deren Güte oder Schlechtigkeit interessiert, so können wir den
Stichprobenraum auffassen als: S   K i , K j , K k : K i  G oder K i  S und K j  G
oder K j  S und K k  G oder K k  S (Mit G für ”gut” und ”S” für ”schlecht”).
. (Ziehen ohne Zurücklegen ohne Reihenfolge).
Damit ist |S|  10
3
8
Es gibt 3 Möglichkeiten, aus den 8 guten Eiern drei auszuwählen ( günstige
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
157
Ergebnisse).
Dies ergibt:
8
3
10
3
7
15

11) S  {1,2,3,4,5,6}. Von der Wahrscheinlichkeitsverteilung wissen wir, dass gilt:
P2  P3  P4  P5
P6  2P2
P6
2P2
.
P6  3P1  P1  3 
3
P1  P2  P3  P4  P5  P6  1
Wir ersetzen:
2P2
 P2  P2  P2  P2  2P2  203 P2
3
3
Somit beträgt P2  201  20
 0. 15  P3  P4  P5;
3
P6  0. 3;
P1  0. 1.
Die Wahrscheinlichkeit ”gerade Augenzahl”:
P2  P4  P6  0. 15  0. 15  0. 3  0. 6
Die Wahrscheinlichkeit ”ungerade Augenzahl”:
P1  P3  P5  1  0. 6  0. 4
Die Wahrscheinlichkeit ”mindestens 5”:
P5  P6  0. 15  0. 3  0. 45
12) S  1, 2, 3, 4, 5, 6, . Von der Wahrscheinlichkeitsfunktion wissen wir:
45
60
90
25
40
; 2  360
; 3  360
; 4  360
; 5  360
; 6  100
a) 1  360
360
Wobei gilt: Px  x
60
25
5
 360
 100
 18
 0. 277 78 (die paarweisen Schnittmengen der Ereignisse
b) 360
360
sind leer).
25
 67
 0. 930 56 (Gegenereignis).
c) 1  360
72
13) S Menge der produzierten Objekte. A  Objekte der Produktion A, B  Objekte der
Produktion B, C  Objekte der Produktion C. F  Fehlerhafte Objekte der
Gesamtproduktion.
a) 2% der 25% sind fehlerhaft, 2.5% der 35% und 3% der 40%. Dies ergibt:
0. 02  25  0. 025  35  0. 03  40  2. 575% der Gesamtproduktion sind fehlerhaft. p 
0.02575.
PAF
 0. 194 17
b) pA  F  PF  0.020.25
0.02575
pB  F 
PBF
PF
PBF
PF

0.0250.35
 0. 339 81
0.02575
0.030.4
 0. 466 02
0.02575
pC  F 

Kontrolle: 0. 194 17  0. 339 81  0. 466 02  1
14) (S Menge der produzierten Objekte. F für die Menge der fehlerhaften, A für die Menge
der aussortierten Gegenstände)
PA  F c   0. 05; PA c F  0. 98; PF c   0. 92;
PAF 
Aus PA  F c   PF c   0. 05 und PF c   0. 92 folgt:
PA  F c   0. 05  0. 92  0. 0 46
PAF
Aus PA  F  PF  0. 98 und PF  0. 92 folgt:
PA  F  0. 98  0. 08  0. 0 784
 PA  0. 0 46  0. 0 784  0. 124 4 und PA c   1  0. 124 4  0. 875 6.
(Alternative Überlegung: 0. 05  92  0. 98  8  12. 44%. .
Zudem gilt:
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
158
PF c A c 
a) PF c  A c   PA c 
PAc c  c  0. 95  0. 92  0. 02  0. 08  0. 875 6
PF A 
 0.920.95
 0. 998 17
0. 875 6
PA c 
b) PF  A 
PFA
PA

0.080.98
0.1244
 0. 630 23
Aufgaben dieser Art werden auch mit der Bayesschen Formel berechnet. Diese besagt:
PAFPF
PFA
PF  A  PA 
PA
PFA
PA
PAF

PF
Beweis: Laut Definition gilt: PA  F 
.
Zudem gilt: PA  F  PF  A 
PA  F  PF  PA  F  PF  A 
PAFPF
PFA
 PA (Division beider Seiten durch PA).
PA
In unserem Beispiel: PF  A 
0.980.08
 0. 630 23.
0.1244
PFA
PA

PAFPF
PA

15) S  S 1  S 2  S 3  S 4  S 5 mit S i  E, NE mit E für ”entdeckt werden” und NE für
”nicht entdeckt werden”. Wir nehmen an, die Ereignisse der verschiedenen
Stichprobenräume seien unabhängig voneinander. Wir können damit die
Wahrscheinlichkeiten multiplizieren.
a) Die Wahrscheinlichkeit, von einer Station nicht entdeckt zu werden beträgt: 0.98. Die
Wahrscheinlichkeit, von 5 Stationen nicht entdeckt zu werden, beträgt dann 0. 98 5  0.
903 92
b) Die Wahrscheinlichkeit, bei zehn Flügen nicht entdeckt zu werden, beträgt dann:
0. 903 92 10  0. 364 17
16) Die Wahrscheinlichkeit, dass keine 6 auftritt, muss 0.01 betragen. Die
n
Wahrscheinlichkeit, dass in n Würfen keine 6 auftaucht, ist 56 . Wir müssen somit
log 0.01
5 n
 0. 01 berechnen. Wir logarithmieren und lösen nach n auf: n  log 5  25.
6
6
259.
Somit müssen wir 26 mal würfeln, damit wir mit 0. 99 Wahrscheinlichkeit mindestens
eine 6 erhalten.
(wir haben hier keinen Stichprobenraum angegeben. In der Tat geht es darum zu wissen,
wieviele unabhängige Stichprobenräume n mit S  S 1 . . . S n wir haben müssen, damit
die entsprechende Wahrscheinlichkeit für das vorgegebene Ereignis gilt).
17) Stichprobenraum: S  S 1  S 2  S 3 mit S i  1, 2, 3, 4, 5, 6. Gleichwahrscheinliche
Elementarereignisse von S i . Unabhängigkeit der Ereignisse zwischen den
Stichprobenräumen.
Kleinere Summen als 10 ergeben alle Kombinationen von:
3, 3, 3, 3, 3, 2, 3, 3, 1 (1   31    31   7 Fälle)
3, 2, 2, 3, 2, 1, 3, 1, 1 ( 31   3!   31   12 Fälle)
4, 3, 2, 4, 3, 1, 4, 2, 1, 4, 2, 2, 4, 1, 1 (3!  3!  3!   31    31   24 Fälle)
4, 4, 1 ( 31   3 Fälle).
5, 2, 2, 5, 2, 1, 5, 1, 1 ( 31   3!   31   12 Fälle)
6, 2, 1, 6, 1, 1 (3!   31   9 Fälle)
7, 1, 1 ( 31   3 Fälle)
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
159
Dies ergibt: 7  12  24  3  12  9  3  70 ”günstige” Fälle.
Somit beträgt die Wahrscheinlichkeit, eine Summe kleiner als 10 zu erhalten:
 0. 324 07
pA c   70
63
 0. 675 93.
pA  1  70
63
18) S  1, 2, 3, 4, 5, 6. Gleiche Wahrscheinlichkeit der Elementarereignisse.
Höher als 3 sind 4, 5, 6. Somit beträgt die Wahrscheinlichkeit: 36
Höher als 5 sind: 6. Somit beträgt die Wahrscheinlichkeit: 16 .
19) S ist die Menge der Kugeln (oder der Ereignisse, eine Kugel zu ziehen). r für das
Ereignis, eine rote Kugel zu ziehen, b für das Ereignis eine blaue Kugel zu ziehen, nr für
das Ereignis, nicht eine rote Kugel zu ziehen,
20
pr  100
20
30
pr oder b  100
 100
 12 (r  b  
20
80
pnr  pr c   1  100
 100
 45
20 Sei H die Menge der möglichen Zahlenzüge. S ist die Menge der Teilmengen von H,
die 5 Elemente enthalten. Es gibt  995   71 523 144 solche Teilmengen (Ziehen ohne
Zurücklegen, ohne Reihenfolge). Alle sind gleich wahrscheinlich. Damit gilt für die
Wahrscheinlichkeit, diese Zahlen zu erhalten: 991  71 5231 144  1. 398 1  10 8
5
21) S sei die Menge der Tripel die aus 30 gezogen werden können (ohne Zurücklegen, in
Reihenfolge). Dies ergibt 30  29  28 Möglichkeiten. Alle sind gleichwahrscheinlich.
1
 4. 105 1  10 5
Somit ergibt sich eine Wahrscheinlichkeit von 302928
Alternative: S 1 sei die Menge der möglichen Züge aus 30 Regenschirmen. Die
Wahrscheinlichkeit, den richtigen daraus zu erwischen, ist 301 . Wir nehmen nun an, im
ersten Zug sei der richtige erwischt worden. Wir erhalte S 2 als Menge der Regenschirme
ohne den ersten Regenschrim. Die Wahrscheinlichkeit, aus S 2 den richtigen zu
1
erwischen, ist 29
. Wir nehmen an, in der zweiten Runde sei ebenfalls der richtige
Regenschirm erwischt worden. Es verbleibt S 3 als Menge der Regenschrime, ohne die
ersten zwei. Die Wahrscheinlichkeit aus S 3 den richtigen zu erwischen, ist 281 . Für S i
setzen wir die gleiche Wahrscheinlichkeit der Elementarereignisse voraus. Die Züge aus
den verschiedenen Stichprobenräumen sind bei den getroffenen Festlegungen
unabhängig. Damit gilt für die Wahrscheinlichkeit, dass alle drei ihren Regenschirm
1
1
1
erwischen: 30
 29
 28
.
22) Wir können das Experiment wie folgt auffassen. Aus drei identischen
Stichprobenräumen S i wird je ein Buchstabe gezogen (S  S 1  S 2  S 3 : Die
Wahrscheinlichkeit im ersten Zug aus S 1 ein R zu ziehen beträgt 19 .
Die Wahrscheinlichkeit im zweiten Zug aus S 2 ein A zu ziehen beträgt 19 .
Die Wahrscheinlichkeit im dritten Zug aus S 3 ein T zu ziehen beträgt 49 .
Die Ergebnisse der Züge sind unabhängig. Somit erhalten wir
4
PR  A  T  PR  PA  PT  19 19 49  729
 0. 005 487
B) Die Wahrscheinlichkeit, im ersten Zug ein R, im zweiten ein A und im dritten ein T zu
4
. Es gibt dabei 3! Reihenfolgen, ein R, ein A und
ziehen ist - wie gezeigt - 19 19 49  729
ein T zu ziehen (diese ”Reihenfolgen” sind Tripel von R, A und T und Elemente von S).
8
 243
Jede hat dieselbe Wahrscheinlichkeit: Dies ergibt: 43!
729
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
160
b) ohne Zurücklegen:
A) Wir legen uns die Situation wie folgt zurecht (siehe Alternativüberlegung zum
Beispiel 21): Wir betrachten die Stichprobenräume
S 1  S, T, U, T, T, G, A, R, T, S 2  S, T, U, T, T, G, A, T und S 3  S, T, U, T, T, G, T
S  S1  S2  S2
Die Wahrscheinlichkeit aus S 1 ein R zu ziehen beträgt 19 .
Die Wahrscheinlichkeit, aus S 2 ein A zu ziehen, beträgt 18 .
Die Wahrscheinlichkeit, aus S 3 ein T zu ziehen, beträgt 47 .
Die entsprechenden Ergebnisse sind unabhängig. Somit beträgt die Wahrscheinlichkeit
dafür, dass im ersten Zug R, im zweiten Zug A und im dritten Zug T gezogen wird:
1 1 4
1
 126
 0. 007 936 5
9 8 7
B) Es gibt 3!  6 Möglichkeiten, die gewünschten Buchstaben zu ziehen (d.h. 6
Elemente von S, die R, A, T enthalten):
1
.
Für das Resultat R, A, T  ergibt sich - wie gezeigt - 19 18 47  126
1
Ebenso gilt für A, R, T : 19 18 47  126
1
Für die Resultate R, T, A  und A, T, R ergibt sich 19 48 17  126
1
Für die Resultate T, R, A und T, A, R ergibt sich 49 18 17  126
Damit ist die Wahrscheinlichkeit, ein R, ein A und ein T zu erhalten (unabhängig von der
Reihenfolge)
1
1
 21
6  126
23) Für jede Person i postulieren wir einen Stichprobenraum: S i der die möglichen
Geburtsmonate enthält (12 Elemente). Wir setzen die gleiche Wahrscheinlichkeit der
Elementarereignisse voraus. Die Wahrscheinlichkeit für eine Person, in einem
bestimmten Monat Geburtstag zu haben, beträgt 121 . Die Wahrscheinlichkeit, nicht in
diesem Monat Geburtstag zu haben, beträgt dann: 11
(Gegenwahrscheinlichkeit von
12
1
. Die Wahrscheinlichkeiten für die verschiedenen Personen sind unabhängig. Die
12
Wahrscheinlichkeit, dass drei spezifische Personen Geburtstag im Januar haben und die
7
1 3
anderen nicht, beträgt dann:  12
   11
 . Nun gibt es 10  120 Möglichkeiten,
12
3
aus 10 Personen 3 zu ziehen. Jedes dieser Tripel hat dieselbe Wahrscheinlichkeiten, im
Januar Geburtstag zu haben. Dies ergibt:
3
7
 121    11
  120  0. 03 776 7 als Wahrscheinlichkeit, dass genau 3 Personen im
12
Januar Geburtstag haben.
b) Wir bilden die Summe darüber, dass keine Person, genau eine und genau zwei
Personen im Januar Geburtstag haben. Die Gegenwahrscheinlichkeit ist dann die
gesuchte Wahrscheinlichkeit: Für keine Person hat im Januar Geburtstag  alle haben an
einem anderen Monat Geburtstag;
10
 11
  0. 418 9
12
Für 1: Die Wahrscheinlichkeit für eine Person, im Januar Geburtstag zu haben, beträgt
1
. Die Wahrscheinlichkeit, die übrigen nicht im Januar Geburtstag hat, beträgt dann
12
11 9
 12  .
Die Wahrscheinlichkeit dafür, dass genau eine Person im Januar Geburtstag hat, beträgt
9
1
also:  11
. Dies gilt nun für 10 Personen, die im Januar Geburtstag haben können:
  12
12
9
1
.
Dies ergibt: 10   11
  12
12
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
161
Für 2: Für die Wahrscheinlichkeit, dass genau zwei Personen Geburtstag haben, ergibt
8
1 2
sich 10   12
   11
  0. 155 79
12
2
Somit ergibt sich die Summe:
10
9
2
8
1
 10   121    11
 11
  10   11
  12
  0. 955 52
12
12
12
2
Die Gegenwahrscheinlichkeit beträgt somit: 1  0. 955 52  0. 0 444 8
Eine weitere Berechnungsmethode würde darin bestehen, die Wahrscheinlichkeiten
davon zu berechnen, dass genau 3, 4, 5, 6, 7, 8, 9, 10 Personen im Januar Geburtstag
haben und die Summe davon zu bilden.
4
6
  10  6. 008 5  10 3
 121    11
12
4
10
1 5
11 5
 6. 554 7  10 4
 12    12  
5
6
4
 121    11
  10  4. 965 7  10 5
12
6
7
3
10  2. 579 6  10 6

 121    11

12
7
2
10  8. 794  10 8
1 8

 12    11

12
8
10
1 9
11 1
 1. 776 6  10 9
 12    12  
9
10
 121   1. 615 1  10 11
0. 03 776 7  6. 008 5  10 3  6. 554 7  10 4  4. 965 7  10 5 
2. 579 6  10 6  8. 794  10 8  1. 776 6  10 9  1. 615 1  10 11
 4. 448 3  10 2 (Bei dieser Methode multiplizieren sich Rundungsfehler!).
c) Die Wahrscheinlichkeit dafür, dass genau je eine spezifische Person in den ersten 10
10
Monaten Geburtstag hat, beträgt:  121  . Da die Reihenfolge der Personen keine Rolle
spielt, ergeben sich 10! Möglichkeiten, dass die zehn Personen in den ersten 10 Monaten
Geburtstag haben. Die Wahrscheinlichkeit, dass je eine Person in den ersten 10 Monaten
10
Geburtstage zu hat ist damit 10!   121  .
Dies gilt für jede mögliche Kombination von 10 Monaten (aus 12 Monaten). Deren gibt
 66. Somit beträgt die Wahrscheinlichkeit, dass die 10 Personen an
es 12
10
verschiedenen Monaten Geburtstag haben:
10
10!   121   12
 3. 868 1  10 3 .
10
24) S  Menge der möglichen Arten 3 Kugeln zu ziehen (Ziehen ohne Zurücklegen, ohne
Reihenfolge). Es sind dies 10
 120.
3
a) Aus den fünf schwarzen können auf 53  10 Arten schwarze gezogen werden. Aus
den weissen nur auf 1 Art. Aus den blauen können nicht drei gleichfarbige gezogen
11
werden. Somit gilt: p  11
 120
 0. 09 166 7.
10
3
b) Es gibt folgende ”günstigen” Fälle: b, nb, b, nb, b, b, nb, nb, b (”b” für ”blau”,
”nb” für ”nicht blau”).
2
1
P(b, nb, b)  10
 89  18  45
 0. 155 56
8
2
1
1
P(nb, b, b)  10  9  8  45  0. 02 222 2
8
7
 79  28  45
 0. 155 56
P(nb, nb, b)  10
Somit beträg die Wahrscheinlichkeit, dritten Zug eine blaue Kugel zu ziehen:
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
162
1
45

1
45

7
45

1
5
 0. 2
2.6. Lernziele
- Die Definitionen des Stichprobenraumes, des Elementarereignisses und des Ereignisses
erläutern können. Erklären können, worin der Unterschied zwischen
Elementarereignissen und Ereignissen besteht. Erläutern können, wieso wir zwischen
diesen beiden Arten von Gegenständen unterscheiden.
- Den Zusammenhang von Wahrscheinlichkeiten und relativen Häufigkeiten beschreiben
können.
- Die Definition der Wahrscheinlichkeitsfunktion hinschreiben können.
- Die Definition der Wahrscheinlichkeitsverteilung ( Wahrscheinlichkeitsmass)
hinschreiben können und den Unterschied zwischen der Wahrscheinlichkeitsfunktion und
der Wahrscheinlichkeitsverteilung erläutern können.
- Die drei Eigenschaften des Wahrscheinlichkeitsmasses hinschreiben können
((1)PS  1, (2) PB  0 für B  S; 3 für A i  A j   gilt:
PA i  A j   PA j   PA i 
- Die Definition der bedingten Wahrscheinlichkeit kennen und den Unabhängigkeitsbegriff,
der mit dieser Definition verbunden ist.
- Die Definition des Produkts von Stichprobenräumen hinschreiben können. Den Begriff
der Unabhängigkeit bezüglich unterschiedlicher Stichprobenräume erläutern können.
- Übungen von der Art der aufgelisteten Übungen lösen können (ausser 2.4. 21 - 24).
___________________________________________________________________
Wahrscheinlichkeit I.tex
1. HSW Siders
P.R.
163
3. Zufallsvariablen; Erwartungswert und Varianz
3.1. Zufallsvariablen
Zufallsvariablen sind Abbildungen auf einen Stichprobenraum S in die reellen
Zahlen, die wir aus folgenden Gründen einführen:
(i) Elementarereignisse sind im allgemeinen keine Zahlen. Deshalb kann man mit
den Elementarereignissen nicht rechnen. Zufallsvariablen sind Funktionen, die u.a.
diesem Missstand abhelfen.
(ii) Oft interessieren wir uns nur für spezifische Aspekte der möglichen Ausgänge
eines Zufallsexperimentes: Werfen wir zwei Würfel, so können wir uns statt für
S   x, y : 1  x, y  6 z.B. für die Summe, das Produkt oder den Mittelwert der
Augenzahlen interessieren.
Beispiele: Wir betrachten zwei Würfel: Summe der Augen
S   2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12.
Für das Produkt: S   1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15, 16, 18, 20, 24, 25, 30, 36
Für den Mittelwert: S   1, 1. 5, 2, 2. 5, 3, 3. 5, 4, 4. 5, 5, 5. 5, 6
Zufallsvariablen sind nun Funktionen, die einen Stichprobenraum in den anderen
abbilden, wobei sie das Wahrscheinlichkeitsmass des ursprünglichen
Stichprobenraumes auf den neuen Stichprobenraum ”transportieren”:
Beispiele:
(i) Die Zufallsvariable X, die den Stichprobenraum S in den Stichprobenraum S  mit
der Summe der Augenzahlen abbildet, wird beschrieben durch die Gleichung:
X x, y   x  y, wobei P X z  P x, y : x, y  S und x  y  z. Wir
nennen die Funktion P X die Wahrscheinlichkeitsverteilung der Zufallsvariable X
(Die Verteilung einer Zufallsvariable wird auch ”Bildmass” genannt). P X ordnet
jeder Teilmenge des neuen Stichprobenraumes eine Wahrscheinlichkeit zu. So ist
z.B. die Wahrscheinlichkeit, eine Summe von 5 zu erhalten:
P X 5  P x, y : x, y  S und
x  y  5  P 1, 4 ,  4, 1 ,  2, 3 ,  3, 2   364  19
Die Zufallsvariable Y, die den Stichprobenraum S in den Stichprobenraum S  mit
dem Produkt der Augenzahlen abbildet, wird beschrieben durch die Gleichung:
Y x, y   x  y, wobei P Y z  P x, y : x, y  S und xy  z. Wir
nennen P Y die Wahrscheinlichkeitesverteilung der Zufallsvariable Y. So ist z.B. die
Wahrscheinlichkeit, eine 2 oder eine 8 zu erhalten:
P Y 2, 8  P x, y : x, y  S und xy  2 oder
xy  8  P 1, 2 ,  2, 1 ,  2, 4 ,  4, 2   364  19
Die Zufallsvariable Z, die den Stichprobenraum S in den Stichprobenraum S  mit
dem arithmetischen Mittel der Augenzahlen abbildet, wird beschrieben durch die
xy
Gleichung: Z x, y   2 , wobei P Z z  P x, y : x, y  S und
xy
 z. So ist z.B. die Wahrscheinlichkeit, einen Mittelwert von 4 zu erhalten:
2
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
163
P Z 4  P x, y : x, y  S und
xy
 4  P 4, 4 ,  3, 5 ,  5, 3 ,  6, 2 ,  6, 2  
2
5
36
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
164
3.1.1 Definition: X ist eine Zufallsvariable genau dann, wenn X eine
Funktion ist mit: X : S  R
(S, PS, P ist ein diskreter Wahrscheinlichkeitsraum)
Man beachte: Zufallsvariablen sind keine Variablen, sondern Funktionen. Als
Funktionen sind Zufallsvariablen Mengen von geordneten Paaren. Mit Zufall haben
sie diesbezüglich nichts zu tun. Sie existieren, wenn sie definiert sind, als
mathematische Objekte unabhängig von Zeit und Raum und sind nicht irgendwie
aktiv. Die Begriffswahl ”Zufallsvariable” ist vermutlich nicht sehr geschickt, da sie
zu vielen Missverständnissen Anlass gibt. Der Begriff hat sich aber eingebürgert.
Der ”Zufall” kommt bei Zufallsvariablen dann ins Spiel, wenn wir die konkreten
Ausgänge von Zufallsexperimenten betrachten. Der Wert Xs i  einer Zufallsvariable
X ”realisiert” sich dabei dann, wenn s i eintritt. Die Wahrscheinlichkeit, dass sich
Xs i  realisiert, ist die Wahrscheinlichkeit, dass s i eintritt, sofern X bijektiv ist.
Beispiele:
1) Würfel mit Farben: S  {gelb, rot, blau, grün, violett, schwarz}.
X  {gelb,1, rot, 2, blau, 3, grün, 4, violett, 5, schwarz, 6}
Die Wahl der Zahlen ist eigentlich willkürlich: auch
X  {gelb,10, rot, 3, blau, 6, grün, 8, violett, 1, schwarz, 66}
ist eine Zufallsvariable.
2) Würfel mit Augen: S  {ein Auge, zwei Augen, drei Augen, vier Augen, fünf
Augen, sechs Augen}
X  {x, y: y ist die Augenzahl von x}  {ein Auge, 1, zwei Augen, 2, drei
Augen, 3, vier Augen, 4, fünf Augen, 5, sechs Augen, 6}.
Die Wahl der zugeordneten Zahlen ist ebenfalls willkürlich, wobei hier die
Zuordnung der Anzahl Augen zu den entsprechenden Elementarereignissen
naheliegend ist. Es gibt jedoch Zusammenhänge, wo wir die Zufallsvariable anders
definieren würden. Betrachten wir ein Glückspiel mit folgenden Auszahlungen: bei
sechs Augen 5 Fr., bei fünf Augen 1 Fr. und bei den übrigen Elementarereignissen
0 Fr. Wir würden nun die folgende Zufallsvariable verwenden:
X  {ein Auge, 0, zwei Augen, 0, drei Augen, 0, vier Augen, 0, fünf
Augen, 1, sechs Augen, 5}
Haben wir bisher Elementarereignisse mit Hilfe von Zahlen ausgedrückt, waren die
Zahlen eher als abkürzende Schreibweise für die Elementarereignisse gedacht.
Der Wertebereich der Zufallsvariable umfasst nun wirklich Zahlen.
Wie das Wahrscheinlichkeitsmass wird auch die Wahrscheinlichkeitsfunktion von S
auf S  ”transportiert”. Es gilt nämlich:  X x i     S s i . ( X ist die
Xs i x i
Wahrscheinlichkeitsfunktion auf S  ,  S die Wahrscheinlichkeitsfunktion auf S,
x i  S  , s i  S). Ist X eine Bijektion, so gilt:  X x i    S s i  für Xx i   s i
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
165
Beispiele:
1) Wir gehen beim Würfelbeispiel mit Farben davon aus, dass  S s i   16 für alle
1i6
Sei X  {gelb,1, rot, 2, blau, 3, grün, 4, violett, 5, schwarz, 6}
Dann ist  X Xs i   16 für alle 1  i  6. In Mengenschreibweise:
 S  gelb, 16 , rot, 16 , blau, 16 , grün, 16 , violett, 16 , schwarz, 16 
 X  1, 16 , 2, 16 , 3, 16 , 4, 16 , 5, 16 , 6, 16 
2) Würfel mit Augen  S s i   16 für alle 1  i  6
X {ein Auge, 1, zwei Augen, 2, drei Augen, 3, vier Augen, 4, fünf
Augen, 5, sechs Augen, 6}.
 S  ein Auge, 16 , zwei Augen, 16 , drei Augen, 16 , vier Augen, 16 , fünf
Augen, 16 , sechs Augen, 16 
 X  1, 16 , 2, 16 , 3, 16 , 4, 16 , 5, 16 , 6, 16 
3) Würfelspiel mit Auszahlen:
X  {ein Auge, 0, zwei Augen, 0, drei Augen, 0, vier Augen, 0, fünf
Augen, 1, sechs Augen, 5}
 S  ein Auge, 16 , zwei Augen, 16 , drei Augen, 16 , vier Augen, 16 , fünf
Augen, 16 , sechs Augen, 16 
 X  0, 46 , 1, 16 , 6, 16 
Das letzte Beispiel zeigt, dass die Wahrscheinlichkeitsfunktion auf den
Wertebereich der Zufallsvariable weniger Elemente enthalten kann als die
Wahrscheinlichkeitsfunktion auf den Stichprobenraum. Die Zufallsvariable braucht
ja nicht bijektiv zu sein.
Wie beim Stichprobenraum S, gilt auch für das Bildmass von S  : P X x i    X x i .
Bei  X   0,
4
6
,  5,
1
6
,  6,
1
6
 gilt z.B. mit E  0, 5: P X E 
5
6
Statt P X E mit E  0, 5 schreiben wir künftig: PX  0 oder X  5, gelesen als:
”die Wahrscheinlichkeit dafür, dass der Wert der Zufallsvariable 0 oder 5 ist”.
Für P X E mit E  5 schreiben wir: PX  5, gelesen als ”die Wahrscheinlichkeit,
dass der Wert der Zufallsvariable 5 ist”.
Für P X E mit E  x : x  3} schreiben wir: PX  3, gelesen als ”die
Wahrscheinlichkeit, dass der Wert der Zufallsvariable grösser gleich 3 ist”. etc.
3.1.2. Definition Verteilungsfunktion: Fx ist eine Verteilungsfunktion der
Zufallsvariable X genau dann, wenn Fx  PX  x
Verteilungsfunktionen entsprechen den empirischen Verteilungsfunktionen und
können mit denselben graphischen Mitteln dargestellt werden. Man beachte:
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
166
Verteilungsfunktionen sind etwas anderes als Verteilungen.
Beispiele: (1) Bei  Z  1, 16 , 2, 16 , 3, 16 , 4, 16 , 5,
F  {1, 16 , 2, 26 , 3, 36 , 4, 46 , 5, 56 , 6, 66 }
(2) Würfelspiel mit Augenzahlen: Bei  Z  0,
F  {0, 46 , 5, 56 , 6, 1}
(3) Bei  X {4,
1
2
, 2,
1
2
} ist F  {2,
1
2
4
6
, 5,
1
6
1
6
, 6,
, 6,
1
6
1
6
 ist
 ist:
, 4, 1}
Die Verteilungsfunktion wurde mit Hilfe des Wahrscheinlichkeitsmasses definiert.
Umgekehrt kann mit Hilfe der Verteilungsfunktion das Wahrscheinlichkeitsmass
und damit auch die Wahrscheinlichkeitsfunktion berechnet werden. Sei y der zu x
nächstkleinere Wert der Zufallsvariable. Es gilt:
PX  x  PX  x  PX  x  Fx  Fy. Wir betrachten das Beispiel 1:
PX  3  PX  3  PX  3  F3  F2  36  26  16 .
Allgemein gilt für x  y: Px  X  y  PX  y  PX  x  Fy  Fx. Wir
betrachten wiederum das Beispiel 1:
So ist z.B. P2  X  5  PX  5  PX  2  F5  F2  56  26  36
Diesen Umstand werden wir uns zunutze machen, sobald wir für stetige
Wahrscheinlichkeitsräume das Wahrscheinlichkeitsmass nicht mehr mit Hilfe von
Wahrscheinlichkeitsfunktionen auf Elementarereignisse definieren können.
Übersicht über einige der eingeführten Funktionen:
Stichprobenraum S mit
den Elementarereignisse
si (si ∈ S)
X
Potenzmenge
von S mit den
Ereignissen E
(E ∈ P(S))
ϖS
[0, 1]
PS
PX
Potenzmenge
von SX
ϖX
Wertebereich von X
(⊂ Ñ) mit den
Elementen xi
Die Zufallsvariablen erlauben nun, den Begriff des Erwartungswertes ( eine Art
Mittelwert) und der Varianz für Wahrscheinlichkeitsverteilungen zu definieren.
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
167
3.2. Erwartungswert diskreter Wahrscheinlichkeitsverteilungen
Der Erwartungswert einer Wahrscheinlichkeitsverteilung wird nach dem Vorbild des
Mittelwertes einer empirischen Verteilung konstruiert. Der Erwartungswert
entspricht bei Glücksspielen dem zu erwartenden durchschnittlichen Gewinn
(Verlust) bei häufigem Spielen des gleichen Spiels. Wir können ein Würfelspiel
durch eine Wahrscheinlichkeitsfunktion  X charakterisieren (die Gewinne an erster
Stelle und die Wahrscheinlichkeiten an zweiter Stelle):
 X   10, 16 ,  2, 16 ,  0, 23 . Es stellt sich die Frage, welchen
durchschnittlichen Gewinn wir zu erwarten haben, wenn wir das Spiel ein paar
Tausend Mal spielen. Der Erwartungswert ist der Wert, von dem der durschnittliche
Gewinn mit angebbarer Wahrscheinlichkeit immer weniger abweicht je mehr Spiele
wir machen.
Da wir den Erwartungswert nach dem Vorbild des Mittelwertes konstruieren und
Wahrscheinlichkeiten ”idealisierte” relative Häufigketen sind, wiederholen wir die
Formel für die Berechnung des arithmetischen Mittels mit Hilfe relativer
Häufigkeiten:
Für klassierte Daten gilt: x 
k

i1
Hx i 
n
 xi
k
1
n
k
k
i1
i1
Hx i   x i  wobei n   Hx i . Damit gilt dann:
 hx i   x i  wobei hx i  die relative Häufigkeit des Auftretens von
i1
x i ist.
Beispiel: Gegeben sei die folgende absolute Häufigkeitsverteilung: {1, 5, 2, 10,
3, 8} mit 1 für ”1 m”, 2 für ”2 m” und 3 für ”3 m” und an zweiter Stelle den
Häufigkeiten des Auftretens der entsprechenden Ausprägung.
Der Mittelwert wird berechnet durch: 5110238
 2. 130 4. Ebenso gut können wir
5108
, 3, 238 }.
jedoch die relative Häufigkeitsverteilung verwenden {1, 235 , 2, 10
23
5
8
Der Mittelwert: 23
 1  10
 2  23
 3  2. 130 4.
23
Da Wahrscheinlichkeiten ”idealisierte” relative Häufigkeiten sind, ist es
naheliegend, den Erwartungswert wie folgt zu definieren (mit PX  x i  
Wahrscheinlichkeit, dass die Zufallsvariable X den Wert x i annimmt).

3.2.1 Definition Erwartungswert   PX  x i   x i  (im endlichen Fall:
n
i1
  PX  x i   x i 
i1
Beispiel 1:
Eine Münze wird geworfen. Zufallsvariable: Bei Kopf wird 5 Fr. ausgezahlt, bei Zahl
0.
Ereignisraum S  K, Z
Wahrscheinlichkeitsfunktion auf S:  S   K, 12 ,  Z, 12 
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
168
(gleiche Wahrscheinlichkeit der Elementarereignisse)
Wahrscheinlichkeitsverteilung auf S:
P S   K, 12 ,  Z, 12 ,  K, Z, 1 ,  , 0 
Zufallsvariable X   K, 5 ,  Z, 0 
Wertebereich S X von X  5, 0
Wahrscheinlichkeitsfunktion auf S X :  X   5, 12 ,  0,
Wahrscheinlichkeitsverteilung auf
S X : P X   5, 12 ,  0, 12 ,  0, 5, 1 ,  , 0 
Erwartungswert  der Wahrscheinlichkeitsverteilung P X
2
 X   PX  x i   x i  5 
i1
1
2
0
1
2

5
2
1
2

 2. 5
PX  x i  für die Wahrscheinlichkeit, die P X den einelementigen Ereignissen x i 
zuordnet.
Im Beispiel entspricht der Erwartungswert dem zu erwartenden durchschnittlichen
Gewinn bei vielfachem Münzwurf.
Beispiel 2:
Eine Münze wird geworfen. Zufallsvariable: Bei Kopf wird 4 Fr. ausgezahlt, bei Zahl
2.
Ereignisraum S  K, Z
Wahrscheinlichkeitsfunktion  S   K, 12 ,  Z, 12 
(gleiche Wahrscheinlichkeit der Elementarereignisse)
Wahrscheinlichkeitsverteilung auf S:
P S   K, 12 ,  Z, 12 ,  K, Z, 1 ,  , 0 
Zufallsvariable X   K, 4 ,  Z, 2 
Wertebereich S X von X  4, 2
Wahrscheinlichkeitsfunktion auf S X :  X   4, 12 ,  2, 12 
Wahrscheinlichkeitsverteilung auf S X :
P X   4, 12 ,  2, 12 ,  2, 4, 1 ,  , 0 
2
 X   x i  PX  x i   4 
i1
1
2
2
1
2
3
Spielen wir das Spiel 1000 mal, so sollten wir durchnittlich 3 Franken pro Spiel
gewinnen, wenn die Voraussetzung der gleichen Wahrscheinlichkeit der
Elementarereignisse haltbar ist.
Beispiel 3:
R verdient sein Leben mit Glücksspielen auf der Strasse. Dazu verwendet er eine
Münze, von der er aufgrund der Erfahrung weiss, dass Kopf mit einer
Wahrscheinlichkeit von 0. 6 auftaucht. Er bietet Passanten folgendes Spiel an: Bei
Kopf wird 0 Fr. ausgezahlt, bei Zahl 5 Fr. Der Einsatz des spielwilligen Passanten
beträgt 2. 5. Wieviel gewinnt R durchschnittlich pro Spiel?
S  K, Z;
 S   K, 0. 6 ,  Z, 0. 4 
Wahrscheinlichkeitsverteilung auf S:
P S   K, 0. 6 ,  Z, 0. 4 ,  K, Z, 1 ,  , 0 
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
169
X   K, 0 ,  Z, 5 ;
Wertebereich S X von X  0, 5;
 X   0, 0. 6 ,  5, 0. 4 
P X   0, 0. 6 ,  5, 0. 4 ,  0, 5, 1 ,  , 0 
2
 X   x i  PX  x i   0  0. 6  5  0. 4  2 Fr.
i1
Soviel muss R im Durchschnitt auszahlen. Somit gewinnt R pro Spiel
durchschnittlich 0. 5Fr  Einsatz - Auszahlung) In 100 Spielen ergibt dies 50Fr.
(Für den Passanten ist das Spiel kein ”faires Spiel”, da der Einsatz und der
Erwartungswert nicht identisch sind. Es ist zudem zu vermuten, dass der
spielwillige Passant davon ausgeht, dass  X {0, 0.5, 5, 0.5} und damit 
 2. 5. Damit würden die Passanten von R getäuscht. (Andererseits kann kein
vernünftiger Passant glauben, dass R gratis arbeitet?!?).
Beispiel 4
Zwei Münzen werden geworfen. Bei zweimal Kopf wird 5 Fr. ausbezahlt, sonst 1
Fr. Welches ist ein Einsatz, der das Spiel zu einem fairen Spiel macht?
S   K, K ,  K, Z ,  Z, K ,  Z, Z 
 S   K, K , 0. 25 ,  K, Z , 0. 25 ,  Z, K , 0. 25 ,  Z, Z , 0. 25 
(gleiche Wahrscheinlichkeit der Elementarereignisse)
Die Angabe von P in Mengenschreibweise wird mühsam. Beispielshalber liefern wir
sie:
P
{ , 0,
  K, K , 0. 25 ,   K, Z , 0. 25 ,   Z, K , 0. 25 ,  Z, Z, 0. 25 
 K, K, K, Z , 0. 5,  K, K, Z, K, , 0. 5,  K, K, Z, Z, , 0. 5,
 Z, K, K, Z, , 0. 5,  Z, K, K, Z, , 0. 5,  Z, K, Z, Z, , 0. 5,
 K, Z, Z, Z, , 0. 5,
 K, K, K, Z, Z, K , 0. 75,  K, K, K, Z, Z, Z , 0. 75,
 K, K, Z, K, Z, Z , 0. 75,  K, Z, Z, K, Z, Z , 0. 75,
 K, K, Z, K, K, Z, Z, Z , 1}
X   K, K , 5 ,  K, Z , 1 ,  Z, K , 1 ,  Z, Z , 1 
Wertebreich von X  5, 1
 X   5, 0. 25 ,  1, 0. 75
P X   , 0 ,  1, 0. 75 ,  5, 0. 25 ,  1, 5, 1 
 X  5  0. 25  1  0. 75  2Fr.
Ein Einsatz von 2 Fr. würde das Spiel zu einem ”fairen” machen.
Beispiel 5:
Zwei Würfel werden geworfen. Zufallsvariable: Den Elementarereignissen wird
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
170
durch die Zuvallsvariable X die Summe der Augenzahlen zugeordnet.
S  {1, 1, 1, 2, 1, 3, 1, 4, 1, 5, 1, 6, 2, 1, 2, 2, 2, 3, 2, 4,
2, 5, 2, 6, 3, 1, 3, 2, 3, 3, 3, 4, 3, 5, 3, 6, 4, 1, 4, 2, 4, 3,
4, 4, 4, 5, 4, 6, 5, 1, 5, 2, 5, 3, 5, 4, 5, 5, 5, 6, 6, 1, 6, 2,
6, 3, 6, 4, 6, 5, 6, 6}
Wir verzichten auf die Angabe von  S und P S (wird unübersichtlich), setzen aber
gleiche Wahrscheinlichkeit der Elementarereignisse voraus.
X  {1, 1, 2, 1, 2, 3, 1, 3, 4, 1, 4, 5, 1, 5, 6, 1, 6, 7,
2, 1, 3. 2, 2, 4, 2, 3, 5, 2, 4, 6, 2, 5, 7, 2, 6, 8, 3, 1,
4, 3, 2, 5, 3, 3, 6, 3, 4, 7, 3, 5, 8, 3, 6, 9, 4, 1, 5, 4,
2, 6, 4, 3, 7, 4, 4, 8, 4, 5, 9, 4, 6, 10, 5, 1, 6, 5, 2, 7,
5, 3, 8, 5, 4, 9, 5, 5, 10, 5, 6, 11, 6, 1, 7, 6, 2, 8, 6,
3, 9, 6, 4, 10, 6, 5, 11, 6, 6,12}
Wertebereich von X ist somit: {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
 X  {2,
3
, 11,
36
3
1
2
, 3, 36
, 4, 36
36
2
1
, 12, 36
}
36
, 5,
4
36
, 6,
5
36
, 7,
6
36
, 8,
5
36
, 9,
4
36
, 10,
Wir verzichten auf die Angabe von P S (wird unübersichtlich)
11
   x i  PX  x i  
2
8
i1
1

36
5

36
3
9
2
36
4
36
3
4
 4  36
 5  36
 6  365  7  366 
3
2
 10  36  11  36  12  361  7
Beispiel 6:
Zwei Würfel werden geworfen. Den Elementarereignissen wird durch die
Zufallsvariable X das Produkt der Augenzahlen zugeordnet.
S  {1, 1, 1, 2, 1, 3, 1, 4, 1, 5, 1, 6, 2, 1, 2, 2, 2, 3, 2, 4,
2, 5, 2, 6, 3, 1, 3, 2, 3, 3, 3, 4, 3, 5, 3, 6, 4, 1, 4, 2, 4, 3,
4, 4, 4, 5, 4, 6, 5, 1, 5, 2, 5, 3, 5, 4, 5, 5, 5, 6, 6, 1, 6, 2,
6, 3, 6, 4, 6, 5, 6, 6}
Wir verzichten auf die Angabe von  S und P S (wird unübersichtlich), setzen aber
gleiche Wahrscheinlichkeit der Elementarereignisse voraus.
X  {1, 1, 1, 1, 2, 2, 1, 3, 3, 1, 4, 4, 1, 5, 5, 1, 6, 6,
2, 1, 2. 2, 2, 4, 2, 3, 6, 2, 4, 8, 2, 5, 10, 2, 6, 12, 3,
1, 3, 3, 2, 6, 3, 3, 9, 3, 4, 12, 3, 5, 15, 3, 6, 18, 4, 1,
4, 4, 2, 8, 4, 3, 12, 4, 4, 16, 4, 5, 20, 4, 6, 24, 5, 1, 5,
5, 2, 10, 5, 3, 15, 5, 4, 20, 5, 5, 25, 5, 6, 30, 6, 1, 6,
6, 2, 12, 6, 3, 18, 6, 4, 24, 6, 5, 30, 6, 6,36}
Der Wertebereich von X ist somit: {1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15, 16, 18, 20, 24,
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
171
25, 30, 36}
1
2
2
 X  {1, 36
, 2, 36
, 3, 36
, 4, 363 , 5, 362 , 6, 364 , 8, 362 , 9, 361 , 10,
2
4
2
1
, 12, 36
, 15, 36
, 16, 36
, 18, 362 , 20, 362 , 24, 362 , 25, 361 , 30,
36
2
1
, 36, 36
} (Kontrolle: Die Summe der Elemente des Wertebereichs von
36
 X  1. (gleiche Wahrscheinlichkeit der Elementarereignisse)
18
   x i  PX  x i   1 
i1
6
20 
4
36
2
36
8
2
36
 24 
9
2
36
1
36
 25 
1
36
 10 
1
36
2
2
36
 30 
2
36
3
 12 
2
36
4
36
 36 
2
36
4
 15 
1
36

3
36
5
2
36
2
36
 16 
1
36
49
4
 12. 25.

 18 
2
36

___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
172
Beispiel 7
Um Geld für die Glückskette zu sammeln ruft ein Verein seine Mitglieder auf, Wein
zur GV zu bringen. Es soll ein Glücksspiel veranstaltet werden, um den Wein in
Geld umzusetzen. Dazu wurde ein Glücksrad ausgeliehen, das mit einer
Wahrscheinlichkeit von 0.1 auf der Zahl 1, mit einer Wahrscheinlichkeit von 0.2 auf
der Zahl 2, mit einer Wahrscheinlichkeit von 0.3 auf der Zahl 3 und mit einer
Wahrscheinlichkeit von 0.4 auf der Zahl 4 stehen bleibt (die Flächen des Kreises
sind entsprechend gross gewählt). Für einen Einsatz von 20 Fr. kann man folgende
Gewinne machen: bleibt der Zeiger auf 1 stehen, werden 3 Flaschen abgegeben,
bleibt der Zeiger auf 2 stehen, wird eine Flasche abgegeben. In den übrigen Fällen
wird nichts abgegeben. Man berechne den Erwartungswert.
S  {1, 2, 3, 4}
 S  {1, 0.1, 2, 0.2, 3, 0.3,. 4, 0.4}
X  {1, 3, 2, 1, 3, 0, 4, 0}
Wertebereich von X  {3, 1, 0}
 X  {3, 0.1, 1, 0.2, 0, 0.7}
 X  3  0. 1  1  0. 2  0  0. 7  0. 5 Flaschen.
Durchschnittlich gewinnt man somit 0.5 Flaschen pro Spiel. Damit würde eine
Flasche durchschnittlich 40 Fr. kosten.
3.3. Gesetz der grossen Zahlen
Es wurde mehrmals der Zusammenhang zwischen Erwartungswert und z.B. den
durchschnittlichen Gewinnen hergestellt. Dies weist auf eine ”Verwandschaft”
zwischen Erwartungswert und empirischem Durchschnittswerten hin, der sich
einerseits auf Grund der Definitionen ergibt. Anderseits kann festgehalten werden,
dass die empirischen Durchschnittswerte sich dem Erwartungswert nähern, wenn
die Anzahl der durchgeführten Zufallsexperimente zunimmt und das
Wahrscheinlichkeitsmodell (d.h. das zugrundegelegte Wahrscheinlichkeitsmass)
gut gewählt wurde. Diese Behauptung - eine Variante des ”Gesetzes der grossen
Zahlen” - wollen wir nun präzisieren und mit Beispielen beleuchten.
Würfelbeispiel: Wir nennen einen einzelnen Wurf des Würfels ”ein
Wurfexperiment”. Wir betrachten die Zufallsvariable X, die den n Würfen das
arithmetische Mittel x der Augenzahlen zuordnet. Eine etwas ungenaue
Formulierung des Gesetzes der Grossen Zahlen würde in unserem Fall besagen:
bei gleicher Wahrscheinlichkeit der Elementarereignisse nähert sich x mit
steigender Anzahl der Wurfexperimente dem Erwartungswert . (Eine genauere
Formulierung wird gleich folgen).
Dies hängt (1) mit folgendem Umstand zusammen: je weniger Wurfexperimente
stattfanden, desto mehr beeinflusst das Ergebnis eines Wurfes den Mittelwert und
je mehr Wurfexperimente stattfanden, desto weniger beeinflusst das Ergebnis
eines Wurfes den Mittelwert.
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
173
z.B. x 5 
1
5
5
 x i  3.
i1
Wir werfen den Würfel und würden 6 erhalten: Dies ergibt den neuen Mittelwert:
x 6 
536
51
x 100 
1
100

7
2
 3. 5.
100
 x i  3.
i1
Wir werfen den Würfel und würden 6 erhalten: Dies ergibt den neuen Mittelwert:
x 101 
10036
101

306
101
 3. 029 7.
(2) Wurden z.B. bereits Tausende von Wurfexperimenten durchgeführt, würde der
Mittelwert nur durch eine sehr lange Serie von ”extremen” Ergebnisse (z.B. 65 mal
”6”, 25 mal ”5”, 5 mal ”4”, und einmal ”1” auf 100 Würfe) beeinflusst werden. Solche
Serien sind sehr unwahrscheinlich.
Zu beachten ist allerdings: Obwohl solche Serien sehr unwahrscheinlich sind,
bleiben sie trotzdem möglich. Deshalb besagt das Gesetz der grossen Zahl nicht,
n
dass  der Grenzwert von x   x i h i (für n gegen Unendlich ist, sondern dass die
i1
Wahrscheinlichkeit, dass x ausserhalb eines beliebig kleinen Intervalls I um  liegt,
mit steigendem n sinkt. Je kleiner I ist, desto grösser muss n sein, damit die
Wahrscheinlichkeit klein ist, dass x ausserhalb von I liegt. Somit besagt das Gesetz
der grossen Zahlen: für ein beliebiges k (2k  I):
3.3..1. Theorem: Gesetz der grossen Zahlen für  und x n :
lim
P|  x n |  k  0.
n
(Wenn n gegen unendlich geht, nähert sich die Wahrscheinlichkeit, dass
der Abstand von  und x n grösser als k  0 ist, der Zahl 0; x n  Mittelwert
von n Werten).
Die entsprechenden Wahrscheinlichkeiten können für spezifische n und k
berechnet werden. z.B.
(I) n  2: Wie gross ist die Wahrscheinlichkeit, dass bei zwei Wurfexperimenten
des obigen Typs |x  |  1. 5. (mit anderen Worten: dass x  2 oder x  5
(  3. 5; 3. 5  1. 5  2; 3. 5  1. 5  5). Die Elementarereignisse sind geordnete
Paare: S  {x, y: x, y  {1, 2, 3, 4, 5, 6}}. Es gibt 6 2 Elementarereignisse (Ziehen
mit Zurücklegen mit Ordnung). Jedem Elementarereignis ist ein Mittelwert
(Mittelwert der Augenzahlen) zugeordnet. Diese Zuordnung stellt eine
2
Zufallsvariable dar: X  {x 1 , x 2 , x : x 1 , x 2   S und x  x 1 x
}.
2
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
174
Wir suchen nun die x 1 , x 2  für die gilt: x  2 oder x  5 :
x von 1, 1  11
 1  X(1,1) (1 Fall)  PX  1 
2
x von 2, 1, 2, 1  1.5 (2 Fälle)  PX  1. 5  2  612
x von 2, 2  2 (Ausserhalb des untersuchten Intervalls).
x von 6, 6  6 (1 Fall)  PX  6  612
x von 6, 5, 5, 6  5.5 (2 Fälle)  PX  5. 5  2  612
x von 5, 5  5 (Ausserhalb des untersuchten Intervalls).
P(|x  |  1. 5  2  3  612   16  0. 166 67
Die Wahrscheinlichkeit, dass x  2, 5 beträgt somit 56 .
1
62
(II) n  3: Wir gross ist die Wahrscheinlichkeit, dass bei 3 Wurfexperimenten des
obigen Typs |x  |  1. 5.
Die Elementarereignisse sind 3-Tupel: S  {x, y, z: x, y, z  {1, 2, 3, 4, 5, 6}}
Es gibt 6 3 Elementarereignisse (Ziehen mit Zurücklegen mit Ordnung). Jedem
dieser Elementarereignisse ist ein Mittelwert (Mittelwert der Augenzahlen)
zugeordnet. X  {x 1 , x 2 , x 3 , x : x 1 , x 2 , x 3   S und X  x 1 x32 x 3 }.
x von 1, 1, 1  1.  PX  1  613
x von 1, 1, 2, 1, 2, 1 und 2, 1, 1  1.3 .  PX  1. 3   3  613
x von 1, 2, 2, 2, 1, 2 und 2, 2, 1  1.6 .  PX  1. 6   3  613
x von  2, 2, 2  2 (liegt nicht im zu untersuchenden Intervall).
x von 1, 1, 3, 1, 3, 1, 3, 1, 1  1.6 .  PX  1. 6   3  613
x von 1, 1, 4  2 (liegt nicht im zu untersuchenden Intervall.
x von 1, 2, 3  2 (liegt nicht im zu untersuchenden Intervall) (es gibt keine
weiteren zu untersuchenden Tripel für x  2.
x von 6, 6, 6  6.  PX  6  613
x von 6, 6, 5, 6, 5, 6 und 5, 6, 6  5.6 .  PX  5. 6   3  613 .
x von 6, 5, 5, 5, 6, 5 und 5, 5, 6  5.3 .  PX  5. 3   3  613  0. 01 388 9.
x von 5, 5, 5  5 (liegt nicht im zu untersuchenden Intervall).
x von 6, 6, 4, 6, 4, 6, 4, 6, 6  5.3 .  PX  5. 3   3  613  0. 01 388 9.
(es gibt keine weiteren zu untersuchenden Tripel für x  5).
Somit gilt: Die Wahrscheinlichkeit, dass |x  |  1. 5  2  10  613  0. 09 259 3
Die Wahrscheinlichkeit dass x  2, 5 beträgt somit 1  0. 09 259 3  0. 907 41.
(III) n  4: Wie hoch ist die Wahrscheinlichkeit, dass bei 4 Wurfexperimenten des
obigen Typs |x  |  1. 5. S  {x 1 , x 2 , x 3 , x 4 :x 1 , x 2 , x 3 , x 4  1, 2, 3, 4, 5, 6}. Es gibt
6 4 Elementarereignisse.
X  {x 1 , x 2 , x 3 , x 4 , x : x 1 , x 2 , x 3 , x 4   S und X 
x 1 x 2 x 3 x 4
4
}.
x von 1, 1, 1, 1: 1 (1 Fall)
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
175
x
x
x
x
x
x
x
x
x
x
von 1, 1, 1, 2: 1.25 (4 Fälle   41 
von 1, 1, 2, 2: 1.5 (6 Fälle   42 
von 1, 2, 2, 2: 1.75 ( 41   4 Fälle)
von 2, 2, 2, 2: 2 (ausserhalb des betrachteten Bereichs).
von 1, 1, 1, 3: 1.25 (4 Fälle)
von 1, 1, 2, 3: 1.75 ( 4!2  12 Fälle).
von 1, 1, 3, 3: 2 (ausserhalb des betrachteten Bereichs).
von 1, 2, 2, 3: 2 (ausserhalb des betrachteten Bereichs).
von 1, 1, 1, 4: 1.75 (4 Fälle).
von 1, 1, 2, 4: 2 (ausserhalb des betrachteten Bereichs).
Damit wurden alle zu betrachtenden Fälle bezüglich x  2 berücksichtigt. Für x  5
gibt es gleich viele Fälle. Somit gilt: P|x  |  1. 5  2  35  614  0. 05 401 2
Wir sehen, (1) dass - in Bestätigung des Gesetzes der grossen Zahlen - die
Wahrscheinlichkeit dafür, dass x ausserhalb von [2, 5] liegt, von 0. 166 67 auf 0. 09
259 3 und 0. 05 401 2 gesunken ist.
(2) dass die Rechnerei schnell kompliziert wird.
Die Graphik zeigt die Entwicklung von P( |x  |  1. 5 als Funktion von n (für n  1
wird x als die Augenzahl der Ergebnisses betrachtet. Somit ergeben sich zwei
Elementarereignisse auf 6, was eine Wahrscheinlichkeit von 26  13 für P(
|x  |  1. 5 ergibt).
Aufgabe: Wir haben damit ein konkretes Beispiel für das Gesetz der grossen
Zahlen betrachtet. Ein weiteres Beispiel: Würfeln Sie 10 mal, 100 mal und 1000
mal und berechnen Sie die relativen Häufigkeiten des Eintretens der Augenzahlen
1, 2, 3, 4, 5, und 6. Beobachten Sie, wie sich die relativen Häufigkeiten den
Wahrscheinlichkeiten 16 nähern (am besten simuliert man dabei das Würfelspiel
mit Hilfe von in Excel erzeugten Zufallszahlen, siehe ”Gesetz der grossen Zahlen
Würfelbeispiel.xls”; im Beispiel erhalten wir als Summe des Betrages der
Abweichungen der relativen Häufigkeiten von den vorausgesetzten
Wahrscheinlichkeiten für n  10 : 0. 466666667, n  100 : 0. 326666667;
n  1000 : 0. 109333333). Beachten Sie: die Tendenz muss sich im konkreten Fall
nicht einstellen, da die konkrete Abweichung vom Zufall abhängt. Die
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
176
entsprechenden Wahrscheinlichkeiten, dass sich die Abweichungen ausserhalb
eines bestimmten Intervalls befinden, könnten auch hier berechnet werden.
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
177
3.4. Varianz und Standardabweichung
Für Wahrscheinlichkeitsverteilungen kann die Varianz und die
Standardabweichung berechnet werden. Auch hier wird die Begriffsbildung durch
das Vorbild der relativen Häufigkeiten geleitet. Um die empirische Varianz und
Standardabweichung von der Varianz und Standardabweichung einer
Wahrscheinlichkeitsverteilung zu unterscheiden, verwenden wir künftig folgende
Kennzeichnen:
 2 für die empirische Varianz und  für die empirische Standardabweichung.
 2 für die Varianz einer Wahrscheinlichkeitsverteilung und  für die
Standardabweichung der Wahrscheinlichkeitsverteilung.
Es ist jeweils sehr wichtig, zwischen der Welt der Wahrscheinlichkeiten und der
empirischen Welt der Daten zu unterscheiden (z.B. Wahrscheinlichkeit versus
relative Häufigkeit; Erwartungswert versus Mittelwert; Varianz einer
Wahrscheinlichkeitsverteilung versus empirische Varianz, etc.).
Für  2 gilt laut einer Definition, die wir in Kürze durch eine leicht modifizierte
1
n
ersetzen werden:  2 
 2 
1
n
k
n
x i  x  2 und bei klassierten Daten:
i1
 H i x i x i  x  2
i1
wobei H i x i  die absolute Häufigkeit der Ausprägung x i ist.
Dabei gilt nun:  2 
1
n
k
k
i1
i1
 H i x i x i  x  2  
H i x i 
n
k
x i  x  2   h i x i x i  x  2 ,
wobei h i x i  die relative Häufigkeit der Ausprägung x i ist.
i1
Ersetzen wir den Mittelwert durch den Erwartungswert, x i durch die Werte der
Zufallsvariablen und die relativen Häufigkeiten durch Wahrscheinlichkeiten, so
erhalten wir:
3.4.1. Definition Varianz einer Wahrscheinlichkeitsverteilung:

 2   PX  x i x i   2
i1
n
( 2   PX  x i x i   2 im endlichen Fall)
i1
Die Varianz und die Standardabweichung einer Wahrscheinlichkeitsverteilung
können als ”Risiko” interpretiert werden, ausserhalb eines bestimmten Bereichs zu
liegen. Bei kleiner Standardabweichung ist die Wahrscheinlichkeit grösser, näher
beim Erwartungswert zu liegen als bei grosser Standardabweichung. Entsprechend
ist z.B. ein Glücksspiel mit grösserer Standardabweichung riskanter als ein solches
mit kleinerer Standardabweichung.
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
178
Für die empirische Varianz werden wir in der Folge - aus Gründen der
schliessenden Statistik, die wir später erläutern werden - die folgende Definition
verwenden:  2 
1
n1
n
x i  x  2 .
i1
Beispiel 8 (s. Beispiel 1):
Eine Münze wird geworfen. Zufallsvariable: Bei Kopf wird 5 Fr. ausgezahlt, bei Zahl
0.
Ereignisraum S  {K, Z}
Zufallsvariable X  {K, 5, Z, 0}
Wertebereich von X  {5, 0}
 X {5, 12 , 0, 12 }
Varianz  2 der Wahrscheinlichkeitsverteilung P X
2
 2X   PX  x i   x i  2. 5 2 
i1
Standardabweichung:  X 
1
2
5  2. 5 2 
1
2
0  2. 5 2  6. 25
6. 25  2. 5
Beispiel 9 (s. Beispiel 2):
Eine Münze wird geworfen. Zufallsvariable: Bei Kopf wird 4 Fr. ausgezahlt, bei Zahl
2.
Ereignisraumraum S  {K, Z}
Zufallsvariable X  {K, 4, Z, 2}
Wertebereich von X  {4, 2}
 X {4, 12 , 2, 12 } mit  X  3
 2X  12 4  3 2  12 2  3 2  1
Beispiel 10: (s. Beispiel 3):
R verdient sein Leben mit Glücksspielen auf der Strasse. Dazu verwendet er eine
Münze, von der er aufgrund der Erfahrung weiss, dass Kopf mit einer
Wahrscheinlichkeit von 0. 6 auftaucht. Er bietet Passanten folgendes Spiel an: Bei
Kopf wird 0 Fr. ausgezahlt, bei Zahl 5 Fr. Der Einsatz des spielwilligen Passanten
beträgt 2. 5. Wieviel gewinnt R durchschnittlich pro Spiel?
S  {K, Z};
X  {K, 0, Z, 5};
Wertebereich von X  {0, 5};
 X {0, 0.6, 5, 0.4} mit  X  2
 2X  0. 60  2 2  0. 45  2 2  6
 X  6  2. 449 5
Beispiel 11 (s. Beispiel 4):
Zwei Münzen werden geworfen. Bei zweimal Kopf wird 5 Fr. ausbezahlt, sonst 1
Fr. Welches ist ein Einsatz, der das Spiel zu einem fairen Spiel macht?
S  {K, K, K, Z, Z, K, Z, Z}
X  {K, K, 5, K, Z, 1, Z, K, 1, Z, Z, 1}
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
179
Wertebereich von X  {5, 1}
 X  {5, 0.25, 1, 0.75} mit  X  2
 2X  0. 255  2 2  0. 751  2 2  3
 X  3  1. 732 1
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
180
Beispiel 12: (s. Beispiel 5):
Zwei Würfel werden geworfen. Zufallsvariable: Den Elementarereignissen wird die
Summe der Augenzahlen zugeordnet.
S  {1, 1, 1, 2, 1, 3, 1, 4, 1, 5, 1, 6, 2, 1, 2, 2, 2, 3, 2, 4,
2, 5, 2, 6, 3, 1, 3, 2, 3, 3, 3, 4, 3, 5, 3, 6, 4, 1, 4, 2, 4, 3,
4, 4, 4, 5, 4, 6, 5, 1, 5, 2, 5, 3, 5, 4, 5, 5, 5, 6, 6, 1, 6, 2,
6, 3, 6, 4, 6, 5, 6, 6}
X  {1, 1, 2, 1, 2, 3, 1, 3, 4, 1, 4, 5, 1, 5, 6, 1, 6, 7,
2, 1, 3. 2, 2, 4, 2, 3, 5, 2, 4, 6, 2, 5, 7, 2, 6, 8, 3, 1,
4, 3, 2, 5, 3, 3, 6, 3, 4, 7, 3, 5, 8, 3, 6, 9, 4, 1, 5, 4,
2, 6, 4, 3, 7, 4, 4, 8, 4, 5, 9, 4, 6, 10, 5, 1, 6, 5, 2, 7,
5, 3, 8, 5, 4, 9, 5, 5, 10, 5, 6, 11, 6, 1, 7, 6, 2, 8, 6,
3, 9, 6, 4, 10, 6, 5, 11, 6, 6,12}
Wertebereich von X ist somit: {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
3
1
2
 X  {2, 36
, 3, 36
, 4, 36
, 5, 364 , 6, 365 , 7, 366 , 8, 365 , 9,
3
2
1
, 11, 36
, 12, 36
}
36
3
1
2
2
2
 X  36 2  7  36 3  7 2  36
4  7 2  364 5  7 2  365 6  7 2 
6
5
4
7  7 2  36
8  7 2  36
9  7 2  363 10  7 2  362 11  7 2 
36
1
12  7 2  35
 5. 833 3
36
6
35
 2. 415 2
X 
6
4
36
, 10,
Beispiel 13: (s. Beispiel 6):
Zwei Würfel werden geworfen. Zufallsvariable: Den Elementarereignissen wird das
Produkt der Augenzahlen zugeordnet.
S  {1, 1, 1, 2, 1, 3, 1, 4, 1, 5, 1, 6, 2, 1, 2, 2, 2, 3, 2, 4,
2, 5, 2, 6, 3, 1, 3, 2, 3, 3, 3, 4, 3, 5, 3, 6, 4, 1, 4, 2, 4, 3,
4, 4, 4, 5, 4, 6, 5, 1, 5, 2, 5, 3, 5, 4, 5, 5, 5, 6, 6, 1, 6, 2,
6, 3, 6, 4, 6, 5, 6, 6}
X  {1, 1, 1, 1, 2, 2, 1, 3, 3, 1, 4, 4, 1, 5, 5, 1, 6, 6,
2, 1, 2. 2, 2, 4, 2, 3, 6, 2, 4, 8, 2, 5, 10, 2, 6, 12, 3,
1, 3, 3, 2, 6, 3, 3, 9, 3, 4, 12, 3, 5, 15, 3, 6, 18, 4, 1,
4, 4, 2, 8, 4, 3, 12, 4, 4, 16, 4, 5, 20, 4, 6, 24, 5, 1, 5,
5, 2, 10, 5, 3, 15, 5, 4, 20, 5, 5, 25, 5, 6, 30, 6, 1, 6,
6, 2, 12, 6, 3, 18, 6, 4, 24, 6, 5, 30, 6, 6,36}
Der Wertebereich von X ist somit: {1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15, 16, 18, 20, 24,
25, 30, 36}
 X  {1,
2
, 12,
36
2
, 36,
36
1
2
2
, 2, 36
, 3, 36
, 4, 363 , 5, 362 , 6, 364 , 8, 362
36
4
2
1
, 15, 36
, 16, 36
, 18, 362 , 20, 362 , 24, 362 ,
36
1
} mit   12. 25.
36
, 9, 361 , 10,
25, 361 , 30,
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
181
2 

1
2
1  12. 25 2  36
2  12. 25 2  362 3  12. 25 2  363 4  12. 25 2 
36
2
4
5  12. 25 2  36
6  12. 25 2  362 8  12. 25 2  361 9  12. 25 2 
36
2
4
10  12. 25 2  36
12  12. 25 2  362 15  12. 25 2  361 16  12. 25 2
36
2
2
18  12. 25 2  36
20  12. 25 2  362 24  12. 25 2  361 25  12. 25 2
36
2
1
30  12. 25 2  36
36  12. 25 2  79. 965
36


79. 965  8. 942 3
3.5. Übungen
1) Gegeben sei die folgende Wahrscheinlichkeitsfunktion:  S  rot, 0.7, grün,
0.2, gelb, 0.1 und die Zufallsvariable: X  rot, 8,grün, 8,gelb,2.
Bestimmen Sie die Funktionen  X und P X .
2) Berechnen Sie den Erwartungswert und die Varianz für die folgende
Wahrscheinlichkeitsfunktion auf den Wertebereich einer Zufallsvariable X:
 X  5, 0.2, 6, 0.1, 1, 0.15, 3, 0.55
3) Berechnen Sie die Varianz und die Standardabweichung für die
Wahrscheinlichkeitsverteilungen des Beispiels 7
4) Gegeben sei ein Glückspiel mit:  X  50, 0.01, 1, 0.1, 0, 0.89. d. h. 50
wird mit einer Wahrscheinlichkeit von 0.01, 1 mit einer Wahrscheinlichkeit von 0.1
und 0 mit einer Wahrscheinlichkeit von 0.89 ausbezahlt). Berechnen Sie den
durchschnittlich zu erwartenden Gewinn. Berechnen Sie die Standardabweichung.
5) Wir nehmen an, Sie könnten folgende Entscheidung treffen: Entscheiden Sie
sich für A, so erhalten Sie mit einer Wahrscheinlichkeit von 16 50 SFr. und mit einer
Wahrscheinlichkeit von 56 nichts. Entscheiden Sie sich für B, erhalten Sie mit einer
Wahrscheinlichkeit von 23 5 SFr. und mit einer Wahrscheinlichkeit von 16 1 Sfr. und
mit einer Wahrscheinlichkeit von 16 nichts.
a) Für welches Spiel würden Sie sich spontan entscheiden?
b) Wir legen fest: Es ist rational, sich für ein Spiel zu entscheiden, das den
grösseren Erwartungswert hat (Begründung: Wenn man das Spiele oft spielt, wird
man im Durchschnitt bei jenem mehr gewinnen, das den grösseren Erwartungswert
hat). Welche Wahl sollte getroffen werden?
c) Vergleichen Sie Ihre Wahl mit der ”rationalen” Wahl.
6) Bei Entscheidung für A erhalten sie 30’000 SFr. mit Sicherheit. Bei einer
Entscheidung für B erhalten Sie 1 Million SFr. mit einer Wahrscheinlichkeit von 15 ,
und 0 SFr. mit einer Wahrscheinlichkeit von 45 . Wofür würden Sie sich
entscheiden? Wofür sollte man sich entscheiden? Vergleichen Sie Ihre Wahl mit
der ”rationalen”.
7) Eine Unternehmung entscheidet sich bei der Anlage von Gewinnen zwischen
dem Kauf von Obligationen (Zins 3.5%, Wahrscheinlichkeit 1) und dem Aktienkauf,
wobei sie mit folgenden Bedingungen rechnet: mit einer Wahrscheinlichkeit von 15
30% Verlust, mit einer Wahrscheinlichkeit von 25 weder Verlust, noch Gewinn, mit
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
182
einer Wahrscheinlichkeit von 15 20% Gewinn und mit einer Wahrscheinlichkeit von
1
30% Gewinn. Wofür sollte sich die Unternehmung entscheiden, wenn sie die
5
obige Rationalitätsdefinition akzeptiert?
8) Gegeben sie die folgende Verteilungsfunktion:
F  {0.2, 0.01, 0.3, 0.05, 0.5, 0.1, 2, 0.5, 3, 0.7, 10, 0.9, 11, 0.99,
12, 1}
Berechnen Sie die entsprechende Wahrscheinlichkeitsfunktion. Berechnen Sie
PX  10,
P0. 2  X  3,
PX  0. 5
3.6. Lösungen
1)  X  8, 0.70.2, 2, 0.1
P8, 2  , 8, 2, 8, 2 ( Potenzmenge des Wertebereiches der
Zufallsvariable)
P  0; P8  0. 9, P2  0. 1, P8, 2  1 oder in
Mengenschreibweise:
P X  , 0, 8, 0.9, 2, 0.1, 8, 2, 1 ( Wahrscheinlichkeitsverteilung)
2)   0. 2  5  0. 1  6  0. 15  1  0. 55  3  3. 4
 2  0. 25  3. 4 2  0. 16  3. 4 2  0. 151  3. 4 2  0. 553  3. 4 2  2. 14
3)  X  {3, 0.1, 1, 0.2, 0, 0.7} mit   0. 5.
 2X  0. 13  0. 5 2  0. 21  0. 5 2  0. 70  0. 5 2  0. 85
 X  0. 85  0. 921 95
4)   0. 01  50  0. 1  1  0. 98  0  0. 6
 2X  0. 0150  0. 6 2  0. 11  0. 6 2  0. 890  0. 6 2  24. 74
 X  24. 74  4. 973 9
5) Die Entscheidung für A kann dargestellt werden mit:
 A   50, 16 ,  0, 56    A  16  50  0  56  253  8. 333 3
Die Entscheidung für B kann dargestellt werden mit:
 B   5, 23 ,  1, 16 ,  0, 16    B  23  5  1  16  0  16  3. 5
6) Die Entscheidung für A kann man darstellen mit Hilfe von:  A   30  000, 1 
 A  30  000  1  30  000
Die Entscheidung für B kann man darstellen mit Hilfe von:
 B  1  000  000, 15 , 0, 45 
 B  1000000  15  0  45  200  000.
Die ”rationale” Entscheidung wäre somit dîe für B. Vermutlich gibt es Personen, die
sich für A entscheiden. Personen, die sich für Spiele mit kleinerem Erwartungswert,
jedoch mit kleinerem oder gar keinem Risiko entscheiden, nennt man risikoavers (
risikofeindlich), Personen, die sich für Spiele mit kleinerem Erwartungswert, aber
mit hohen Gewinnen bei kleiner Wahrscheinlichkeit entscheiden, nennt man
risikofreundlich. So ist z.B. das Mitmachen beim Zahlenlotto risikofreundlich, beim
obigen Spiel ist die Wahl der 30’000 Sfr. risikoavers. Die meisten Menschen sind
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
183
bei kleinen Einsätzen risikofreundlich und bei grossen Einsätzen risikoavers. (Im
obigen Spiel kann man bei der Wahl von B den Verzicht auf die sicheren 30’000 als
Einsatz fürs Spiel B betrachten!)
7) Das Kapital sei K. Bei einem Zins von 3.5% erhalten wir 1. 035K. Da die
Sicherheit maximal ist ( 1), ergibt dies einen Erwartungswert von 1. 035K.
Für die Aktien ergibt sich: 0. 7  K  15   1  K  25   1. 2  K  15   1. 3  K  15  
1. 04K
Bei der Wahl der Variante mit dem grösseren Erwartungswert sollte man sich laut
obiger Definition von ”rational” für den Aktienkauf entscheiden.
8) F  {0.2, 0.01, 0.3, 0.05, 0.5, 0.1, 2, 0.5, 3, 0.7, 10, 0.9, 11,
0.99, 12, 1}
  0.2, 0.01, 0.3, 0.04, 0.5, 0.05, 2, 0.4, 3, 0.2, 10, 0.2, 11,
0.09, 12, 0.01
Kontrolle: 0. 01  0. 04  0. 05  0. 4  0. 2  0. 2  0. 09  0. 01  1
PX  10  F10  F3  0. 9  0. 7  0. 2
P0. 2  X  3  F3  F0. 2  0. 7  0. 01  0. 69
PX  0. 5  1  PX  0. 3  1  F0. 3  1  0. 05  0. 95
3.7. Lernziele
- ”Zufallsvariable” definieren können und zwei Gründe für deren Einführung
angeben können. Zufallsvariablen in Mengenschreibweise darstellen können.
- Auf Grund eines auf einen Ausgangsstichprobemraum gegebenen
Wahrscheinlichkeitsmasses die Wahrscheinlichkeitsfunktion des Wertebereichs der
Zufallsvariable und Wahrscheinlichkeiten beliebiger Ereignisse des Wertebereichs
der Zufallsvariable berechnen können.
- Erwartungswert einer Wahrscheinlichkeitsverteilung definieren und berechnen
können.
- Varianz und Standardabweichung einer Wahrscheinlichkeitsverteilung definieren
und berechnen können.
- Die Idee des Gesetzes der grossen Zahlen erläutern können.
- Die folgenden Symbole in die folgende Tabelle einordnen können (die sich
entsprechenden auf einer Zeile): x ,  2 , , PX  x i ,  ,  2 , , hx i  (für relative
Häufigkeit von x i ;
___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
184
Symbole für empirische Begriffe Symbole für Begriffe der Wahrscheinlichkeits-Theorie
x

 2
2
hx i 
PX  x i 


___________________________________________________________________
Zufallsvariablen.tex
1. HSW, Siders
P.R.
185
4. Diskrete Verteilungsfamilien
Manche Wahrscheinlichkeitsverteilungen sind von besonderer Bedeutung, so dass
sie eigene Namen erhalten haben. Wir betrachten einige dieser Verteilungen:
4.1. Familie der Bernoulli-Verteilungen
1.1. Definition: Die Zufallsvariable X ist bernoulliverteilt genau dann,
wenn der WX  0, 1 und P1  p und P0  1  p 0  p  1
(WX  Wertebereich von X)
Damit gilt für eine Bernoulli-Verteilung P:
 X {1, p, 0, 1  p}
P  , 0, 0, 1  p, 1, p, 0, 1, 1
P ist die Bernoulli-Verteilung der Zufallsvariable X. Je nach dem p erhalten wir eine
andere Bernoulli-Verteilung. Es gibt unendlich viele Bernoulli-Verteilungen, da p im
Intervall [0, 1] beliebig wählbar ist. Durch die obige Definition wird somit eine ganze
Familie von Bernoulli-Verteilungen festgelegt.
Beispiele:
a) Wurf einer Münze: S  {K, Z}; X  {K, 1, Z, 0};  X  {1, 0. 3, 0, 0. 7}
Die Bernoulli-Verteilung ist damit:
P  , 0, 0, 1  0. 3, 1, 0. 3, 0, 1, 1
b) Probe auf Wurmstichigkeit von Äpfeln: S  {W, NW}; X  {W, 1, NW, 0};
 X  {1, 0. 02, 0, 0. 98} (mit W für ”wurmstichig”, NW für ”nicht wurmstichig”)
Die Bernoulli-Verteilung ist damit:
P  , 0, 0, 0. 98, 1, 0. 02, 0, 1, 1
c) Probe einer Warenlieferung: S  {na, ka, a}; (mit na für ”nicht akzeptierbar”;
ka für ”knapp akzeptierbar”, a für ”gute Qualität”).
 X  na, 0. 05, ka, 0. 45, a, 0. 5
X  {na, 0, ka, 1, a, 1};
 X  {1, 0. 95, 0, 0. 05}
Die Bernoulli-Verteilung ist damit:
P  , 0, 0, 0. 05, 1, 0. 95, 0, 1, 1
Damit die betrachtete Verteilung tatsächlich eine Wahrscheinlichkeitsverteilung ist,
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 181
muss gelten:
1
 PX  k  1
k0
1
Beweis:  PX  k  1  p  p  1

k0
4.1.2. Theorem: Wenn X bernoulliverteilt ist, dann gilt:  X  p
1
Beweis:  X   k  PX  k  01  p  1p  p

k0
4.1.3. Theorem: Wenn X bernoulliverteilt ist, dann gilt:  2X  p1  p
1
Beweis:  2X   PX  kk   X  2 
k0
1  p0  p 2  p1  p 2  p1  p

Damit wäre z.B. fürs Beispiel c) die Varianz: 0. 05  0. 95  0. 047 5
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 182
4.2. Familie der Binomialverteilungen
Wir nehmen an, wir würden aus einer Urne mit roten und schwarzen Kugeln n
Kugeln ziehen, mit Zürücklegen und ohne Reihenfolge. Es stellt sich die Frage, wie
hoch die Wahrscheinlichkeit von x roten Kugeln ist, wenn der Anteil der roten
Kugeln an der Grundgesamtheit bekannt ist ( p) und die Wahrscheinlichkeit,
gezogen zu werden, für jede Kugel dieselbe ist. Wir legen den Stichprobenraum
wie folgt fest:
S   f i 1 , . . . . , f i n : f i  r genau dann, wenn die k-te Kugel rot ist und f i  s genau
dann, wenn die k-te Kugel schwarz ist, mit 1  k  n
X   f i 1 , . . . . , f i n , x : x ist die Anzahl der r von  f i 1 , . . . . , f i n 
Wir suchen die Werte von PX  x.
Wir betrachten eine spezifische Ziehung (für n  10): r, r, s, r, r, s, r, r, s, s.
Die Wahrscheinlichkeit, genau dieses Resultat zu erhalten, beträgt:
p  p  1  p  p  p  1  p  p  p  1  p  1  p  p 6  1  p 4 .
Da die Reihenfolge keine Rolle spielt, berechnen wir noch die Anzahl der
Möglichkeiten, sechs Einer und vier Nullen anzuordnen: es ist dies 106 . Alle
diese Möglichkeiten haben die selbe Wahrscheinlichkeit. Somit beträgt die
Wahrscheinlichkeit, bei 10-maligem Ziehen sechs Einer und vier Nullen zu
erhalten: 10
 p 6  1  p 4 .
6
Auf diese Art können wir nun die Wahrscheinlichkeiten für 5 rote und 5 schwarze, 4
rote und 6 schwarze Kugeln usw. bestimmen, um die entsprechendem Werte der
Binomialverteilung zu erhalten.
Allgemein gilt dann: PX  x   nx p x 1  p nx
4.2.1. Definition: X ist eine binomialverteilte Zufallsvariable genau dann,
wenn PX  x   nx p x 1  p nx
(Abkürzung: X  Bn, p für ”die Zufallsvariable X ist binomialverteilt)
n und p werden die Parameter der Binomialverteilung genannt. Durch sie ist eine
Binomialverteilung bestimmt.
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 183
0.2
0.15
0.1
0.05
0
0
5
10
15
20
25
Wahrscheinlichkeitsfunktion x für X  B20, 0. 4
Die Verteilungsfunktion einer binomialverteilten Zufallsvariable ist damit:
x
Fx  PX  x  
k0
n
k
p k 1  p nk
1.2
1
0.8
0.6
0.4
0.2
0
0
5
10
15
20
25
Verteilungsfunktion Fx  PX  x für X  B20, 0. 4
Damit die definierte Verteilung eine Wahrscheinlichkeitsverteilung ist, muss gelten:
n
n
n
x0
x0
k0
 x   PX  x  
n
Beweis: 
k0
n
k
n
k
p k  1  p nk  1
p k  1  p nk  p  1  p n  1 n  1 (s. Kombinatorik,
Erläuterungen zu den Binomialkoeffizienten).

4.2.2. Theorem: Für X  Bn, p gilt:  X  n  p.
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 184
(d.h. der Erwartungswert einer binomialverteilten Zufallsvariable beträgt
”np”)
n
k
Beweis: Wir zeigen zuerst:
n!
nk!k!
nn1!
n1k1!kk1!



n
k
n1
k1
n1!
n
k n1k1!k1!

n
k
n1
k1
Aus der Definition für den Erwartungswert wird für die Binomialverteilung:
n
n
k0
k0
k  PX  k   k 
n
k
p k  1  p nk
Da für k  0, k  PX  k  0, gilt (beachten Sie die untere Summationsgrenze):
n
 k
k0
n

k1
kn
k
n
 np
k1
n
 np
k1
n
k
p k  1  p nk
n1
k1

n
  k
k1
n
 n
p k 1  p nk
k1
n
n
k
n1
k1
  np
n1
k1
p k1  1  p nk
n1
k1
p k1  1  p n1k1
k1
p k  1  p nk
p k  1  p nk
n1
k1
n
 np 
k1
n
Wir müssen noch zeigen: 
k1
n1
k1


p k1  1  p n1k1
n1
k1

p k1  1  p n1k1
p k1  1  p n1k1
1
Statt von k  1 bis nach n, können wir bei der obigen Formel auch von 0 bis nach
n  1 summieren, wenn wir in der Formel k  1 durch k ersetzen:
n1

k0
n1
k
p k  1  p n1k
Damit gilt dann laut dem Satz für Binome:
n1

k0
n1
k
p k  1  p n1k
 p  1  p n1  1

4.2.3. Theorem: Für X  Bn, p gilt:  2X  n  p  1  p.
Man beachte die Verwandschaft der Formeln für den Erwartungswert und die
Varianz mit den entsprechenden Resultaten der Bernoulli-Verteilung. In der Tat ist
die Bernoulliverteilung eine Binomialverteilung mit X  1, p, da gilt:
PX  0  10 p 0  1  p 10  1  p
PX  1   11 p 1  1  p 11  p
Umgekehrt ist eine binomialverteilte Zufallsvariable X mit X  Bn, p die Summe
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 185
von n bernoulliverteilten Zufallsvariablen mit p. Doch dazu später mehr.
4.2.4. Berechnung mit Excel und HP 48G
Excel: Mit Hilfe von Excel können die Werte PX  x für Binomialverteilungen
(samt graphischen Darstellungen) leicht erstellt werden (unter Funktionen, Statistik,
Binomvert. Für ”x” steht ”Zahl der Erfolge”, für ”n” ”Zahl der Versuche”, für ”p”
”Erfolgswahrsch”. In der letzten Befehlszelle wird ”0” eingegeben für PX  x und
”1” für die Werte der Verteilungsfunktion PX  x  Fx). Direkte Befehle
BINOMVERT(x,n,p,0) für PX  x und BINOMVERT(x,n,p,1) für
PX  x  Fx. Zudem werden in vielen Büchern Tabellen abgedruckt, die es
erlauben, die entsprechenden Werte (wenigstens für manche p und n) abzulesen.
HP 48G: Mit dem HP können wir zur Berechnung PX  x und PX  x Formeln
eingeben:
Für PX  x   nx p x 1  p nx : Diese Formel gibt man am besten im
”Equationwriter” ein: Diesen können wir abrufen durch: Violette Umschalttaste,
”Equation”. Dort können nun Formeln eingegeben werden, wie sie auf dem Papier
hingeschrieben werden. Im vorliegenden Fall:
(1) nk eingeben durch ”mth”, ”nxt”, ”prob”, ”comb”. dann ”n” eingeben, ”spc”
drücken (es erscheint ein Komma), dann ”k” eingeben, mit der Cursortaste nach
rechts.
(3) ”p” ”y x ” und ”k” eingeben
(4) runde Klammer öffnen, ”1  p” eingeben, Cursortaste nach rechts, ”y x ”-Taste,
runde Klammer, ”n  k” eingeben. Cursortaste nach rechts.
(5) Gleichheitszeichen und z.B. ”Px” für die Antwort eingeben. Am Schluss ”enter”.
(6) Die Formel erscheint nun im Stack, und man kann sie wie eine Variable
abspeichern. d.h. wir schreiben den Namen der Formel zwischen einfacher
Anführung. ”Enter”. ”Sto”. Die Formel verschwindet und ist nun abgespeichert.
(7) Der Name der Formel erscheint nun im Variablenmenu ”var” (eventuelle nur bei
Weiterblättern mit ”nxt”). Sie kann in den Stack zur Weiterverarbeitung geladen
werden, in dem man auf die weisse Taste drückt, die unter dem Namen der Formel
steht. Soll die bearbeitete Formel unter demselben Namen abgespeichert werden,
drückt man die violette Umschalttaste und dann auf die weisse Taste unter dem
Namen der Formel. Soll die bearbeitete Formel unter einem neuen Namen
abgespeichert werden, so schreibt man zwischen einfacher Anführung den neuen
Namen hin und ”sto”.
(Beispiel der Syntax im Stack (diese kann unmittelbar so in den Stack gegeben
werden, die einfache Anführung gehört dazu): ’COMB(N,X)P^X(1-P)^(N-X)Px’
gespeichert z.B. unter dem Namen ”BINX”).
x
Für PX  x  
k0
n
k
p k 1  p nk .
(1) Grüne Umschalttaste und ”” drücken. ”k” eingeben, Cursortaste rechts einmal
drücken (Gleichheitszeichen erscheint automatisch), ”0” eingeben, Cursortaste
rechts (Cursor geht nach oben): ”x” eingeben,
(2) Rest wie oben (statt ”Px” vielleicht ”F” nach dem Gleichheitszeichen als
Abkürzung für die Verteilungsfunktion)
(Beispiel der Syntax im Stack: ’(K0,X,COMB(N,K)P^K(1-P)^(N-K))F’
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 186
gespeichert z.B. unter ”BINF”).
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 187
4.3. Familie der Poisson-Verteilungen
Während die bisherigen Verteilungsfamilien jeweils bezüglich der Wertebereiche
von Zufallsvariablen mit endlich vielen Werten definiert sind, weisen
poissonverteilte Zufallsvariablen einen unendlichen Wertebereich auf. Die
Verteilung ist trotzdem diskret, da der Wertebereich abzählbar unendlich ist (d.h.
gleichviele Elemente wie die Menge der natürlichen Zahlen aufweist).
Bei der Poisson-Verteilungen geht es um pro Zeitperiode seltene Ereignisse
(Ereignisse, die pro bestimmte Zeitperiode selten sind, können pro andere, längere
Zeitperiode häufig vorkommen).
Beispiele: Die Anzahl der Autounfälle in einem Quartier pro Jahr. Die Anzahl der
Maschinenstillstände pro Tag. Die Anzahl der Betriebsunfälle pro Jahr. Defekte in
Geräten; Klienten an einem Schalter.
4.3.1. Definition: Eine Zufallsvariable X ist poisson-verteilt genau dann,
x
wenn PX  x  x! e  .
(Abkürzung: X  P
0.2
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
0
5
10
15
20
25
Wahrscheinlichkeitsfunktion für X  P5
x
Die Poisson-Verteilungsfunktion wird beschrieben durch: Fx  
k0
k
k!
e 
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 188
1.2
1
0.8
0.6
0.4
0.2
0
0
5
10
15
20
25
Verteilungsfunktion Fx  PX  x für X  P5

Wir müssen zeigen, dass 
k0
k
k!
e   1.

Beweis: Auf Grund der Definition von e  gilt: e   


Damit wird: 
k0
k
k!
e


k0

k
k!

k
k!
k0

k0
k
k!
1
x
Somit ist die durch PX  x  x! e  definierte Verteilung tatsächlich eine
Wahrscheinlichkeitsverteilung. 
4.3.2. Theorem: Ist die Zufallsvariable X poisson-verteilt, dann gilt:  X  

Beweis:  X   k 


k1
k0
 k1
k1!
e 
da wie oben
k
k!

 
e 


  k kk1!
e 
k1
 k1
e 
k1!
k1

 k 
gezeigt
e
k!
k0

k

 
k0
 1.
k
k!
e 


k1
k
k1!
e 

 ,

Der Erhöhung der unteren Summationsgrenze im zweiten Schritt ist gerechtfertigt,
da für k  0 der Ausdruck 0 wird. Die Tiefersetzung der Summationsgrenze im
vorletzten Schritt ist gerechtfertigt, da es auf dasselbe herauskommt, ob wir mit
k  1 bei 1 anfangen oder mit k bei 0.
4.3.3. Theorem: Ist die Zufallsvariable X poisson-verteilt, dann gilt:  2X  
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 189

Beweis:  2X  

k
k!
k0

k
k!
k0

k
k!
k0
e  k   2



k0
k
k!
e  k 2  2k   2 


k
k!
e k 
e 2k  

k
k!
e  k 2  
e  2k   2   2    2 2   2   denn:
k
k!
e  k 2  
k0

k0


k0

 2

k0

k0
k
k!

e  kk  
k1


 k1
k1!
e  k 

 k1
k1!
e  k  1   
k1

k1


k0


k0
e   2 
k
k1!

e  k  
k1
 k1

k1!
k1

e  k  1  1 
k1
k1
2  

k
k!

k
k!
e  2k  2 
k
k!
e   2   2 da 
k0
k
k!

k0
 k1
k1!

e  1   2 

e  k  2 2 (da 
k0
k
k!
e   1 (s.o.)
k
k!
 k1
k1!
 k2
k2!
e  k 
e    
e  k  , s.o.)

 (sprich Lamda) ist, wie gesagt, der Erwartungswert einer Poisson-Verteilung.
Wenn wir durchschnittliche Zahlen für das Auftreten von Unfällen,
Maschinenstillständen haben, können wir diese mit  identifizieren und dann die
Wahrscheinlichkeit berechnen, dass x  0, 1, 2, 3, 4, 5, 6, 7, etc. Unfälle pro Jahr (oder
pro andere Zeitperiode) auftreten. Dies ist erlaubt, sofern die Poissonverteilung in
etwa den empirischen Befunden entspricht. Die Angemessenheit eines Modells
können wir etwas handgestrickt graphisch und von Auge überprüfen (später
werden wir rechnerische Methoden entwickeln).
4.3.4. Beispiel: In einem Betrieb würden folgende Unfallhäufigkeiten pro Jahr
beobachtet: In einem Jahr gibt es keinen Unfall, in 2 Jahren gibt es einen Unfall, in
5 Jahren gibt es zwei Unfälle, in 4 Jahren gibt es drei Unfälle, in 3 Jahren gibt es
vier Unfälle, in 2 Jahren gibt es 5 Unfälle, in einem Jahr gibt es 6 Unfälle. In keinem
Jahr gibt es mehr Unfälle. Insgesamt wurden 20 Jahre untersucht. Dies gibt für die
Unfallhäufigkeit x die folgende relative Häufigkeitsverteilung:
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 190
Anzahl
Jahre
Anzahl
Unfälle
relative Häufigkeiten
Anzahl Jahre *
(Anzahl Jahre mit
Anzahl Unfälle
Unfallhäufigkeit x /
Anzahl Jahre)
1
0
0.05555556
0
2
1
0.11111111
2
5
2
0.27777778
10
4
3
0.22222222
12
3
4
0.16666667
12
2
5
0.11111111
10
1
6
0.05555556
6
Summen
18
21
1
52
durchschnittliche Anzahl Unfälle pro Jahr
2.88888889
Werte der
Poisson
verteilung mit
λ=2.888
0.055638
0.160732
0.23216844
0.22356961
0.16146694
0.09329201
0.04491837
0.3
0.25
relative Häufigkeiten
0.2
0.15
Werte der
Poissonverteilung
0.1
0.05
0
0
2
4
6
8
Vermutlich sind die Daten poisson-verteilt. Wir können damit die entsprechende
Poissonverteilung als Modell verwenden und z.B. die Wahrscheinlichkeit dafür
berechnen, dass es sieben oder mehr Unfälle pro Jahr gibt:
6
PX  7  PX  6  1  PX  6  1  
k0
2.8888888 k
k!
e 2.888888888  2. 821 5  10 2 .
Beispiel: In Dorf A hat es über die letzten Jahre durchschnittlich 3 Autounfälle pro
Jahr gegeben. Wir setzen voraus, dass die Anzahl Unfälle pro Jahr poissonverteilt
sind. Wir berechnen die folgenden Werte der Poisson-Verteilung:
Die Wahrscheinlichkeit, dass pro Jahr Jahr x Unfälle passieren, beträgt:
0
P(X  0)  30! e 3  0. 049787 (Wahrscheinlichkeit, dass kein Unfall passiert)
1
P(X  1)  31! e 3  0. 149 36 (Wahrscheinlichkeit, dass ein Unfall passiert)
2
P(X  2)  32! e 3  0. 224 04 (Wahrscheinlichkeit, dass zwei Unfälle passieren)
3
P(X  3)  33! e 3  0. 224 04 (Wahrscheinlichkeit, dass drei Unfälle passieren)
4
P(X  4)  34! e 3  0. 168 03 (Wahrscheinlichkeit, dass vier Unfälle passieren)
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 191
P(X  5) 
35
5!
e 3  0. 100 82 (Wahrscheinlichkeit, dass fünf Unfälle passieren).
Die Wahrscheinlichkeit, dass im nächsten Jahr mehr als 5 Unfälle passieren ist,
0
1
2
3
4
5
1  PX  5  1  30! e 3  31! e 3  32! e 3  33! e 3  34! e 3  35! e 3  8. 391 8  10 2
Beispiel: Ein Unternehmen fertigt täglich 2’000’000 Transistoren, darunter täglich
durchschnittlich 5 defekte. Wie gross ist die Wahrscheinlichkeit, dass an einem
bestimmten Tag mehr als 3 defekte Transistoren produziert werden? dass genau
ein defekter Transistor produziert wird? (Poissonverteilung vorausgesetzt).
  5.
3
PX  3  
k0
PX  3  1 
5k
k!
e 5 
3

k0
5k
k!
50
0!
e 5
e 5 
51
1!
e 5 
52
2!
e 5 
53
3!
e 5  0. 265 03
 0. 734 97
1
PX  1  51! e 5  0. 03369 0
4.3.5. Berechnung mit Excel und HP48
Excel: ”POISSON(x, , 0)” für PX  x und .”POISSON(x, , 0)” für PX  x.
HP: Für PX  x geben wir die Formel ”e 
x
die Formel ” e 
k0
k
k!
x
x!
 PX” ein. Für PX  x geben wir
 F” ein. Für ”e” gehen wir dabei auf ”mth”, ”nxt”, ”cons”, ”e”.
Für Lamda: ””, grüne Umschalttaste und ”L”. Bei Brüchen gibt man im Equation
Writer zuerst den Zähler ein, und drückt dann auf die ”:”-Taste. Dann kann man
den Nenner eingeben. Für die Fakultät gehen wir auf ”mth”, ”nxt”, ”prob”, ”!”.
(Syntaxbeispiele im Stack: ’e^   (^X/X!)PX’ und ’(K0,X,e^   (^K/K!))F’
Übung: Geben Sie die Formel ein und berechnen Sie PX  x für x  5 und   7.
Überprüfen Sie die Antwort mit Hilfe von Excel.
4.3.6. Herleitung der Formel für die Poisson-Verteilung
Die Poisson–Verteilung ist die Formel, die wir aus der Binomial-Vertreilung
erhalten, wenn wir n gegen Unendlich streben lassen. Wir verwenden für den
Grenzwert für n gegen Unendlich die folgende Abkürzung: lim
.
n
Wir betrachten die Binomialvertreilung PX  k  nk p k 1  p nk . Für diese gilt:
  n  p. Bei Poisson-Verteilungen brauchen wir als Symbol für den
Erwartungswert . Es gilt somit: n  p    p  n .
Wir setzen in die Formel für die Binomialverteilung

n
für p ein und wandeln um:
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 192
n

k
n!
nk!n k
k
 n   1 

1
1 n  k

n
k
k!

k
  n   1 
n!
nk!k!
 n
n 
 nk 
 1 

n
1
1 n  k
n 

Jetzt wird der Grenzwert dieser Formel gebildet. Wir nehmen zwei Teilanalysen
vor:
n!
nk!n k
A) lim
n
n!
nk!n k

n
n1 n 
n
n


1
1 n 

1
1 n  k

n
1 
Nun ist lim
n
n2
n

1 1n

k
k!

n
1 
.nk1!
. . . . 
n
n

.1 k1
n 
1 n 


n1 n 
.nk1
n
1
1 n  k

 nn  n 
n
n
n
n

 1n
  n 

n
n
n
n
 2n
1
1 n 

n
Es gilt: lim
1 
n

n
Somit gilt: lim
n
k
k!
n

1 1n

n
1 

k
k!

. . . 
  n 
. nn  k1
n 
 nn  n 

.
 1. (Geht n gegen unendlich, geht
1 n 
 1 
. . . . 
. . . . 
1 2n
1 mn
Somit gilt: lim
n
B) lim
n
n2
n1 n 

 1, da
nn1n2...nk1
nk

n1
n1 n 
n1
n
1
1 n  k

1 2n

n
1 
. . . . 
 lim
1 
n

n
.1 k1
n 
1 n 
m
n
und

n
gegen 0).
 1  1  1 . . . 1  1
n
 n  e 
 1 
Aus A) und B) folgt: lim
n

n
n
n
k

k
k!
e 
k
  n   1 

n
 nk

k
k!
e 

___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 193
4.4. Familie der hypergeometrischen Verteilungen
Beispiel: Aus einem Sortiment von N  8 Transistoren werden n  3 zufällig (ohne
Zurücklegen, ohne Reihenfolge) gezogen. Es ist bekannt, dass M  5 Transistoren
des Sortiments defekt sind. Wie gross ist die Wahrscheinlichkeit, genau x  2
defekte unter den 3 gezogenenen Transistoren zu finden.
4.4.1. Definition: X ist eine hypergeometrisch verteilte Zufallsvariable
genau dann, wenn
PX  x 
 Mx  NM
nx 
 Nn 
(Abkürzung: X  HN, M, n
0.3
0.25
0.2
0.15
0.1
0.05
0
0
5
10
15
20
25
Wahrscheinlichkeitsfunktion für X  H200, 30, 20
Zu beachten ist, dass die Formel für x  M keinen Sinn ergibt. Man kann in der
Stichprobe nicht mehr defekte Objekte haben als es in der Grundgesamtheit gibt.
Begründung der Formel: Ziehen wir ohne Zurücklegen (ohne Reihenfolge) aus N
Objekten n Gegenstände, so gibt es  Nn  mögliche Anordnungen. Es gibt  Mx 
Möglichkeiten, aus M defekten Gegenständen x defekte zu ziehen (ohne
Zurücklegen und ohne Reihenfolge). Eine Stichprobe, die x defekte Gegenstände
enthält, enthält n  x nicht-defekte. Es gibt  NM
nx  Möglichkeiten, diese anzuordnen.
M
Somit gibt es für jede der  x  Möglichkeiten, x defekte Gegenstände zu ziehen,
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 194
NM
M
 NM
nx  Möglichkeiten, nicht-defekte zu ziehen. Dies ergibt  m  nm  ”günstige”
Fälle.
5
2
Im Beispiel erhalten wir: PX  2 
85
32
8
3

15
28
 0. 535 71
Die hypergeometrische Verteilung kommt bei kleinen Grundmengen zum Einsatz.
Bei grossen Grundmengen macht es einen vernachlässigbaren Unterschied, ob
man die gezogenen Objekte zurücklegt oder nicht. Entsprechend kann man
bezüglich grosser Grundmengen die Binomial-Verteilung verwenden. Betrachten
wir zwei Beispiele, um ein Gefühl für die Unterschiede zu entwickeln:
Im obigen Beispiel erhalten wir bei der Verwendung der Binomialverteilung (d.h. mit
Zurücklegen) und p  58 :
2
32
1  58
 225
 0. 439 45
PX  2   32  58
512
Die Wahrscheinlichkeiten unterscheiden sich bei so kleinen Grundmengen (N  8)
somit erheblich. Betrachten wir ein Beispiel mit einer Grundmenge von 5000. Wir
ziehen 3. Der Anteil der defekten an der Grundgesamtheit betrage ebenfalls 58 .
Somit ergibt sich mit der hypergeometrischen Verteilung:
 Mx  NM
nx 

5
8
N
n


3125
2
50003125
32
5000
3

7321 875
16 656 668
 5000  3125.
Mit der Binomialverteilung:  32 
5
8
 0. 439 58
2
1
5
8
32

225
512
 0. 439 45
Die Unterschiede sind zu vernachlässigen. Die hypergeometrische Verteilung wird
etwa in der Qualitätskontrolle eingesetzt, wenn die Grundmengen klein sind (z.B. N
 200) und die gezogenen Gegenstände nicht zurückgelegt werden. Bei
Zurücklegen wird jedoch auch bei kleinen Mengen die Binomialverteilung
verwendet. Bei grossen Mengen kann auch ohne Zurücklegen die
Binomialverteilung verwendet werden.
4.4.2. Theorem: Wenn X eine hypergeometrisch verteilte Zufallsvariable
ist, dann gilt:  X  n M
N
Mit p  M
entspricht dies dem Erwartungswert der binomialverteilten
N
Zufallsvariable.
4.4.3. Theorem: Wenn X eine hypergeometrisch verteilte Zufallsvariable
ist, dann gilt:  2X  Nn
np1  p
N1
Nn
N1
stellt eine Endlichkeitskorrektur dar. Bei grösserwerdendem N und konstantem
n nähert sich der Ausdruck 1, d.h. lim Nn
 1, womit wir näherungsweise die
N1
N
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 195
Formel für die bionomialverteilte Zufallsvariable erhalten.
x
Die Verteilungsfunktion ist: Fx  PX  x  
k0
M
k
NM
nk
 Nn 
1.2
1
0.8
0.6
0.4
0.2
0
0
5
10
15
20
25
Verteilungsfunktion Fx für X  H200, 30, 20
Um zu überprüfen, dass die definierte Funktion eine Wahrscheinlichkeitsverteilung
n
ist, müsste man zeigen, dass: 
k0
M
k
NM
nk

N
n
1

4.4.4. Berechnung mit Excel und HP48
Excel: Für PX  x
”HYPGEOMVERT(x;n;M;N)”;
Für PX  x müssen wir eine Tabelle erstellen und die Werte für PX  x
summieren.
HP: Wir geben für PX  x die Formel ”
x
Für PX  x geben wir die Formel ”
k0
 Mx 
NM
nyx
N
ny
NM
nyk
M
k
N
ny
 PX” ein.
 F” ein.
Die bisherigen Verteilungsfamilien sind alle nahe verwandt. Es gibt noch weitere
diskrete Verteilungsfamilien, die mit Namen versehen werden und die mit den
obigen verwandt snd, die wir jedoch nicht behandeln (z.B. Multinomialverteilung,
Geometrische Verteilung, Negative Binomialverteilung, s. Werner A. Stahel,
Statistische Datenanalyse, Wiesbaden, Vieweg, 1995, S. 103). Zum Schluss
behandeln wir noch eine Verteilungsfamilie, die mit den obigen weniger verwandt
ist, die uns jedoch schon mehrmals begegnet ist.
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 196
4.5. Familie der diskreten uniformen Verteilungen
4.5.1. Definition: Die Zufallsvariable X ist diskret uniform verteilt genau
dann, wenn PX  x  1k für alle x (k  Anzahl Elemente des
Wertebereichs von X)
Abkürzung: X  Uk
Beispiele für uniforme Verteilungen haben wir bereits einige gesehen. Sei etwa
S  {ein Auge, zwei Augen, drei Augen, vier Augen, fünf Augen, sechs Augen}
 S  ein Auge, 16 ,zwei Augen, 16 ,drei Augen, 16 ,vier Augen, 16 ,fünf
Augen, 16 ,sechs Augen, 16 ,
X  ein Auge, 1, zwei Augen, 2, drei Augen, 3, vier Augen, 4, fünf
Augen, 5, sechs Augen, 6
Damit gilt dann  X  1, 16 , 2, 16 , 3, 16 , 4, 16 , 5, 16 , 6, 16 
Eine uniform verteilte Zufallsvariable weist für jeden Wert dieselbe
Wahrscheinlichkeit auf.
0.1
0.08
0.06
0.04
0.02
0
0
1
2
3
4
5
6
7
8
9
10 11 12
Wahrscheinlichkeitsfunktion für X  U11
4.5.2. Theorem: Wenn X eine uniformverteilte Zufallsvariable ist, dann gilt:
1
k
X 
k
 xi
x1
Der Erwartungswert einer uniformverteilten Zufallsvariablen ist demnach das
arithmetische Mittel der Werte der Zufallsvariablen.
k
k
i1
i1
Beweis:  x i PX  x i    x i
1
k

1
k
k
 xi.

i1
Für den Spezialfall WX  N k  n : n  k und n  N (und N ohne 0) gilt:
 X  k1
2
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 197
k
 xi 
1
k
Beweis:
i1
1
k
k
1 kk1
2
k
i 
i1

k1
2
k
kk1
2
(da  i 
i1
So wäre der Erwartungswert des obigen Würfelbeispiels:
 
61
2
 3. 5 
123456
2
.
4.5.3. Theorem: Wenn X eine uniformverteilte Zufallsvariable ist, dann gilt:
1
k
 2X 
k
 x 2i  x 2
i1
Beweis: Mit
1
k
1
k
k
k
x1
i1
k
 x i  x :  PX  x i   x i  x  
1
k
k
x 2i  2x i x  x 2  
i1
k
k
i1
i1
2
 x 2i 
1
k
i1
 x 2i  2x 1k  x i  1k kx 2 
1
k
k
 2x i x 
1
k
i1
k
1
3
2
k 
denn
1
2
1
k
1
k
k
k
k
 x 2i  x 2 
i1
 16

 i2 
i1
1
3
k1
2
1
k
2
 
1
2
k2 
k
i1
i1
1
12
x i  x  2 
i1
 x 2 
 x 2i  2x 2  x 2 
Für den Spezialfall WX  N k :  2X 
Beweis:
1
k
k
1
k
1
k
k
 x 2i  x 2
i1
k 2  1
k
 i 2  x 2 
i1
1
12
k
k2 
1
12

1
12
k 2  1
1
6

x
Für die Verteilungsfunktion gilt: Fx  PX  x  
i1
1
k
 x 1k 
x
k
Die Punkte der Verteilungsfunktion einer Zufallsvariable, deren Wertebereich mit
N k zusammenfällt, liegen auf einer Gerade, die durch den 0-Punkt verläuft und
deren Steigung 1k ist.
1 .2
1
0 .8
0 .6
0 .4
0 .2
0
0
1
2
3
4
5
6
7
8
9
10
11
12
Verteilungsfunktion Fx mit X  U11 und WX  N 11
Wir überprüfen noch die für Wahrscheinlichkeitsverteilungen zu erfüllende
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 198
x
k
i1
i1
Bedingung:  PX  x  
1
k

k
k
 1. Die uniforme Verteilung ist tatsächlich
eine Wahrscheinlichkeitsverteilung.
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 199
4.6. Übungen
1) Berechnen sie für
X  B2, 0. 1;
X  B2, 0. 5
X  B3, 0. 5;
X  B3, 0. 5
X  B4, 0. 1;
X  B4, 0. 1
X  B8, 0. 5;
X  B8, 0. 5
X  B15, 0. 1;
X  B15, 0. 1
die Werte PX  x  x
(Für die ersten vier Fälle von Hand, für die anderen mit Excel). Berechnen Sie jeweils
den Erwartungswert und die Varianz. Erstellen Sie Diagramme der
Wahrscheinlichkeitsfunktion.
2) Die relative Häufigkeit von unbrauchbaren Zahnbürsten betrage 0.2.
(i) Wie hoch ist die Wahrscheinlichkeit bei n  10 Zügen (mit Zurücklegen und
jeweiligem Mischen) 2 unbrauchbare Bürsten zu erhalten.
(ii) höchstens 2 unbrauchbare Bürsten zu erhalten.
(iii) Wie hoch ist die Wahrscheinlichkeit 8 unbrauchbare Bürsten zu erhalten.
(iv) mindestens 8 unbrauchbare Bürsten zu erhalten.
(v) Wie hoch ist die Wahrscheinlichkeit bei n  20 Zügen 18 unbrauchbare Bürsten zu
erhalten.
3) Fluggesellschafte wissen, wieviele der buchenden Passagiere durchschnittlich
erscheinen. Um die Flugzeuge möglichst gut auszulasten, werden diese überbucht. Nach
Angaben der KLM erscheinen die einzelnen Passagiere mit einer Wahrscheinlichkeit von
0. 86 (SAS Communications, 4/1992). Wir nehmen an, dass die Passagiere unabhängig
voneinander ihre Reise antreten. Wie gross ist dann die Wahrscheinlichkeit, dass ein
Flugzeug mit 82 Plätzen und 85 verkauften Flugtickets alle sich präsentierenden
Passagiere mitnehmen kann?
4) Die Lieferfirma A und die Bezugsfirma B legen vertraglich folgendes fest: 99% der
Güter müssen verwendbar sein, damit eine Lieferung angenommen wird. Sonst darf sie
zurückgewiesen werden. Da es sich jeweils um Millionen von Einzelteilen (z.B.
Schrauben, CDs, Borsten) handelt, ist eine vollumfängliche Überprüfung der
Grundgesamtheit finanziell nicht vertretbar. Die Firmen einigen sich darauf, dass 30
Objekte zufällig gezogen werden. Sind von dieser Stichprobe mindestens 25 in Ordnung,
so muss die Lieferung akzeptiert werden. Berechnen Sie die Wahrscheinlichkeit dafür,
dass mindestens 25 in Ordnung sind.
5) Von sechs Telefonzellen in einem Postamt wird jede während der Öffnungszeit von
08.00 bis 18.00 insgesamt während sechs Stunden benutzt.
Wie gross ist die Wahrscheinlichkeit, dass zu einem Zeitpunkt
(a) alle sechs Telefonzellen besetzt sind?
(b) mindestens eine Zelle frei ist?
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 200
(c) genau eine Zelle frei ist?
(d) höchstens eine Telefonzelle frei ist?
6) Bei einem Herstellungsprozess hat man mit 15 % Ausschussware zu rechnen. Berechnen
Sie die Wahrscheinlichkeit,
(a) unter 10 Exemplaren keinen Ausschuss,
(b) unter 20 Exemplaren mindestens ein Ausschussstück zu finden. (es wird jeweils
zurückgelegt)
7) Durchschnittlich fällt eine Maschine einer Fabrik 0.5 mal pro Tag aus. Wir nehmen an,
die Ausfälle pro Tag seien poissonverteilt.
a) Berechnen Sie für die entsprechende Poisson-Verteilung PX  x für x  4.
b) Berechnen für das Resultat von a) die Wahrscheinlichkeit, dass mehr als 3
Maschinenausfälle erfolgen.
c) Erstellen Sie eine Graphik der Wahrscheinlichkeitsfunktion.
8) In einer Grossstadt erfolge im Durchschnitt pro Tag ein Todesfall infolge eines
Verkehrsunfalles. Man berechne die Wahrscheinlichkeit dafür, das an einem Tag 0, 1, 2,
3, mehr als vier Todesfälle passieren. Die Unfallzahlen pro Tag seien poissonverteilt.
9) Bei einer Serienproduktion habe sich gezeigt, dass mit 2 Promille Ausschuss zu rechnen
ist. Die Produkte werden in Packungen von je 500 Stück abgefüllt, ohne dass vorher
eventuelle Ausschussstücke ausgeschieden werden können. a) Wie gross ist die
Wahrscheinlichkeit, dass alle 500 Stück einer bestimmten Packung in Ordnung sind? b)
Bei 5000er Packungen. Wie gross ist die Wahrscheinlichkeit, dass alle 5000 Stück in
Ordnung sind?
10) Ungefähr 1 % der Bevölkerung ist farbenblind. Wie gross muss man eine Stichprobe
wählen, wenn man mit einer Wahrscheinlichkeit von 99% mindestens eine farbenblinde
Person in der Stichprobe haben möchte? Man rechne mit der Binomial- und der
Poisson-Verteilung.
11) Die Hersteller einer elektronischen Waage offerieren eine einjährige Garantie. Falls die
Waage während dieser Zeit einen Defekt erleidet, wird sie durch eine neue Waage
ersetzt. Durchschnittlich fallen im ersten Jahr 0.1 Defekte pro Waage an.
a) Wie gross ist der Prozentsatz der Geräte, die während der Garantiezeit ersetzt werden
müssen?
b) Die Produktionskosten pro Waage betragen 80 Franken, der Verkaufspreis beträgt 120
Franken. Wie gross ist der zu erwartende Gewinn pro Gerät unter Berücksichtigung
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 201
auftretender Garantieleistungen.
12) In einem Ski-Ort treten durchschnittlich 0.8 Beinbrüche pro Tag auf. Wieviel
Rettungsmanschaften müssen bereit stehen, so dass die Wahrscheinlichkeit, dass ein
Verunfallter nicht unmittelbar betreut werden kann, kleiner als 0.01 ist.
13) Berechnen Sie die Werte der Wahrscheinlichsfunktion für: 10 Taschenlampen werden
gezogen (ohne Zurücklegen) aus 15. Der Anteil der defekten betrage 2.
14) In einer Stichprobe von n  25 Glühbirnen aus einem Produktionslos mit N  700
Glühbirnen finden sich 2 defekte Glühbirnen. Man vermutet, dass die Anzahl der
defekten Glühbirnen in der Grundgesamtheit 0.1 ist.
a) Wie hoch ist die Wahrscheinlichkeit, genau 2 defekte Glühbirnen zu ziehen (ohne
Zurücklegen).
b) Mindestens 2 defekte Glühbirnen zu ziehen (ohne Zurücklegen).
c) Mindestens 4 defekte Glühbirnen zu ziehen. (ohne Zurücklegen)
d) Berechnen Sie a),b), c) mit der Binomialverteilung (ohne Zurücklegen) .
15) Zeichnen Sie ein Diagramm der folgenden hypergeometrischen Verteilung mit
X  800, 200, 5 (erstellen Sie ein solches auch mit Excel für n  25).
16) Gegeben sei die folgende Tabelle (Maschinendefekte pro Tag; s. Diskrete
Verteilungsfamilien.xls). Überprüfen Sie, ob eine Poissonverteilung angemessen ist und
berechnen Sie PX  4.
Anzahl Tage Anzahl
Defekte
2
10
20
30
40
25
20
15
5
2
0 mehr als 9
0
1
2
3
4
5
6
7
8
9
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 202
17) Sei |WX|  22 mit X  U22 und WX  N 22 . Zeichnen Sie die
Verteilungsfunktion und die Verteilung. Berechnen Sie die folgenden
Wahrscheinlichkeiten:
PX  3, PX  4, P2  X  20, PX  5, PX  4
18) Wie hoch ist die Wahrscheinlichkeit dafür, bei einem Kartenspiel nur Karten
von einer Farbe zu erhalten? (4 Spieler, 36 Karten, vier Farben, pro Farbe 9
Karten, pro Farbe je ein As)
19) Wie hoch ist die Wahrscheinlichkeit dafür, bei einem Kartenspiel vier As zu
erhalten (4 Spieler, 36 Karten, vier Farben, pro Farbe 9 Karten, pro Farbe je ein
As)
4.6. Lösungen
1) n  2 und p  0.1:
2
0
0. 1 0  0. 9 2 .  0. 81
 21 0. 1 1  0. 9 21 .  0. 18
 22 0. 1 2  0. 9 22 .  0. 0 1
  2  0. 1  0. 2;  2  2  0. 1  0. 9  0. 18
n  2 und p  0.5:
2
0. 5 0  0. 5 20 . 
0
2
0. 5 1  0. 5 21 .  .
1
2
0. 5 2  0. 5 22 .  .
2


  2  0. 5  1;
. 25
5
25
 2  2  0. 5  0. 5  0. 5
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 203
0.6
1
0.5
0.8
0.4
0.6
0.3
0.4
0.2
0.1
0.2
0
0
0
0.5
1
1.5
2
0
2.5
0.5
1
1.5
2
2.5
Wahrscheinlichkeitsfunktion für X  B2, 0. 5 Wahrscheinlichkeitsfunktion für X  B2, 0. 1
n  3; p  0.1


3
0. 1 0  0. 9 30  . 729
0
3
0. 1 1  0. 9 31  . 243
1
3
0. 1 2  0. 9 32  . 0 27
2
3
0. 1 3  0. 9 33  . 00 1
3
2
  3  0. 1  0. 3;   3  0. 1  0. 9  0. 27
n  3; p  0.5


3
0. 5 0  0. 5 30  . 125
0
3
0. 5 1  0. 5 31  . 375
1
3
0. 5 2  0. 5 32  . 375
2
3
0. 5 3  0. 5 33  . 125
3
2
  3  0. 5  1. 5;   3  0. 5  0. 5  0. 75
0.4
0.8
0.3
0.6
0.2
0.4
0.1
0.2
0
0
0
1
2
3
4
0
1
2
3
4
Wahrscheinlichkeitsfunktion für X  B3, 0. 5 Wahrscheinlichkeitsfunktion für X  B3, 0. 1
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 204
n  4: p  0.1


4
0. 1 0  0. 9 40  . 656 1
0
4
0. 1 1  0. 9 41  . 291 6
1
4
0. 1 2  0. 9 42  . 0 486
2
4
0. 1 3  0. 9 43  . 00 36
3
4
0. 1 4  0. 9 44  . 000 1
4
2

  4  0. 1  0. 4;   4  0. 1  0. 9  0. 36
n  4: p  0.5


4
0. 5 0  0. 5 40  . 0 625
0
4
0. 5 1  0. 5 41  . 25
1
4
0. 5 2  0. 5 42  . 375
2
4
0. 5 3  0. 5 43  . 25
3
4
0. 5 4  0. 5 44  . 0 625
4
2

  4  0. 5  2;   4  0. 5  0. 5  1
0.4
0.7
0.3
0.6
0.5
0.4
0.2
0.3
0.1
0.2
0.1
0
0
0
1
2
3
4
5
0
1
2
3
4
5
Wahrscheinlichkeitsfunktion für X  B4, 0. 5 Wahrscheinlichkeitsfunktion für X  B4, 0. 1
n  8:



8
0. 1 0  0. 9 80  . 430 47
0
8
0. 1 1  0. 9 81  . 382 64
1
8
0. 1 2  0. 9 82  . 148 8
2
8
0. 1 3  0. 9 83  3. 306 7  10 2
3
8
0. 1 4  0. 9 84  4. 592 7  10 3
4
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 205
 85 0. 1 5  0. 9 85  4. 082 4  10 4
8
0. 1 6  0. 9 86  2. 268  10 5
6
 87 0. 1 7  0. 9 87  7. 2  10 7
8
0. 1 8  0. 9 88  1. 0  10 8
8
  8  0. 1  0. 8;  2  8  0. 1  0. 9  0. 72
n  8:p0.5





8
0. 5 0  0. 5 80  3. 906 3
0
8
0. 5 1  0. 5 81  . 0 312 5
1
8
0. 5 2  0. 5 82  . 109 38
2
8
0. 5 3  0. 5 83  . 218 75
3
8
0. 5 4  0. 5 84  . 273 44
4
8
0. 5 5  0. 5 85  . 218 75
5
8
0. 5 6  0. 5 86  . 109 38
6
8
0. 5 7  0. 5 87  . 0 312 5
7
8
0. 5 8  0. 5 88  3. 906 3
8
2
 10 3
 10 3
  8  0. 5  4;   8  0. 5  0. 5  2
0.3
0.5
0.25
0.4
0.2
0.3
0.15
0.2
0.1
0.05
0.1
0
0
0
2
4
6
8
10
0
2
4
6
8
10
Wahrscheinlichkeitsfunktion für X  B8, 0. 5 Wahrscheinlichkeitsfunktion für X  B8, 0. 1
n  15, p  0.5


15
0. 5 0  0. 5 150  3. 051 8  10 5
0
15
0. 5 1  0. 5 151  4. 577 6  10 4
1
15
0. 5 2  0. 5 152  3. 204 3  10 3
2
15
0. 5 3  0. 5 153  1. 388 5  10 2
3
15
0. 5 4  0. 5 154  4. 165 6  10 2
4
15
0. 5 5  0. 5 155  9. 164 4  10 2
5


___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 206




15
0. 5 6  0. 5 156  . 152 74
6
15
0. 5 7  0. 5 157  . 196 38
7
15
0. 5 8  0. 5 158  . 196 38
8
15
0. 5 9  0. 5 159  . 152 74
9
15
0. 5 10  0. 5 1510  9. 164 4  10 2
10
15
0. 5 11  0. 5 1511  4. 165 6  10 2
11
15
0. 5 12  0. 5 1512  1. 388 5  10 2
12
15
0. 5 13  0. 5 1513  3. 204 3  10 3
13
15
0. 5 14  0. 5 1514  4. 577 6  10 4
14
15
0. 5 15  0. 5 1515  3. 051 8  10 5
15
2
  15  0. 5  7. 5;   15  0. 5  0. 5  3. 75
n  15: p  0.1








15
0. 1 0  0. 9 150  . 205 89
0
15
0. 1 1  0. 9 151  . 343 15
1
15
0. 1 2  0. 9 152  . 266 9
2
15
0. 1 3  0. 9 153  . 128 51
3
15
0. 1 4  0. 9 154  4. 283 5  10 2
4
15
0. 1 5  0. 9 155  1. 047 1  10 2
5
15
0. 1 6  0. 9 156  1. 939  10 3
6
15
0. 1 7  0. 9 157  2. 770 1  10 4
7
15
0. 1 8  0. 9 158  3. 077 8  10 5
8
15
0. 1 9  0. 9 159  2. 659 9  10 6
9
15
0. 1 10  0. 9 1510  1. 773 2  10 7
10
15
0. 1 11  0. 9 1511  8. 955 8  10 9
11
15
0. 1 12  0. 9 1512  3. 317  10 10
12
15
0. 1 13  0. 9 1513  8. 505  10 12
13
15
0. 1 14  0. 9 1514  1. 35  10 13
14
15
0. 1 15  0. 9 1515  1. 0  10 15
15
2
  15  0. 1  1. 5;   15  0. 1  0. 9  1. 35
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 207
0.4
0.25
0.2
0.3
0.15
0.2
0.1
0.1
0.05
0
0
0
5
10
15
0
20
5
10
15
20
Wahrscheinlichkeitsfunktion für X  B15, 0. 5 Wahrscheinlichkeitsfunktion für X  B15, 0. 1
2) Eine Bürste ist unbrauchbar oder brauchbar. Entsprechend liegt eine Binomialverteilung
vor. n  10 und p  0. 2 für unbrauchbare Bürsten.
(i) Die Wahrscheinlichkeit genau zwei unbrauchbare Bürsten zu erhalten beträgt, d.h.
PX  2 für X  B10, 0. 2 : PX  2   102 0. 2 2  0. 8 102  0. 301 99
(ii) Man erhält höchstens 2 unbrauchbare Bürsten, wenn man keine, eine oder zwei
unbrauchbare Bürsten erhält, d.h. PX  2 für X  B10, 0. 2
Somit beträgt die entsprechende Wahrscheinlichkeit 
2
PX  2  
10
0
k0
10
k
0. 2 k 1  0. 2 10k 
0. 2 0  0. 8 100   10
0. 2 1  0. 8 101   102 0. 2 2  0. 8 102 
1
 0. 301 99  0. 107 37  0. 268 44  0. 677 8
(iii) PX  8 für X  B10, 0. 2 : PX  8 
10
8
0. 2 8  0. 8 108  7. 372 8  10 5
(iv) Mindestens 8 werden erhalten, wenn man 8, 9 oder 10 erhält. Somit gilt:
7
PX  8  1  PX  8  1  PX  7  1  
k0
10
k
0. 2 k 1  0. 2 10k  7.
792 6  10 5
Oder durch direkte Berechnung:
10
0. 2 8  0. 8 108  10
0. 2 9  0. 8 109  10
0. 2 10  0. 8 1010  7. 792 6  10 5
8
9
10
(Die erste Berechnungsart ist schneller, wenn man den HP oder Excel benutzt).
3) Passagiere präsentieren sich oder nicht. Es geht somit um eine Binomialverteilung (n 
85, p  0.86).
Wir berechnen die Wahrscheinlichkeit PX  83.
85
0. 86 83  0. 14 8583  2. 560 3  10 4
83
85
0. 86 84  0. 14 8584  3. 744 7  10 5
84
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 208
85
85
0. 86 85  0. 14 8585  2. 706 3  10 6
2. 560 3  10 4  3. 744 7  10 5  2. 706 3  10 6  2. 961 8  10 4  0. 00029618
Die Wahrscheinlichkeit, dass man alle mitnehmen kann, beträgt somit:
1  2. 961 8  10 4  0. 999 7
Auf lange Sicht können somit in 99.97% der Fälle alle sich präsentierenden Passagiere
mitfliegen.
4) Wir können eine Binomialverteilung voraussetzen. Wir berechnen die
Wahrscheinlichkeit dafür, dass 25, 26, 27, 28, 29 oder 30 in Ordnung sind: PX  25 für
X  30, 0. 99:
30
0. 99 25  0. 01 3025  30
0. 99 26  0. 01 3026  30
0. 99 27  0. 01 3027 
25
26
27
30
0. 99 28  0. 01 3028  30
0. 99 29  0. 01 3029  30
0. 99 30  0. 01 3030  1. 000 00
28
29
30
24
(mit Excel oder HP berechnen wir 1  
k0
30
k
0. 99 k 0. 01 30k 
Die Wahrscheinlichkeit, mindestens 25 brauchbare zu ziehen, wenn die Lieferung nicht
mehr als 1% schlechte Ware oder 99% gute Wahre enthält, beläuft sich dann auf beinahe
1.
Zu wessen Gunsten wurde der Test vereinbart?
5) Betrachten wir eine Telefonzelle, dann haben wir ein binomisches Experiment mit den
Ergebnissen ”frei”, ”besetzt”. Die Wahrscheinlichkeit, dass die Zelle besetzt ist, beträgt
p  106  35 , da jede Zelle 6 von 10 Stunden besetzt ist.
6
66
(a) PX  6  66 35  25
 15729
 4. 665 6  10 2
625
(b) ”mindestens 1 frei” heisst ”nicht alle besetzt”, deshalb ist die gesuchte
Wahrscheinlichkeit
1  PX  6  1  4. 665 6  10 2  0. 953 34
5
65

(c) ”genau 1 ist frei” heisst ”genau 5 sind besetzt”. PX  5   65   35  25
2916
 0. 186 62
15 625
(d) ”höchstens eine ist frei” bedeutet ”5 oder 6 sind besetzt".
Wir müssen somit PX  6  PX  5 berechnen: 4. 665 6  10 2  0. 186 62 
0. 233 28
6) p  0.15
(a) Wir berechnen PX  0 für X  B10, 0. 15 : 100 0. 15 0  1  0. 15 100 
0. 196 87
(b) Wir berechnen PX  1  1  PX  0 für
X  B20, 0. 15 : 1  20
0. 15 0 1  0. 15 200  0. 961 24
0
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 209
0
7) a) PX  0  0.5
e 0.5  0. 606 53
0!
1
PX  1  0.5
e 0.5  0. 303 27
1!
2
PX  2  0.5
e 0.5  0. 07 581 6
2!
3
PX  3  0.5
e 0.5  0. 01 263 6
3!
4
PX  4  0.5
e 0.5  0. 001 579 5
4!
Dies ergibt: PX  4  0. 999 83 (was allerdings nicht gefragt ist)
b) Die Wahrscheinlichkeit, dass mehr als 3 Maschinenausfälle erfolgen:
0
1
2
3
e 0.5  0.5
e 0.5  0.5
e 0.5  0.5
e 0.5  0. 001 751 6
1  0.5
0!
1!
2!
3!
Mehr als drei Maschinen würden damit durchschnittlich nur alle Tausend Tage ausfallen.
Würden an mehreren Tagen mehr Maschinen als 3 ausfallen, so wäre es an der Zeit, die
Hypothese   0. 5 in Frage zu stellen.
(c) Graphik
0 .7
0 .6
0 .5
0 .4
0 .3
0 .2
0 .1
0
0
5
10
15
20
:
8) a) PX 
PX  1
PX  2
PX  3
0
0  10! e 1  0. 367 88
1
 11! e 1  0. 367 88
2
 12! e 1  0. 183 94
3
 13! e 1  0. 06 131 3
4
b) PX  4  14! e 1  0. 01 532 8
0
1
PX  4  1  10! e 1  11! e 1 
12
2!
e 1 
13
3!
e 1 
14
4!
e 1
 0. 003 659 8
9) a) Wir berechnen mit Hilfe der Poisson- und der Binomialverteilung.
Die Überlegung für die Poissonverteilung: Pro Packung (statt pro Zeiteinheit) kennen wir
den Durchschnittlichen Ausschuss. Der Erwartungswert beträgt 500  0. 002  1
0
PX  0  10! e 1  0. 367 88
Mit der Binomialverteilung: 0.367511
Wir sehen, dass die Resultate sehr nahe sind (ist bei hohem n der Fall)
b) Der Erwartungswert beträgt: 50000.002  10
0
PX  0  100! e 10  0. 00004 54.
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 210
Mit der Binomialverteilung: 0.000049475
10) a) Mit Binomialverteilung: PX  0  1  PX  0  0. 99
PX  0  n0 0. 01 0 1  0. 01 n0  1  1  0. 99 n  0. 99 n
Somit ist: 1  PX  0  1  0. 99 n  0. 99
Wir haben eine Gleichung mit einer Unbekannten. Es gilt, diese nach n aufzulösen.
0. 99 n  0. 99  1  0. 99 n  1  0. 99  0. 01 
log 0.01
n log 0. 99  log 0. 01  n  log 0.99  458. 21
Somit muss n  458 gelten (oder n  459.
b) Mit Poisson-Verteilung: PX  0  1  PX  0  0. 99
Der Erwartungswert  ergibt sich durch n  0. 01.
n0.01 0 n0.01
PX  0 
e
 e n0.01 Da n  0. 01 0  1; 0!  1
0!
Es gilt somit:1  e n0.01  0. 99   e n0.01  0. 99  1 
e n0.01  1  0. 99  0. 01
Wir lösen diese Gleichung nach n auf:
ln e n0.01  ln 0. 01  n  0. 01 ln e  ln 0. 01  (da ln e  1
n  0. 01  ln 0. 01
0.01
 460. 52
n   ln0.01
n  460.
11) a) Zurückgenommen und ersetzt werden Geräte, bei denen mindestens ein Defekt
auftritt. Die Wahrscheinlichkeit dafür, dass mehr als ein Defekt auftritt ist:
0
1  PX  0  1  0.1
e 0.1  0. 09 516 3.
0!
Somit fallen durchschnittlich 9.5163 % der Geräte als defekt an.
b) Ein ersetztes Gerät verursacht Kosten von 80 Franken. Auf 100 produzierte Geräte
ergibt sich ein Gewinn von 100  40 und ein Verlust von 9. 5163  80.
Dies ergibt: 100  40  9. 5163  80  3238. 7
Pro Gerät ergibt sich ein durchschnittlicher Gewinn von 32.387 Franken.
12) Wir müssen berechnen. PX  k  0. 01.
(mit Excell würde man die Verteilungsfunktion berechnen und dann schauen, wann 0.99
erreicht ist).
Summen PX  k
PX  0 
0.8 0
0!
e 0.8  0. 449 33
PX  1 
0.8 1
1!
e 0.8  0. 359 46
0. 808 79
PX  2 
0.8 2
2!
e 0.8  0. 143 79
0. 952 58
PX  3 
0.8 3
e 0.8  0. 03 834 3 0. 990 92
3!
Somit müssen mindestens drei Equipen bereit stehen. Es handelt sich jedoch um eine
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 211
sehr konservative Schätzung: immerhin wird bei einem Unfall eine Equipe nicht den
ganzen Tag beschäftigt sein. Wollte man diese zeitliche Dimension auch noch einbauen,
würde das Modell kompliziert. Man müsste die Verteilung der Unfallhäufigkeit über den
Tag kennen sowie die Verteilung der Dauer der Rettungseinsätze.
2
0
13) PX  0 
PX  2 
2
2
152
100
15
10
152
102
15
10
2
1
 0. 095238095; PX  1 
 0. 428571429; PX  3 
2
3
152
101
15
10
152
n3
15
3
 0. 476190476
 0 (da es in der
Grundgesamtheit nur 2 hat, kann es nicht mehr in der Stichprobe haben).
PX  4  0; PX  5  0; PX  6  0; PX  7  0; PX  8  0; PX  9  0
14) 700  0. 1  70  M
a) P(X  2) 
70
2
70070
252
700
25
 0. 269 32
b) gesucht ist: 1  PX  1  PX  0 
1
70
1
70070
251
700
25

70
0
70070
250
700
25
 1  0. 265 8  0. 734 2
c) gesucht ist: 1  PX  3  PX  2  PX  1  PX  0 
1
70
3
70070
253
700
25

70
2
70070
252
700
25
 0. 265 8
 1. 0  0. 766 05  0. 233 95
d) für die Binomialverteilung: PX  2   252 0. 1 2 0. 9 252  . 265 89
PX  2 
0. 1 0 0. 9 250  1. 0  0. 271 21  0. 728 79
1   251 0. 1 1 0. 9 251  25
0
25
0. 1 3 0. 9 253   252 0. 1 2 0. 9 252  0. 27121 
PX  4  1 
3
1  0. 763 60  0. 236 4
15)
PX
PX
PX
PX
PX
PX  0  0. 236313646;
 1  0. 396499406;
 2  0. 264332937
 3  0. 087521608027
 4  0. 0143921175136
 5  0. 00094028501089
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 212
0.2
0 .5
0 .4
0.15
0 .3
0.1
0 .2
0.05
0 .1
0
0
0
1
2
3
4
5
0
6
5
10
15
20
25
30
Wahrscheinlichkeitsfunktion für X  H800, 200, 5 Wahrscheinlichkeitsfunktion für  H800, 200
16)
Anzahl Tage Anzahl
Defekte
2
0
10
1
20
2
30
3
40
4
25
5
20
6
15
7
5
8
2
9
0 mehr als 9
Summen
169
45
Durchnitt der Defekte pro Tag
Tage*Defe relative
kte
Häufigketen
0
10
40
90
160
125
120
105
40
18
0
708
4.189349
0.01183432
0.0591716
0.1183432
0.17751479
0.23668639
0.14792899
0.1183432
0.0887574
0.0295858
0.01183432
0
1
Werte der
Poissonverteilun
g
0.01515615
0.06349439
0.13300008
0.18572792
0.19451978
0.16298225
0.11379826
0.06810581
0.03566487
0.0166014
0.01094908
Graphik der empirischen und der theoretischen Verteilung:
0.25
R e la t ive
H ä u fig k e it e n
0.2
0.15
W e rt e d e r
P o is s o n V e rt e ilu n g
0.1
0.05
0
0
5
10
15
Wir gehen davon aus, dass das Modell der Poissonverteilung sinnvoll ist und
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 213
berechnen:
PX  4  1  PX  3 
1
3

k0
4.189349112 k
k!
e 4.189349112
 0. 602 62
17) Verteilung PX  x in Funktion von x dargestellt:
0.05
0.04
0.03
0.02
0.01
0
0 1 2 3 4 5 6 7 8 9 101112131415161718192021222324
Wahrscheinlichkeitsfunktion
Verteilungsfunktion:
1.2
1
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9 101112131415 1617181920 21222324
Verteilungsfunktion
1
PX  3  22
;
1
PX  4  22 ,
P2  X  20  19
22
PX  5  1  PX  4  1 
4
22

9
11
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 214
PX  4  PX  3 
3
22
18) (Denksport, fakultativ) Wir können voraussetzen, dass die Wahrscheinlichkeit
dafür, dass jeder Bezug von 9 Karten ohne Zurücklegen und ohne Reihenfolge
gleichwahrscheinlich ist (uniforme Verteilung). Damit beträgt die Wahrscheinlichkeit
dafür, genau ein spezifisches Set von Karten zu erhalten: 361 . Der Bezug von 9
9
Karten gleicher Farbe ist dabei bei 4 Sets erreicht. Entsprechen gilt: P 
248 8  10 8 .
4
36
9
 4.
19) (Denksport, fakulaltiv) Wir können wiederum voraussetzen, dass die
Wahrscheinlichkeit dafür, dass jeder Bezug von 9 Karten ohne Zurücklegen und
ohne Reihenfolge gleichwahrscheinlich ist (uniforme Verteilung). Damit beträgt die
Wahrscheinlichkeit dafür, genau ein spezifisches Set von Karten zu erhalten: 361 .
9
Jetzt müssen wir untersuchen, in wie vielen Sets vier Asse vorkommen. Ein Set,
das die 4 Asse enthält kann eine beliebige Menge von 5 weiteren Karten aus den
übrigen Karten enthalten. Dies sind  325 .
Somit gibt es  32
 Sets, die die vier Asse enthalten. Somit beträgt die
5
Wahrscheinlichkeit, vier Asse zu erhalten:
32
5
36
9
 2. 139  10 3
8. Lernziele
- Den Begriff der Verteilungsfamilie mit Hilfe eines Beispiels erläutern können.
- Die Begriffe ”Bernoulli-, Binomial-, Poisson-Verteilung” kennen (Abkürzungen
verstehen). Begriffe der hypergeometrischen und diskreten uniformen Verteilung
kennen (Abkürzung verstehen).
- Werte dieser Verteilungen und der entsprechenden Verteilungsfunktionen
berechnen können (von Hand, mit Excel, mit dem HP).
- Verteilungen und Verteilungsfunktionen der besprochenen Art zeichnen können.
- Die Ausgangsformeln für den Erwartungswert und die Varianz für jede der
Verteilungen durch Einsetzen in die entsprechenden Definitionsformeln erzeugen
können (die Resultate der Herleitungen können jedoch nachgeschlagen werden).
- Aufgaben von der Art der Übungen lösen können (Auf Grund einer
Situationsbeschreibung die richtige Verteilungsfamilie wählen, die Parameter der
Verteilung bestimmen und Wahrscheinlichkeiten berechnen können).
___________________________________________________________________
Diskrete Verteilungsfamilien.tex 1. HSW Siders
P.R. 215
5. Stetige Wahrscheinlichkeitsräume
Bei Variablen, die metrisch und stetig skaliert sind, gibt es theoretisch unendlich
viele Ausprägungen und im betrachteten Intervall sind alle reellen Zahlen als
Ausprägungen zulässig. Im Allgemeinen würden zwei verschiedene Objekte nie in
dieselbe Kategorie fallen (die selbe Ausprägung haben). Misst man z.B. 100
Schrauben genügend genau, wird vermutlich keine Schraube genau gleich lange
sein wie eine andere.
Eine diskrete Wahrscheinlichkeitsfunktion ordnet den einzelnen Werten einer
Zufallsvariable Wahrscheinlichkeiten zu. Für die Summe der Wahrscheinlichkeiten
n
p i , die den Werten x i der Zufallsvariable zugeordnet sind, muss gelten:  p i  1.
i1
Würden wir nun aber z.B. den unendlich vielen möglichen Ausprägungen x einer
uniform verteilten Zufallsvariable positive Wahrscheinlichkeiten p zuordnen, würde
sich das Problem ergeben,dass die Summe dieser unendlich vielen Zahlen grösser
als 1 wäre. Für eine uniforme Wahrscheinlichkeitsfunktion gilt nämlich:
x  1k  p (mit k  0). Bei unendlich vielen Werten der Zufallsvariablen ist

 p  1, da mit p 
i1
1
k
k1
bereits 
i1
1
k
 k  1 1k  1 
1
k
 1.
1
z.B. x  0. 02.  k  0.02
 50. Für 51 gilt nun: 51  0. 02  1. 02. Somit würden
bereits 51 Ausprägungen zu einem Ergebnis führen, das der
Wahrscheinlichkeitstheorie widerspricht. Bei unendlich vielen Ausprägungen gilt im

Falle der uniformen diskreten Verteilung für beliebige k  0 sogar: 
i1
1
k
 . (Man
beachte, dass die Summe unendlich vieler positiver Zahlen nicht ins Unendliche zu

wachsen braucht. So gilt etwa 
i1
1
i2

1
6
2
Deshalb können wir bei kontinuierlichen oder stetigen Zufallsvariablen nicht den
einzelnen Werten der Zufallsvariable eine positive Wahrscheinlichkeit zuordnen.
Wir müssen einen anderen Weg verfolgen: wir ordnen Intervallen (statt den Werten
der Zufallsvariable) positive Wahrscheinlichkeiten zu. Wir bei stetigen
Wahrscheinlichkeitsräumen also nicht mehr an, wie hoch die Wahrscheinlichkeit
ist, dass eine Schraube eine bestimmte Länge hat. Wir geben nunmehr die
Wahrscheinlichkeit an, dass die Länge einer Schraube in einem spezifischen
Intervall liegt. Um entsprechende Festlegungen vorzunehmen, gibt es im
wesentlichen zwei Vorgehensweisen. Die erste besteht darin, die
Wahrscheinlichkeitsverteilung mit Hilfe einer Verteilungsfunktion F zu definieren.
Dadurch sind dann Wahrscheinlichkeiten für linkshalboffene Intervalle definiert, da
dem Intervall a, b die Wahrscheinlichkeit Fb  Fa zugeordnet wird. Mit Hilfe der
Wahrscheinlichkeiten, die linkshalboffenen Intervallen zugeordnet sind, sind dann
auch die Wahrscheinlichkeiten, die bliebigen Vereinigungs- und Differenzmengen
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
213
solcher Intervalle zugeordnet sind, bestimmt.
Die Intervalle samt ihren (endlichen oder abzählbar unendlichen)
Vereinigungsmengen und dem Komplement von zugelassenen Mengen bilden
dabei ein Mengensystem B ( Borelsche  Algebra), auf das wir die
Wahrscheinlichkeitsverteilung P definieren. Das Tripel (, B, P) nennen wir einen
stetigen Wahrscheinlichkeitsraum (intuitiv bedeutet "stetig", dass man die
Funktionskurve in einem Zug zeichnen kann, ohne den Bleistift zu heben).
5.1. Verteilungsfunktionen; Definition und Beispiele
Wir beschränken uns in der Folge auf die Untersuchung von Zufallsvariablen, die
stetig sind und deren Wertebereiche mit den reellen Zahlen zusammenfallen.
Solche Zufallsvariablen nennen wir ”stetige Zufallsvariablen auf ” oder kurz
”stetige Zufallsvariablen”. Um eine Wahrscheinlichkeitsverteilung P X auf eine
stetige Zufallsvariable X festzulegen, verwenden wir unter anderem
Verteilungsfunktionen. Als Verteilungsfunktionen betrachten wir beliebige
Funktionen F X mit
1) Definitionsbereich von F X  
2) F X  1 (d.h. F X ist nach oben beschränkt und hat als obere Schranke 1).
3) F X  0 (d.h. F X ist nach unten beschränkt und hat als untere Schranke 0)
4) F X ist eine stetige, monoton steigende Funktion.
Zu beachten ist, dass die Funktion nicht strikt monoton steigen muss. Jede
Funktion, die diese Eigenschaften aufweist, kann als Verteilungsfunktion einer
stetigen Verteilung betrachtet werden. Wir nennen Verteilungen ”stetig”, wenn sie
solche Verteilungsfunktionen aufweisen (Es ist auch möglich, nicht-stetige
Verteilungsfunktionen zu betrachten. Wir lassen diesen Fall ausser Acht).
Wir definieren nun eine Wahrscheinlichkeitsverteilung auf eine stetige
Zufallsvariable X mit Hilfe einer Verteilungsfunktion der obigen Art wie folgt:
5.1.2. Definition: PX  x : F X x
Damit ist die Wahrscheinlichkeit für beliebige Intervalle festgelegt. So ist z.B.
Pa  X  b  F X b  F X a. Konkret würde P3  X  5 für Schrauben z.B. die
Wahrscheinlichkeit ausdrücken, dass eine Schraube eine Länge im Intervall 3, 5
aufweist. Zudem ist die Wahrscheinlichkeit für beliebige Vereinigungsmengen von
disjunkten Intervallen festgelegt. Wir erhalten sie durch Addition der
Wahrscheinlichkeiten, die den Intervallen zugeordnet sind.
Beispiel 1: Wir nehmen an, die Verteilung von Schraubenlängen wäre durch die
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
214
folgende Verteilungsfunktion bestimmt (in Zentimeter):
1. 5x  4 für
F X x 
8
3
x
1
für x 
0
für x 
10
3
10
3
8
3
Die Wahrscheinlichkeit PX  3 ( die Wahrscheinlickeit, dass eine zufällig
gezogene Schraube kleiner oder gleich 3 cm lang ist), beträgt dann:
F X x  1. 5  3  4  0. 5
Die Wahrscheinlichkeit P3  X  3. 2 (die Wahrscheinlichkeit, dass eine zufällig
gezogene Schraube zwischen 3 und 3. 2 cm lang ist) beträgt:
F X 3. 2  F X 3  1. 5  3. 2  4  1. 5  3  4  0. 3
Die Wahrscheinlichkeit PX  2 (die Wahrscheinlichkeit, dass eine zufällig
gezogene Schraube kleiner als 2 cm lang ist) beträgt: F X 2  0
Die Wahrscheinlichkeit P3. 3  X (die Wahrscheinlichkeit, dass eine zufällig
gezogene Schraube grösser als 3. 3 cm lang ist) beträgt:
1  F X 3. 3  1  1. 5  3. 3  4  0. 05
Die Wahrscheinlichkeit P2  X (die Wahrscheinlichkeit, dass eine zufällig
gezogene Schraube grösser als 2 cm ist) beträgt: 1  F X 2  1  0  1
Die Wahrscheinlichkeit P5  X (die Wahrscheinlichkeit, dass eine zufällig
gezogene Schraube grösser als 5 cm ist) beträgt: 1  F X 5  1  1  0
Beispiel 2: Wir nehmen an, die Verteilung der Reaktionszeit von Versuchstieren in
Sekunden wäre durch die folgenden Verteilungsfunktion
2x für 0  x  0. 5
bestimmt.F X x 
1
für x  0. 5
0
für x  0
(x wird in Minuten gemessen)
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
215
Die Wahrscheinlichkeit, dass ein zufällig untersuchtes Versuchstier eine
Reaktionszeit unter 0.35 Minuten aufweist, beträgt dann:
PX  0. 35  F X 0. 35  0. 35  2  0. 7
Weitere Wahrscheinlichkeiten:
P0. 2  X  0. 4  F X 0. 4  F X 0. 2  0. 4  2  0. 2  2  0. 4
P2  X  3 . F X 3  F X 2  1  1  0
P3  X  2  F X 2  F X 3  0  0  0
PX  0. 4  1  F X 0. 4  1  0. 4  2  0. 2
5.1.2. Theorem: Ist X eine Zufallsvariable mit einer stetigen
Verteilungsfunktion, dann ist PX  x  0
Begründung: Durch die Verteilungsfunktion F ordnen wir mit Fa  Fb dem
linkshalboffenen Intervall b, a eine Wahrscheinlichkeit zu. Es gibt nun kein
linkshalboffenes Intervall b, a, das a und nur a enthält. Das linkshalboffene
Intervall a, a ist nämlich leer, da es kein x gibt, das grösser als a und kleiner-gleich
a ist. Jedes linkshalboffene Intervall b, a mit b  a enthält hingegen unendliche
viele Zahlen. Somit ist die Wahrscheinlichkeit, dass a in ein Intervall fällt, das nur a
enthält, mit 0 identisch, da es ein solches Intervall gar nicht gibt.
Übung: Die Zeit bis zum ersten Ausfall einer Maschine wird als Wert einer
Zufallsvariable betrachtet. Deren Verteilung sei durch die folgende
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
216
0 für x  0
Verteilungsfunktion gegeben: F X x 
0. 2x für 0  x  5 (in Monaten)
1 für x  5
Berechnen Sie die Wahrscheinlichkeit dafür, dass die Maschine in den ersten zwei
Monaten ausfällt?
Berechnen Sie zudem:
b) P3. 3  X  4
c) PX  2. 2
d) Zeichnen Sie die Verteilungsfunktion.
Lösung: a) PX  2  F X 2  0. 2  2  0. 4
b) P3. 3  X  4  F X 4  F X 3. 3  0. 2  4  0. 2  3. 3  0. 14
c) PX  2. 2  1  F2. 2  1  0. 2  2. 2  0. 56
d)
Beispiel 3: Bei einer Produktion werden Güter einer spezifischen Art verwendet.
Dabei können nur die Stücke mit einer Länge von 1 bis 14 verwendet werden. Die
Verteilung der Länge der Stücke sei durch die folgende Verteilungsfunktion
gegeben:
0. 005x 2
F X x 
0
1
für 0  x  14. 1421356257
für x  0
für x  14. 1421356257
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
217
Berechnen Sie die Wahrscheinlichkeit, dass X zwischen folgenden x i liegt:
a) 7 und 8
b) -5 und -4
c) 16 und 17
d) Wieviel beträgt der Ausschuss?
Lösung:
a) P7  X  8  F X 8  F X 7  0. 0058 2  0. 0057 2  0. 075
b) Zwischen 5 und 4 ist die Verteilungs-Funktion eine konstante Funktion mit
F X  0, wobei gilt 0  0  0.
c) Zwischen 16 und 17 ist die Verteilungs-Funktion eine konstante Funktion mit
F X  1, wobei gilt: 1  1  0
d) PX  1  PX  14  0. 005  1 2  1  0. 005  14 2  0. 025 . Somit ist mit
einem Ausschuss von 2.5% zu rechnen.
0. 3x  0. 4
Beispiel 4: F X x 
für  1. 3333  x  2
1
für x  2
0
für x  1. 3333
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
218
PX  1  F1  0. 3  1  0. 4  0. 1
PX  1  F1  0. 3  1  0. 4  0. 7
P1  X  1. 5  F1. 5  F1  0. 3  1. 5  0. 4  0. 3  1  0. 4  0. 15
Eingangs wurde erwähnt, dass es zwei Möglichkeiten gibt,
Wahrscheinlichkeitsverteilungen auf stetige Zufallsvariablen zu definieren. Wir
wenden uns nun der zweiten Möglichkeit zu.
5.2. Die Dichtefunktion
Bei der Verteilungsfunktion gibt der Wert Fx die Wahrscheinlichkeit PX  x an.
Damit wird dem Intervall ], x] eine Wahrscheinlichkeit zugeordnet. Bei der
Dichtefunktion wird jedem Intervall a, b unmittelbar eine Wahrscheinlichkeit
zugeordnet, indem man dem Intervall die Fläche zwischen der x-Achse und der
Dichtefunktion als Wahrscheinlichkeit zuordnet. Entsprechend muss die Fläche
unter der Dichtefunktion im Intervall ], [ 1 betragen. Deshalb könnte die
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
219
folgende Funktion
0
fx 

1
x  18
16
9
1
x  56
112
0
für x  2
für 2  x  4
für 4  x  18
für x  18
als Dichtefunktion aufgefasst werden.
Die Fläche zwischen 2 und 18 beträgt nämlich: 16  18  12  1 (Es handelt sich um
ein Dreieck der Basis 16 zur Höhe 18 . Die Fläche im Intervall ], 2] ist 0. Die
Fläche im Intervall 18,  beträgt 0. Damit beträgt die Fläche zwischen der
Funktion und der x-Achse 1.
Um die Wahrscheinlichkeit auszudrücken, dass ein Wert im Intervall a, b liegt,
können wir nun die Fläche zwischen f und der x-Achse im Intervall a, b berechnen.
So beträgt die Wahrscheinlichkeit, dass ein Objekt ins Intervall 2, 4 fällt z.B.
2  18  12  18 (die Fläche ist das Dreieck mit Basis 2 und Höhe 18 . Für andere
Intervalle würden die Flächenberechnungen etwas komplizierter, da die Flächen
jeweils aus Trapezen oder aus Summen von Trapezen oder Dreiecken bestehen.
Bevor wir zur Definition der Dichtefunktion übergehen, erläutern wir intuitiv die
a
Symbolik  fxdx. Sie bezeichnet die Fläche zwischen der x-Achse und der
b
(wenigstens intervallweise stetigen) Funktion f im Intervall a, b.
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
220
3
 fxdx  die Fläche zwischen der x-Achse und
2
der Funktion f im Intervall 2, 3
a
Entsprechend bezeichnet  fxdx die Fläche zwischen der Funktion f und der


x-Achse im Intervall   , a und  fxdx die Fläche zwischen der Funktion f und

der x-Achse in .
Wir können nun die folgende Definition vornehmen:
Definition: Sei f :    . f ist eine Dichtefunktion einer stetigen
Zufallsvariable X genau dann, wenn f  0 und die Fläche zwischen f und

der x Achse 1 (d.h.  fdx  1).

Die Dichtefunktion entspricht in etwa der Wahrscheinlichkeitsfunktion, nur dass den
einzelnen Werten der Zufallsvariable keine positive Wahrscheinlichkeit zugeordnet
ist. In einem Intervall mit 0 Ausdehnung wird die Fläche zwischen der Funktion und
der x-Achse nämlich 0 (so gilt z.B. für die Fläche A eines Rechtecks mit zwei
Eckpunkten a und b (b  a) auf der x-Achse sowie der Höhe c: A  b  a  c. Fällt
nun b mit a zusammen, ergibt sich a  a  c  0)
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
221
Wie bei diskreten Verteilungsfunktionen und Wahrscheinlichkeitsfunktionen gibt es
einen engen Zusammenhang von stetigen Verteilungsfunktionen und
Dichtefunktionen. Ist F X eine stetige Verteilungsfunktion, dann ist für
t
F X t   f X xdx die Funktion f X eine Dichtefunktion, welche dieselbe

Wahrscheinlichkeitsverteilung wie die Verteilungsfunktion ausdrückt. Die Fläche
zwischen der x Achse und der Dichtefunktion im Intervall x 1 , x 2  gibt die
Wahrscheinlichkeit an, dass Px 1  X  x 2   F X x 2   F X x 1 .
x2
Mit anderen Worten: Px 1  X  x 2   F X x 2   F X x 1    f X xdx.
x1
Die Dichtefunktion wird verwendet, weil es
(1) nicht für alle wichtigen Verteilungsfunktionen geschlossen berechenbare
Formeln gibt. So ist z.B. die Normalverteilung nur als Dichtefunktion in einer
geschlossenen, berechenbaren Formel angebbar, während ihre
Verteilungsfunktion nur mit Hilfe von Näherungszahlen (in Tabellen) angegeben
wird.
(2) Um die Kennzahlen wie Erwartungswert, Varianz und Standardabweichung für
stetige Wahrscheinlichkeitsverteilungen zu berechnen, verwenden wir die
Dichtefunktion.
(3) Die Dichtefunktion ist recht anschaulich.
Die Zusammenhänge können wir ohne Differential- und Integralrechung an einem
Beispiel klar machen. Sei fx  0. 5 für 0  x  2 eine Dichtefunktion (mit fx  0
für x  0 und fx  0 für x  2). Die Fläche zwischen der Dichtefunktion und der
der x-Achse ist dann 0  0. 5  2  0  1
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
222
Die Wahrscheinlichkeit PX  0. 6 ist die Fläche unter der Dichtefunktion im
Intervall ]0, 0.6]: Somit gilt: PX  0. 6  0. 5  0. 6  0. 3.
P0. 3  X  0. 7 ist die Fläche im Intervall ]0.3, 0.7]. Somit gilt:
P0. 3  X  0. 7  0. 4  0. 5  0. 2
P0. 4  X  1  0. 4  0. 5  0. 08
Die entsprechende Verteilungsfunktion F X erhalten wir aus der obigen
Dichtefunktion wie folgt: Die Fläche unter der Dichtefunktion zwischen 0 und x ist
im Intervall ]0, 2] 0. 5  x. Somit ist die entsprechende Verteilungsfunktion
F X x  0. 5x für 0  x  2 (und F X x  0 für x  0, F X x  1 für x  2)
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
223
Wir überprüfen das Ergebnis an den obigen Beispielen:
PX  0. 6  F X 0. 6  0. 5  0. 6  0. 3
P0. 3  X  0. 7  F X 0. 7  F X 0. 3  0. 5  0. 7  0. 5  0. 3  0. 2
P0. 4  X  1  F X 0. 4  1  0. 4  0. 5  0. 8
Es ist ersichtlich, dass wir dieselben Ergebnisse erhalten, ob wir nun die
Dichtefunktion oder die entsprechende Verteilungsfunktion verwenden. Bei
komplizierteren Dichtefunktionen (Logarithmusfunktionen, Polynomen höheren
Grades, Exponentialfunktionen) , können wir die Fläche nicht mehr mit klassischer
Geometrie berechnen. Wir brauchen dazu Intergralrechnung oder
Näherungsverfahren.
Da den einzelnen Werten die Wahrscheinlichkeit 0 zugeordnet wird, spielt es bei
stetigen Verteilungen keine Rolle, ob wir schreiben: PX  x oder PX  x
(respektive: PX  x oder PX  x. Im Allgemeinen halten wir jedoch die bisher
verwendete Schreibweise bei.
0 für x  0
Übung: Gegeben sei die folgende Dichtefunktion: fx 
0. 2 für x 0, 5
0 für x  5
Zeigen Sie:
a) Die Fläche unter der Dichtefunktion ist mit 1 identisch.
b) Berechnen Sie mit Hilfe der Dichtefunktion die Wahrscheinlichkeiten:
PX  4
P3  X  4. 5
P0. 5  X  0. 6
PX  3
c) Berechnen Sie die Verteilungsfunktion, die der Dichtefunktion entspricht und
berechnen Sie nach der Verteilungsfunktion:
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
224
PX  4
P3  X  4. 5
P0. 5  X  0. 6
PX  3
Lösung:
a) 0. 2  5  1
b) PX  4  4  0. 2  0. 8
P3  X  4. 5  1. 5  0. 2  0. 3
P0. 5  X  0. 6  0. 1  0. 2  0. 0 2
PX  3  1  3  0. 2  0. 4  2  0. 2
c) Die Fläche als Funktion von x  0. 2x. Somit ist F X x  0. 2x im Intervall ]0,5],
F X x  0 für x  0 und F X x  1 für x  5.
PX  4  F X 4  0. 2  4  0. 8
P3  X  4. 5  F X 4. 5  F X 3  0. 2  4. 5  0. 2  3  0. 3
P0. 5  X  0. 6  F X 0. 6  F X 0. 5  0. 2  0. 6  0. 2  0. 5  0. 0 2
PX  3  1  F X 3  1  0. 2  3  0. 4
3. Kennzahlen
Der Median einer stetigen Verteilung wird definiert als der Punkt, der die Fläche
unter der Dichtefunktion in zwei gleiche Hälften teilt. Somit liegt links vom Median
0. 5 der Fläche. Äquivalent ist die folgende Definition: Der Median ist x mit
F X x  0. 5. Betrachten wir ein Beispiel:
Für fx  0. 2 im Intervall 0, 5 (sonst fx  0) erhalten wir als Median die Zahl
2. 5, da 2. 5  0. 2  0. 5.
Dieselbe Zahl erhalten wir, wenn wir die entsprechende Verteilungsfunktion
verwenden: F X x  0. 2x  0. 5  x  2. 5.
Der Erwartungswert einer stetigen P-verteilten Zufallsvariable X wird wie folgt
definiert:

   xfxdx

Dabei ist f eine Dichtefunktion der P-verteilten Zufallsvariable X. Die Ähnlichkeit mit
der bisherigen Definition des Erwartungswertes springt ins Auge. In Bezug auf

diskrete Verteilungen haben wir den Erwartungswert definiert als  x i PX  x i .
i1
Das Symbol fürs Intergral, das man als Summenbildung einer spezifischen Art
auffassen könnte, hat das Symbol für unendliche oder endliche Summenbildung
abgelöst. Die Werte der Wahrscheinlichkeitsfunktion (x  PX  x) werden
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
225
durch die Werte der Dichtefunktion ersetzt.
Bei symmetrischen Dichtefunktionen fällt der Median mit dem Erwartungswert
zusammen. Das obige Beispiel ist symmetrisch. Entsprechend haben wir dort mit
dem Median auch den Erwartungswert berechnet.

Die Varianz wird definiert als:  x   2 fxdx

Auch hier sollte man die Ähnlichkeit mit der Definition der Varianz für diskrete

Verteilungen im Auge behalten: x i   2 PX  x i .
i1
Wie üblich ist die Standardabweichung definiert als die Wurzel aus der Varianz.
Lernziele
- Die Begründung dafür angeben können, dass bei stetigen Verteilungen den
einzelnen Werten der Zufallsvariable die Wahrscheinlichkeit 0 zugeordnet wird.
- Die drei Bedingungen einer Verteilungsfunktion angeben können.
- Die Wahrscheinlichkeiten, welche Intervallen mit Hilfe einer Verteilungsfunktion
zugeordnet sind, berechnen können.
- Die Definition der Dichtefunktion angeben können. Die Gründe für die Einführung
von Dichtefunktionen kennen.
- Den Zusammenhang von Dichtefunktionen und stetigen Verteilungsfunktionen
erläutern können (Bevor der entsprechende Stoff in der Mathematik behandelt
wurde, ohne die Integral- und Differentialsymbolik. Es genügt zu wissen, dass man
mit Hilfe der Dichtefunktion und der stetigen Verteilungsfunktion jedem Intervall
a, b dieselbe Wahrscheinlichkeit zuordnet und wie diese Zuordnung im Prinzip
erfolgt: bei der Dichtefunktion durch die Fläche zwischen der Funktion und der
x Achse im Intervall a, b; bei der Verteilungsfunktion durch die Differenz
Fb  Fa). .
- In Beispielen, die mit einfacher Geometrie zu berechnen sind,
Wahrscheinlichkeiten berechnen können, die Intervallen mit Hilfe einer
Dichtefunktion zugeordnet sind.
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Siders P.R.
Seite
226
6. Stetige Verteilungsfamilien
Wie bei den diskreten Verteilungen verdienen auf Grund ihrer praktischen
Bedeutung bei den stetigen Verteilungen bestimmte Familien von Verteilungen
einen eigenen Namen. Wir werden einige dieser Familien in der Folge genauer
untersuchen.
6.1. Die Familie der stetigen, uniformen Verteilungen
Wir haben bisher bereits einige Beispiele von stetigen, uniformen Verteilungen
kennengelernt. Sie sind dadurch gekennzeichnet, dass ihre Dichtefunktion im
interessierenden Intervall eine konstante Funktion ist mit fx  0 oder dass die
Verteiltungsfunktion im interessierenden Intervall eine Gerade Fx  dx  e ist (f X
sei die Dichtefunktion der Verteilungsfunktion F X der Zufallsvariable X:
Definition: f X ist die Dichtefunktion einer stetigen, uniformen Verteilung genau dann,
a für b  x  c
und
wenn es ein a, b und c gibt, so dass c  b und f X 
0 für x  b
0 für x  c
c  b  a  1
Für uniform verteilte Zufallsvariablen schreiben wir: X  Ub, c. (gelesen als: Die
Zufallsvariable X ist uniform verteilt mit den Intervallgrenzen b und c). Die
Ausdrücke in den Klammern werden als ”Parameter” der Verteilung bezeichnet.
Die uniforme Verteilungsfunktion wird in der ”Wirklichkeit” selten angetroffen.
Uniform verteilte Zufallszahlen können wir aber dazu verwenden, um anders
verteilte Zufallzahlen zu berechnen, wie wir sehen werden. Da die
Computer-Programme oft nur uniform verteilte Zufallszahlen liefert, können wir mit
Hilfe der uniform verteilten Zahlen auch anders verteilte Zufallszahlen kreieren.
Der Median einer uniform verteilten Zufallsvariable ist: med X 
bc
2
Beweis: Sei Fx  dx  e. Wir setzen ein: Fx  d bc
e
2
Die Intervallgrenzen b und c sind durch die Schnittpunkte der Geraden mit 0 und 1
gegeben: dx  e  0  x  e
 b; dx  e  1  x  1e
c
d
d
e  d
Wir setzen ein: Fx  d bc
2
2e1
2e12e
1
e 
 2 
2
2
e
d
 1e
d
2
e  d
e1e
d
2
e 
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 227
Der Erwartungswert  ist mit dem Median identisch.
c
Die Varianz  2 einer uniform verteilten Zufallsvariable ist:  fxx   2 dx 
b
c
 2  ax   2 dx 
b
1
3
c 3  c 2   c 2 
1
3
b 3  b 2   b 2 a 
cb 2
12
Beweis der letzten Gleichung: Da   bc
und ac  b  1 auf Grund der
2
1
Wahrscheinlichkeitstheorie!  a  cb  erhalten wir:
2
2
1 3
1
c  c 2  bc

  c bc
  13 b 3  b 2 bc
  b bc

3
2
2
2
2
cb
1
1
1
1
3
2
2
3
c  4cb c b  4cb cb  12cb b 
12cb
3
3
1
1
c 3  12cb
c 2 b  12cb
cb 2  12cb
b3 
12cb
1
12cb
c 3  3c 2 b  3cb 2  b 3  
cb 3
12cb

cb 2
12

Übungen:
1) a) Berechnen Sie eine uniforme Dichtefunktion mit x  0 für x 0, 20.
b) Geben Sie die entsprechende Verteilungsfunktion an.
c) Berechnen Sie mit Hilfe der Dichtefunktion die folgenden Wahrscheinlichkeiten:
PX  19
P18  X  19
P18. 999  X  19
P0. 1  X  1
PX  5
PX  0. 1
d) Berechnen Sie dieselben Wahrscheinlichkeiten mit Hilfe der Verteilungsfunktion.
e) Berechnen Sie den Median
f) Berechnen Sie den Erwartungswert.
g) Berechnen Sie die Varianz und die Standardabweichung.
2) a) Berechnen Sie eine uniforme Dichtefunktion mit x  0 für x   20, 20.
b) Geben Sie die entsprechende Verteilungsfunktion an.
c) Berechnen Sie mit Hilfe der Dichtefunktion die folgenden Wahrscheinlichkeiten:
PX  19
P18  X  19
P18. 999  X  19
P1. 1  X  1
PX  5
PX  0. 1
d) Berechnen Sie dieselben Wahrscheinlichkeiten mit Hilfe der Verteilungsfunktion.
e) Berechnen Sie den Median
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 228
f) Berechnen Sie den Erwartungswert.
g) Berechnen Sie die Standardabweichung und die Varianz.
Lösungen:
1) a) Die Fläche im Intervall muss 1 geben: Somit gilt: 20  x  1  x  0. 05. Die
Dichtefunktion ist somit fürs Intervall: fx  0. 05.
b) Die Fläche unter der Dichtefunktion beträgt (als Funktion von x) 0. 05x. Somit ist die
Verteilungsfunktion im Intervall: F X x  0. 05x.
c) PX  19  19  f19  19  0. 05  0. 95
P18  X  19  1  0. 05  0. 05
P18. 999  X  19  0. 001  0. 05  0. 0000 5
P0. 1  X  1  0. 9  0. 05  0. 0 45
PX  5  15  0. 05  0. 75  1  5  0. 05
PX  0. 1  1  0. 1  0. 05  0. 995
d) PX  19  F X 19  0. 05  19  0. 95
P18  X  19  F X 19  F X 18  19  0. 05  18  0. 05  0. 0 5
P18. 999  X  19  F X 19  F X 18. 999  19  0. 05  18. 999  0. 05  0. 0000 5
P0. 1  X  1  F X 1  F X 0. 1  1  0. 05  0. 1  0. 05  0. 0 45
PX  5  1  F X 5  1  5  0. 05  0. 75
PX  0. 1  1  F X 0. 1  1  0. 1  0. 05  0. 995
e) der Median x ist: F X x  0. 05x  0. 5  x  10
f) der Erwartungswert  Median, da uniforme Dichten symmetrisch sind.
200 2
g)  2  12  33. 333
  33. 333  5. 773 5
Wir stellen fest, dass im Intervall   ,     10  5. 7735, 10  5. 7735 die
folgende Fläche unter der Dichtefunktion liegt: 0. 05  2  5. 7735  0. 577 35.
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 229
2σ
µ
2) a) Die Fläche beträgt 40  x  1  x 
1
40
 0. 0 25  fx  0. 025
b) Die Funktion verläuft durch die Punkte -20,0 und 20,1. Wir berechnen eine
Gerade durch diese Punkte:
0  20a  b
a
1
40
,b 
1
2
1  20a  b
 Fx  0. 025x  0. 5 (fürs Intervall ]-20, 20])
c) PX  19  39  0. 025  0. 975
P18  X  19  37  0. 025  0. 925
P18. 999  X  19  0. 001  0. 025  2. 5  10 5
P1. 1  X  1  0. 1  0. 025  0. 00 25
PX  5  15  0. 025  0. 375
PX  0. 1  20. 1  0. 025  0. 502 5
d) PX  19  F X 19  0. 025  19  0. 5  0. 975
P18  X  19  F X 19  F X 18  0. 025  19  0. 5  0. 025  18  0. 5  0
. 925
P18. 999  X  19  F X 19  F X 18. 999 
0. 025  19  0. 5  0. 025  18. 999  0. 5  2. 5  10 5
P1  X  1. 1  F X 1  F X 1. 1  0. 025  1  0. 5  0. 025  1. 1  0. 5
. 00 25
PX  5  15  0. 025  1  F X 5  1  0. 025  5  0. 5  0. 375
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 230
Px  0. 1  1  F X 0. 1  1  0. 025  0. 1  0. 5  0. 502 5
e) Der Median x von F X  0. 025x  0. 5  0. 5  x  0
f) der Erwartungswert  der Median.
2020 2
 133. 33
h)  2 
12
  133. 3333  11. 547
Wir stellen fest, dass im Intervall   ,     0  11. 547, 0  11. 547 die folgende
Fläche unter der Dichtefunktion liegt: 0. 025  2  11. 547  0. 577 35
Es handelt sich um dieselbe Zahl wie unter 1). Die Fläche, die von Standardabweichung
aus der Fläche unter der Dichtefunktion herausgeschnitten wird, ist bei uniformen
Verteilungsfunktionen immer mit 0.57735 identisch. Grob geschätzt beträgt somit bei
uniformen Verteilungen die Wahrscheinlichkeit, dass x im Bereiche der
Standardabweichung um den Erwartungswert liegt etwas weniger als 35 .
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 231
6.2. Die Familie der Exponentialverteilungen
Weitere, einfache Verteilungsmodelle stellen Exponentialverteilungen dar. Sie
dienen etwa dazu, Ereignisse in der Zeit zu modellieren (z.B. die Lebensdauer von
Glühbirnen, von Maschinen, von Gegenständen, die wegen Ausfall dem
Produzenten zurückgeschickt werden).
Definition: F X ist die Verteilungsfunktion einer Exponentialverteilung genau dann, wenn
1  e x für 0  x;   0
F X x 
0
für x  0
Auf die Erwähnung von ”0 für x  0" verzichten wir künftig gewöhnlich.
Für   0. 5 erhalten wir den Graphen:
Wir zeigen, dass F X x  1  e x eine Verteilungsfunktion ist, indem wir beweisen,
dass gilt:
(1) 1  e x ist monoton steigend.
(2) 0  1  e x  1
Zu (1): Sei x 2  x 1
Wir zeigen: 1  e x 2  1  e x 1
1  e x 2  1  e x 1  e x 2  e x 2 
1
e x 2

1
e x 1
 x2  x1. 
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 232
Zu (2).Wir bestimmen die Nullstelle:
1  e x  0  e x  1  e x  1  x ln e  ln 1  0  x  0  x  0
Somit verläuft die Kurve durch den Ursprung.
Da die Kurve monoton steigend ist, gibt es im betrachteten Intervall 0,  keine
negativen Werte von F X x. 0 ist somit eine untere Schranke dieser Funktion.
Wir zeigen, dass es im betrachteten Intervall kein x gibt, so dass F X x  1.
1  e x  1  e x  0  e x  0.
Da e eine positive Zahl ist, gilt jedoch: e x  0. Wir erhalten den Widerspruch
e x  0 und e x  0.
Somit gibt es kein x, so dass F X x  1. 1 ist somit eine obere Schranke der
Funktion im betrachteten Intervall. 
Zu beachten ist, dass x für 1  e x  1 nicht definiert ist.
Es würde sonst gelten: 1  e x  1  e x  0  e x  0.
Es gibt jedoch keine Zahl x, so dass e x  0.
Wir können jedoch behaupten, dass 1  e x beliebig nahe an 1 herankommt. 1 ist
in der Tat der Grenzwert der Funktion F X x  1  e x .
Für eine exponentialverteilte Zufallsvariable X schreiben wir: X  Exp.
 ist der Parameter der Verteilungsfamilie. Je kleiner , desto langsamer steigt die
Kurve für wachsende x gegen 1. Beispiele:
  0. 05
  0. 5
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 233
  1. 5
5
Übung: Gegeben sei die Exponentialverteilung F X x  1  e x mit   0. 8. Es
gehe um die Zeit bis zum ersten Ausfall einer neuen Maschine (in Monaten).
Berechnen Sie PX  5.  Wahrscheinlichkeit, dass eine neue Maschine in den
ersten 5 Monaten zum ersten Mal ausfällt)
Berechnen Sie P3  X  6 (Wahrscheinlichkeit, dass eine neue Maschine
zwischen dem Ende des 2. Monats und dem Ende des 6. Monat ausfällt)
Berechnen Sie P100  X  100. 1 (Wahrscheinlichkeit, dass eine neue Maschine
in den ersten 3 Tagen des 100. Monats zum ersten Mal ausfällt, Monat à 30 Tage).
Berechnen Sie P3  X (Wahrscheinlichkeit, dass eine neue Maschine in den
ersten 3 Monaten zum ersten Mal ausfällt).
Berechnen Sie P0. 01  X  1
Lösungen:
PX  5  F X 5  1  e 0.85  0. 98168
P3  X  6  F X 6  F X 3  1  e 0.86  1  e 0.83   0. 08248 8.
P100  X  100. 1  F X 100. 1  F X 100 
1  e 0.8100.1  1  e 0.8100   1. 387 6  10 36
P3  X  1  F X 3  1  1  e 0.83   0. 09071 8.
P0. 01  X  1  F X 1  F X 0. 01  1  e 0.81  1  e 0.80.01   0. 542 7
Wir sehen, dass bei Exponentialverteilungen die Wahrscheinlichkeit für das
Eintreffen von kleinen x i bedeutend grösser ist als für das Eintreffen von grossen
xi.
Die Verteilungsfunktion der Exponentialverteilung ist stetig. Wir können
entsprechend die Dichtefunktion einer Exponentialverteilung berechnen:
d
F x  dxd 1  e x   e x (für x  0, 0 für x  0, da dxd 0  0
dx X
Für   0. 5 erhalten wir den folgende Graphen der Dichtefunktion: :
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 234
Der Parameter  gibt an, wie schnell sich die Dichtefunktion der x Achse nähert:
Je kleiner der Parameter, desto mehr Fläche liegt nahe der f Achse.
  0. 05
  0. 5
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 235
  1. 5
5
Auch hier gibt die Fläche unter der Dichtefunktion die Wahrscheinlichkeit des
Eintreffens der Werte von Zufallsvariablen an. Die Fläche unter der Dichtefunktion
im Intervall 0,  ist gleich 1. Mit Hilfe der Dichtefunktion können wir im Prinzip die
Wahrscheinlichkeiten für beliebige Teilintervalle von 0,  bestimmen. Dazu
bräuchte man allerdings die Intergralrechnung, wobei das Integral der
Dichtefunktion die Verteilungsfunktion ist (Stammfunktion). Damit wird die
Flächenberechnung auf die selbe Berechnungsart zurückgeführt, die wir oben in
den Übungen angewendet haben.
Der Median med X der Exponentialverteilung F X ist: med X  1  e x  0. 5.
Wir isolieren x:
1  e x  0. 5  e x  0. 5  e x  0. 5  x ln e  ln 0. 5  x   ln0.5 
0. 693 15

Die Dichtefunktion der Exponentialverteilung ist nicht symmetrisch. Entsprechend
fallen der Erwartungswert und der Median nicht zusammen.

Es gilt:    xe x dx 
0
1

.
Der Median ist immer kleiner als der Erwartungswert, da gilt:
0. 693 15
 1  0. 69315  1.

Beispiel:   0. 5   
1
0.5
 2; Median:
0. 693 15
0.5
 1. 386 3
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 236
Median
µ
Die Varianz einer Exponentialverteilung ist:

   e x x 
2
0
1

 2 dx 
1
2
Somit ist die Standardabweichung    
1

.
Die Standardabweichung schneidet damit links des Erwartungswertes das Intervall
0, , ab. Rechts des Erwartungswertes 2. Das gesamte Intervall umfasst somit:
2
F X 2  1  e 2  1  e    1  e 2  0. 864 66
Die Wahrscheinlichkeit dafür, dass die Werte der Zufallsvariable im Intervall
[  ,   ] um den Erwarungswert herum liegen, beträgt somit rund 85%.
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 237
  0. 5
  0. 05
2µ=2σ
2µ=2σ
µ
µ
Übung: Berechnen Sie für die Exponentialverteilung (Modell für die Lebensdauer
von Glühbirnen in Monaten) mit   0. 9 :
- den Median
- der Erwartungswert
- die Varianz
- die Standardabweichung
- PX  0. 8
- P0. 4  X  0. 8
- PX  0. 3
- P2  X
- Geben Sie die Dichtefunktion an.
- Erstellen Sie eine Zeichnung
Lösung:
15
15
- der Median: 0. 693
 0. 693
 0. 77017

0.9
1
1
- den Erwartungswert:   0.9  1. 1111
- die Varianz: 12  0.91 2  1. 234 6
- die Standardabweichung  1. 234 6  1. 111 1
- PX  0. 8  F X 0. 8  1  e 0.90.8  0. 513 25
- P0. 4  X  0. 8  F X 0. 8  F X 0. 4  1  e 0.90.8  1  e 0.90.4   0. 210 92
- PX  0. 3  0 (da PX  0  1
- P2  X  1  1  e 0.92   0. 165 3
- Geben Sie die Dichtefunktion an: f X x  e x  0. 9e 0.9x
___________________________________________________________________
Stetige Verteilungen.tex 1. HSW Visp P.R.
Seite 238
7. Anpassung einer stetigen Verteilung an Daten
Wollen wir überprüfen, wie konkrete, metrisch und stetig skalierte Daten verteilt
sein könnten, können wir die empirische Verteilungsfunktion (Punktform) zeichnen.
Beispiel: (die folgenden Daten liegen vor - metrische, stetige Skala):0.3, 0.5, 0.7,
0.8, 1.1, 1.2, 1.5, 1.7, 2, 2.2
Die empirische Verteilungsfunktion) ist dann:
Fx 
0
x  0. 3
1
10
0. 3  x  0. 5

i
10
x i  x  x i1

10
10
2. 2  x
Wir können diese Verteilungsfunktion (Treppe) zeichnen, um zu sehen, wie die
Daten verteilt sein könnten. In diesem Zusammenhang ist es jedoch instruktiver,
wenn wir nur die Eckpunkte der Treppenfunktion in einer Graphik auftragen:
Für die obigen Daten erhalten wir:
Dies ist der Graph der folgenden Funktion: {0. 3,
1
10
, 0. 5,
2
10
, 0. 7,
3
10
,
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 238
0. 8,
4
10
, 1. 1,
5
10
, 1. 2,
6
10
, 1. 5,
7
10
, 1. 7,
8
10
, 2,
9
10
, 2. 2,
10
10
}.
Die Daten scheinen mehr oder weniger auf einer Geraden zu liegen. Entsprechend
wäre hier wohl als Modell eine uniforme Verteilung angesagt. Es gibt Methoden,
um eine optimale Gerade durch Punkte zu berechnen. Hier begnügen wir uns
damit, eine Gerade von Auge zu zeichnen. Es scheint vernünftig zu sein, die
Gerade durch den 0-Punkt und durch den Punkt 2. 2, 1 laufen zu lassen. Somit
1
erhalten wir die Funktionsgleichung F X x  2.2
x  0. 45455x (für 0  x  2. 2;
F X x  1 für x  2. 2; F X x  0 für x  0 Legen wir die entsprechende Kurve über
die obige Punktdarstellung der empirischen Verteilungsfunktion der Daten, erhalten
wir die folgende Graphik:
Wir haben somit ein Modell für unsere konkreten Daten, das relativ gut zu passen
scheint. Wir können annehmen, dass unsere Daten durch eine uniform verteilte
stetige Zufallsvariable X modelliert werden könnten, wobei X  U0, 2. 2. Auf Grund
dieser Hypothese können wir nun beliebige Wahrscheinlichkeiten berechnen: z.B.
PX  0. 7  F0. 7  0. 45455  0. 7  0. 318 19
P0. 3  X  0. 8  F0. 8  F0. 3  0. 45455  0. 8  0. 45455  0. 3  0. 227 28
Übung: Zeichnen Sie für die folgenden Daten (mit metrischer, stetiger Skala
gemessen) eine empirische Verteilungsfunktion (Eckpunkteform, von Hand und mit
Hilfe von Excel):
2.15; 2.411; 2.58; 2.81; 3.05; 3.198; 3.388; 3.601
Schlagen Sie ein ”vernünftiges” Modell für diese Daten vor. Berechnen Sie dann
mit Hilfe Ihres Modells die folgenden Wahrscheinlichkeiten:
P2. 2  X  2. 9
PX  0. 4
PX  3
P2. 8  X
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 239
Lösung: Es gilt den Graphen der folgenden Funktion zu zeichnen:
{2. 15, 18 , 2. 411, 28 , 2. 58, 38 , 2. 81, 48 , 3. 05, 58 , 3. 198, 68 , 3. 388, 78 ,
3. 601, 88 }
Mit Excel müssen wir zwei Spalten füllen: eine Spalte mit den Daten, die der
Grösse nach geordnet sind. Die zweite Spalte mit 8i . (i von 1 bis 8 in aufsteigender
Reihenfolge). Dann lassen wir vom Programm das folgende Punktediagramm
zeichnen:
1.2
1
0.8
0.6
0.4
0.2
0
0
1
2
3
4
Offenbar liegen die Punkte mehr oder weniger auf einer Geraden. Wir nehmen
deshalb an, die Daten könnten durch eine uniform verteilte, stetige Zufallsveriable
modelliert werden. Die Parameter einer solchen Verteilung sind die Schnittpunkte
der Gerade mit der x-Achse und der Funktion y  1. Ihre Wahl ist durch die Daten
nicht völlig bestimmt. Ohne Berechnungsmethoden, welche es ermöglichen, die
Gerade optimal an die Daten anzupassen, kann man (von Auge) verschiedene
Geraden vorschlagen. Die folgende Berechnung ist somit ein Lösungsvorschlag.
Als obere Grenze ist der letzte Punkt sinnvoll (3. 601, 1) . Unten denken wir uns
die Gerade verlängert und erhalten als ungefähren Punkt 2, 0. Wir berechnen
eine Gerade durch diese zwei Punkte:
1  3. 601a  b
0  2a  b
0. 62461x  1. 2492 für 2  x  3. 601
a  624 61, b  1. 249 2  F X x 
0
für x  2
1
für x  3. 601
Anders ausgedrückt: Ein passendes Modell für die Daten ist X  U2, 3. 601.
Graphik:
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 240
Wir berechnen die Wahrscheinlichkeiten:
P2. 2  X  2. 9  F X 2. 9  F X 2. 2 
0. 62461  2. 9  1. 2492  0. 62461  2. 2  1. 2492  0. 437 23
PX  0. 4  0
PX  3  F X 3  0. 62461  3  1. 2492  0. 624 63
P2. 8  X  1  F X 2. 8  1  0. 62461  2. 8  1. 2492  0. 500 29
Es handelt sich um Wahrscheinlichkeiten, die aus einer von Auge geschätzten
Verteilungsfunktion berechnet werden. Entsprechend ist ihre Exaktheit mit Vorsicht
zu geniessen (ein zu behandelndes Problem der Statistik besteht darin,
sogenannte ”Vertrauensintervalle” von berechneten Grössen anzugeben. Es wäre
z.B. nützlich zu wissen, mit welcher Wahrscheinlichkeit P2. 2  X  2. 9 im
Intervall ]0. 437 23  , 0. 437 23   liegen würde (z.B. im Intervall
0. 437 23  0. 04, 0. 437 23  0. 04 0. 39723, 0. 47723. Ohne solche
Genauigkeitsangaben machen die obigen Ergebnisse eigentlich nicht viel Sinn).
Gehen wir auf Grund eines Punkteplots davon aus, dass eine Zufallsvariable
exponentialverteilt ist, so können wir eine passende theoretische Verteilung
dadurch finden, dass wir den Mittelwert oder den Median der bekannten Werte
einer empirischen Verteilung bestimmen und den empirischen Mittelwert in die
obige Formel für den Erwartungswert oder den empirischen Median in die obige
Formel für den theoretischen Median einsetzen (welche Wahl am günstigsten ist,
werden wir für manche Verteilungen später diskutieren). Wir erhalten unmittelbar
eine theoretische Verteilung. Die theoretische Verteilung stellt ein mehr oder
weniger gutes Modell für die empirische Verteilung der Daten dar.
Beispiel: Für 11 Maschinen aus einer spezifischen Produktion hat man die
folgenden Lebensdauern gemessen (in Jahren): x 1  0. 3;
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 241
x 2  0. 5; x 3  0. 8; x 4  1. 5; x 5  2; x 6  2. 5; x 7  3. 5;
x 8  4; x 9  6; x 10  8, x 11  11.
Wir erstellen einen Punkteplot der entsprechenden empirischen
1
Verteilungsfunktion: {0.3, 11
, 0.5, 112 , 0.8, 113 , 1.5, 114 , 2, 115 , 2.5, 116 ,
8
9
3.5, 117 , 4, 11
, 6, 11
, 8, 10
, 11, 11
}.
11
11
Die Daten scheinen zu einer Exponentialverteilung zu passen.
Wir berechnen den Mittelwert:
0.30.50.81.522.53.546811
11
 3. 645 5
Wir setzen den Mittelwert mit dem Erwartungswert gleich:   3. 6455. Wir erhalten
1
für  den Wert: 1    3. 645 5    3.6455
 0. 274 31
Die theoretische Verteilungsfunktion lautet deshalb: F X x  1  e 0.27431x
Zusammen mit der theoretischen Exponentialverteilung erhalten wir ein Bild, das
von Auge die Abschätzung der Angemessenheit der Modellierung erlaubt:
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 242
Wenn wir noch etwas am Parameter ”schrauben”, können wir noch eine besser
Anpassung erreichen:
Für   0. 32 erhalten wir die folgende Funktion:
Wir könnten ebenfalls den empirischen Median verwenden, um  zu bestimmen.
Der empirische Median der obigen Daten ist mit 2.5 identisch. Wir setzen den
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 243
empirischen mit dem theoretischen Median gleich und erhalten:
0. 693 15
 2. 5    0. 277 26

Wir erhalten die folgende Anpassung:
Die Schätzung des Modells mit Hilfe des Medians scheint im konkreten Fall zu
einer leicht besseren Anpassung an die Daten zu führen als die mit Hilfe des
Mittelwertes. Dies gilt für eine Abschätzung von Auge. Der Grad der Anpassung
kann rechnerisch z.B. durch den folgenden Ausdruck zum Ausdruck gebracht
n
werden: A  F X x i  
i1
i
n
 2 (die Summe der quadrierten Abweichungen der
Daten vom Modell).
Übung: Berechnen Sie die Summe der quadrierten Abweichungen der Daten vom
jeweiligen Modell für die obigen drei Modelle   0. 32;    0. 27431;  m  0. 277 26
von Hand und mit Excel (e fx wird in Excel als ”exp(f(x))” geschrieben). Vergleichen
Sie die Resultate mit den Abschätzungen von Auge.
Lösung:
n
Für   0. 32 : F X x i  
i1
i
n
n
Für    0. 27431 : F X x i  
i1
n
Für  m  0. 277 26 : F X x i  
i1
n
 2  1  e 0.32x i 
i1
i
n
i
n
i
n
 2  0. 007741418
n
 2  1  e 0.27431x i 
i1
n
  1  e 0. 277 26x i 
2
i1
i
n
 2  0. 01993526
i
n
 2  0. 01788175
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 244
Daten xi
0.3
0.5
0.8
1.5
2
2.5
3.5
4
6
8
11
Summen
1
2
3
4
5
6
7
8
9
10
11
(1-e-0.32xi-i/n)2
3.92995E-07
0.001153415
0.002196726
0.000309065
0.000329863
2.72118E-05
0.001395513
2.81964E-05
0.00123983
0.000185078
0.000876127
0.007741418
(1-e-0.27431xi-i/n)2
0.00014188
0.00287867
0.00572885
0.00069248
0.00104277
0.00241614
0.00036956
0.00372879
0.00012163
0.00042055
0.00239393
0.01993526
(1-e-0.7726xi-i/n)2
0.00012313
0.00274243
0.00544591
0.00054705
0.00083482
0.00206599
0.00023382
0.00326592
5.8448E-05
0.00032072
0.0022435
0.01788175
Wir sehen, dass das Auge wie die Rechnung entschieden hat (das Auge ist oft kein
schlechter Statistiker!).
Auch im Fall der Exponentialverteilungen können wir das Modell dazu verwenden,
um Wahrscheinlichkeiten zu berechnen: gelingt eine gute Anpassung einer
theoretischen Verteilung an die Daten, kann die theoretische Verteilung dazu
verwendet werden, um beliebige Wahrscheinlichkeiten zu berechnen. So wäre die
Wahrscheinlichkeit, dass eine Maschine eine Lebensdauer von mehr als 10 Jahren
hat im obigen Beispiel je nach gewähltem Parameter näherungsweise:
PX  10  1  1  e 0. 3210   0. 04076 2
PX  10  1  1  e 0. 2772610   0. 06249 9
PX  10  1  1  e 0. 2743110   0. 0643 7
Will eine Firma darüber nachdenken, wie lange die Garantiedauer zu sein hätte,
damit sich die Kosten in Grenzen halten, können die folgenden
Wahrscheinlichkeiten berechnet werden:
PX  1  1  e 0. 321  0. 273 85 (27% der Maschinen müssten durchschnittlich in
Jahresfrist ersetzt werden). Man könnte die Meinung vertreten, dieses Resultat
könnte man auch einfacher haben, denn der Anteil der Ausfälle im ersten Jahr an
3
den gesamten Ausfällen beträgt: 11
 0. 272 73. Dagegen ist einzuwenden, dass
diese Übereinstimmung zufällig erfolgt, da die Daten zufällig verteilt sind.
Betrachten wir z.B. P4  X  5. 9  F X 5. 9  F X 4 
1  e 0. 325.9  1  e 0. 324   0. 126 66. Berechnen wir nun den Anteil der Fälle, so
0
 0. Obwohl die Wahrscheinlichkeit dafür, dass ein Ergebnis ins
erhalten wir 11
Intervall 4, 5. 9 fällt, 0.126 beträgt, fiel bei der konkreten Zufallsstichprobe kein
Ergebnis in das besagte Intervall. Eine angemessene Berechnung der
entsprechenden Wahrscheinlichkeiten durch die relativen Häufigkeiten pro Intervall
würde sich erst bei einer sehr grossen Stichprobe ergeben. Allerdings ist sie in
diesem Fall mühsamer als mit dem entsprechenden Modell).
PX  2  1  e 0. 322  0. 472 71 (47% der Maschinen müssten durchschnittlich in
zwei Jahren ersetzt werden).
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 245
Übung:
Gegeben sind die folgenden, stetig und metrisch skalierten Daten: 3.483624465,
4.28712291, 3.555873009, 1.807750757, 2.654784157, 11.90916005,
2.665970716, 1.479815386, 0.08793726, 2.227560483, 5.569712412,
0.204311269.
Zeichnen Sie einen Punkteplot der empirischen Verteilungsfunktion und versuchen
Sie eine geeignete theoretische Verteilung an die Daten anzupassen.
Berechnen Sie PX  2. 5, P2  X  5 und P4  X.
Lösung: Wir zeichnen die Funktion: {3.483624465, 128 , 4.28712291, 10
,
12
9
6
4
3.555873009, 12 , 1.807750757, 12 , 2.654784157, 12 , 11.90916005, 12
,
12
7
3
5
1
2.665970716, 12 , 1.479815386, 12 , 0.08793726, 12 , 2.227560483, 12 ,
5.569712412, 11
, 0.204311269, 122 }
12
Die Daten scheinen exponentialverteilt zu sein. Wir berechnen den Mittelwert:
x  3. 327 8 une erhalten  
1
3.3278
 0. 3005
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 246
Wir erhalten die Anpassung:
Die Anpassung scheint nicht besonders gut zu sein. Die Daten wurden mit Hilfe
des Computers erstellt (exponentialverteilte Zufallszahlen mit   0. 5. Sie
gehören somit zu einer Kurve, von der sie noch mehr abweichen:
PX  2. 5  1  e 0.30052.5  0. 528 22
P2  X  5  1  e 0.30055  1  e 0.30052   0. 325 69
P4  X  1  1  e 0.30054   0. 30059
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 247
Bei den ersten Beispielen passten die Daten besonders gut an ein Modell. Daten
müssen keineswegs so gut passen. Deshalb müssen auf Daten oft vorgängig
”Transformationen” angewendet werden. Es geht darum, die Daten mit Hilfe
bestimmter Funktionen in andere Daten umzurechnen.
Wir verwenden für alle folgenden Beispiele die Daten 6, 6.3, 6.4, 6.8, 7.1, 7.9, 8.2,
9 (Jahre).
Sie ergeben die folgenden Eckpunkte der empirischen Verteilungsfunktion: {6, 18 ,
6.3, 28 ,6.4, 38 , 6.8, 48 , 7.1, 58 , 7.9, 68 , 8.2, 78 , 9, 88 }
Folgende Operationen (samt ihren Kombinationen) erweisen sich als nützlich:
Addition (Subtraktion), Multiplikation (Division), Radizieren, Logarithmieren.
Addition einer positiven Zahl bewirkt eine Verschiebung der empirischen
Verteilungsfunktion nach rechts:
{62, 18 , 6.32, 28 , 6.42, 38 , 6.82, 48 , 7.12, 58 , 7.92, 68 , 8.22, 78 ,
92, 88 }
xi
xi + 2
Entsprechend bewirkt die Subtraktion ( Addition einer negativen Zahl) eine
Verschiebung der empirischen Verteilungsfunktion nach links.
Multiplikation einer Zahl x (x  1) bewirkt ein Verschiebung nach rechts und eine
Streckung der empirischen Verteilungsfunktion (die Steigung der Verteilung wird
schwächer).
{6  2, 18 , 6. 3  2, 28 ,6. 4  2, 38 , 6. 8  2, 48 , 7. 1  2, 58 , 7. 9  2, 68 ,
8. 2  2, 78 , 9  2, 88 }
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 248
xi
2xi
Die Division mit x (x  1;  Multiplikation mit 1x ) bewirkt entsprechend ein
Verschieben nach links und eine proportionale Stauchung der empirischen
Verteilungsfunktion.
Radizieren: Wirkt nicht in allen Bereichen auf dieselbe Art: Für x i  1 wird ein
Verschieben nach rechts erreicht da für 0  x i  1 : x i  x i (z.B. 0. 5  0.
707 11  0. 5. Die Kurve wird steiler, da die Differenzen zwischen den Werten
kleiner werden (z.B. 0. 5, 0. 7; 0. 7  0. 5  0. 2; 0. 7  0. 5  0. 129 55.
Für x i  1 wird eine Verschiebung nach links erreicht, da für x i  1 : x i  x i . (z.B.
9  3  9. Die Kurve wird steiler, da die Differenzen zwischen den Werten
kleiner werden. (z.B. 36  25  11; 36  25  1. Zudem gilt, dass die
Transformation für grössere x die Differenzen stärker reduziert (z.B.
36  25  1; 111  100  0. 535 65. Radizieren ist somit angemessen, wenn
es darum geht, Die Punkte um den ”Drehpunkt” 1 steiler zu machen und grössere x
stärker zu verschieben als nähere x (bei der Division werden identische
Differenzen auf der ganzen Achse auf identische Differenzen transformiert (z.B.
0. 5  36  0. 5  25  5. 5; 0. 5  111  0. 5  100  5. 5. Die folgende Graphik
veranschaulicht, dass die Abstände zwischen grösseren x i mehr gestaucht werden
als Abstände zwischen kleineren x i .
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 249
b
a
a
4  2
b
12  10
In Bezug auf unsere Daten ergeben sich zwischen der Multiplikation mit 0.2 und
dem Radizieren von Auge kaum Unterschiede.
0.2xi
xi
xi
Ausgeprägter werden die Unterschiede bei folgenden Datensatz: 0.5, 3, 10, 100,
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 250
1000.
0.5xi
xi
xi
Logarithmieren: Die Daten werden nach links verschoben. Kleine x i weniger stark
als grosse x i . Die Steigung wird stärker. Die Abstände zwischen grossen x i werden
stärker gestaucht als die Abstände zwischen kleinen x i .
ln(xi)
xi
Auch hier ergeben sich im konkreten Beispiel von Auge kaum Unterschiede
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 251
zwischen dem Logarithmieren und der Division oder dem Radizieren. Betrachten
wir deshalb ein weiteres Beispiel: 50, 100, 200, 700, 1000. Um die Unterschiede
deutlicher zu machen, wird rechts ein Ausschnitt aus der linken Graphik gezeigt.
Es erweist sich, dass was auf der linken Graphik als Gerade erscheint, keineswegs
auf einer solchen zu liegen braucht (optische Täuschung wegen eines grossen
Intervalls auf der x-Achse). In der linken Graphik tauchen die logarithmierten Werte
nicht auf, da sie zu nahe an der y-Achse liegen).
Graphik: Skala 0 - 1000
xi
0.5xi
Graphik: Skala 0 - 100.
xi
Die folgende Graphik veranschaulicht die Transformation identischer Abstände
durch Logarithmusfunktionen:
Beispiel 2: Die Lebensdauer (in Jahren) eines bestimmten Typs von Produkten sei
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 252
(in Jahren).
x 1  1. 120 2; x 2  1. 239 7; x 3  1. 764 1; x 4  2. 160 6; x 5  2. 988 5; x 6  6. 2003;
x 7  17. 086
1.12021.23971.76412.16062.98856.200317.086
7
1
4.6513
 4. 651 3
 . 214 99
Die Kurve der Daten scheint in der Tendenz einer Exponentialverteilung zu
entsprechen. Sie steigt aber zu Beginn zu stark, dann zu schwach. Logarithmieren
könnte deshalb angemessen sein:
ln 1.1202ln 1.2397ln 1.7641ln 2.1606ln 2.9885ln 6.2003ln 17.086
7

1
1.0606
 1. 060 6
 0. 942 86
”Schrauben” wir noch etwas an , erhalten wir eine gute Anpassung: für   1. 2 :
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 253
Bei der Berechnung der Wahrscheinlichkeiten müssen wir die verwendeten
Transformation berücksichtigen.
Wollen z.B. wissen, wie hoch die Wahrscheinlichkeit ist, dass das Produkt (obiges
Beispiel 2) in den ersten zwei Jahren ausfällt, berechnen wir:ln 2  0. 693 15.
Nun berechnen wir F X 0. 69315  1  e 1.20.69315  0. 56473
Die Wahrscheinlichkeit, dass die Maschine nicht vor 5 Jahren ausfällt beträgt:
PX  5  1  F X 5  1  1  e 1.2ln 5   0. 144 96.
Die Operationen können auch kombiniert verwendet werden.
4. Lernziele
- Die Familien der stetigen, uniformen Verteilungen und der
Exponentialverteilungen definieren können (Formeln müssen nicht auswendig
gewusst werden). Abkürzungen verstehen.
- Mit Hilfe von Formeln für diese Verteilungsfamilien die Kennzahlen
Erwartungswert, Varianz und Standardabweichung berechnen können.
- Wahrscheinlichkeiten für diese Verteilungsfamilien berechnen können.
- Modelle aus diesen Verteilungsfamilien an geeignete Daten anpassen können
und dann mit Hilfe des Modells Wahrscheinlichkeiten berechnen können.
- Wissen, dass die Summe der quadrierten Abweichungen der Daten vom Modell
als Masszahl der Güte eines Modells betrachtet werden kann und die Summe der
quadrierten Abweichungen mit Excell und von Hand berechnen können.
- Wissen, dass man Daten oft durch Transformieren (Logarithmieren, Radizieren,
Multiplizieren, etc.) so transformieren kann, dass man sie nachher mit einer
Verteilung aus einer benannten Familie modellieren kann.
___________________________________________________________________
Anpassung.tex 1. HSW Siders
P.R.
Seite 254
Herunterladen