Kompaktskript Deskriptive Statistik und

Werbung
Kompaktskript
zu der Vorlesung
Deskriptive Statistik
und Wahrscheinlichkeitsrechnung
von
Rolf Hauser
Universität des Saarlandes SS 2009
i
Wichtiger Hinweis!
Das vorliegende Kompaktskriptum ist kein Lehrbuch, sondern es soll die Hörer der Vorlesung
Deskriptive Statistik und Wahrscheinlichkeitsrechnung von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen
Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skriptum nur formale Definitionen und Sätze und einige
Beispiele enthalten. Die Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und
Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der begleitenden Übung vorbehalten. Ebenso werden Hinweise auf
ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Inhaltsverzeichnis
1 Deskriptive Statistik
1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Skalen und Merkmalstypen . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Tabellarische und grafische Darstellungen eindimensionaler Merkmale
1.5 Grafische Darstellung bei klassierten Daten . . . . . . . . . . . . . . .
1.6 Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm) . . . . . . . . . . . .
1.7 Lage- und Streuungsmaße . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.1 Lagemaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.2 Einige Bemerkungen zu den Lagemaßen . . . . . . . . . . . . .
1.7.3 Streuungsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7.4 Box-Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8 Häufigkeitsverteilungen zweidimensionaler Merkmale . . . . . . . . . .
1.8.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.2 Bedingte Häufigkeitsverteilungen und Unabhängigkeit . . . . .
1.9 Abhängigkeitsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9.1 Kardinalskalierte Merkmale . . . . . . . . . . . . . . . . . . . .
1.9.2 Ordinalskalierte Merkmale . . . . . . . . . . . . . . . . . . . . .
1.9.3 Beliebiges Skalenniveau . . . . . . . . . . . . . . . . . . . . . .
2 Wahrscheinlichkeitsrechnung
2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Das wahrscheinlichkeitstheoretische Modell . . . . . . . . . . .
2.2.1 Der Ergebnisraum Ω . . . . . . . . . . . . . . . . . . . .
2.2.2 Ereignisse und Ereignisraum F . . . . . . . . . . . . . .
2.2.3 Mengenalgebra . . . . . . . . . . . . . . . . . . . . . . .
2.2.4 Wahrscheinlichkeitsräume . . . . . . . . . . . . . . . . .
2.2.5 Laplace-Experimente und Grundlagen der Kombinatorik
2.2.6 Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . .
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
5
8
13
18
19
19
23
25
27
29
29
32
33
33
36
38
.
.
.
.
.
.
.
.
40
40
42
42
43
44
51
53
57
iii
INHALTSVERZEICHNIS
3 Messbare Abbildungen und Zufallsvektoren
3.1
Allgemeine Begriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Eindimensionale Zufallsvariablen
63
63
65
4.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
4.2
Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
4.3
Stetige Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
4.4
Die Verteilungsfunktion von eindimensionalen Zufallsvariablen . . . . . . . . . .
71
4.5
Lineare Transformationen von eindimensionalen Zufallsvariablen . . . . . . . .
78
4.6
Momente von eindimensionalen Zufallsvariablen . . . . . . . . . . . . . . . . . .
79
4.7
Modus und Quantile von eindimensionalen Zufallsvariablen . . . . . . . . . . .
82
4.8
Spezielle diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . .
83
4.8.1
Bernoulli-Verteilung (Zweipunktverteilung) . . . . . . . . . . . . . . . .
83
4.8.2
Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
4.8.3
Hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . .
87
4.8.4
Geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
4.8.5
Poisson-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
Spezielle stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
4.9.1
Stetige Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
4.9.2
Gaußverteilung N (0, 1) : (Standardnormalverteilung) . . . . . . . . . . .
95
4.9
N (µ, σ 2 )
4.9.3
Normalverteilung
. . . . . . . . . . . . . . . . . . . . . . . . .
4.9.4
Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5 Zweidimensionale Zufallsvariablen
99
105
5.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2
Zweidimensionale diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . 107
5.3
Zweidimensionale stetige Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . 109
5.4
Die Verteilungsfunktion von zweidimensionalen Zufallsvariablen . . . . . . . . . 111
5.5
Randverteilungen zweidimensionaler Zufallsvariablen . . . . . . . . . . . . . . . 113
5.6
Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen . . . . . . . . . 115
5.7
Momente zweidimensionaler Zufallsvariablen . . . . . . . . . . . . . . . . . . . . 120
6 Mehrdimensionale Zufallsvariablen
6.1
Allgemeine Definitionen und Sätze . . . . . . . . . . . . . . . . . . . . . . . . . 124
7 Summen von unabhängigen Zufallsvariablen
7.1
124
128
Bernoulli-, Binomial-, Poisson- und Normalverteilungen . . . . . . . . . . . . . 128
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
INHALTSVERZEICHNIS
8 Ungleichung von Tschebyscheff und das schwache Gesetz der großen
Zahlen
iv
130
8.1
Ungleichung von Tschebyscheff . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.2
Das schwache Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . 132
9 Zentraler Grenzwertsatz
134
9.1
Zentraler Grenzwertsatz von de Moivre-Laplace . . . . . . . . . . . . . . . . . . 134
9.2
Zentraler Grenzwertsatz von Lindeberg-Lévy . . . . . . . . . . . . . . . . . . . 138
10 Statistische Tabellen
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
142
Kapitel 1
Deskriptive Statistik
1.1
Einleitung
Die deskriptive Statistik befasst sich zunächst mit der Erhebung von Daten, deren Aufbereitung
sowie Darstellung. Im Allgemeinen kann man von folgenden vier Phasen ausgehen:
1. Vorbereitung
• Zweck der Untersuchung bestimmen
– Über welche Untersuchungseinheiten welche Informationen gewonnen werden sollen
2. Datenerhebung
• Primärerhebung
– Befragung
∗ persönliche Befragung
∗ postalische Befragung
– Beobachtung
– Experiment
• Sekundärerhebung
– Es wird auf vorhandenes Datenmaterial zurückgegriffen
• Vollerhebung
• Teilerhebung
1
1.1. EINLEITUNG
3. Datenaufbereitung und -darstellung
• tabellarisch
• grafisch
4. Datenauswertung und -analyse
• Berechnung von Maßzahlen
• Entdecken von Strukturen und Zusammenhängen
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2
3
1.2. GRUNDBEGRIFFE
1.2
Grundbegriffe
Definition 1.2.1
Die statistische Einheit (Merkmalsträger, Untersuchungseinheit) ω i , i = 1, . . . , n
ist das Einzelobjekt einer Untersuchung. Sie ist Träger der Informationen, für die man sich
interessiert.
Bemerkung 1.2.2
Jede statistische Einheit muss im Hinblick auf das Untersuchungsziel durch
(1) sachliche
(2) räumliche
(3) zeitliche
Kriterien eindeutig festgelegt (abgegrenzt) sein. Man bezeichnet diese Kriterien auch als identifizierende Merkmale.
Beispiel 1.2.3
Soll im Stadtverband Saarbrücken eine Untersuchung über das Freizeitverhalten Berufstätiger
durchgeführt werden, so sind die Identifikationskriterien:
• sachlich:
berufstätige Person
• räumlich:
Gebiet des Stadtverbandes Saarbrücken
Untersuchungszeitraum
• zeitlich:
Definition 1.2.4
Die statistische Masse oder Grundgesamtheit Ω ist die Menge aller statistischen Einheiten,
die die vorgegebenen Abgrenzungskriterien erfüllen.
Ω = {ω i | ω i erfüllt die festgelegten Kriterien, i = 1, . . . , n}
Definition 1.2.5
Es sei Ω = {ω 1 , ω 2 , . . . , ω n } eine statistische Masse und
X:Ω→M ⊆R
eine Abbildung mit
X(ω i ) = xi , i = 1, . . . , n.
X heißt 1-dimensionales Merkmal und die resultierenden Werte xi , i = 1, . . . , n, Beobachtungswerte oder Merkmalswerte. Die Menge A := {a ∈ M : ∃ ω ∈ Ω mit X(ω) = a} =
X(Ω) heißt Merkmalsraum und die Elemente von A heißen Merkmalsausprägungen.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4
1.2. GRUNDBEGRIFFE
Beispiel 1.2.6
20 Personen werden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 ≡ Hauptschule, 2 ≡ Fachoberschule, 3 ≡ Abitur, 4 ≡ Fachhochschule, 5 ≡ Universität) die Beobachtungswerte X(ω i ) = xi , i = 1, . . . , 20 :
ωi
X(ω i ) = xi
ωi
X(ω i ) = xi
ω 11
4
ω1
3
ω2
3
ω 12
5
ω3
2
ω 13
2
ω4
1
ω5
1
ω6
4
ω 14
3
ω 15
5
ω 16
4
ω7
5
ω 17
1
ω8
5
ω9
4
ω 18
5
ω 10
1
ω 19
2
ω 20
1
Der Merkmalsraum A ist in diesem Beispiel gegeben durch A = {1, 2, 3, 4, 5}.
Bemerkung 1.2.7
Die Menge A ist wegen |X(Ω)| ≤ |Ω| stets abzählbar, so dass A als endliche Menge A =
{a1 , a2 , . . . , am } darstellbar ist. In der Regel wird die Anzahl der Merkmalsausprägungen m
kleiner als die Zahl der Beobachtungswerte n sein.
Bemerkung 1.2.8
In der Definition sind die Merkmalswerte bzw. Merkmalsausprägungen durch reelle Zahlen
dargestellt. Dies ist immer möglich. Z. B. kann das Merkmal Familienstand (ledig, verheiratet,
geschieden, verwitwet) auf die Zahlen 0 ≡ ledig, 1 ≡ verheiratet, 2 ≡ geschieden, 3 ≡ verwitwet
abgebildet werden.
Bemerkung 1.2.9
Auch wenn Merkmalsausprägungen meistens als reelle Zahlen dargestellt werden, so ist vor
der Durchführung algebraischer Operationen stets zu untersuchen, ob sie aufgrund des Skalierungsniveaus des Merkmals überhaupt sinnvoll sind.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.3. SKALEN UND MERKMALSTYPEN
1.3
5
Skalen und Merkmalstypen
Definition 1.3.1 (Nominalskala)
Eine Skala, deren Skalenwerte nur nach dem Kriterium gleich oder verschieden geordnet werden
können, heißt Nominalskala.
Beispiel 1.3.2
Nominal messbare Merkmale sind z. B.:
• Geschlecht
• Beruf,
• Haarfarbe,
• Religionszugehörigkeit
Definition 1.3.3 (Ordinalskala, Rangskala)
Eine Skala, deren Skalenwerte nicht nur nach dem Kriterium gleich oder verschieden, sondern
außerdem in einer natürlichen Reihenfolge geordnet werden können, heißt Ordinalskala oder
Rangskala.
Beispiel 1.3.4
Ordinal messbare Merkmale sind z. B.:
• Zensuren: sehr gut, gut, befriedigend, usw.
• Güteklassen von Hotels: ein Stern, zwei Sterne, usw.
• Platzziffer bei einem Tanzturnier
Definition 1.3.5 (Kardinalskala, metrische Skala)
Eine Skala, deren Skalenwerte reelle Zahlen sind und die die Ordnungseigenschaften der reellen
Zahlen besitzt, heißt Kardinalskala oder metrische Skala.
Beispiel 1.3.6
Kardinal messbare Merkmale sind z. B.:
• Lebensdauern
• Gewichte
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.3. SKALEN UND MERKMALSTYPEN
6
• Stromstärke
• Größen
Bei einer Kardinalskala unterscheidet man weiterhin:
Definition 1.3.7 (Intervallskala)
Eine metrische Skala, die keinen natürlichen Nullpunkt und keine natürliche Einheit besitzt,
heißt Intervallskala.
Beispiel 1.3.8
Kalender besitzen keinen natürlichen Nullpunkt und keine natürliche Einheit. Z. B. wird die
heutige Einteilung der Zeitskala nach dem gregorianischen Kalender vorgenommen. Zeitabstände
(Intervalle) auf der Skala können miteinander verglichen werden.
Definition 1.3.9 (Verhältnisskala)
Eine metrische Skala, die einen natürlichen Nullpunkt, aber keine natürliche Einheit besitzt
besitzt, heißt Verhältnisskala.
Beispiel 1.3.10
Bei Währungen existiert ein natürlicher Nullpunkt. Null Geldeinheiten sind überall in der Welt
Null Geldeinheiten. Jedoch sind 100 $ in der Regel nicht gleich 100 e Das Verhältnis zweier
Währungen ist interpretierbar und wird als Wechselkurs bezeichnet.
Definition 1.3.11 (Absolutskala)
Eine metrische Skala mit einem natürlichen Nullpunkt und einer natürlichen Einheit heißt
Absolutskala.
Beispiel 1.3.12
Stückzahlen oder Anzahl von Personen besitzen einen natürlichen Nullpunkt und eine natürliche
Einheit.
Definition 1.3.13 (Qualitative Merkmale)
Ein Merkmal heißt qualitativ, wenn die zugehörigen Merkmalsausprägungen nominal bzw.
ordinal skaliert sind.
Bemerkung 1.3.14
Werden zur Bewertung die Noten sehr gut, gut, befriedigend, ausreichend und mangelhaft
verwendet und in den Zahlen 1, 2, 3, 4, 5 angegeben, so bleibt das ordinalskalierte Merkmal
Note“ doch qualitativer Natur.
”
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.3. SKALEN UND MERKMALSTYPEN
7
Definition 1.3.15 (Quantitative Merkmale)
Ein Merkmal heißt quantitativ, wenn die zugehörigen Merkmalsausprägungen metrisch skaliert sind.
Definition 1.3.16 (diskretes Merkmal)
Ein Merkmal das nur abzählbar viele Werte annehmen kann heißt diskretes Merkmal.
Definition 1.3.17 (stetiges Merkmal)
Ein Merkmal das überabzählbar viele Werte annehmen kann heißt stetiges Merkmal.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
8
1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE
1.4
Tabellarische und grafische Darstellungen eindimensionaler Merkmale
Definition 1.4.1
Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das eindimensionale Merkmal X.
Man bezeichnet die tabellarische Darstellung
ωi
X(ω i ) = xi
ω1
x1
ω2
x2
···
···
ωn
xn
der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste.
Beispiel 1.4.2
20 Personen wurden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 ≡ Hauptschule, 2 ≡ Realschule, 3 ≡ Abitur, 4 ≡ Fachhochschule, 5 ≡ Universität) die folgende Urliste:
ωi
X(ω i ) = xi
ωi
X(ω i ) = xi
ω 11
4
ω1
3
ω2
3
ω 12
5
ω3
2
ω 13
2
ω4
1
ω5
1
ω6
4
ω 14
3
ω 15
5
ω 16
4
ω7
5
ω 17
1
ω8
5
ω9
4
ω 18
5
ω 10
1
ω 19
2
ω 20
1
Definition 1.4.3
Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das eindimensionale Merkmal X mit
dem Merkmalsraum A = {a1 , ..., am }. Man bezeichnet
h(ai ) :=| {ω ∈ Ω : X(ω) = ai } |, i = 1, . . . , m,
als absolute Häufigkeit der Merkmalsausprägung ai , i = 1, . . . , m und
r(ai ) :=
h(ai )
, i = 1, . . . , m,
n
als relative Häufigkeit der Merkmalsausprägung ai , i = 1, . . . , m.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE
9
Definition 1.4.4
Gegeben sei ein Merkmal X mit Merkmalsraum A = {a1 , ..., am } sowie den absoluten Häufigkeiten
h(ai ) bzw. den relativen Häufigkeiten r(ai ), i = 1, . . . , m. Man nennt die tabellarische Darstellung
ai
a1
a2
···
am
h(ai ) h(a1 ) h(a2 ) · · · h(am )
r(ai ) r(a1 ) r(a2 ) · · · r(am )
der Merkmalsausprägungen mit ihren absoluten bzw. relativen Häufigkeiten
Häufigkeitstabelle.
Beispiel 1.4.5 (Fortsetzung)
Man erhält aus Beispiel 1.4.2 folgende Häufigkeitstabelle und grafische Darstellungen:
Schulabschluss ai
Absolute Häufigkeit h(ai )
Relative Häufigkeit r(ai )
1
5
0.25
2
3
0.15
3
3
0.15
4
4
0.20
Kreisdiagramm
Hauptschule
Universität
Realschule
Fachhochschule
Abitur
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5
5
0.25
1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE
10
0.15
0.10
0.00
0.05
Relative Häufigkeit
0.20
0.25
Balkendiagramm
Hauptschule
Realschule
Abitur
Fachhochsch.
Universität
Schulabschluss
Bemerkung 1.4.6
Zur graphischen Darstellung von Häufigkeiten bei nominalskalierten Merkmalen benutzt man
Kreis- bzw. Balkendiagramme
Bemerkung 1.4.7
Es gilt stets:
m
X
i=1
h(ai ) = n und
m
X
r(ai ) = 1.
i=1
Definition 1.4.8
Gegeben sei ein Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn bzw. mit dem Merkmalsraum A = {a1 , ..., am } sowie den jeweiligen relativen Häufigkeiten r(ai ), wobei die Beobachtungswerte x1 , x2 , . . . , xn bzw. die Merkmalsausprägungen ai , i = 1, . . . , m, mindestens
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
11
1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE
ordinalskaliert sind. Dann heißt
F̂X (x) =
X
r(ai ) =
i:ai ≤x
| i ∈ {1, . . . , n} : xi ≤ x |
n
empirische Verteilungsfunktion von X.
Vereinbarung 1.4.9
X
| i ∈ {1, . . . , n} : xi < x |
F̂X (x − 0) := lim F̂X (x − h) =
r(ai ) =
.
h→0
n
i:ai <x
h>0
Beispiel 1.4.10
20 Ehepaare wurden nach der Zahl ihrer Kinder gefragt. Man erhielt folgende Häufigkeitstabelle:
Zahl der Kinder ai
Relative Häufigkeit r(ai )
0
0.20
1
0.30
2
0.25
3
0.15
4
0.10
Stabdiagramm
0.4
r(a)
0.3
0.2
0.1
0.0
0
1
2
3
a
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4
12
1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE
Bemerkung 1.4.11
Zur grafischen Darstellung der relativen Häufigkeiten r(ai ) bei ordinalskalierten bzw. bei diskreten Merkmalen benutzt man das Stabdiagramm


0




0.20



 0.50
X
r(ai ) =
F̂X (x) =

0.75

i:ai ≤x




0.90



1
für
für
für
für
für
für
x<0
0≤x<1
1≤x<2
2≤x<3
3≤x<4
x≥4
empirische Verteilungsfunktion
1.0
^
F(x)
0.8
0.6
0.4
0.2
0.0
−1
0
1
2
3
4
5
x
Bemerkung 1.4.12
Die empirische Verteilungsfunktion ist bei ordinalskalierten bzw. bei diskreten Merkmalen eine
Treppenfunktion.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
13
1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN
1.5
Grafische Darstellung bei klassierten Daten
Bemerkung 1.5.1
Treten bei einem kardinalskalierten Untersuchungsmerkmal viele - oft auch paarweise verschiedene - Merkmalsausprägungen auf, so kann man die Anschaulichkeit von Tabellen und
graphischen Darstellungen unter Inkaufnahme eines Informationsverlustes durch Klassierung
der Merkmalsausprägungen erhöhen.
Vereinbarung 1.5.2
Gegeben sei ein Merkmal X mit der Urliste:
ωi
X(ω i ) = xi
ω1
x1
ω2
x2
···
···
ωn
xn
Man wähle für festes l ∈ N Zahlen k0 , k1 , ..., kl ∈ R mit k0 < k1 < · · · < kl und k0 < xi ≤ kl
für alle i = 1, ..., n.
Man bezeichnet
• Kj := (kj−1 , kj ], j = 1, ..., l, als Klasse Nr. j,
• bj := kj − kj−1 , j = 1, ..., l, als zugehörige Klassenbreite,
• mj :=
mitte,
kj−1 + kj
, j = 1, ..., l, als zugehörigen Klassenmittelpunkt oder zugehörige Klassen2
• hj =| i : kj−1 < xi ≤ kj |, j = 1, ..., l, als absolute Häufigkeit der Beobachtungswerte in der
j-ten Klasse,
hj
, j = 1, ..., l, als relative Häufigkeit der Beobachtungswerte in der j-ten Klasse,
n
rj
• fj = , j = 1, ..., l, als Häufigkeitsdichte der j-ten Klasse.
bj
• rj =
Definition 1.5.3
Gegeben sei ein Merkmal X mit der Urliste:
ωi
X(ω i ) = xi
ω1
x1
ω2
x2
···
···
ωn
xn
sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt
(
fj für
kj−1 < x ≤ kj , j = 1, . . . , l
fˆX (x) =
, x∈R
0 sonst
Histogramm.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
14
1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN
Bemerkung 1.5.4
Für die Verteilungsfunktion F̂X von klassierten Daten gilt an der jeweiligen Klassenobergrenze
kj :
F̂X (kj ) =
j
X
ri =
| i : xi ≤ kj |
n
ω1
x1
ω2
x2
i=1
Definition 1.5.5
Gegeben sei ein Merkmal X mit der Urliste:
ωi
X(ω i ) = xi
···
···
ωn
xn
sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt


 0
F̂X (x) =
F̂X (kj−1 ) + (x − kj−1 ) · fj


1
für x ≤ k0
für kj−1 < x ≤ kj ;
für x > kl
j = 1, . . . , l , x ∈ R
Verteilungsfunktion des klassierten Merkmales X.
Beispiel 1.5.6 (Allgemeine zeichnerische Darstellung)
Gegeben seien die Bezeichnungen aus Vereinbarung (1.5.2). Als Histogramm zu einer gegebenen Klassierung bezeichnet man die folgende graphische Darstellung: In einem rechtwinkligen
Koordinatensystem werden auf der Abszisse die Klassengrenzen k0 , ..., kl eingezeichnet. Über
jeder Klasse Kj = (kj−1 , kj ] zeichnet man ein Rechteck mit der Breite bj und der Höhe fj . Wegen bj · fj = rj stimmt also der Flächeninhalt des j-ten Rechtecks mit der relativen Häufigkeit
rj der j-ten Klasse überein. Die Summe der Flächeninhalte aller Rechtecke ist somit 1.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
15
1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN
Histogramm
fi
f4
6
f3
f2
f1
k0
k1
k2
k3
k4
k5
k6
-
x
Verteilungsfunktion
F̂X (x)
6
r1 + r2 + r3 + r4 + r5 + r6
r
1
.
..........
..........
..........
..........
..........
..........
.
.
.
.
.
.
.
.
.
....
..........
.........
.......
.......
.......
.......
.......
.
.
.
.
.
.
..
.......
.......
.......
.......
.......
.......
......
.
.
.
...
....
...
....
...
....
...
.
.
.
..
....
...
....
...
....
....
.
.
.
....
...
....
....
....
....
.
.
.
......
......
......
......
......
......
......
.
.
.
.
.
.
......
......
......
......
......
......
......
.
.
.
.
.
......
.......
........
.......
.......
.......
.......
.
.
.
.
.
.
.
.......
.......
.......
........
.......
.......
..........
.
.
.
.
.
.
.
.
.
..
..........
..........
..........
..........
..........
..........
..........
r
r1 + r2 + r3 + r4 + r5
r
r1 + r2 + r3 + r4
r
r1 + r2 + r3
r1 + r2
r1
r
r
r
k0
k1
k2
k3
k4
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
k5
k6
-
x
16
1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN
Beispiel 1.5.7
In einer Bank wurde die Zeit X (in Minuten) notiert, die für die Beratung eines Kunden
aufgewandt wurde. Man erhielt bei 100 Kunden folgende Urliste:
2.9, 1.5, 2.1, 2.6, 3.1, 3.5, 4.2, 5.1, 6.2, 7.1, 8.0, 2.0, 9.1, 10.1, 11.1, 4.3, 5.3, 6.4, 7.3,
10.8, 2.2, 3.1, 3.6, 1.4, 5.5, 6.5, 7.6, 8.4, 9.2, 10.3, 11.2, 12.5, 15.0, 2.2, 2.7, 3.2, 3.7,
1.7, 1.1, 11.9, 2.3, 2.7, 3.2, 3.4, 5.7, 6.6, 7.7, 12.9, 13.2, 1.1, 2.4, 8.6, 1.2, 4.6, 2.4,
2.8, 3.2, 3.8, 5.8, 18.8, 6.8, 0.8, 1.3, 13.8, 14.3, 2.5, 2.9, 3.3, 9.1, 1.2, 1.5, 9.5, 10.6,
1.3, 4.8, 1.4, 4.9, 14.9, 3.3, 19.7, 1.6, 4.1, 2.5, 1.7, 3.0, 1.8, 8.8, 5.9, 15.8, 16.4, 6.9,
7.9, 8.1, 3.0, 3.9, 2.0, 9.9, 17.6, 3.4, 1.9 .
Es werde die folgende Klasseneinteilung vorgenommen:
(0 ; 2], (2 ; 4], (4 ; 8], (8 ; 12], (12 ; 20].
Klasse
Kj
Klassenbreite
Klassenmitte
absolute
Häufigkeit
(kj−1 ; kj ]
bj
mi
hj
(0 ; 2]
(2 ; 4]
(4 ; 8]
(8 ; 12]
(12 ; 20]
2
2
4
4
8
1
3
6
10
16
18
30
24
16
12
100
relative
Häufigkeit
hj
rj =
n
0.18
0.30
0.24
0.16
0.12
1.00
Häufigkeitsdichte
rj
fj =
bj
0.090
0.150
0.060
0.040
0.015
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Verteilungsfunktion
F̂ (kj )
0.18
0.48
0.72
0.88
1.00
17
1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN
Histogramm
0.150
f(x)
0.090
0.060
0.040
0.015
0.000
0
2
4
8
12
20
Ausprägungen x
Verteilungsfunktion
1.0
●
●
0.8
●
F(x)
0.6
●
0.4
0.2
0.0
●
●
0
2
4
8
12
Ausprägungen x
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
20
18
1.6. STEM-LEAF-DIAGRAMM (STAMM-BLATT-DIAGRAMM)
1.6
Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm)
Eine weitere Möglichkeit größere Datensätze einschließlich ihrer Häufigkeitsverteilung graphisch übersichtlich darzustellen, ist durch das Stamm- und Blatt-Diagramm gegeben. Um
ein Stamm- und Blatt-Diagramm zu erstellen, geht man wie folgt vor:
(1) Ordnen der Daten der Größe nach und Feststellung des Wertebereiches, der durch x(1) und
x(n) gegeben ist.
(2) Unterteilen des Wertebereiches in Intervalle gleicher Breite, wobei die Breite das 0.5−, 1−
oder 2−fache einer Zehnerpotenz ist.
(3) Zerlegen der Beobachtungswerte in einen Stamm- und einen Blattanteil.
(4) Auftragen der Beobachtungswerte.
Die Vorgehensweise soll an einem Beispiel erläutert werden:
Gegeben seien die folgenden geordneten Beobachtungswerte:
8
29
12
30
12
32
15
33
15
34
18
38
20
38
21
39
23
40
27
40
28
42
28
44
Wir unterteilen den Wertebereich in die gleichbreiten Intervalle [0, 10), [10, 20), . . . , [40, 50).
Damit erhalten wir den Stamm:
0
1
2
3
4
Die beobachteten Werte werden dann als Blätter eingetragen, wobei z. B. der Beobachtungswert 38 durch eine 8 hinter der 3 des Stammes wiedergegeben wird (3 | 8). Gleiche Beobachtungswerte werden mehrfach eingetragen. Mit den obigen Daten erhält man dann das folgende
Stamm- und Blatt-Diagramm:
0 |8
1 | 22558
2 | 0137889
3 | 0234889
4 | 0024
Bei diesem Diagramm kann man leicht sehen, in welchem Bereich sich die Daten häufen.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
19
1.7. LAGE- UND STREUUNGSMASSE
1.7
Lage- und Streuungsmaße
1.7.1
Lagemaße
Definition 1.7.1
Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten
x1 , x2 , . . . , xn .
Dann heißt
n
x̄ :=
1X
xi
n
i=1
arithmetischer Mittelwert sowie bei gegebenen Gewichten wi
x̄ :=
w
n
X
wi · x i
n
X
mit
i=1
wi = 1 und 0 ≤ wi ≤ 1
i=1
gewichteter arithmetischer Mittelwert.
Bemerkung 1.7.2 (Eigenschaften des arithmetischen Mittelwertes)
Es gilt
1.
Pn
2.
Pn
i=1 (xi
− x̄) = 0.
Pn
2
2
i=1 (xi − x̄) für alle t ∈ R.
i=1 (xi − t) ≥
Bemerkung 1.7.3
Liegen bei einem Merkmal X die Merkmalsausprägungen ai , i = 1, . . . , m, mit ihren relativen Häufigkeiten r(ai ) vor, dann kann man den arithmetischen Mittelwert x̄ auch wie folgt
berechnen:
m
X
x̄ =
ai · r(ai ) =: ā
i=1
Bemerkung 1.7.4
Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2)
für die Berechnung des Mittelwertes die folgende Approximation
x̄ =
l
X
mi · ri
i=1
Definition 1.7.5
Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten
x1 , x2 , . . . , xn .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
20
1.7 Lagemaße
Dann heißt
1
n
= P
x̄h := P
1
1
1
n
n
i=1
i=1
xi
n
xi
harmonischer Mittelwert sowie bei gegebenen Gewichten wi
x̄w
h := Pn
1
i=1
wi
xi
mit
n
X
wi = 1 und 0 ≤ wi ≤ 1
i=1
gewichteter harmonischer Mittelwert.
Beispiel 1.7.6 (Anwendung des harmonischen Mittelwertes)
Es sei
• U = Gesamtumsatz
• M = Gesamtmenge
• P = durchschnittlicher Preis pro Mengeneinheit
• ui = Einzelumsatz des i-ten Gutes
• mi = umgesetzte Menge des i-ten Gutes
• xi = Einzelpreis pro Mengeneinheit des i-ten Gutes
P
P
Mit U = M · P, U = ni=1 ui , M = ni=1 mi und ui = xi · mi ergibt sich der durchschnittliche
Preis pro Mengeneinheit P wie folgt:
Pn
Pn
ui
U
1
ui
i=1 ui
P
P =
= P i=1 ui = P
= n
wi mit wi = Pn u .
n
n
m
M
i=1 i
i=1 i
i=1
i=1
xi
xi
Definition 1.7.7
Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten
x1 , x2 , . . . , xn .
Dann heißt
x̄g :=
√
n
x1 · x2 · . . . · xn
geometrischer Mittelwert sowie bei gegebenen Gewichten wi
w1
w2
wn
x̄w
g := x1 · x2 · . . . · xn
mit
n
X
wi = 1 und 0 ≤ wi ≤ 1
i=1
gewichteter geometrischer Mittelwert.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
21
1.7 Lagemaße
Beispiel 1.7.8 (Anwendung des geometrischen Mittelwertes)
Gegeben seien die Produktionssteigerungen eines Betriebes in 4 Jahren:
Jahr
Produktionssteigerung
1. Jahr
2%
2. Jahr
11%
3. Jahr
4%
4. Jahr
7%
Die durchschnittliche Produktionssteigerung pro Jahr x̄g it gegeben durch:
√
4
x̄g = 1.02 · 1.11 · 1.04 · 1.07 = 1.06
Definition 1.7.9
Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten
x(1) ≤ x(2) ≤ . . . ≤ x(n) .
Jeder Wert xp , mit 0 < p < 1, für den gilt:
| i ∈ {1, . . . , n} : xi ≤ xp |
| i ∈ {1, . . . , n} : xi ≥ xp |
≥ p und
≥1−p
n
n
heißt p−Quantil. D. h. ein p−Quantil xp ist ein Wert, für den mindestens ein Anteil p der
Daten ≤ xp und mindestens ein Anteil 1 − p der Daten ≥ xp ist.
Bemerkung 1.7.10
Ist für ein Merkmal X die empirische Verteilungsfunktion F̂X gegeben, dann ist xp ein p−Quantil,
wenn gilt:
F̂X (xp − 0) < p ≤ F̂X (xp ).
Bemerkung 1.7.11
Aufgrund der Definition (1.7.9) ist ein p−Quantil oft nicht eindeutig. Daher definiert man, um
Eindeutigkeit zu erhalten, das p−Quantil wie folgt:
Definition 1.7.12
Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten
x(1) ≤ x(2) ≤ . . . ≤ x(n) .
Weiterhin sei [y] die größte ganze Zahl ≤ y. Dann heißt:
x([n·p]+1)
für n · p ∈
/N
xp =
1
2 · (x(n·p) + x(n·p+1) ) für n · p ∈ N
p−Quantil. Speziell heißen x0,5 Median, x0,25 unteres Quartil und x0,75 oberes Quartil.
Bemerkung 1.7.13
Aufgrund der Definition (1.7.12) gilt somit für den Median x̃ :
(
x( n+1 )
für n ungerade
2
x̃ := x0.5 =
1
n
n
2 · (x( 2 ) + x( 2 +1) ) für n gerade
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
22
1.7 Lagemaße
Bemerkung 1.7.14 (Eigenschaft des Medians)
Es gilt stets
Pn
Pn
i=1 |xi − x̃| für alle t ∈ R.
i=1 |xi − t| ≥
Bemerkung 1.7.15
Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2)
für das p−Quantil
xp = ki−1 +
p − F̂ (ki−1 )
mit F̂ (ki−1 ) ≤ p < F̂ (ki ).
fi
Definition 1.7.16
Gegeben sei ein Merkmal X mit Merkmalsraum A = {a1 , ..., am } sowie den jeweiligen relativen
Häufgkeiten r(ai ), i = 1, . . . , m. Dann heißt ein Wert amod mit
r(amod ) ≥ r(ai ) für alle i = 1, . . . , m
Modus oder Modalwert.
Beispiel 1.7.17
Schulabschluss ai
Verschlüsselung
Relative Häufigkeit r(ai )
Volksschule
1
0.10
Realschule
2
0.25
Abitur
3
0.20
Fachhochschule
4
0.30
r(4) ≥ r(ai ) für alle ai 6= 4. Daher ist der Modus xmod = 4.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Universität
5
0.15
23
1.7 Einige Bemerkungen zu den Lagemaßen
1.7.2
Einige Bemerkungen zu den Lagemaßen
Die Verteilung ist rechtsschief oder linkssteil, falls x̄ > x0.5
Rechtsschiefe Verteilung
f(x)
Ausprägungen x
Die Verteilung ist linksschief oder rechtssteil, falls x̄ < x0.5
f(x)
Linksschiefe Verteilung
Ausprägungen x
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
24
1.7 Einige Bemerkungen zu den Lagemaßen
Die Verteilung ist symmetrisch, falls x̄ = x0.5
f(x)
Symmetrische Verteilung
Ausprägungen x
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
25
1.7 Streuungsmaße
1.7.3
Streuungsmaße
Definition 1.7.18
Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten
x1 , x2 , . . . , xn , n ≥ 2.
Dann heißt
s2X
n
n
i=1
i=1
1X
1X
=
(xi − x̄)2 mit x̄ =
xi
n
n
Varianz oder Streuung und sX
q
= s2X Standardabweichung.
Bemerkung 1.7.19
Für die Berechnung verwendet man häufig die äquivalente Formel
1
=
n
s2X
n
X
!
x2i
− x̄2 .
i=1
Bemerkung 1.7.20
Liegen bei einem Merkmal X die Merkmalsausprägungen ai mit ihren relativen Häufigkeiten
r(ai ), i = 1, . . . , m, vor, dann kann man die Varianz s2X auch wie folgt berechnen:
s2X
m
X
=
(ai − ā)2 · r(ai ) =
i=1
m
X
!
a2i · r(ai )
− ā2 mit ā =
m
X
ai · r(ai ).
i=1
i=1
Bemerkung 1.7.21
Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2)
für die Berechnung des Mittelwertes die folgende Approximation:
s2X
=
l
X
(mi − x̄) · ri =
2
i=1
l
X
!
m2i
· ri
− x̄ mit x̄ =
i=1
2
l
X
mi · ri .
i=1
Definition 1.7.22
Gegeben seien das metrisch skalierte Merkmal X mit den Beobachtungswerten x1 , x2 , . . . , xn ,
n ≥ 2 und dem Median x̃. Dann heißt
n
d=
1X
|xi − x̃|
n
i=1
mittlere absolute Abweichung.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.7 Streuungsmaße
26
Definition 1.7.23
Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x(1) ≤ x(2) ≤ . . . ≤ x(n) .Dann heißt x(n) − x(1) Spannweite und x0,75 − x0,25 Interquartilsabstand.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
27
1.7 Box-Plot
1.7.4
Box-Plot
Eine kompakte graphische Darstellung, die besonders zum Vergleich wichtiger Kenngrößen
mehrerer Datensätze geeignet ist, liegt in dem sogenannten Box-Plot vor. Als Box wird das
Rechteck bezeichnet, welches durch das obere und untere Quartil begrenzt wird. Die Box umfasst 50% der Daten. Durch die Länge der Box ist der Interquartilsabstand abzulesen. Dies ist
ein Maß der Streuung, welches durch die Differenz des oberen und unteren Quartils bestimmt
ist. Als weiteres Quartil ist der Median in der Box eingezeichnet, welcher durch seine Lage innerhalb der Box einen Eindruck von der Schiefe der den Daten zugrunde liegenden Verteilung
vermittelt.Der Boxplot wird über einem Zahlenstrahl dargestellt und fasst verschiedene Maße
der zentralen Tendenz, Streuung und Schiefe in einem Diagramm zusammen. Alle Werte der
Fünf-Punkte-Zusammenfassung, also der Median, die zwei Quartile und die beiden Extremwerte, sind dargestellt. Als Whisker“ werden die horizontalen/vertikalen Linien bezeichnet.
”
Die Länge der Whisker beträgt maximal das 1,5-fache des Interquartilsabstands und wird immer durch einen Wert aus den Daten bestimmt. Werte, die über dieser Grenze liegen, werden
separat in das Diagramm eingetragen und als Ausreißer bezeichnet. Gibt es keine Werte außerhalb der Whisker, so wird die Länge des Whiskers durch den maximalen bzw. minimalen
Wert festgelegt.
Definition 1.7.24
Gegeben sei ein metrisch skaliertes Merkmal X mit den geordneten Beobachtungswerten x(1) ≤
x(2) ≤ . . . ≤ x(n) und die aus diesen Daten berechneten Lagemaße:
(1) Unteres Quartil: x0,25
(2) Median: x0,5
(3) Oberes Quartil: x0,75 .
(4) Interquartilsabstand: x0,75 − x0,25 .
(5) Whiskers: 1.5 × (x0,75 − x0,25 ).
(6) Kleinster Wert x(1) und größter Wert x(n) .
Dann heißt die folgende graphische Darstellung Box-Plot.
u n te re s
Q u a r til
A u s r e iß e r
o
o
x (1 )
o
"W
M e d ia n
o b e re s
Q u a r til
u n te re r
h is k e r s "
o
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
"W
o b e re r
h is k e r s "
o
x (n )
28
1.7 Box-Plot
Bemerkung 1.7.25
Um mehr extreme Beobachtungswerte explizit sichtbar zu machen, zieht man bisweilen die
links und rechts an die Box angesetzten Linien nicht bis x(1) bzw. x(n) durch, sondern für ein
geeignet gewähltes k ∈ N bis x(k+1) bzw. x(n−k) und zeichnet x(1) , ..., x(k) und x(n−k+1) , ..., x(n)
einzeln ein.
Beispiel 1.7.26
Gegeben seien die Daten aus Beispiel 1.5.7. Der Boxplot ist dann wie folgt gegeben:
Box−Plot
●
5
10
15
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
●
20
29
1.8. HÄUFIGKEITSVERTEILUNGEN ZWEIDIMENSIONALER MERKMALE
1.8
1.8.1
Häufigkeitsverteilungen zweidimensionaler Merkmale
Grundlagen
Definition 1.8.1
Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und
X := (X1 , X2 ) : Ω → M ⊆ R2
eine Abbildung mit
X(ω) =: (X1 (ω), X2 (ω)) = (xi , yi ), i = 1, . . . , n.
X heißt 2-dimensonales Merkmal und die resultierenden Werte (xi , yi ) Beobachtungswerte oder Merkmalswerte. Die Menge A := {a ∈ M : ∃ ω ∈ Ω mit X1 (ω) = a} = X1 (Ω)
heißt Merkmalsraum von X1 und die Elemente von A heißen Merkmalsausprägungen
von X1 . Entsprechend heißt die Menge B := {b ∈ M : ∃ ω ∈ Ω mit X2 (ω) = b} = X2 (Ω)
Merkmalsraum von X2 und die Elemente von B heißen Merkmalsausprägungen von X2 .
Definition 1.8.2
Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das 2-dimensionale Merkmal X =
(X1 , X2 ). Man bezeichnet die tabellarische Darstellung
ωi
X(ω i ) = (xi , yi )
ω1
(x1 , y1 )
ω2
(x2 , y2 )
···
···
ωn
(xn , yn )
der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste.
Beispiel 1.8.3
Von 28 Studienanfängern wurden die Abiturnoten in Mathematik und Englisch erfasst. Man
erhielt folgende Urliste (Mathematiknote, Englischnote):
(4, 2); (3, 1); (3, 3); (2, 3); (4, 4); (3, 4); (3, 3); (1, 3); (3, 2); (5, 3); (3, 3); (3, 4); (3, 3); (3, 4);
(2, 3); (2, 1); (2, 2); (3, 4); (3, 3); (3, 3); (1, 1); (4, 5); (5, 4); (2, 5); (2, 2); (2, 3); (2, 3); (3, 4).
Definition 1.8.4
Gegeben sei eine statistische Masse Ω = {ω 1 , ..., ω n } und das zweidimensionale Merkmal X =
(X1 , X2 ) mit den Merkmalsräumen A = {a1 , ..., al } und B = {b1 , ..., bm }. Man bezeichnet
hij := h(ai , bj ) := |ω ∈ Ω : X(ω) = (ai , bj )| , (ai , bj ) ∈ A × B, i = 1, . . . , l, j = 1, . . . , m
als absolute Häufigkeit der Merkmalsausprägung (ai , bj ), i = 1, . . . , l, j = 1, . . . , m und
rij := r(ai , bj ) :=
h(ai , bj )
, i = 1, . . . , l, j = 1, . . . , m,
n
als relative Häufigkeit der Merkmalsausprägung (ai , bj ), i = 1, . . . , l, j = 1, . . . , m.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
30
1.8 Grundlagen
Bemerkung 1.8.5
Es gilt:
l X
m
X
hij = n
und
i=1 j=1
l X
m
X
rij = 1.
i=1 j=1
Definition 1.8.6
Gegeben sei ein zweidimensionales Merkmal X = (X1 , X2 ) mit den Merkmalsräumen A =
{a1 , ..., al }, B = {b1 , ..., bm } und den absoluten Häufigkeiten hij , i = 1, . . . , l, j = 1, . . . , m.
Man nennt die tabellarische Darstellung
B
b1
b2
···
bm
a1
a2
..
.
h11
h21
..
.
h12
h22
..
.
···
···
..
.
h1m
h2m
..
.
al
hl1
hl2
···
hlm
A
Kontingenztabelle.
Beispiel 1.8.7 (Fortsetzung von Beispiel 1.8.3)
Englischnote bj
Mathematiknote ai
1
2
3
4
5
1
2
3
4
5
1
1
1
−
−
−
2
1
1
−
1
4
6
−
1
−
−
5
1
1
−
1
−
1
−
Bemerkung 1.8.8
An Stelle der absoluten Häufigkeiten hij in der Kontingenztabelle können auch die relativen
Häufigkeiten rij stehen.
Bemerkung 1.8.9
Im Gegensatz zur eindimensionalen Häufigkeitstabelle aus Definition 1.4.4 sind in der Tabelle
von Definition 1.8.6 nicht alle relativen Häufigkeiten hij größer als Null, da nicht jedes Paar
(ai , bj ) auch Trägerpunkt, d. h. Bildpunkt eines ω ∈ Ω sein muss.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
31
1.8 Grundlagen
Definition 1.8.10
Gegeben sei ein zweidimensionales Merkmal X = (X1 , X2 ) mit den
Pmabsoluten Häufigkeiten
hij bzw. mit den relativen Häufigkeiten rij . Dann heißt hi· :=
j=1 hij , i = 1, ..., l, abPl
solute Randhäufigkeit des Merkmals X1 und
i=1 hij , j = 1, ..., m, absolute
P h·j :=
r
,
i
=
1,
..., l, relative Randhäufigkeit
Randhäufigkeit des Merkmals X2 bzw. ri· := m
j=1 ij
Pl
des Merkmals X1 und r·j := i=1 rij , j = 1, ..., m, relative Randhäufigkeit des Merkmals
X2 .
Beispiel 1.8.11 (Fortsetzung von Beispiel 1.8.3)
Englischnote
Mathematiknote
h·j :=
1
2
3
4
5
Pl
i=1 hij
1
2
3
4
5
1
1
1
−
−
3
−
2
1
1
−
4
1
4
6
−
1
12
−
−
5
1
1
7
−
1
−
1
−
2
Pl
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
hi· :=
Pm
=
2
8
13
3
2
Pm
i=1 hi·
j=1 hij
j=1 h·j
= 28
1.8 Bedingte Häufigkeitsverteilungen und Unabhängigkeit
1.8.2
32
Bedingte Häufigkeitsverteilungen und Unabhängigkeit
Definition 1.8.12
Es sei X = (X1 , X2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten
rij . Dann heißt für festes j
rij
hij
r(ai |bj ) :=
=
für alle ai
r·j
h·j
bedingte relative Häufigkeit von ai unter der Bedingung bj .
Entsprechend ist für ein festes i
r(bj |ai ) :=
rij
hij
=
für alle bj
ri·
hi·
die bedingte relative Häufigkeit von bj unter der Bedingung ai definiert.
Beispiel 1.8.13 (Fortsetzung von Beispiel 1.8.3)
Es sei a2 ≡ Mathematiknote 2 und b3 ≡ Englischnote 3. Dann gilt für die bedingte relative
Häufigkeit:
h23
4
1
r(a2 | b3 ) =
=
=
h·3
12
3
Definition 1.8.14
Es sei X =(X1 , X2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten
rij . Die Merkmale X1 und X2 heißen unabhängig, wenn für die entsprechenden relativen
Häufigkeiten die folgende Beziehung gilt:
rij = ri· · r·j für alle i und j.
Folgerung 1.8.15
Sind die Merkmale a und b unabhängig, dann gilt für die bedingten relativen Häufigkeiten
r(ai |bj ) = r(ai ) für alle bj und i
bzw.
r(bj |ai ) = r(bj ) für alle ai und j.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
33
1.9. ABHÄNGIGKEITSMASSE
1.9
1.9.1
Abhängigkeitsmaße
Kardinalskalierte Merkmale
Definition 1.9.1
Gegeben sei ein zweidimensionales Merkmal X = (X, Y ) mit den Beobachtungswerten
(x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ). Dann heißt
sXY
n
n
n
i=1
i=1
i=1
1X
1X
1X
=
(xi − x̄) · (yi − ȳ) mit x̄ =
xi und ȳ =
yi
n
n
n
empirische Kovarianz zwischen X und Y.
Folgerung 1.9.2
Für die empirische Kovarianz zwischen X und Y gilt die folgende Formel:
!
n
1 X
sXY =
xi · yi − x̄ · ȳ
n
i=1
Folgerung 1.9.3
Liegt für das zweidimensionale Merkmal X = (X, Y ) die absolute Häufigkeitstabelle mit den
Randverteilungen vor,
B
b1
b2
···
bm
hi·
a1
a2
..
.
h11
h21
..
.
h12
h22
..
.
···
···
..
.
h1m
h2m
..
.
h1·
h2·
..
.
al
h·j
hl1
h·1
hl2
h·2
···
···
hlm
h·m
hl·
n
A
dann gilt für die empirische Kovarianz
sXY


l X
m
l X
m
X
X
1
1
=
(ai − ā)(bj − b̄) · hij = 
ai bj · hij  − ā · b̄
n
n
i=1 j=1
mit ā =
i=1 j=1
l
m
i=1
j=1
1X
1X
ai · hi· und b̄ =
bj · h·j .
n
n
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
34
1.9 Kardinalskalierte Merkmale
Definition 1.9.4
Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den Beobachtungswerten
(x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ). Dann heißt
rXY
1 Pn
(xi − x̄) · (yi − ȳ)
n i=1
= s
1 Pn
1 Pn
2
2
(xi − x̄) ·
(yi − ȳ)
n i=1
n i=1
n
n
i=1
i=1
1X
1X
mit x̄ =
xi und ȳ =
yi
n
n
Pearson’scher Korrelationskoeffizient zwischen X und Y.
Folgerung 1.9.5
Liegt für das zweidimensionale Merkmal X =(X, Y ) die Häufigkeitstabelle mit den Randverteilungen vor,
B
b1
b2
···
bm
hi·
a1
a2
..
.
h11
h21
..
.
h12
h22
..
.
···
···
..
.
h1m
h2m
..
.
h1·
h2·
..
.
al
h·j
hl1
h·1
hl2
h·2
···
···
hlm
h·m
hl·
n
A
dann gilt für den empirischen Korrelationskoeffizienten
Pl
Pm
j=1 (ai
− ā)(bj − b̄) · hij
i hP
i
l
m
2·h
2·h
(a
−
ā)
(b
−
b̄)
i
i·
j
·j
i=1
j=1
rXY = rh
P
mit ā =
i=1
l
m
i=1
j=1
1X
1X
ai · hi· und b̄ =
bj · h·j
n
n
Bemerkung 1.9.6
Liegt ein klassiertes Merkmal vor, dann sind die ai bzw. bj als Klassenmitten zu interpretieren.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.9 Kardinalskalierte Merkmale
35
Satz 1.9.7
Es seien X =(X, Y ) ein zweidimensionales Merkmal und rXY der Pearson’sche Korrelationskoeffizient. Dann gilt:
(1) −1 ≤ rXY ≤ 1,
(2) rXY = 1, (bzw. = −1), genau dann wenn Y = a · X + b
mit a > 0, (bzw. mit a < 0), gilt.
(3) Sind X und Y unabhängig, so gilt rXY = 0.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
36
1.9 Ordinalskalierte Merkmale
1.9.2
Ordinalskalierte Merkmale
Definition 1.9.8
Gegeben sei eine mindestens ordinal skalierte Beobachtungsreihe x1 , x2 , . . . xn . Dann heißt
ri := Rang(xi ) := 1 +
n
X
d(xi − xj ) mit
j=1
j6=i

 0 für u < 0
1
d(u) =
für u = 0
 2
1 für u > 0
Rang von xi , i = 1, . . . , n.
Definition 1.9.9
Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten
Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) und den Rängen ri := Rang(xi ) und si :=
Rang(yi ), i = 1, . . . , n. Dann heißt
1 Pn
(ri − r̄) · (si − s̄)
n i=1
rS = s
1 Pn
1 Pn
2
2
(ri − r̄) ·
(si − s̄)
n i=1
n i=1
mit r̄ =
n
n
i=1
i=1
1X
1X
ri und s̄ =
si
n
n
Spearmanscher Rangkorrelationskoeffizient zwischen X und Y.
Satz 1.9.10
Gegeben seien die Voraussetzungen aus Definition (1.9.9). Dann gilt:
n · (n + 1)2
r
·
s
−
i
i=1 i
4
rS = s
.
2
Pn 2 n · (n + 1)2
Pn 2 n · (n + 1)
·
i=1 ri −
i=1 si −
4
4
Pn
Satz 1.9.11
Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten
Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) mit xi 6= xj für i 6= j und yi 6= yj für i 6= j
und den Rängen ri := Rang(xi ) und si := Rang(yi ). Dann gilt:
P
6 · ni=1 d2i
mit di = ri − si .
rS = 1 −
n · (n2 − 1)
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.9 Ordinalskalierte Merkmale
37
Satz 1.9.12
Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten
Beobachtungswerten (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) und den Rängen ri := Rang(xi ) und si :=
Rang(yi ). Dann gilt:
(1) −1 ≤ rS ≤ 1,
(2) rS = 1 ist äquivalent mit ri = si für alle i,
(3) rS = −1 ist äquivalent mit ri = n + 1 − si für alle i.
Bemerkung 1.9.13
Da der Spearmansche Rangkorrelationskoeffizient nur auf die Ränge der Messwerte angewendet
wird, deutet ein Wert in der Nähe von ±1 auch bei kardinal skalierten Merkmalen nicht unbedingt auf einen starken linearen Zusammenhang der Messwerte hin, sondern möglicherweise
nur auf ein monotones Verhalten der beiden Messwertefolgen. Werte in der Nähe von 0 deuten
darauf hin, dass wenig oder kein monotoner Zusammenhang zwischen den Messwertefolgen
vorliegt.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
38
1.9 Beliebiges Skalenniveau
1.9.3
Beliebiges Skalenniveau
Definition 1.9.14
Für das zweidimensionale Merkmal X = (X, Y ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der absoluten Häufigkeiten hij und den absoluten Randhäufigkeiten
hi· bzw. h·j gegeben:
B
b1
b2
···
bm
hi·
a1
a2
..
.
h11
h21
..
.
h12
h22
..
.
···
···
..
.
h1m
h2m
..
.
h1·
h2·
..
.
al
h·j
hl1
h·1
hl2
h·2
···
···
hlm
h·m
hl·
n
A
mit hi· > 0 für i = 1, ..., l und h·j > 0 für j = 1, ..., m. Man bezeichnet
χ2XY :=
hi· · h·j 2
]
n
hi· · h·j
n
l X
m [hij −
X
i=1 j=1
als quadratische Kontingenz der Merkmale X und Y,
ϕ2XY :=
1
· χ2
n XY
als mittlere quadratische Kontingenz der Merkmale X und Y.
s
s
ϕ2XY
χ2XY
C := +
=
1 + ϕ2XY
n + χ2XY
als Pearsonschen Kontingenzkoeffizienten und
s
min{l, m}
Ckorr = C ·
min{l, m} − 1
als korrigierten Pearsonschen Kontingenzkoeffizienten.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1.9 Beliebiges Skalenniveau
39
Folgerung 1.9.15
Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (1.9.14) und l, m > 1.
Dann gilt:
(1) ϕ2XY =
(2) ϕ2XY =
Pm [rij − ri· · r·j ]2
hij
h·j
hi·
mit rij =
, ri· =
, r·j =
,
j=1
i=1
ri· · r·j
n
n
n
!
2
Xl Xm
rij
− 1,
i=1
j=1 ri· · r·j
Pl
(3) 0 ≤ ϕ2XY ≤ min{l, m} − 1,
(4) 0 ≤ C < 1,
(5) 0 ≤ Ckorr ≤ 1,
(6) X und Y sind genau dann unabhängig, falls ϕ2XY = C = Ckorr = 0.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 2
Wahrscheinlichkeitsrechnung
2.1
Einleitung
Wohl jedem ist seit früher Jugend das Auftreten des Zufalls bei Glücks- und Gesellschaftsspielen wie Lotto-Ziehungen, Roulette oder Skat bzw. Mensch ärgere dich nicht“ geläufig.
”
Hierbei tritt der Zufall in einer besonders einfachen und durchsichtigen“ Form auf. Ziel dieser
”
Vorlesung ist es, dem Zuhörer einen ersten Einstieg in die Welt des Zufalls zu vermitteln und
ihn in die Lage zu versetzen, stochastische Phänomene korrekt zu beurteilen. Natürlich beschränkt sich der Anwendungsbereich der Stochastik nicht nur auf Glücksspiele. Stochastische
Fragestellungen treten in unterschiedlichen Anwendungsbereichen auf wie z. B.
• Informatik (z. B. Auslastung in Telefon- und Daten-Netzen)
• Medizin (z. B. Vergleich des Erfolges verschiedener Therapien)
• Versicherungswesen (Prämienkalkulation)
• Produktion (z. B. statistische Qualitätskontrolle, Lagerhaltung)
• Wirtschaft (Portfolioanalyse, Marketing-Strategien)
• Verkehrswesen (Studium von Warteschlangensystemen)
• Biologie (Planung und Auswertung von Versuchen)
• Meinungsforschung (Gewinnung repräsentativer Stichproben und Hochrechnen“ auf die
”
Grundgesamtheit.)
Diese Anwendungsbereiche unterstreichen die wachsende Bedeutung der Stochastik für die
berufliche Laufbahn. Zum Schluss der Einleitung noch ein Beispiel aus dem Gebiet der Meinungsforschung.
40
41
2.1. EINLEITUNG
Beispiel 2.1.1
Bundestagswahl am 18. September 2005
Vorläufiges amtliches Endergebnis der Bundestagswahl:
SPD
34.3
CDU/CSU
35.2
GRÜNE
8.1
FDP
9.8
LINKE
8.7
ANDERE
3.9
GRÜNE
8.0
FDP
10.5
LINKE
8.0
ANDERE
3.5
GRÜNE
8.5
FDP
10.5
LINKE
7.5
ANDERE
4.0
Prognose des ZDF um 18.00 Uhr:
SPD
33.0
CDU/CSU
37.0
Prognose der ARD um 18.00 Uhr:
SPD
34.0
CDU/CSU
35.5
Aus diesen beiden Prognosen wird ersichtlich, dass mit Hilfe der Stochastik schon kurz nach
Schließung der Wahllokale sehr verlässliche Ergebnisse bzgl. des vorläufigen amtlichen Endergebnisses durch Hochrechnung geliefert werden konnten.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
42
2.2. DAS WAHRSCHEINLICHKEITSTHEORETISCHE MODELL
2.2
2.2.1
Das wahrscheinlichkeitstheoretische Modell
Der Ergebnisraum Ω
Um Vorgänge und Situationen der wirklichen Welt mathematisch beschreiben zu können, muss
man durch Abstraktion mathematische Modelle konstruieren, die die wesentlichen Eigenschaften der Wirklichkeit wiedergeben. Ein erster Schritt bei der Modellbildung besteht darin, die
zu betrachtenden Ergebnisse eines Zufallsexperimentes zu einer mathematischen Menge zusammenzufassen. Es ist üblich, diese Menge als Ergebnisraum zu bezeichen und durch Ω zu
symbolisieren. Einige Beispiele mögen dies untermauern:
Zufallsexperiment
Ergebnisraum
1. Werfen mit einem Würfel
Ω = {1, 2, 3, 4, 5, 6}
2. Zweimaliges Werfen einer Münze
Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)}
3. Erfassung der Ausschussteile, die auf einer
Maschine während einer Schicht produziert werden
4. Ermittlung der Lebensdauer von PKW-Reifen
Ω = {0, 1, 2, 3, . . . , n}
Ω = {t : t ≥ 0, t ∈ R}
Erster Schritt der Modellbildung:
Für jedes Zufallsexperiment wird eine Menge Ω von Ergebnissen so festgelegt, dass jedes dieser Ergebnisse als ein möglicher Versuchsausgang interpretiert werden kann. Dabei soll Ω so
gewählt werden, dass bei jeder Durchführung des Versuchs der Ausgang durch eines und nur
eines dieser Ergebnisse gekennzeichnet ist.
Da jeder Ergebnisraum durch einen Abstraktionsprozess aus dem realen Zufallsexperiment
gewonnen wird, ist es verständlich, dass umgekehrt zu einem mathematischen Ergebnisraum
Ω durchaus verschiedene reale Zufallsexperimente gehören können. So kann Ω = {0, 1} i. a.
aufgefasst werden als Ergebnisraum folgender realer Zufallsexperimente:
1. Münzwurf mit den Ergebnissen 0 := Wappen und 1 := Zahl
2. Würfelwurf mit den Ergebnissen 0 := gerade Augenzahl und 1 := ungerade Augenzahl
3. Ziehen einer Kugel aus einer Urne mit roten und schwarzen Kugeln mit den Ergebnissen
0 := rot und 1 := schwarz
4. Qualitätskontrolle mit den Ergebnissen 0 := brauchbar und 1 := unbrauchbar
5. Ziehen eines Loses mit den Ergebnissen 0 := Niete und 1 := Treffer
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Ereignisse und Ereignisraum F
2.2.2
43
Ereignisse und Ereignisraum F
Reale Fragestellungen beziehen sich meist nicht auf einzelne Ergebnisse, die bei einem Zufallsexperiment auftreten, sondern auf gewisse Teilmengen von Ω. Dies soll an einem Beispiel
erläutert werden.
Beispiel 2.2.1
Eine Urne enthalte 3 rote Kugeln, 2 schwarze Kugeln und 1 grüne Kugel. Es werden 2 Kugeln
nacheinander ohne Zurücklegen gezogen. Für dieses Zufallsexperiment eignet sich folgender
Ergebnisraum:
Ω = {(r, r), (r, s), (r, g), (s, r), (s, s), (s, g), (g, r), (g, s)}.
Interessiert man sich z. B. dafür, dass zwei gleichfarbige Kugeln gezogen werden, kann dies
durch die Menge A1 = {(r, r), (s, s)} dargestellt werden. Solche interessierenden Teilmengen von Ω nennt man Ereignisse. Interessiert man sich dafür, mindestens eine rote Kugel
zu ziehen, so kann dieses Ereignis durch die Menge A2 = {(r, r), (r, s), (r, g), (s, r), (g, r)}
dargestellt werden. Interessiert man sich für das Ereignis, keine rote Kugel zu ziehen, so
kann dieses Ereignis durch die Menge A3 = {(s, s), (s, g), (g, s)} dargestellt werden. Wie man
leicht sieht, kann man das Ereignis A3 auch mittels Komplement darstellen. Es gilt nämlich
A3 = Ā2 = {(s, s), (s, g), (g, s)}. Interessiert man sich für das Ereignis, genau zwei rote Kugeln
zu ziehen, so kann dieses Ereignis durch die Menge A4 = {(r, r)} dargestellt werden. Das Ereignis A4 lässt sich aber auch als Durchschnitt darstellen, nämlich A4 = A1 ∩ A2 . Man sieht, dass
die Menge {(r, r)} eine einelementige Teilmenge aus Ω ist. Solche einelementigen Teilmengen
aus Ω nennt man häufig Elementarereignisse. Interessiert man sich für das Ereignis, genau
zwei gleichfarbige Kugeln oder genau eine schwarze und grüne Kugel zu ziehen, so kann dieses
Ereignis durch die Menge A5 = {(r, r), (s, s), (s, g), (g, s)} dargestellt werden. Auch hier sieht
man leicht, dass sich das Ereignis A5 als Vereinigung darstellen lässt, nämlich A5 = A1 ∪ A3 .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
44
2.2 Mengenalgebra
2.2.3
Mengenalgebra
Definition 2.2.2
Ω sei eine beliebige Menge. Eine Menge A heißt Teilmenge von Ω, i. Z.: A ⊂ Ω, wenn jedes
Element von A auch Element von Ω ist, d. h. ω ∈ A ⇒ ω ∈ Ω für alle ω ∈ A.
9
)
Definition 2.2.3
Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Vereinigung von A und
B, i. Z.: A ∪ B ist wie folgt definiert:
A ∪ B := {ω ∈ Ω : ω ∈ A ∨ ω ∈ B}.
9
)
)
9
*
*
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
45
2.2 Mengenalgebra
Definition 2.2.4
Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Der Durchschnitt von A und
B, i. Z.: A ∩ B ist wie folgt definiert:
A ∩ B := {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}.
9
)
8
*
)
*
Definition 2.2.5
Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Differenz von A und B, i.
Z.: A \ B ist wie folgt definiert:
A \ B := {ω ∈ Ω : ω ∈ A ∧ ω ∈
/ B}.
9
)
\ *
)
*
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
46
2.2 Mengenalgebra
Definition 2.2.6
Ω sei eine beliebige Menge und A eine Teilmenge von Ω. Das Komplement von A, i. Z.: Ā
ist wie folgt definiert:
Ā := {ω ∈ Ω : ω ∈
/ A}.
9
)
)
Definition 2.2.7
Ω sei eine beliebige Menge. Die Gesamtheit aller Teilmengen von Ω heißt Potenzmenge, i. Z.:
P(Ω), d. h.: P(Ω) = {A : A ⊂ Ω}.
Beispiel 2.2.8
Ω = {1, 2, 3}
P(Ω) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, Ω}
Satz 2.2.9
Ist Ω endlich mit n Elementen, d. h. ist Ω = {ω 1 , . . . , ω n }, dann besitzt die Potenzmenge P(Ω)
2n Elemente.
Satz 2.2.10 (Rechenregeln)
Ω sei eine beliebige Menge und A, B, C seien Teilmengen von Ω. Dann gilt:
(1)
(2)
(3)
A∪∅=A
A∪A=A
A∩∅=∅
A∪Ω=Ω
A∩B ⊂A
A∩A=A
A∩Ω=A
A∩B ⊂B
A∪B =B∪A
Kommutativgesetz
A∩B =B∩A
A ∪ (B ∪ C) = (A ∪ B) ∪ C
Assoziativgesetz
A ∩ (B ∩ C) = (A ∩ B) ∩ C
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
47
2.2 Mengenalgebra
(4)
(5)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
Distributivgesetz
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(A ∪ B) = Ā ∩ B̄
De Morgansche Gesetze
(A ∩ B) = Ā ∪ B̄)
(6) A = (A ∩ B) ∪ (A ∩ B̄) mit (A ∩ B) ∩ (A ∩ B̄) = ∅
Für die Verknüpfung von Ereignissen ergeben sich daraus die folgenden Darstellungen:
A oder B oder beide treten ein“
”
entspricht
ω ∈A∪B
A und B treten (beide) ein“
”
entspricht
ω ∈A∩B
A und B treten nie gleichzeitig ein“
”
entspricht
A∩B =∅
A tritt nicht ein“
”
entspricht
ω ∈ Ā ⇔ ω ∈
/A
A tritt ein, aber B tritt nicht“
”
entspricht
ω∈A\B
mindestens ein Ai tritt ein“
”
entspricht
ω∈
alle Ai treten ein“
”
entspricht
∞
S
Ai
i=1
ω∈
Bemerkung 2.2.11
Statt A ∩ B = ∅ sagt man auch A und B sind disjunkt“.
”
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
∞
T
i=1
Ai
48
2.2 Mengenalgebra
Zweiter Schritt der Modellbildung:
Ist die Ergebnismenge wie in Beispiel 2.2.1 endlich oder ist die Ergebnismenge Ω auch abzählbar
unendlich, dann bezeichnet man jede Teilmenge A ⊂ Ω als Ereignis. Die Menge aller Ereignisse ist die Potenzmenge und heißt in diesem Kontext Ereignisalgebra. Die leere Menge
∅ nennt man unmögliches Ereignis, da ω ∈ ∅ nie auftritt. Das Ereignis Ω nennt man sicheres Ereignis, da Ω immer eintritt. Ein Ereignis der Form A = {ω} für ein ω ∈ Ω heißt
Elementarereignis.
Bei der Ermittlung der Lebensdauer von PKW Reifen ist Ω = {t : t ≥ 0, t ∈ R}, d. h. Ω
ist überabzählbar. Ein tiefliegendes Ergebnis der Mathematik zeigt, dass bei überabzählbaren
Ergebnismengen Ω nicht allen Teilmengen von Ω eine Wahrscheinlichkeit zugeordnet werden
kann. Als Ausweg betrachtet man nicht alle Teilmengen von Ω, sondern eine kleinere Auswahl
F ⊆ P(Ω), so dass Ereignisse sinnvoll kombiniert werden können. Dies führt dann zu folgender
Definition:
Definition 2.2.12 (σ-Algebra, Ereignisalgebra)
Es sei Ω 6= ∅ eine Menge und F eine Menge von Teilmengen von Ω, d. h. F ⊆ P(Ω). F heißt
σ-Algebra (Ereignisalgebra) über Ω, wenn gilt:
(1) Ω ∈ F,
(2) A ∈ F ⇒ Ā ∈ F,
(3) A1 , A2 , . . . ∈ F ⇒
S
Aj ∈ F.
j∈N
Satz 2.2.13
Es sei F eine σ-Algebra über Ω 6= ∅. Dann gilt
(1) ∅ ∈ F,
(2) A1 , A2 , . . . ∈ F ⇒
T
Aj ∈ F.
j∈N
Bemerkung 2.2.14
Eine σ-Algebra ist somit stabil bezüglich
(1) Komplementbildung
(2) abzählbar unendlicher Vereinigungsbildung
(3) abzählbar unendlicher Durchschnittsbildung
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
49
2.2 Mengenalgebra
Folgerung 2.2.15
Es sei F eine σ-Algebra über Ω 6= ∅, weiterhin sei n ∈ N. Dann gilt:
(1) A1 , ..., An ∈ F ⇒
n
S
Aj ∈ F,
j=1
(2) A1 , ..., An ∈ F ⇒
n
T
Aj ∈ F,
j=1
(3) A, B ∈ F ⇒ A \ B ∈ F.
Bemerkung 2.2.16
Ist E ⊂ P(Ω) irgendeine Teilmenge von Ω, dann gibt es eine kleinste σ-Algebra, bezeichnet mit
σ(E), die E umfasst, nämlich den Durchschnitt aller σ-Algebren, die E umfassen. E nennt man
Erzeuger.
Beispiel 2.2.17
• Die Potenzmenge P(Ω) ist die größte σ-Algebra über Ω.
• F ={∅, Ω} ist die kleinste σ-Algebra über Ω.
• Es sei A ⊂ Ω 6= ∅ und Ω 6= A 6= ∅, dann ist F ={A, Ā, ∅, Ω} die kleinste σ-Algebra über Ω,
die A enthält.
• Es sei Ω = {(x, y) : x2 + y 2 ≤ 1}. Weiterhin betrachtet man die folgenden Ereignisse:
1
1
2
2
R1 = {(x, y) : x2 + y 2 ≤ }, R2 = {(x, y) :
< x2 + y 2 ≤ } und R3 = {(x, y) :
<
3
3
3
3
2
2
x + y ≤ 1}, dann ist F ={R1 , R2 , R3 , R1 ∪ R2 , R1 ∪ R3 , R2 ∪ R3 , ∅, Ω} die kleinste
σ-Algebra über Ω, die R1 , R2 , R3 enthält.
Bemerkung 2.2.18
Für uns sind die folgenden Fälle wichtig:
• Ω endlich oder abzählbar unendlich. Dann nimmt man als Ereignisalgebra F = P(Ω).
• Ω = R. Hier konstruiert man die sogenannte Borelsche σ-Algebra B, indem man als
Erzeuger die Menge aller endlichen Intervalle der Form (a, b] nimmt mit a ≤ b, a, b ∈ R.
Die Elemente von B heißen Borelsche Mengen des R.
• Ω = X ⊂ R. Ereignisse sind hier alle Mengen der Form B ∩ X, wobei B eine Borelsche
Teilmenge von R ist. Man wählt daher die Ereignisalgebra B(X) = {B ∩ X : B ∈ B}. B(X)
heißt auch Spur-σ-Algebra.
• Ω = Rn . Hier konstruiert man die sogenannte Borelsche σ-Algebra Bn , indem man
als Erzeuger die Menge aller Rechtecke der Form (a, b] = (a1 , b1 ] × (a2 , b2 ] × · · · × (an , bn ]
nimmt mit a = (a1 , . . . , an ), b = (b1 , . . . , bn ) ∈ Rn . Die Elemente von Bn heißen Borelsche
Mengen des Rn .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Mengenalgebra
50
• Ω = X ⊂ Rn . Ereignisse sind hier alle Mengen der Form B ∩ X, wobei B eine Borelsche
Teilmenge von Rn ist. Man wählt daher die Ereignisalgebra B(X) = {B ∩ X : B ∈ Bn }.
B(X) heißt ebenfalls Spur-σ-Algebra.
Bemerkung 2.2.19
Die Borel σ−Algebra B besitzt folgende Eigenschaften:
(1) Jede einelementige Teilmenge von R ist Element von B.
(2) Jede endliche Teilmenge von R ist Element von B.
(3) Jede abzählbar unendliche Teilmenge von R ist Element von B.
(4) Jedes beliebige Intervall (halboffen, abgeschlossen) aus R ist Element von B.
Bemerkung 2.2.20
Die Borel σ−Algebra Bn besitzt folgende Eigenschaften:
(1) A ∈ Bn , falls A abzählbare Teilmenge von Rn ,
(2) In ∈ Bn , falls In = (a1 , b1 ] × (a2 , b2 ] × · · · × (an , bn ] ein beliebiges n-dimensionales Rechteck
im Rn ist.
(4) O ∈ Bn für alle offenen Teilmengen O ⊂ Rn ,
(5) G ∈ Bn für alle abgeschlossenen Teilmengen G ⊂ Rn .
Definition 2.2.21
Ein Paar (Ω, F) bestehend aus einer nichtleeren Menge Ω und einer σ−Algebra F über Ω
nennt man Messraum. Ω heißt Ergebnisraum und die Elemente von Ω heißen Ergebnisse,
F heißt Ereignisraum und die Elemente von F heißen Ereignisse.
Bemerkung 2.2.22
Jedes Ereignis ist Teilmenge von Ω, aber nicht jede Teilmenge von Ω ist auch ein Ereignis.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Wahrscheinlichkeitsräume
2.2.4
51
Wahrscheinlichkeitsräume
3. Schritt der Modellbildung
Die Aufgabe im 3. Schritt wird darin bestehen, jedem Ereignis A aus dieser σ-Algebra bzw. Ereignisalgebra eine geeignete Zahl zuzuordnen, die uns die Chance dafür angibt, dieses Ereignis
bei einem Zufallsexperiment zu erhalten, d. h. man sucht eine auf der Menge der Ereignisse derart definierte Funktion, dass die einzelnen Funktionswerte sinnvollerweise Wahrscheinlichkeiten
heißen dürfen. Aufgrund dieser 3 Schritte ist man jetzt in der Lage, ein Zufallsexperiment bzw.
einen Wahrscheinlichkeitsraum zu definieren.
Definition 2.2.23
Es sei (Ω, F) ein Messraum und P : F → R eine Abbildung. Das Tripel (Ω, F, P) heißt
Wahrscheinlichkeitsraum oder Zufallsexperiment, wenn gilt:
(A1)
A ∈ F ⇒ P(A) ≥ 0,
(A2)
(A1 , A2 , .... ∈ F) und (Ai ∩ Aj = ∅ für i 6= j) ⇒
∞
∞
S
P
P( Ai ) =
P(Ai ),
i=1
i=1
(A3)
P(Ω) = 1.
P heißt Wahrscheinlichkeit oder Wahrscheinlichkeitsmaß.
Bemerkung 2.2.24
(A1) ist die Forderung der Nichtnegativität einer Wahrscheinlichkeit,
(A2) ist die Forderung der σ-Additivität,
(A3) ist die Forderung der Normierung.
Bemerkung 2.2.25
(A1), (A2) und (A3) heißen auch die Axiome von Kolmogoroff.
Bemerkung 2.2.26
Wird ein Wahrscheinlichkeitsraum (Ω, F, P) zur Beschreibung eines Zufallsexperimentes benutzt, so sagt man, ein bestimmtes Ereignis A ∈ F sei bei einer Durchführung des Experimentes eingetreten, wenn das beobachtete Ergebnis ω ∈ Ω ein Element von A ist, d. h. wenn gilt
ω ∈ A.
Satz 2.2.27
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B ∈ F. Dann gilt:
(1) P(Ā) = 1 − P(A);
(2) P(A ∪ B) = P(A) + P(B) − P(A ∩ B);
(3) P(A ∪ B ∪ C) =
P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C);
(4) P(A ∪ B) ≤ P(A) + P(B);
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
52
2.2 Wahrscheinlichkeitsräume
(5) A ⊆ B ⇒ P(A) ≤ P(B);
(6) P(A ∩ B̄) = P(A) − P(A ∩ B);
(7) P(A ∩ B) ≥ 1 − (P(Ā) + P(B̄));
(8) P(A) ≤ 1.
Satz 2.2.28
Es seien Ω ein endlicher oder abzählbar unendlicher Ergebnisraum und
P F := P(Ω). Weiterhin
sei p : Ω → [0, 1] eine Abbildung mit p(ω) ≥ 0 für alle ω ∈ Ω und ω∈Ω p(ω) = 1. Dann ist
durch
X
P(A) :=
p(ω) für alle A ∈ F
ω∈A
eine Wahrscheinlichkeit P : F → R definiert und damit (Ω, F, P) ein Wahrscheinlichkeitsraum.
Insbesondere gilt
P({ω}) = p(ω) für alle ω ∈ Ω.
Definition 2.2.29 (Diskreter Wahrscheinlichkeitsraum)
Der Wahrscheinlichkeitsraum (Ω, F, P) mit F := P(Ω) aus dem Satz (2.2.28) und auch das
Wahrscheinlichkeitsmaß P heißen diskret. Die Abbildung p : Ω → [0, 1] heißt Wahrscheinlichkeitsfunktion.
Bemerkung 2.2.30
Ein diskreter Wahrscheinlichkeitsraum ist durch Angabe von Ω und p(ω) vollständig bestimmt.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
53
2.2 Laplace-Experimente und Grundlagen der Kombinatorik
2.2.5
Laplace-Experimente und Grundlagen der Kombinatorik
Definition 2.2.31
Es sei (Ω, P(Ω), P) ein diskreter Wahrscheinlichkeitsraum mit endlichem Ergebnisraum Ω und
1
der Wahrscheinlichkeitsfunktion p(ω) =
für alle ω ∈ Ω. Das durch
|Ω|
(∗)
X
P(A) =
ω∈A
p(ω) =
|A|
|Ω|
A ∈ P(Ω)
definierte Wahrscheinlichkeitsmaß heißt Laplacesches Wahrscheinlichkeitsmaß über Ω
und der Wahrscheinlichkeitsraum (Ω, P(Ω), P) Laplacescher Wahrscheinlichkeitsraum.
Bemerkung 2.2.32
Die Gleichung (*) formuliert man auch
P(A) =
Anzahl der f ür A g ünstigen F älle
.
Anzahl der möglichen F älle
Satz 2.2.33 (Additionsprinzip der Kombinatorik)
Es seien Ω1 , Ω2 , ..., Ωr endliche Mengen mit r ∈ N endlich und Ωi ∩ Ωj = ∅ für i 6= j. Dann gilt:
| Ω1 ∪ Ω2 ∪ . . . ∪ Ωr |=| Ω1 | + | Ω2 | + . . . + | Ωr | .
Satz 2.2.34 (Multiplikationsprinzip der Kombinatorik)
Es seien Ω1 , Ω2 , ..., Ωr endliche Mengen mit r ∈ N endlich. Dann gilt mit
Ω1 × Ω2 × . . . × Ωr = {(ω 1 , . . . , ω r ) : ω 1 ∈ Ω1 , . . . , ω r ∈ Ωr } :
| Ω1 × Ω2 × . . . × Ωr |=| Ω1 | · | Ω2 | · . . . · | Ωr | .
Definition 2.2.35
Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel
(ω 1 , ..., ω r ) ∈ Ωr
als geordnete Probe (Variation) mit Wiederholung vom Umfang r aus Ω.
Folgerung 2.2.36
Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N, und es sei r ∈ N. Dann gibt es
w
Vnr = nr
geordnete Proben (Variationen) mit Wiederholung vom Umfang r aus Ω.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Laplace-Experimente und Grundlagen der Kombinatorik
54
Beispiel 2.2.37
In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1, . . . , 9. Es werden 3 Kugeln
gezogen, wobei vor dem nächsten Zug die bereits zuvor gezogene Kugel wieder in die Urne
zurückgelegt wird ( Ziehen mit Zurücklegen“). Wieviel verschiedene Möglichkeiten gibt es,
”
3 Kugeln zu ziehen?
Antwort: w Vnr = nr = 103 = 1000.
Definition 2.2.38
(1) Für jedes n ∈ N ∪ {0} definiert man die Zahl n! ∈ N (gelesen ,,n-Fakultät“) durch
0! := 1 und (n + 1)! := (n + 1) · n! für alle n ∈ N ,
(2) Für n, r ∈ N ∪ {0} mit 0 ≤ r ≤ n definiert man die Zahl (n)r
(gelesen ,,n tief r“) durch
(n)r :=
n!
= n · (n − 1) · · · · · (n − r + 1) ,
(n − r)!
(3) Für n, r ∈ N ∪ {0} und 0 ≤ r ≤ n definiert man den Binomialkoeffizienten (nr ) (gelesen
,,n über r“) durch
n
n!
.
:=
(n − r)! · r!
r
Definition 2.2.39
Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel
(ω 1 , ..., ω r ) ∈ Ωr mit ω i 6= ω j für i 6= j
als geordnete Probe (Variation) ohne Wiederholung vom Umfang r aus Ω.
Satz 2.2.40
Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N und es sei r ∈ N mit 1 ≤ r ≤ n. Dann gibt
es
Vnr = n(n − 1)...(n − r + 1) = (n)r
geordnete Proben (Variationen) ohne Wiederholung vom Umfang r aus Ω.
Beispiel 2.2.41
In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1, . . . , 9. Es werden nacheinander 3 Kugeln gezogen, wobei die bereits zuvor gezogenen Kugeln nicht wieder in die Urne
zurückgelegt werden ( Ziehen ohne Zurücklegen“). Wieviel verschiedene Möglichkeiten gibt
”
es, 3 Kugeln zu ziehen?
n!
10!
10!
Antwort: Vnr = (n)r =
=
=
= 10 · 9 · 8 = 720.
(n − r)!
(10 − 3)!
7!
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Laplace-Experimente und Grundlagen der Kombinatorik
55
Definition 2.2.42
Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N. Jedes n-Tupel
(ω 1 , ..., ω n ) ∈ Ωn mit ω i 6= ω j für i 6= j
heißt eine Permutation von Ω.
Folgerung 2.2.43
Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N. Dann gibt es n! Permutationen von Ω.
Bemerkung 2.2.44
Jede endliche Menge kann man ordnen.
Definition 2.2.45
Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel
(ω 1 , ..., ω r ) ∈ Ωr mit ω 1 < ω 2 < . . . < ω r
als ungeordnete Probe (Kombination) ohne Wiederholung vom Umfang r aus Ω.
Satz 2.2.46
Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N und es sei r ∈ N mit 1 ≤ r ≤ n. Dann gibt
es
n
r
Cn =
r
ungeordnete Proben (Kombinationen) ohne Wiederholung vom Umfang r aus Ω.
Beispiel 2.2.47
In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1, . . . , 9. Es werden gleichzeitig
3 Kugeln gezogen ( Gleichzeitiges Ziehen“). Wieviel verschiedene Möglichkeiten gibt es, 3
”
Kugeln zu ziehen?
n
n!
10!
10!
Antwort: Cnr =
=
=
=
= 120.
r
r! · (n − r)!
3! · (10 − 3)!
3! · 7!
Definition 2.2.48
Es sei Ω eine endliche Menge und r ∈ N. Man bezeichnet jedes r-Tupel
(ω 1 , ..., ω r ) ∈ Ωr mit ω 1 ≤ ω 2 ≤ . . . ≤ ω r
als ungeordnete Probe (Kombination) mit Wiederholung vom Umfang r aus Ω.
Satz 2.2.49
Es sei Ω eine endliche Menge mit | Ω |= n, n ∈ N und es sei r ∈ N. Dann gibt es
n+r−1
w r
Cn =
r
ungeordnete Proben (Kombinationen) mit Wiederholung vom Umfang r aus Ω.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
56
2.2 Laplace-Experimente und Grundlagen der Kombinatorik
Beispiel 2.2.50
Es wird mit 3 gleichartigen Würfeln gleichzeitig gewürfelt. Wieviele verschiedene Zahlenkombinationen sind möglich?
n+r−1
6+3−1
8
w
r
Antwort: Cn =
=
=
= 56
r
3
3
Bemerkung 2.2.51
Die Interpretation der zuvor behandelten Kombinationen und Variationen anhand geeigneter
Urnenmodelle ist im folgenden Tableau gegeben:
Interpretation als Urnenmodell
n ∈ N Urnen, r ∈ N Kugeln
Bedingung
über r
1≤r≤n
1≤r≤n
Kugeln sind
in jeder
Urne sind
Kugelverteilung
entspricht
unterscheidbar
(durchnumeriert)
unterscheidbar
(durchnumeriert)
nicht
unterscheidbar
nicht
unterscheidbar
maximal
r Kugeln
höchstens
eine Kugel
maximal
r Kugeln
höchstens
eine Kugel
geordnete Probe
mit Wiederholung
geordnete Probe
ohne Wiederholung
ungeordnete Probe
mit Wiederholung
ungeordnete Probe
ohne Wiederholung
Anzahl der
Kugelverteilungen
w
Vnr := nr
Vnr := (n)r
w
Cnr :=
Cnr :=
n+r−1
r
n
r
Definition 2.2.52 (Multinomialkoeffizient)
P
Es seien k, k1 , . . . , kr ∈ N ∪ {0} mit ri=1 ki = k. Dann heißt
k
k!
:=
k1 , . . . , k r
k1 ! · . . . · kr !
Multinomialkoeffizient.
Beispiel 2.2.53
In einer Urne befinden sich sich 18 Kugeln, von denen 3 rot, 4 blau, 5 weiß und 6 schwarz sind.
Wieviele verschiedene
Möglichkeiten gibt es, diese 18 Kugeln anzuordnen?
k
k!
18!
Antwort:
:=
=
= 514594080.
k1 , . . . kr
k1 ! · . . . · kr !
3! · 4! · 5! · 6!
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
57
2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
2.2.6
Bedingte Wahrscheinlichkeit und Unabhängigkeit
Beispiel 2.2.54 (Motivation)
Eine Firma bezieht 5000 Speicherchips von zwei verschiedenen Firmen A und B. Firma A hat
1000 Speicherchips und Firma B 4000 Speicherchips geliefert. Unter den 5000 Speicherchips
sind 300 Speicherchips defekt. 100 defekte Speicherchips stammen von Firma A, 200 defekte
Speicherchips stammen von Firma B. Ein geeignetes Modell zur Beschreibung des zufälligen
Ziehens eines Speicherchips aus der gesamten Lieferung ist das folgende:
Ω:
Menge aller Speicherchips, |Ω| = 5000
A:
Menge der Speicherchips von Firma A, |A| = 1000
B:
Menge der Speicherchips von Firma B, |B| = 4000
D:
Menge der defekten Speicherchips, |D| = 300
A ∩ D : Menge der defekten Speicherchips von Firma A, |A ∩ D| = 100
B ∩ D : Menge der defekten Speicherchips von Firma B, |B ∩ D| = 200
Ein Speicherchip wird nun rein zufällig gezogen. Dieses Zufallsexperiment wird durch ein
Laplace-Modell beschrieben. Wie groß ist die Wahrscheinlichkeit, dass der Speicherchip defekt ist, wenn er von Firma A stammt?
|D ∩ A|
100
|D ∩ A|
1
P(D ∩ A)
|Ω|
P(D | A) :=
=
=
= 5000 = .
1000
|A|
|A|
P(A)
10
5000
|Ω|
Umgekehrt lässt sich auch nach der Wahrscheinlichkeit fragen, dass der Speicherchip von Firma
A stammt, wenn er defekt ist.
|A ∩ D|
100
1
|A ∩ D|
P(A ∩ D)
|Ω|
5000
= .
P(A | D) :=
=
=
=
300
|D|
|D|
P(D)
3
5000
|Ω|
Diese Vorüberlegungen legen die folgende allgemeine Definition für den Begriff der bedingten
Wahrscheinlichkeit nahe.
Definition 2.2.55
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B ∈ F mit P(A) > 0. Man nennt
P(B | A) :=
P(B ∩ A)
P(A)
die bedingte Wahrscheinlichkeit von B unter der Bedingung A.
Bemerkung 2.2.56
Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und A ∈ F mit P(A) > 0. Man kann leicht
nachweisen, dass die bedingte Wahrscheinlichkeit P(· | A) als Abbildung
P(· | A) : F → R
die Eigenschaften (A1), (A2), (A3) einer Wahrscheinlichkeit hat, die Begriffsbildung in Definition (2.2.55) somit berechtigt ist. Also ist durch (Ω, F, P(· | A)) ein weiterer Wahrscheinlichkeitsraum gegeben.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
58
2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
Bemerkung 2.2.57
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B ∈ F.
P(A ∩ B)
Aus P(B | A) =
mit P(A) > 0 folgt:
P(A)
(∗) P (A ∩ B) = P (A) · P (B | A).
Nach Satz (2.2.27) (5) gilt wegen A ∩ B ⊆ A stets P(A ∩ B) ≤ P(A), insbesondere folgt aus
P(A) = 0 auch P(A ∩ B) = 0. Allerdings ist P(B | A) für P(A) = 0 nicht definiert, man setzt
deshalb fest
P(A) · P(B | A) := 0 für P(A) = 0,
so dass die Gleichung (∗) für alle A ∈ F gültig ist.
Satz 2.2.58 (Multiplikationssatz)
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A1 , A2 , ..., An ∈ F für n ∈ N. Dann gilt:
P(A1 ∩ ... ∩ An ) =
P(A1 ) · P(A2 | A1 ) · P(A3 | A1 ∩ A2 ) · ... · P(An | A1 ∩ ... ∩ An−1 ).
Dabei sei vereinbart, die untere Zeile gleich Null zu setzen, wenn mindestens eine der WahrT
scheinlichkeiten P ( ki=1 Ai ) für k = 1, 2, ..., n − 1 verschwindet, also mindestens eine der bedingten Wahrscheinlichkeiten nicht definiert ist.
Beispiel 2.2.59
Eine Urne enthält 12 Kugeln, von denen 4 weiß und 8 schwarz sind. Es werden nacheinander
ohne Zurücklegen 3 Kugeln entnommen. Wie groß ist die Wahrscheinlichkeit dafür, dass alle 3
gezogenen Kugeln schwarz sind?
Lösung:
Es sei Ai das Ereignis, dass beim i-ten Zug eine schwarze Kugel gezogen wird. Gesucht ist also
die folgende Wahrscheinlichkeit:
8 7 6
14
P(A1 ∩ A2 ∩ A3 ) = P(A1 ) · P(A2 | A1 ) · P(A3 | A1 ∩ A2 ) =
·
·
= .
12 11 10
55
Satz 2.2.60 (Satz der totalen Wahrscheinlichkeit)
Es seien (Ω, F, P) ein WahrscheinlichkeitsraumSund A1 , A2 , ..., An ∈ F für n ∈ N eine Folge
von Ereignissen mit Ai ∩ Aj = ∅ für i 6= j und nj=1 Aj = Ω. Für jedes B ∈ F gilt dann:
P(B) =
n
X
P(B | Aj ) · P(Aj ).
j=1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
59
2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
9
A
1
A
A
3
n -1
B
A
2
A
n
Beispiel 2.2.61
In einem Betrieb wird ein Massenartikel auf drei Maschinen M1 , M2 und M3 hergestellt. Die
Maschinen sind an der Gesamtproduktion wie folgt beteiligt: M1 mit 50%, M2 mit 40% und
M3 mit 10%. Die Maschinen arbeiten nicht fehlerfrei. Der Ausschussanteil beträgt bei M1 3%,
bei M2 6% und bei M3 11%. Wie groß ist der Ausschussanteil an der Gesamtproduktion?
Lösung:
Wir betrachten die Ereignisse:
Ai : Ein zufällig aus der Gesamtproduktion gewähltes Stück wurde von Maschine Mi hergestellt (i = 1, 2, 3).
B : Ein zufällig aus der Gesamtproduktion gewähltes Stück gehört zum Ausschuss.
Aus den gegebenen Daten liest man folgendes ab:
P(A1 ) = 0.5
und
P(B | A1 ) = 0.03,
P(A2 ) = 0.4
und
P(B | A2 ) = 0.06,
P(A3 ) = 0.1
und
P(B | A3 ) = 0.11.
Somit erhalten wir:
Satz der totalen Wahrscheinlichkeit:
P(B) = P(B | A1 ) · P(A1 ) + P(B | A2 ) · P(A2 ) + P(B | A3 ) · P(A3 ) = 0.03 · 0.5 + 0.06 · 0.4 +
0.11 · 0.1 = 0.05.
Der Ausschussanteil an der Gesamtproduktion beträgt 5%.
Satz 2.2.62 (Bayes)
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum
und A1 , A2 , ..., An ∈ F eine Folge von EreigS
nissen mit Ai ∩ Aj = ∅ für i 6= j und nj=1 Aj = Ω. Weiter sei B ∈ F mit P(B) > 0. Dann
gilt:
P(B | Ak ) · P(Ak )
,
k = 1, 2, . . . , n.
P(Ak | B) = Pn
j=1 P(B | Aj ) · P(Aj )
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
60
Beispiel 2.2.63 (Fortsetzung von Beispiel 1.4.2)
Ein zufällig aus der Gesamtproduktion gewähltes Stück wird überprüft und zum Ausschuss
gerechnet. Wie groß ist die Wahrscheinlichkeit dafür, dass ein derartiges Stück von Maschine
Mj (j = 1, 2, 3) hergestellt wurde?
Lösung:
Satz von Bayes:
P(B | A1 ) · P(A1 )
0.03 · 0.5
P(A1 | B) = P3
= 0.30,
=
0.05
j=1 P(B | Aj ) · P(Aj )
P(B | A2 ) · P(A2 )
0.06 · 0.4
P(A2 | B) = P3
=
= 0.48,
0.05
P(B
|
A
)
·
P(A
)
j
j
j=1
0.11 · 0.1
P(B | A3 ) · P(A3 )
=
P(A3 | B) = P3
= 0.22.
0.05
j=1 P(B | Aj ) · P(Aj )
Definition 2.2.64
Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, und es seien A, B ∈ F. A und B heißen stochastisch unabhängig bzgl. P, wenn gilt:
P(A ∩ B) = P(A) · P(B).
Satz 2.2.65
Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum, A, B ∈ F mit P(A) > 0, P(B) > 0. Dann sind
die folgenden Aussagen äquivalent:
(1) A und B sind stochastisch unabhängig,
(2) P(A | B) = P(A),
(3) P(B | A) = P(B).
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
61
2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
Satz 2.2.66
Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum und A, B ∈ F. Dann sind die folgenden Aussagen äquivalent:
(1) A, B sind stochastisch unabhängig,
(2) A, B̄ sind stochastisch unabhängig,
(3) Ā, B sind stochastisch unabhängig,
(4) Ā, B̄ sind stochastisch unabhängig.
Definition 2.2.67
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und (Ai )i∈I eine Familie von Ereignissen aus
F. Die Familie heißt stochastisch unabhängig, wenn für jede endliche Teilmenge K ⊆ I
gilt:
\
Y
P(
Ai ) =
P(Ai ).
i∈K
i∈K
Bemerkung 2.2.68
Für 3 Ereignisse A1 , A2 , A3 lautet die Definition (2.2.67): A1 , A2 , A3 sind stochastisch
unabhängig, wenn gilt:
(1) P(A1 ∩ A2 ) = P(A1 ) · P(A2 ),
(2) P(A1 ∩ A3 ) = P(A1 ) · P(A3 ),
(3) P(A2 ∩ A3 ) = P(A2 ) · P(A3 ),
(4) P(A1 ∩ A2 ∩ A3 ) = P(A1 ) · P(A2 ) · P(A3 ).
Beispiel 2.2.69
Es wird mit 2 unverfälschten Münzen geworfen. Dieses Zufallsexperiment wird durch ein
Laplace-Modell beschrieben mit W ≡ Wappen und Z ≡ Zahl.
Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)}
Gegeben seien weiterhin die folgenden Ereignisse:
A1 := {Wappen auf der ersten Münze} = {(W, W ), (W, Z)}
A2 := {Wappen auf der zweiten Münze} = {(W, W ), (Z, W )}
A3 := {Wappen auf genau einer Münze} = {(W, Z), (Z, W )}
Es gilt:
2
1
P(A1 ) = P(A2 ) = P(A3 ) = = ,
4
2
1
P(A1 ∩ A2 ) = P({(W, W )}) = ,
4
1
P(A1 ∩ A3 ) = P({(W, Z)}) = ,
4
1
P(A2 ∩ A3 ) = P({(Z, W )}) = .
4
Daher gilt:
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit
62
P(A1 ∩ A2 ) = P(A1 ) · P(A2 ),
P(A1 ∩ A3 ) = P(A1 ) · P(A3 ),
P(A2 ∩ A3 ) = P(A2 ) · P(A3 ).
Damit sind die Ereignisse A1 , A2 und A3 paarweise unabhängig.
Es gilt aber weiterhin
1
P(A1 ∩ A2 ∩ A3 ) = P(∅) 6= P(A1 ) · P(A2 ) · P(A3 ) = .
8
Daher sind die Ereignisse A1 , A2 und A3 stochastisch abhängig.
Merke: Aus der paarweisen Unabhängigkeit der Ereignisse folgt nicht die Unabhängigkeit aller Ereignisse !
Bemerkung 2.2.70
Durch vollständige Induktion kann man zeigen, dass auch die Verallgemeinerung von Satz
(2.2.66) auf n ∈ N Ereignisse gilt.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 3
Messbare Abbildungen und
Zufallsvektoren
3.1
Allgemeine Begriffe
Definition 3.1.1
Es seien X : Ω → Rn eine Abbildung und B ⊂ Rn . Man bezeichnet
X−1 (B) = {ω ∈ Ω : X(ω) ∈ B}
als Urbild von B bzgl. X.
Definition 3.1.2
Es seien (Ω, F) und (Rn , Bn ) zwei Messräume. Eine Abbildung X : Ω → Rn heißt F −
Bn −messbar, wenn gilt:
X−1 (B) ∈ F für alle B ∈ Bn .
Bemerkung 3.1.3
Für B1 schreiben wir im folgenden B.
Definition 3.1.4
Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Eine F − Bn −messbare Abbildung
X : Ω → Rn ,
ω 7−→ X(ω) = (X1 (ω), . . . , Xn (ω))
heißt n-dimensionaler Zufallsvektor. Im Falle n = 1 spricht man von einer Zufallsariablen
über (Ω, F, P).
Bemerkung 3.1.5
Ist F = P(Ω), dann ist jede Abbildung X : Ω → Rn n-dimensionaler Zufallsvektor. Ebenso ist
jede stetige Funktion X : Ω → Rn n-dimensionaler Zufallsvektor.
63
64
3.1. ALLGEMEINE BEGRIFFE
Satz 3.1.6
Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und X ein n-dimensionaler Zufallsvektor. Dann
ist durch
PX (B) := P(X−1 (B)) für alle B ∈ Bn
eine Wahrscheinlichkeit PX : Bn → R definiert und (Rn , Bn , PX ) ist ein Wahrscheinlichkeitsraum.
Definition 3.1.7
Man bezeichnet die durch
PX (B) := P(X−1 (B)) für alle B ∈ Bn
definierte Wahrscheinlichkeit PX : Bn → R als Wahrscheinlichkeitsverteilung des Zufallsvektors X.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 4
Eindimensionale Zufallsvariablen
4.1
Einführung
Beispiel 4.1.1
Dreimaliger Münzwurf mit einer unverfälschten Münze
Ω = {(W, W, W ), (W, W, Z), (W, Z, W ), (Z, W, W ), (W, Z, Z), (Z, W, Z), (Z, Z, W ), (Z, Z, Z)},
F = P(Ω)
|A|
P : F → R mit P(A) =
für alle A ∈ F.
|Ω|
X : Ω → R mit X ≡ Anzahl der Wappen

(W, W, W ) → 3




(W, W, Z) → 2



(W, Z, W ) → 2



(Z, W, W ) → 2
X :=
(W, Z, Z) → 1




(Z, W, Z) → 1





 (Z, Z, W ) → 1
(Z, Z, Z)
→ 0
1
PX ({3}) := P(X −1 ({3})) = P({(W, W, W )}) = ,
8
3
−1
PX ({2}) := P(X ({2})) = P({(W, W, Z), (W, Z, W ), (Z, W, W )}) = ,
8
3
−1
PX ({1}) := P(X ({1})) = P({(W, Z, Z), (Z, W, Z), (Z, Z, W )}) = ,
8
1
PX ({0}) := P(X −1 ({0})) = P({(Z, Z, Z)}) = .
8
65
66
4.1. EINFÜHRUNG
Bemerkung 4.1.2
Man führt für das Urbild X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} auch die folgenden Kurzschreibweise
ein:
{ω ∈ Ω : X(ω) ∈ B} =: {X ∈ B}.
Speziell schreibt man:
{ω ∈ Ω : X(ω) ≤ a} =: {X ≤ a},
{ω ∈ Ω : X(ω) = a} =: {X = a} usw.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
67
4.2. DISKRETE ZUFALLSVARIABLEN
4.2
Diskrete Zufallsvariablen
Definition 4.2.1
Eine eindimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX heißt diskret,
wenn es eine endliche oder abzählbar unendliche Teilmenge B ⊂ R gibt mit
PX (B) = P{X ∈ B} = 1.
Definition 4.2.2
Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}
und der Wahrscheinlichkeitsverteilung PX . Dann heißt die Abbildung p : R → [0, 1] mit
p(x) =
PX {x} für x ∈ X(Ω)
0
für x ∈ R \ X(Ω)
Wahrscheinlichkeitsfunktion von X. Die Menge T = {x ∈ R : p(x) > 0} heißt Träger, die
Elemente x ∈ T heißen Trägerpunkte und die Werte p(x) die zugehörenden Punktwahrscheinlichkeiten.
Bemerkung 4.2.3
Es gilt:
PX (B) =
X
p(x) für alle B ⊂ X(Ω).
x∈B
Satz 4.2.4
Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}.
Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen:
(1) p(x) ≥ 0 für x ∈ R,
(2)
P
x∈X(Ω) p(x)
= 1.
Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine Zufallsvariable
X mit der Wahrscheinlichkeitsfunktion p(x).
Bemerkung 4.2.5
Es sei X eine eindimensionale diskrete Zufallsvariable mit dem endlichen Wertebereich X(Ω) :=
{x1 , x2 , . . . , xn } und der Wahrscheinlichkeitsfunktion p(xi ), i = 1, 2, . . . , n. Dann lässt sich die
Verteilung von X stets mittels der folgenden Tabelle darstellen:
x1
p(x1 )
x2
p(x2 )
...
...
...
...
xn
p(xn )
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
68
4.2. DISKRETE ZUFALLSVARIABLEN
Beispiel 4.2.6
Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Für die Darstellung der Verteilung von X erhält man die folgende Tabelle:
0
1
8
xi
p(xi ) = PX {xi }
1
3
8
2
3
8
3
1
8
Definition 4.2.7
Eine diskrete Zufallsvariable heißt symmetrisch verteilt um a ∈ R,
wenn mit jedem Trägerpunkt xi auch 2a − xi Trägerpunkt ist und weiterhin
PX {xi } = PX {2a − xi } für alle i ∈ I ⊆ N
gilt.
Beispiel 4.2.8
Gegeben sei eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x) :
xi
1
2
3
4
5
p(xi ) = PX {xi }
1
9
2
9
3
9
2
9
1
9
F N N
Es gilt gilt für alle Trägerpunkte xi = 1, 2, 3, 4, 5 : PX {xi } = PX {2 · 3 − xi }.
Damit ist X symmetrisch um 3 verteilt.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
69
4.3. STETIGE ZUFALLSVARIABLEN
4.3
Stetige Zufallsvariablen
Definition 4.3.1
R∞
Jede Riemann-integrierbare Funktion f : R → R mit f (x) ≥ 0, x ∈ R und −∞ f (x)dx = 1
heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw.
Dichte).
Beispiel 4.3.2
Gegeben sei die Funktion f (x) :
f (x) =

 6x(1 − x)
0

Es gilt f (x) ≥ 0, x ∈ R und
R∞
−∞ f (x)dx
=
für
0≤x≤1
sonst
R1
0
6x(1 − x)dx = 1. Damit ist f (x) eine Dichte.
fX(x)
1.4
1.2
1.0
0.8
0.6
0.4
0.2
x
0.0
−0.2
0.0
0.2
0.4
0.6
0.8
1.0
1.2
Definition 4.3.3
Es sei X eine eindimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und
der Dichtefunktion fX . Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a, b] ⊂ R
gilt:
Z b
PX (a, b] = P{a < X ≤ b} =
fX (x)dx.
a
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
70
4.3. STETIGE ZUFALLSVARIABLEN
fX(x)
P((a,b])
x
a
b
Definition 4.3.4
Eine stetige Zufallsvariable X heißt symmetrisch um a ∈ R verteilt, wenn es eine Dichte fX
gibt mit:
fX (a − x) = fX (a + x) für alle x ∈ R,
bzw.
fX (x) = fX (2a − x) für alle x ∈ R.
Beispiel 4.3.5
Es sei fX (x) eine Dichte mit
fX (x) =

 6x(1 − x)

Es gilt: fX (x) = fX (2 ·
0
für
0≤x≤1
sonst
1
1
− x) für alle x ∈ R, daher ist X symmetrisch um verteilt.
2
2
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
4.4
71
Die Verteilungsfunktion von eindimensionalen Zufallsvariablen
Definition 4.4.1
Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit
der Wahrscheinlichkeitsverteilung PX . Die Abbildung
FX : R → R
mit
FX (x) := PX ((−∞, x]) = P({X ≤ x}) für alle x ∈ R
heißt Verteilungsfunktion der Zufallsvariablen X.
Vereinbarung 4.4.2
Im folgenden schreiben wir für
PX ((−∞, x]) =: PX (−∞, x]
und für
P({X ≤ x}) =: P{X ≤ x}.
Bemerkung 4.4.3
Aufgrund der Definition einer Verteilungsfunktion gilt:
 P

i:xi ≤x p(xi ) falls X diskret
FX (x) =
 R x f (t)dt falls X stetig
−∞ X
Bemerkung 4.4.4
Die Verteilungsfunktion einer diskreten Zufallsvariablen ist eine Treppenfunktion. Die Verteilungsfunktion einer stetigen Zufallsvariablen ist eine totalstetige Funktion.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
72
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
Beispiel 4.4.5 (Diskrete Zufallsvariable)
Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1).
Mit Hilfe der folgenden Tabelle:
0
1
8
xi
p(xi ) = P {X = xi }
erhält man die Verteilungsfunktion



0 für




1



für


 8
P
4
FX (x) = i:xi ≤x p(xi ) =
für

8



7


für


8



 1 für
F
2
3
8
3
1
8
wie folgt:
x<0
0≤x<1
1≤x<2 .
2≤x<3
x≥3
.
( x )
X
1
3
8
.
.
.
-2
-1
0
1
2
3
4
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5
x
73
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
Beispiel 4.4.6 (Stetige Zufallsvariable)
Es sei fX (x) eine Dichte mit

 6x(1 − x) für 0 ≤ x ≤ 1
fX (x) =

0
sonst
Für die Verteilungsfunktion FX erhält man:

Z x
0
für
x<0

3x2 − 2x3 für 0 ≤ x ≤ 1
FX (x) =
fX (t)dt =

−∞
1
für
x>1
. N :
1
0 .7 5
0 .5
0 .2 5
0
-0 .5
0
0 .5
1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
1 .5
N
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
74
Satz 4.4.7 (Eigenschaften einer Verteilungsfunktion)
Es sei FX (·) Verteilungsfunktion einer eindimensionalen Zufallsvariablen X. Dann gilt:
(1) FX ist monoton wachsend, d. h.:
x < y => FX (x) ≤ FX (y),
(2) FX ist rechtsseitig stetig, d. h.:
lim FX (x + h) = FX (x) für alle x ∈ R,
h→0
h>0
(3) lim FX (x) =: FX (∞) = 1,
x→∞
(4)
lim FX (x) =: FX (−∞) = 0.
x→−∞
Satz 4.4.8
Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit
der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·) und a, b ∈ R mit
a < b. Dann gilt:
PX (a, b] = P{a < X ≤ b} = FX (b) − FX (a).
Satz 4.4.9
Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit
der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·) und a ∈ R. Dann gilt:
PX {a} = PX [a, a] = P{X = a} = FX (a) − FX (a − 0)
mit
FX (a − 0) := lim FX (a − h).
h→0
h>0
Folgerung 4.4.10
Es sei X eine stetige Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX . Dann gilt:
PX {x} = 0 für alle x ∈ R.
Satz 4.4.11
Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit
der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·) und a, b ∈ R mit
a < b. Dann gilt:
(1) PX (a, b) = P{a < X < b} = FX (b − 0) − FX (a);
(2) PX [a, b] = P{a ≤ X ≤ b} = FX (b) − FX (a − 0);
(3) PX [a, b) = P{a ≤ X < b} = FX (b − 0) − FX (a − 0);
(4) PX (−∞, b) = P{X < b} = FX (b − 0);
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
75
(5) PX (a, ∞) = P{X > a} = 1 − P{X ≤ a} = 1 − FX (a);
(6) PX [a, ∞) = P{X ≥ a} = 1 − P{X < a} = 1 − FX (a − 0).
Bemerkung 4.4.12
Aufgrund von Folgerung 4.4.10 gilt bei einer stetigen Zufallsvariablen X stets FX (x − 0) =
FX (x) für alle x ∈ R.
Definition 4.4.13
Es sei X eine Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Verteilungsfunktion FX (·). Gilt für ein x ∈ R
PX {x} = P{X = x} = FX (x) − FX (x − 0) > 0,
so heißt x eine Sprungstelle von FX und PX {x} die zugehörige Sprunghöhe.
Bemerkung 4.4.14
Eine Verteilungsfunktion hat höchstens abzählbar unendlich viele Sprungstellen.
Bemerkung 4.4.15
Besitzt eine diskrete Zufallsvariable X die Sprungstellen xi , i ∈ N, und die Verteilungsfunktion
FX (x), dann erhält man die Wahrscheinlichkeitsfunktion p(xi ), i ∈ N, mittels der folgenden
Formel:
p(xi ) = FX (xi ) − FX (xi − 0)
Satz 4.4.16
Es sei X eine Zufallsvariable mit der Verteilungsfunktion FX . X ist symmetrisch um a ∈ R
verteilt, genau dann, wenn
FX (a + x) = 1 − FX (a − x − 0) für alle x ∈ R
gilt.
Satz 4.4.17
Ist FX : R → [0, 1] eine totalstetige Verteilungsfunktion, die auf dem Komplement einer endlichen oder leeren Menge C stetig differenzierbar ist, so wird durch
fX (x) =
dFX (x)
dx
(x ∈ R \ C)
eine Dichte fX zu FX definiert. (Auf C kann man fX beliebig festsetzen.)
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
76
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
Beispiel 4.4.18
Es sei X eine Zufallsvariable mit der Verteilungsfunktion FX (x) :



0
für
x<1





1
1

 x−
für 1 ≤ x < 3
4
4
FX (x) =

 x − 5 für 3 ≤ x < 7



2
2


7


1
für
x≥
2
. N :
1
0 .7 5
0 .5
0 .2 5
0
0
1
2

1




4
dFX (x) 
fX (x) =
=
1

dx



 0
3
4
für
1<x<3
7
für
3<x<
2
7
für x < 1 oder x >
2
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5
N
77
4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN
f X ( x )
o
1
o
0 .7 5
0 .5
o
o
0 .2 5
0
0
o
1
2
3
o
4
7
Hier ist C = {1, 3, }.
2
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5
x
4.5. LINEARE TRANSFORMATIONEN VON EINDIMENSIONALEN ZUFALLSVARIABLEN
4.5
78
Lineare Transformationen von eindimensionalen Zufallsvariablen
Satz 4.5.1
(a) Es seien X eine eindimensionale Zufallsvariable, a, b ∈ R mit a 6= 0 und G : R → R die
Abbildung mit
G(x) = ax + b für alle x ∈ R.
Dann ist
Y := G(X) = aX + b
ebenfalls eine Zufallsvariable und es gilt:

y−b


FX (
)
für
a
FY (y) =
y−b

 1 − FX (
− 0) für
a


a>0 

a<0 
für alle y ∈ R.
(b) Ist FX totalstetig, dann ist auch FY totalstetig und für eine Dichte fY (·) gilt an allen
◦
y−b
◦
Stetigkeitsstellen y von fY (·), für die
Stetigkeitsstelle von fX ist:
a
◦
fY (y) =
◦
y−b
1
· fX (
).
|a |
a
Beispiel 4.5.2
Es sei X eine Zufallsvariable mit der Verteilungsfunktion FX :




0 für
x<0





1


für 0 ≤ x < 1



 4
1
FX (x) =
für 1 ≤ x < 2

2



3



für 2 ≤ x < 3


4




 1 für
x≥3
Dann gilt für die Verteilungsfunktion von Y = −2X















y−4
FY (y) = 1 − FX (
− 0) =

−2













+4:
0
1
4
1
2
3
4
1
für
y < −2
für −2 ≤ y < 0
für
0≤y<2
für
2≤y<4
für
y≥4
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN
4.6
79
Momente von eindimensionalen Zufallsvariablen
Definition 4.6.1
Es sei X eine diskrete eindimensionale Zufallsvariable mit den Trägerpunkten xi und den
Punktwahrscheinlichkeiten PX {xi } = p(xi ), (i ∈ J ⊆ N). Gilt
|xi | · p(xi ) < ∞ , dann heißt
P
(2) E(X) := i∈J xi · p(xi ) der Erwartungswert (Mittelwert) der Zufallsvariable X.
(1)
P
i∈J
Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht.
Bemerkung 4.6.2
Hat eine diskrete Zufallsvariable nur endlich viele Trägerpunkte, so ist (4.6.1) (1) trivialerweise
erfüllt, d. h. der Erwartungswert existiert dann immer.
Folgerung 4.6.3
Die Zufallsvariable X habe eine Einpunktverteilung auf a ∈ R, d. h.
PX {a} = 1. Dann gilt:
E(X) = a.
Definition 4.6.4
Es sei X eine stetige eindimensionale Zufallsvariable und fX : R → R eine Dichte von X. Gilt
(1)
R∞
−∞ |x|
· fX (x)dx < ∞,
dann heißt
R∞
(2) E(X) := −∞ x · fX (x)dx
der Erwartungswert (Mittelwert) der Zufallsvariable X. Gilt (1) nicht, so sagt man,
der Erwartungswert existiert nicht.
Vereinbarung 4.6.5
Zur Vereinfachung soll im Folgenden bei der Benutzung des Symbols E(X) und nicht spezifizierter Verteilung von X die Existenz des Erwartungswertes ohne ausdrückliche Erwähnung
vorausgesetzt werden.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
80
4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN
Satz 4.6.6
Es seien X eine eindimensionale Zufallsvariable und G : R → R eine B − B−messbare Abbildung.
(a) Ist X diskret verteilt mitP
den Trägerpunkten xi und den Punktwahrscheinlichkeiten PX {xi } =
p(xi ) und gilt weiterhin i |G(xi )|·p(xi ) < ∞, dann existiert der Erwartungswert E(G(X))
und es gilt:
X
X
E(G(X)) =
G(xi ) · p(xi ) =
G(xi ) · PX {xi }.
i
i
R∞
(b) Ist X stetig verteilt mit einer Dichte fX und gilt −∞ |G(x)| · fX (x)dx < ∞, dann existiert
der Erwartungswert E(G(X)), und es gilt:
Z ∞
G(x) · fX (x)dx.
E(G(X)) =
−∞
Satz 4.6.7
Es seien X eine eindimensionale Zufallsvariable und G : R → R, H : R → R B − B−messbare
Abbildungen. Existieren E(|G(X)|) und E(|H(X)|), dann gilt:
E(G(X) + H(X)) = E(G(X)) + E(H(X)).
Satz 4.6.8
Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und G : R → R die Abbildung
mit
G(x) = ax + b, a, b ∈ R.
Dann existiert auch der Erwartungswert der Zufallsvariable G(X) = aX + b und es gilt:
E(aX + b) = aE(X) + b.
Satz 4.6.9
Ist die Zufallsvariable X symmetrisch um a ∈ R verteilt und existiert ihr Erwartungswert, so
gilt:
E(X) = a.
Definition 4.6.10
Es sei X eine eindimensionale Zufallsvariable. Man bezeichnet den Erwartungswert E(X k ),
k = 0, 1, 2, ..., falls er existiert, als das Moment k-ter Ordnung um Null von X und
schreibt:
µk := E(X k ) =: µk (X).
Weiterhin bezeichnet man den Erwartungswert E[(X −E(X))k ], k = 0, 1, 2, ..., falls er existiert,
als das zentrale Moment k-ter Ordnung von X und schreibt
σ k := E[(X − E(X))k ] =: σ k (X).
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN
81
Satz 4.6.11
Die zentralen Momente sind translationsinvariant, d. h.
σ k (X) = σ k (X + a) für a ∈ R, k = 0, 1, 2, .....
Definition 4.6.12
Das zweite zentrale Moment einer Zufallsvariable X bezeichnet man als Streuung oder Varianz von X und schreibt:
E[(X − E(X))2 ] =: Var(X) =: σ 2X =: σ 2 .
Die positive Wurzel aus der Streuung bezeichnet man als Standardabweichung von X und
schreibt
p
+ E[(X − E(X))2 ] =: σ X =: σ.
Satz 4.6.13
Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X). Dann
gilt:
(1) Var(aX + b) = a2 Var(X) für alle a, b ∈ R,
(2) Var(X) = E(X 2 ) − [E(X)]2
(Varianzzerlegungssatz).
Satz und Definition 4.6.14
Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X) > 0.
Weiterhin sei
X − E(X)
Y := p
.
Var(X)
Dann gilt:
E(Y ) = 0 und Var(Y ) = 1.
Man nennt Y eine standardisierte Zufallsvariable.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
82
4.7. MODUS UND QUANTILE VON EINDIMENSIONALEN ZUFALLSVARIABLEN
4.7
Modus und Quantile von eindimensionalen Zufallsvariablen
Definition 4.7.1
Als wahrscheinlichsten Wert, häufigsten Wert, Modus oder Modalwert einer Zufallsvariablen X bezeichnet man
(1) im diskreten Fall:
jeden Trägerpunkt xi , dessen Wahrscheinlichkeitsmasse PX {xi } =: p(xi ) maximal ist,
(2) im stetigen Fall:
jeden Punkt x, zu dem es eine Dichte fX gibt, die dort maximal und mindestens halbseitig
stetig ist.
Nach der Anzahl der Modalwerte heißt die Wahrscheinlichkeitsverteilung PX uni-, bi- bzw.
multimodal.
Definition 4.7.2
Es sei X eine eindimensionale Zufallsvariable. Jeder Wert x ∈ R mit
1
1
und P {X ≥ x} ≥
2
2
heißt Median oder Zentralwert der Zufallsvariablen X. Man bezeichnet einen solchen Wert
auch mit xM ed oder x0,5 .
P {X ≤ x} ≥
Definition 4.7.3
Es sei X eine eindimensionale Zufallsvariable und p ∈ (0, 1). Jeder Wert x ∈ R mit
P {X ≤ x} ≥ p und P {X ≥ x} ≥ 1 − p
heißt Quantil p-ter Ordnung, p-Quantil oder p-Fraktil von X. Man bezeichnet einen
solchen Wert oft mit dem Symbol qp . Insbesondere spricht man vom unteren Quartil für
p = 0, 25 und vom oberen Quartil für p = 0, 75.
Folgerung 4.7.4
Für eine Zufallsvariable X mit der Verteilungsfunktion FX ist x ∈ R genau dann ein p-Quantil,
falls gilt:
FX (x − 0) ≤ p ≤ FX (x),
für eine stetige Verteilungsfunktion also insbesondere genau dann, wenn gilt:
FX (x) = p.
Bemerkung 4.7.5
Für die Lageparameter gelten folgende Empfehlungen:
Skalierung
zu verwendender
Lageparameter
nominal
ordinal
kardinal
Modalwert
Median
Erwartungswert
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
83
4.8. SPEZIELLE DISKRETE ZUFALLSVARIABLEN
4.8
4.8.1
Spezielle diskrete Zufallsvariablen
Bernoulli-Verteilung (Zweipunktverteilung)
Die Zufallsvariable X habe nur die beiden Realisationen 0 und 1. Es mag ein Zufallsexperiment
zugrunde liegen, das ausschließlich nur die beiden Ausgänge
A und Ā
kennt, wobei A als Erfolg und Ā als Misserfolg bezeichnet werde. Das Ereignis A trete mit
der Wahrscheinlichkeit p und das Ereignis Ā mit der Wahrscheinlichkeit 1 − p auf. Solche Experimente heißen Bernouli-Experimente. Tritt ein Erfolg ein, wird durch die Zufallsvariable
der Wert 1 zugeordnet, tritt ein Misserfolg ein, wird der Wert 0 zugeordnet.
Definition 4.8.1
Die Zufallsvariable X besitzt eine Bernoulli-Verteilung mit dem Parameter p ∈ (0, 1) und
dem Träger T = {0, 1}, falls die Wahrscheinlichkeitsfunktion durch

 1 − p für x = 0
p
für x = 1
p(x) = PX {x} =
 0
sonst
gegeben ist.
p ( x )
p
1 - p
x
0
1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
84
4.8 Bernoulli-Verteilung (Zweipunktverteilung)
Satz 4.8.2
Besitzt X eine Bernoulli-Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = {0, 1},
dann lautet deren Verteilungsfunktion

für
x<0
 0
1 − p für 0 ≤ x < 1
FX (x) =
 1
für
x≥1
Satz 4.8.3
Besitzt X eine Bernoulli-Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T = {0, 1},
dann gilt für deren Erwartungswert und Varianz
E(X) = p;
Var(X) = p(1 − p).
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
85
4.8 Binomialverteilung
4.8.2
Binomialverteilung
Ein Bernoulli-Experiment wird mehrmals durchgeführt, wobei wieder nur interessiert, ob ein
bestimmtes Ereignis eintritt (Erfolg) oder nicht eintritt (Misserfolg). Es werden folgende Bedingungen vorausgesetzt:
(1) Die Wiederholungen werden jeweils unter gleichen Bedingungen durchgeführt. Insbesondere
bleibt die Erfolgswahrscheinlichkeit p konstant.
(2) Die Wiederholungen beeinflussen sich nicht, d. h. sie sind unabhängig voneinander.
Es sei X die Zufallsvariable, welche die Anzahl der Erfolge in n Bernoulli-Versuchen mit der
Erfolgswahrscheinlichkeit p angibt. Dann ist die Wahrscheinlichkeitsfunktion von X gegeben
durch:
n
P{X = k} =
· pk · (1 − p)n−k , k = 0, 1, . . . , n.
k
Definition 4.8.4
Die Zufallsvariable X besitzt eine Binomialverteilung mit den Parametern
p ∈ (0, 1) und n ∈ N und dem Träger T = {0, 1, . . . n}, falls die Wahrscheinlichkeitsfunktion
durch
  n x
p (1 − p)n−x für x ∈ {0, 1, . . . n}
p(x) = PX {x} =
x

0
sonst
gegeben ist.
Satz 4.8.5
Besitzt X eine Binomialverteilung mit den Parametern p ∈ (0, 1) und n ∈ N und dem Träger
T = {0, 1, . . . n}, dann lautet deren Verteilungsfunktion

0
für x < 0



k
 X
n i
FX (x) =
p (1 − p)n−i für k ≤ x < k + 1, k = 0, . . . , n − 1
i



 i=0
1
für x ≥ n
Satz 4.8.6
Besitzt X eine Binomialverteilung mit den Parametern p ∈ (0, 1) und n ∈ N und dem Träger
T = {0, 1, . . . n}, dann gilt für deren Erwartungswert und Varianz
E(X) = n · p;
Var(X) = n · p(1 − p).
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
86
4.8 Binomialverteilung
F N N
Beispiel: p = 0.4, n = 6
Beispiel 4.8.7 (Urnenmodell mit Zurücklegen)
In einer Urne befinden sich N ∈ N Kugeln. M Kugeln sind weiß, 0 ≤ M ≤ N, und N − M
Kugeln sind schwarz. Aus der Urne werden n ∈ N Kugeln mit Zurücklegen gezogen. Da
mit Zurücklegen gezogen wird, ist die Wahrscheinlichkeit eine weise Kugel zu ziehen bei jedem
M
Zug gegeben durch p =
. Die Wahrscheinlichkeit bei n Ziehungen mit Zurücklegen k weiße
N
Kugeln zu ziehen ist gegeben durch:
n
PX {k} = P{X = k} =
· pk · (1 − p)n−k , k = 0, 1, . . . , n.
k
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.8 Hypergeometrische Verteilung
4.8.3
87
Hypergeometrische Verteilung
Beispiel 4.8.8 (Urnenmodell ohne Zurücklegen)
In einer Urne befinden sich N ∈ N Kugeln. M Kugeln sind weiß, 0 ≤ M ≤ N, und N − M
Kugeln sind schwarz. Aus der Urne werden n ∈ N Kugeln ohne Zurücklegen gezogen. Da
ohne Zurücklegen gezogen wird, ändert sich die Wahrscheinlichkeit eine weiße Kugel zu ziehen
bei jedem Zug. Die Wahrscheinlichkeit bei n Ziehungen ohne Zurücklegen k weiße Kugeln zu
ziehen ist gegeben durch:
M
N −M
·
k
n−k
PX {k} = P{X = k} =
, max(0, n + M − N ) ≤ k ≤ min(n, M )
N
n
Definition 4.8.9
Die Zufallsvariable X besitzt eine hypergeometrische Verteilung mit den Parametern
N, M, n ∈ N, 0 ≤ M ≤ N, n ≤ N und dem Träger
T = {k : max{0, n + M − N } ≤ k ≤ min{n, M }}, falls die Wahrscheinlichkeitsfunktion durch
 M
N −M




x
n−x

für x ∈ T
p(x) = PX {x} =
N



n


0
sonst
gegeben ist.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
88
4.8 Hypergeometrische Verteilung
F N N
Beispiel: N = 20, M = 8, n = 6
Satz 4.8.10
Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n ∈ N, 0 ≤ M ≤
N, n ≤ N und dem Träger T = {k : max{0, n + M − N } ≤ k ≤ min{n, M }}, dann lautet
deren Verteilungsfunktion

0

für x < max{0, n + M − N }



M
N
−
M


k

X
i
n−i
k ≤ x < k + 1,
FX (x) =
für
max{0,
n + M − N } ≤ k ≤ min{n, M } − 1

N


i=max{0,n+M −N }


n


1
für x ≥ min{n, M }
Satz 4.8.11
Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n ∈ N, 0 ≤ M ≤
N, n ≤ N und dem Träger T = {k : max{0, n + M − N } ≤ k ≤ min{n, M }}, dann gilt für
deren Erwartungswert und Varianz
E(X) = n ·
M
;
N
Var(X) = n ·
M
M N −n
· (1 −
)·
.
N
N
N −1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.8 Geometrische Verteilung
4.8.4
89
Geometrische Verteilung
Ein Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p werde so oft durchgeführt, bis
zum ersten Mal Erfolg eintritt. Es sei X die Anzahl der vorausgegangenen Misserfolge. Die
Wahrscheinlichkeit dabei genau k Misserfolge zu erzielen ist gegeben durch:
PX {k} := P{X = k} = (1 − p)k · p für k = 0, 1, . . . .
Definition 4.8.12
Die Zufallsvariable X besitzt eine geometrische Verteilung mit dem Parameter p ∈ (0, 1)
und dem Träger T = N ∪ {0}, falls die Wahrscheinlichkeitsfunktion durch
(1 − p)x p für x ∈ T
p(x) = PX {x} =
0
sonst
gegeben ist.
F N N
Beispiel: p = 0.4
Satz 4.8.13
Besitzt X eine geometrische Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T =
N ∪ {0}, dann lautet deren Verteilungsfunktion
0
für
x<0
FX (x) =
.
k+1
1 − (1 − p)
für k ≤ x < k + 1, k = 0, 1, . . .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4.8 Geometrische Verteilung
90
Satz 4.8.14
Besitzt X eine geometrische Verteilung mit dem Parameter p ∈ (0, 1) und dem Träger T =
N ∪ {0}, dann gilt für deren Erwartungswert und Varianz
E(X) =
1−p
;
p
Var(X) =
1−p
.
p2
Beispiel 4.8.15 (Urnenmodell)
In einer Urne befinden sich N ∈ N Kugeln. M Kugeln sind weiß, 0 ≤ M ≤ N, und N − M
Kugeln sind schwarz. Aus der Urne werden solange Kugeln mit Zurücklegen gezogen, bis
zum ersten Mal eine weiße Kugel gezogen wird. Da mit Zurücklegen gezogen wird, ist die
M
Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug gegeben durch p =
. Die
N
Wahrscheinlichkeit k schwarze Kugeln zu ziehen bis zum ersten Mal eine weiße Kugel gezogen
wird, ist gegeben durch:
PX {k} := P{X = k} = (1 − p)k · p für k = 0, 1, . . . .
Bemerkung 4.8.16
Betrachtet man die Zufallsvariable Y, die die Anzahl der Versuche angibt bis zum ersten Mal
ein Erfolg eintritt, dann ist die Wahrscheinlichkeitsfunktion von Y gegeben durch:
PY {k} := P{Y = k} = (1 − p)k−1 · p für k = 1, 2, . . . . .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
91
4.8 Poisson-Verteilung
4.8.5
Poisson-Verteilung
Die Poissonverteilung eignet sich zur Modellierung der Anzahl von bestimmten Vorkommnissen (z. B. Maschinenausfall während der Produktion, eingehender Notruf bei der Feuerwehr,
Meldung eines Versicherungsschadens) während eines festgelegten Zeitintervalls. Wir gehen
wieder von einer Bernoulli-Versuchsreihe aus. Wir nehmen an, dass das Bernoulli-Experiment
sehr häufig wiederholt wird, n also groß ist. Andererseits sei die Wahrscheinlichkeit p für einen
Erfolg sehr klein. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, d. h.
n
PX {k} = P{X = k} =
· pk · (1 − p)n−k , k = 0, 1, . . . , n.
k
Lässt man nun
• n gegen unendlich gehen und zugleich
• p gegen Null gehen, derart, dass np gegen eine positive Zahl λ konvergiert, dann kann man
zeigen, dass folgendes gilt:
n i
λi −λ
n−i
lim
p
(1
−
p)
=
e .
n→∞ i
i!
p→0
np=λ
Definition 4.8.17
Die Zufallsvariable X besitzt eine Poissonverteilung mit dem Parameter λ > 0 und dem
Träger T = N∪{0}, falls die Wahrscheinlichkeitsfunktion durch
(
p(x) = PX {x} =
λx −λ
e
für x ∈ T
x!
0
sonst
gegeben ist.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
92
4.8 Poisson-Verteilung
F N N
Beispiel: λ = 2.0
Satz 4.8.18
Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N∪{0}, dann
lautet deren Verteilungsfunktion

für x < 0

 0
k
i
X
λ −λ
FX (x) =
.
e
für k ≤ x < k + 1, k = 0, 1, . . .


i!
i=0
Satz 4.8.19
Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N∪{0}, dann
gilt für deren Erwartungswert und Varianz
E(X) = λ;
Var(X) = λ.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
93
4.9. SPEZIELLE STETIGE VERTEILUNGEN
4.9
4.9.1
Spezielle stetige Verteilungen
Stetige Gleichverteilung
Definition 4.9.1
Die Zufallsvariable X besitzt eine stetige Gleichverteilung im Intervall [a, b] mit a, b ∈
R; a < b, falls die Dichte durch
( 1
für a ≤ x ≤ b
fX (x) =
b−a
0
sonst
gegeben ist.
B N 1
b - a
b
a
x
Satz 4.9.2
Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann lautet deren Verteilungsfunktion

0

 x−
a
FX (x) =

 b−a
1
für
x<a
für a ≤ x ≤ b
für
x>b
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
94
4.9 Stetige Gleichverteilung
. N =
>
N
Satz 4.9.3
Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann gilt für deren Erwartungswert
und Varianz
(b − a)2
a+b
;
Var(X) =
.
E(X) =
2
12
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
95
4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung)
4.9.2
Gaußverteilung N (0, 1) : (Standardnormalverteilung)
Definition 4.9.4
Die Zufallsvariable X besitzt eine Standardnormalverteilung (Gaußverteilung), i. Z.:
X ∼ N (0, 12 ), falls die Dichte durch
x2
1
ϕ(x) = √ e 2
2π
−
für −∞ < x < ∞
gegeben ist.
j N N
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
96
4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung)
Satz 4.9.5
Besitzt X eine Standardnormalverteilung, dann lautet deren Verteilungsfunktion
Rx
Φ(x) = −∞ ϕ(y)dy für x ∈ R
.
N N
Bemerkung 4.9.6
Die Verteilungsfunktion liegt vertafelt vor und ist in der folgenden Tabelle gegeben:
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
97
4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung)
Tabelle zur Standardnormalverteilung
1
Φ(z) = √
2π
Z
z
1 2
e− 2 x dx
−∞
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8389
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.998
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
98
4.9 Gaußverteilung N (0, 1) : (Standardnormalverteilung)
Satz 4.9.7
Besitzt X eine Standardnormalverteilung, dann gilt für deren Erwartungswert und Varianz
E(X) = 0;
Var(X) = 1.
Satz 4.9.8
Besitzt X eine Standardnormalverteilung, dann gilt:
(1)
(2)
ϕ(x) = ϕ(−x) für alle x ∈ R,
Φ(−x) = 1 − Φ(x) für alle ∈ R
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
99
4.9 Normalverteilung N (µ, σ 2 )
4.9.3
Normalverteilung N (µ, σ 2 )
Definition 4.9.9
Die Zufallsvariable X besitzt eine Normalverteilung mit den Parametern µ ∈ R und σ > 0,
i. Z.: X ∼ N (µ, σ 2 ), falls die Dichte durch
1
fX (x) = √
σ 2π
1
e 2

− ·
x−µ 2

σ

für −∞ < x < ∞
gegeben ist.
B N m = 0
s = 1
m = 2
s = 1
N
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
100
4.9 Normalverteilung N (µ, σ 2 )
B N m = 0
s = 1
m = 0
s = 2
N
Satz 4.9.10
Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann lautet deren Verteilungsfunktion
Rx
x−µ
FX (x) = −∞ fX (t)dt = Φ(
) für x ∈ R
σ
Satz 4.9.11
Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann gilt für deren Erwartungswert und Varianz
E(X) = µ;
Var(X) = σ 2 .
Satz 4.9.12
Besitzt X eine Standardnormalverteilung, dann besitzt Y = σX + µ eine Normalverteilung
mit den Parametern µ und σ.
Satz 4.9.13
X −µ
Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann besitzt Y =
eine
σ
Standardnormalverteilung.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
101
4.9 Exponentialverteilung
4.9.4
Exponentialverteilung
Die Anwendung der Exponentialverteilung als Verteilung von Wartezeiten (Zeit bis zum nächsten
Vorkommnis, oder Zeit zwischen zwei Vorkommnissen, sogenannte Zwischenankunftszeit) ist
immer dann möglich, wenn die Anzahl der Vorkommnisse einer Poissonverteilung folgt. Typische Vorkommnisse“ sind z.B. Eintreten von Schadensfällen, Maschinenstörungen, Ankunft
”
einer Person an einem Bedienungsschalter, Anrufe in einer Telefonzentrale usw. Der Parameter
λ, der als mittlere Anzahl von Vorkommnissen in der Zeiteinheit eine spezielle Poissonverteilung festlegt, charakterisiert auch die zugehörige Exponentialverteilung der Wartezeiten. Um
die Exponentialverteilung zu formulieren, betrachten wir zunächst die beiden Zufallsvariablen
X (Anzahl der Vorkommnisse in einer Zeiteinheit) und X(t) (Anzahl der Vorkommnisse in
einer Zeitspanne der Länge t):
λk −λ
e ,
k!
insbesondere P{X = 0} = e−λ
(1) E(X) = λ, P{X = k} =
(λt)k −λt
e
k!
t
insbesondere P{X(t) = 0} = e−λt = e−λ
(2) E(X(t)) = λt, P{X(t) = k} =
Wir bezeichnen die Wartezeit bis zum nächsten Vorkommnis mit Y . Dann ist Y > t gleichbedeutend damit, dass über die Zeitspanne t die Anzahl der Vorkommnisse gleich 0 ist, also
P{Y > t} = P{X(t) = 0} = e−λt
und somit
FY (t) = P{Y ≤ t} =
1 − e−λt für t > 0
0
für t ≤ 0
Dies ist die Verteilungsfunktion der Exponentialverteilung. Die Dichtefunktion ergibt sich
durch die Ableitung der Verteilungsfunktion.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
102
4.9 Exponentialverteilung
Definition 4.9.14
Die Zufallsvariable X besitzt eine Exponentialverteilung mit dem Parameter a > 0, falls
die Dichte durch
a · e−ax für x ≥ 0
fX (x) =
0
sonst
gegeben ist.
B N =
N
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
103
4.9 Exponentialverteilung
Satz 4.9.15
Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann lautet deren Verteilungsfunktion
0
für x < 0
FX (x) =
1 − e−ax für x ≥ 0
. N N
Satz 4.9.16
Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann gilt für deren Erwartungswert und Varianz
1
1
E(X) = ;
Var(X) = 2 .
a
a
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
104
4.9 Exponentialverteilung
Bemerkung 4.9.17
Während die Exponentialverteilung als Wartezeitverteilung mit stetiger Zeit verwendet werden
kann, ist die geometrische Verteilung ein diskretes Gegenstück dazu. Wenn in einer Folge
von Bernoulliversuchen die einzelnen Versuche mit Zeitperioden identifiziert werden und Y
die Anzahl der Versuche (=Perioden) bis zum nächsten Treffer bezeichnet, dann ist Y > k
gleichbedeutend damit, dass k Perioden hintereinander kein Treffer erzielt wird, also
P {Y > k} = (1 − p)k wobei 1 − p die Wahrscheinlichkeit ist, dass in einer Periode kein Treffer
erzielt wird. D. h. 1 − p entspricht e−λ . Die Verteilungsfunktion der geometrisch verteilten
diskreten Wartezeit Y ist dann in den Sprungstellen k = 1, 2, 3, ... gegeben mit
FY (k) = P {Y ≤ k} = 1 − P {Y > k} = 1 − (1 − p)k .
Beachte dabei die Ähnlichkeit mit der Verteilungsfunktion der Exponentialverteilung
t
FX (t) = P {X ≤ t} = 1 − P {Y > t} = 1 − e−a .
Die Wahrscheinlichkeitsfunktion hat wie schon in (2.8.5) gesehen einen fallenden Verlauf,
ähnlich wie die Dichte der Exponentialverteilung.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 5
Zweidimensionale Zufallsvariablen
5.1
Einführung
Beispiel 5.1.1 (Roulette)
Spieler
Einsatz
Auszahlung bei Gewinn
A (plain)
B (carré)
1e
2e
36 e
18 e
.
"
#
.
S p i e l e r
A
!
$
%
105
S p i e l e r
B
106
5.1. EINFÜHRUNG
Ω = {0, 1, 2, . . . , 36},
F = P(Ω),
|E|
für alle E ∈ F.
|Ω|
X sei die Auszahlung an Spieler A und B :
X : Ω → R2 mit
P : F → R mit P(E) =
ω
X(ω)
2
(36, 18)
3
(0, 18)
5
(0, 18)
6
(0, 18)
sonst
(0, 0)
X
(Ω, F, P) −→ (R2 , B2 , PX ),
PX (B) = P(X−1 (B)) für alle B ∈ B2 ,
insbesondere gilt:
PX ({(x, y)}) = P(X−1 ({(x, y)})) = P{ω ∈ Ω : X(ω) = (x, y)},
(x, y)
(0, 0)
(0, 18)
(36, 18)
PX ((x, y))
33
37
3
37
1
37
Bemerkung 5.1.2
Bei einer zweidimensionalen Zufallsvariablen gilt:
X(ω) = (X1 (ω), X2 (ω)) für alle ω ∈ Ω.
Deshalb schreibt man auch X = (X1 , X2 ).
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
107
5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE
5.2
Zweidimensionale diskrete Zufallsvariable
Definition 5.2.1
Eine zweidimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B ⊂ R2 gibt mit
PX (B) = P{X ∈ B} = 1.
Definition 5.2.2
Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}
und der Wahrscheinlichkeitsverteilung PX . Dann heißt die Abbildung p : R2 → [0, 1] mit
PX {(x1 , x2 )} für (x1 , x2 ) ∈ X(Ω)
p((x1 , x2 )) =
0
für (x1 , x2 ) ∈ R2 \ X(Ω)
gemeinsame Wahrscheinlichkeitsfunktion von X. Die Menge T = {(x1 , x2 ) ∈ R2 :
p((x1 , x2 )) > 0} heißt Träger, die Elemente (x1 , x2 ) ∈ T heißen Trägerpunkte und die
Werte p((x1 , x2 )) die zugehörenden Punktwahrscheinlichkeiten.
Bemerkung 5.2.3
Es gilt:
PX (B) =
X
p((x1 , x2 )) für alle B ⊂ X(Ω).
(x1 ,x2 )∈B
Satz 5.2.4
Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}.
Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen:
(1) p(x) ≥ 0 für x ∈ R2 ,
(2)
P
x∈X(Ω) p(x)
= 1.
Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine zweidimensinale Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x).
Bemerkung 5.2.5
Um nicht zuviele Indizes zu gebrauchen, setzen wir oft für einen zweidimensionalen Zufallvektor
X =: (X, Y ).
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
108
5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE
Bemerkung 5.2.6
Ist X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den endlich vielen Trägerpunkten
(xi , yj ) und den zugehörenden Punktwahrscheinlichkeiten p(xi , yj ) =: pij , i = 1, . . . , m, j =
1, . . . , n, dann lässt sich die Wahrscheinlichkeitsfunktion leicht mit Hilfe der folgenden Matrix
darstellen:
Y
y1 · · ·
yj
···
yn
X
x1
..
.
p11
..
.
···
..
.
p1j
..
.
...
..
.
p1n
..
.
xi
..
.
pi1
..
.
···
..
.
pij
..
.
···
..
.
pin
..
.
xm
pm1
···
pmj
···
pmn
Dabei setzt man pi0 j 0 = 0, falls (xi0 ; yj 0 ) kein Trägerpunkt von X ist.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
109
5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE
5.3
Zweidimensionale stetige Zufallsvariable
Definition 5.3.1
Jede
Funktion f : R2 → R mit f (x1 , x2 ) ≥ 0, (x1 , x2 ) ∈ R2 und
R ∞ RRiemann-integrierbare
∞
−∞ −∞ f (x1 , x2 )dx1 dx2 = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch
kurz Dichtefunktion bzw. Dichte).
Beispiel 5.3.2
Gegeben sei die Funktion f (x1 , x2 ) :
f (x1 , x2 ) =

 1
für
0 ≤ x1 ≤ 1, 0 ≤ x2 ≤ 1
0 sonst
R∞ R∞
R1R1
Es gilt f (x1 , x2 ) ≥ 0, (x1 , x2 ) ∈ R2 und −∞ −∞ f (x1 , x2 )dx1 dx2 = 0 0 1dx1 dx2 = 1. Damit
ist f (x1 , x2 ) eine Dichte.

Definition 5.3.3
Es sei X = (X1 , X2 ) eine zweidimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Dichtefunktion fX . Die Zufallsvariable X heißt stetig, wenn für alle Intervalle
(a1 , b1 ] × (a2 , b2 ] ⊂ R2 gilt:
Z b1 Z b2
fX (x1 , x2 )dx2 dx1 .
PX ((a1 , b1 ] × (a2 , b2 ]) = P{a1 < X1 ≤ b1 , a2 < X2 ≤ b2 } =
a1
a2
Bemerkung 5.3.4
Die Wahrscheinlichkeit ist zunächst nur für zweidimensionale Intervalle definiert. Man kann
aber für alle reguläre Mengen, worunter alle bekannten geometrischen Objekte wie z. B. Kreis,
Dreieck oder Vieleck durch Quadrate von unten und oben approximieren und damit die Wahrscheinlichkeit berechnen.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE
Beispiel 5.3.5
Gegeben sei die Dichte einer 2-dimensionalen Zufallsvariablen X = (X, Y ) :
fX (x, y) =
2 für 0 ≤ x ≤ y ≤ 1
0 sonst
f(x,y)
R 0.5 R 0.5
PX ((0, 0.5] × (0, 0.5]) = P{0 < X ≤ 0.5, 0 < Y ≤ 0.5} = 0 0 fX (x, y)dydx =
R 0.5
R 0.5
R 0.5 R 0.5
0.5
2 0.5
x 2dydx = 0 [2y]x dx = 0 (1 − 2x)dx = [x − x ]0 = 0.25
0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
110
5.4. DIE VERTEILUNGSFUNKTION VON ZWEIDIMENSIONALEN ZUFALLSVARIABLEN
5.4
111
Die Verteilungsfunktion von zweidimensionalen Zufallsvariablen
Definition 5.4.1
Es sei X = (X1 , X2 ) eine zweidimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum
(Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX . Die Abbildung
FX : R2 → R
mit
FX (x1 , x2 ) := PX ((−∞, x1 ] × (−∞, x2 ]) = P{X1 ≤ x1 , X2 ≤ x2 } für alle (x1 , x2 ) ∈ R2
heißt Verteilungsfunktion von X = (X1 , X2 ) oder gemeinsame Verteilungsfunktion der
Zufallsvariablen X1 und X2 .
Bemerkung 5.4.2
Aufgrund der Definition einer Verteilungsfunktion gilt:
P
 P

i:x1i ≤x1
j:x2j ≤x2 p(x1i , x2j ) falls X diskret
FX (x1 , x2 ) =
 R x1 R x2
falls X stetig
−∞ −∞ fX (t1 , t2 )dt2 dt1
Satz 5.4.3 (Eigenschaften einer 2-dim. Verteilungsfunktion)
Für die Verteilungsfunktion einer 2-dimensionalen Zufallsvariablen X = (X, Y ) gilt:
(1) FX (x, y) ≤ FX (x + h, y), h > 0,
FX (x, y) ≤ FX (x, y + h), h > 0,
d. h. FX ist monoton steigend in jeder Variablen,
(2) lim FX (x + h, y) = FX (x, y),
h→0
h>0
lim FX (x, y + h) = FX (x, y),
h→0
h>0
d. h. FX ist rechtsseitig stetig,
(3) x→∞
lim FX (x, y) =: FX (∞, ∞) = 1
y→∞
(4)
(5)
lim FX (x, y) =: FX (−∞, y) = 0
x→−∞
lim FX (x, y) =: FX (x, −∞) = 0
y→−∞
(6) Für a1 , a2 , b1 , b2 ∈ R mit a1 < a2 und b1 < b2 folgt:
FX (a2 , b2 ) − FX (a1 , b2 ) − FX (a2 , b1 ) + FX (a1 , b1 ) ≥ 0.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.4. DIE VERTEILUNGSFUNKTION VON ZWEIDIMENSIONALEN ZUFALLSVARIABLEN
112
Satz 5.4.4
Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung
PX und der Verteilungsfunktion FX . Dann gilt für alle (xi , yj ) ∈ R2 , i, j = 1, 2,
PX ((x1 , x2 ] × (y1 , y2 ]) = FX (x2 , y2 ) − FX (x1 , y2 ) − FX (x2 , y1 ) + FX (x1 , y1 ).
Graphische Veranschaulichung: PX (B) = PX ((x1 , x2 ] × (y1 , y2 ])
y
6
(x1 , y2 )
e
y2
(x2 , y2 )
u
B
y1
e
(x1 , y1 )
e
(x2 , y1 )
x1
x2
x
Satz 5.4.5
Ist fX eine Dichte zu der Verteilungsfunktion FX einer 2-dimensionalen Zufallsvariablen X, so
◦
◦
gilt an allen Stetigkeitsstellen (x1 , x2 ) von fX :
∂ 2 FX (x1 , x2 ) fX (x1 , x2 ) =
∂x1 ∂x2 (x◦ 1 ,x◦ 2 )
◦
◦
Bemerkung 5.4.6
◦ ◦
Unter den Voraussetzungen von Satz (5.4.5), dass die (x1 , x2 ) Stetigkeitsstellen von FX sind,
gilt, dass die partiellen Ableitungen unabhängig von der Reihenfolge der Differentiationen sind.
Beispiel 5.4.7
Gegeben sei die Verteilungsfunktion einer 2-dimensionalen stetigen Zufallsvariablen X = (X1 , X2 ) :

x1 ≥ 0, x2 ≥ 0
 1 − e−2x1 − e−x2 + e−2x1 −x2 für
FX (x1 , x2 ) =

0
sonst
Dann gilt für eine Dichte:
 −2x −x
2e 1 2
∂ 2 FX (x1 , x2 ) 
fX (x1 , x2 ) =
=

∂x1 ∂x2
0
für
x1 ≥ 0, x2 ≥ 0
sonst
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
113
5.5. RANDVERTEILUNGEN ZWEIDIMENSIONALER ZUFALLSVARIABLEN
5.5
Randverteilungen zweidimensionaler Zufallsvariablen
Satz und Definition 5.5.1
Es sei X = (X1 , X2 ) eine 2-dimensionale Zufallsvariable mit der Verteilungsfunktion FX . Dann
werden durch
FX1 (x1 ) = lim FX (x1 , x2 ) =: FX (x1 , ∞) für alle x1 ∈ R,
x2 →∞
bzw.
FX2 (x2 ) = lim FX (x1 , x2 ) =: FX (∞, x2 ) für alle x2 ∈ R.
x1 →∞
zwei Verteilungsfunktionen definiert. Man nennt sie Randverteilungsfunktionen von X.
Beispiel 5.5.2
Gegeben sei die 2-dimensionale Zufallsvariable Z = (X, Y ) mit der Verteilungsfunktion
FX (x1 , x2 ) =

 1 − e−2x1 − e−x2 + e−2x1 −x2

0
für
x1 ≥ 0, x2 ≥ 0
sonst
Dann gilt:

 1 − e−2x1
FX1 (x1 ) = FX (x1 , ∞) =

bzw.
FX2 (x2 ) = FX (∞, x2 ) =
0

 1 − e−x2

0
für
x1 ≥ 0
sonst
für
x2 ≥ 0
sonst
Satz und Definition 5.5.3
Es sei X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den Punktwahrscheinlichkeiten p(xi , yj ), i, j ∈ N. Dann werden durch
X
pi· := p(xi ) =
p(xi , yj ), i ∈ N
j∈N
bzw.
p·j := p(yj ) =
X
p(xi , yj ), j ∈ N.
i∈N
zwei Wahrscheinlichkeitsfunktionen definiert. Man bezeichnet sie als Randwahrscheinlichkeitsfunktionen von X.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
114
5.5. RANDVERTEILUNGEN ZWEIDIMENSIONALER ZUFALLSVARIABLEN
Bemerkung 5.5.4
Ist X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den endlich vielen Trägerpunkten
(xi , yj ) und den zugehörenden Punktwahrscheinlichkeiten p(xi , yj ) =: pij , i = 1, . . . , m, j =
1, . . . , n, deren Wahrscheinlichkeitsverteilung mittels einer Matrix angeordnet ist, dann ergeben
sich die Randverteilungen pi· als Spaltensummen und die p·j als Zeilensummen:
Y
pi· =
P
y1
···
yj
···
yn
x1
..
.
p11
..
.
···
..
.
p1j
..
.
...
..
.
p1n
..
.
p1·
..
.
xi
..
.
pi1
..
.
···
..
.
pij
..
.
···
..
.
pin
..
.
pi·
..
.
xm
P
p·j = i pij
pm1
p·1
···
···
pmj
p·j
···
···
pmn
p·n
pm·
1
X
j
pij
Satz und Definition 5.5.5
Es sei X = (X, Y ) eine 2-dimensionale stetige Zufallsvariable mit Dichte fX . Dann werden
durch
Z ∞
fX (x) =
fZ (x, y)dy für alle x ∈ R,
−∞
bzw.
fY (y) =
Z
∞
fZ (x, y)dx für alle y ∈ R.
−∞
zwei Dichten definiert. Man nennt sie Randdichten von X.
Beispiel 5.5.6
Gegeben sei die 2-dimensionale Zufallsvariable X = (X, Y ) mit der Dichtefunktion
fX (x, y) =
Dann gilt:
fX (x) =
Z
∞
2 für
0<x<y<1
.
0 sonst
fX (x, y)dy =
−∞
bzw.
fY (y) =
Z
∞
−∞
fX (x, y)dx =
2(1 − x) für
0<x<1
0
sonst
2y für
0<y<1
.
0 sonst
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
115
5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN
5.6
Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen
Beispiel 5.6.1 (Motivation)
(siehe auch Beispiel 5.1.1)
Spieler
Einsatz
Auszahlung bei Gewinn
A (plain)
B (carré)
1e
2e
36 e
18 e
.
"
#
S p i e l e r
.
A
!
$
S p i e l e r
B
%
Für die gemeinsame Verteilung des Zufallsvektors X = (X, Y ) mit X Auszahlung an Spieler
”
A“ und mit Y Auszahlung an Spieler B“ erhielten wir in Beispiel 5.1.1 die folgende Wahr”
scheinlichkeitsfunktion:
(x, y)
(0, 0)
(0, 18)
(36, 18)
PX {(x, y)}
33
37
3
37
1
37
.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN
116
In Matrixdarstellung mit den Randverteilungen ergibt sich folgende Darstellung:
Y
0
18
pi·
0
33
37
36
0
33
37
36
37
1
37
p·j
3
37
1
37
4
37
X
1
Spieler A verlässt für kurze Zeit den Spieltisch, nachdem er gesetzt und auch den Einsatz von
Spieler B gesehen hat. Als er zurückkommt, hört er, dass Spieler B gewonnen hat. Wie groß
ist die Wahrscheinlichkeit, dass auch Spieler A gewonnen hat? Gefragt wird somit nach der
Wahrscheinlichkeit, dass Spieler A 36 e gewinnt unter der Bedingung, dass Spieler B 18 e
gewonnen hat. Gemäß der Definition der bedingten Wahrscheinlichkeit erhält man:
P({X = 36}|{Y = 18}) = P({ω : X(ω) = 36}|{ω : Y (ω) = 18}) =
P{ω : X(ω) = 36 ∧ Y (ω) = 18}
P({ω : X(ω) = 36} ∩ {ω : Y (ω) = 18})
=
=
P({ω : Y (ω) = 18})
P{ω : Y (ω) = 18}
1
P{2}
1
= 37 = .
4
P{2, 3, 5, 6}
4
37
Zur Berechung genügt aber auch nur die Kenntnis von PX und PY :
1
P{X = 36 ∧ Y = 18}
P{(X, Y ) = (36, 18)}
1
37
P({X = 36}|{Y = 18}) =
=
=
= .
4
P{Y = 18}
P{Y = 18}
4
37
Ebenso berechnet man
3
P{(X, Y ) = (0, 18)}
3
P{X = 0 ∧ Y = 18}
=
= 37 = .
P({X = 0}|{Y = 18}) =
4
P{Y = 18}
P{Y = 18}
4
37
Die bedingte Wahrscheinlichkeitsverteilung von X unter der Bedingung Y = 18 ist gegeben
durch:
x
0
36
PX|Y =18 {x}
3
4
1
4
Dies führt nun zu der folgenden Definition.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN
117
Satz und Definition 5.6.2
Es sei X = (X, Y ) eine diskrete 2-dimensionale Zufallsvariable mit
PX {(x, y)} = P{X = x; Y = y}.
Für ein festes y gelte
PY {y} = P{Y = y} > 0,
dann ist durch
PX|Y =y (·) : B → R
mit
PX|Y =y (A) :=
P{X ∈ A; Y = y}
für alle A ∈ B
P{Y = y}
eine Wahrscheinlichkeitsverteilung gegeben. Man nennt sie die bedingte Wahrscheinlichkeitsverteilung von X unter der Bedingung Y = y.
Entsprechend ist für ein festes x mit PX {x} = P{X = x} > 0 durch
PY |X=x (B) :=
P{X = x; Y ∈ B}
für alle B ∈ B
P{X = x}
die bedingte Wahrscheinlichkeitsverteilung von Y unter der Bedingung X = x definiert.
Bemerkung 5.6.3
Besitzt die diskrete 2-dimensionale Zufallsvariable X = (X, Y ) die Punktwahrscheinlichkeiten
PX {(xi , yj )} = P{X = xi ; Y = yj } = pij ,
und gilt für ein festes j
PY {yj } = P{Y = yj } = p·j > 0,
dann gilt:
PX|Y =yj {xi } :=
P{X = xi ; Y = yj }
pij
=
für alle xi .
P{Y = yj }
p·j
Gilt für ein festes i
PX {xi } = P{X = xi } = pi· > 0,
dann gilt:
PY |X=xi {yj } :=
pij
P{X = xi ; Y = yj }
=
für alle yj .
P{X = xi }
pi·
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
118
5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN
Satz und Definition 5.6.4
Es sei X = (X, Y ) eine 2-dimensionale stetige Zufallsvariable mit einer gemeinsamen Dichte
fX und den Randdichten fX bzw. fY . An einer festen Stelle y ∈ R sei fY stetig und es gelte
fY (y) > 0. Dann ist
fX|Y =y (·) : R → R
mit
fX|Y =y (x) :=
fX (x, y)
für alle x ∈ R
fY (y)
eine Dichte(funktion). Man nennt sie eine bedingte Dichte(funktion) von X unter der
Bedingung Y = y.
Entsprechend ist für eine feste Stetigkeitsstelle x ∈ R von fX mit fX (x) > 0 durch
fY |X=x (y) :=
fX (x, y)
für alle y ∈ R
fX (x)
eine bedingte Dichte(funktion) von Y unter der Bedingung X = x definiert.
Beispiel 5.6.5
Gegeben sei die 2-dimensionale stetige Zufallsvariable X = (X, Y ) mit der Dichte
 3

0≤y≤x≤2
 (x − y) für
4
fX (x, y) =


0
sonst
und der Randdichte
 3

0≤x≤2
 x2 für
8
fX (x) =


0
sonst
Dann ist eine bedingte Dichte fY |X=x (·) gegeben durch

3


(x − y)


4
fZ (x, y)
3 2
fY |X=x (y) =
=
x

fX (x)


8

0
bzw.

 2(x − y)
2
fY |X=x (y) =
 0 x
für
sonst
für
0≤y≤x
0<x≤2




sonst
0≤y≤x







0 < x ≤ 2.

c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.6. BEDINGTE VERTEILUNGEN UND UNABHÄNGIGKEIT VON ZUFALLSVARIABLEN
119
Bemerkung 5.6.6
Sowohl im diskreten als auch im stetigen Fall kann man bedingte Verteilungsfunktionen einführen,
z. B.
P
pij
für alle x ∈ R und p·j > 0,
FX|Y =yj (x) := PX|Y =yj ((−∞, x]) = i:xi ≤x
p·j
FX|Y =y (x) :=
Rx
−∞ fX|Y =y (t)dt
für alle x ∈ R, y Stetigkeitsstelle und fY (y) > 0.
Definition 5.6.7
Es seien X = (X, Y ) ein zweidimensionaler Zufallsvektor mit der gemeinsamen Verteilungsfunktion FX und den Randverteilungsfunktionen FX bzw. FY . Die Zufallsvariablen X und Y
heißen (stochastisch) unabhängig, wenn gilt
FX (x, y) = FX (x) · FY (y) für alle x, y ∈ R.
Satz 5.6.8
Es sei X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den Trägerpunkten (xi , yj )
und den zugehörigen Punktwahrscheinlichkeiten pij := p(xi , yj ), i, j ∈ N sowie den Randwahrscheinlichkeiten pi· := p(xi ) bzw. p·j := p(yj ). Die Zufallsvariablen X und Y sind genau
dann unabhängig, wenn gilt
pij = pi· · p·j für alle (xi , yj ) ∈ R2 .
(a) Sind X und Y stochastisch unabhängige Zufallsvariablen mit den Dichten fX bzw. fY ,
dann hat der Zufallsvektor X = (X, Y ) die Dichte fX mit
fX (x, y) = fX (x) · fY (y) für alle x, y ∈ R.
(b) Umgkehrt gilt: Hat X eine Dichte fX , dann sind X und Y stochastisch unabhängig mit
den Dichten fX und fY .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
120
5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN
5.7
Momente zweidimensionaler Zufallsvariablen
Satz 5.7.1
Es seien X = (X, Y ) eine zweidimensionale Zufallsvariable und G : R2 → R eine B2 −
B−messbare Abbildung. Ist X = (X, Y ) diskret mit den Trägerpunkten (xi , yj ) und den
Punktwahrscheinlichkeiten p(xi , yj ) =: pij , i = 1, . . . , m, j = 1, . . . , n, so existiert der Erwartungswert E(G(X, Y )), falls
XX
|G(xi , yj )| · pij < ∞
i
j
und es gilt
E(G(X, Y )) =
XX
i
G(xi , yj ) · pij .
j
Ist X = (X, Y ) stetig mit einer gemeinsamen Dichte fX , so existiert E(G(X, Y )), falls
Z ∞Z ∞
|G(x, y)| · fX (x, y)dydx < ∞
−∞
−∞
und es gilt
E(G(X, Y )) =
Z
∞
−∞
Z
∞
G(x, y) · fX (x, y)dydx.
−∞
Definition 5.7.2
Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable. Als Momente um Null
(r + s)-ter Ordnung von X = (X, Y ) bezeichnet man:
µrs := E(X r · Y s ) für r, s ∈ N ∪ {0}.
Als zentrale Momente (r + s)-ter Ordnung von X = (X, Y ) bezeichnet man:
σ rs := E[(X − E(X))r · (Y − E(Y ))s ] für r, s ∈ N ∪ {0}.
Definition 5.7.3
Es sei X = (X, Y ) eine zweidimensionale Zufallsvariable. Das zentrale Moment zweiter Ordnung
σ 11 = E[(X − E(X)) · (Y − E(Y ))] =: Cov(X, Y )
nennt man Kovarianz zwischen X und Y.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN
121
Satz 5.7.4
Es seien X, Y und Z eindimensionale Zufallsvariablen über einem Wahrscheinlichkeitsraum
(Ω, F, P ) und a, b ∈ R. Dann gilt:
(1) Cov(aX, bY ) = ab · Cov(X, Y ),
(2) Cov(X + a, Y + b) = Cov(X, Y )
(Translationsinvarianz),
(3) Cov(X, Y ) = E(X · Y ) − E(X) · E(Y )
(4) Cov(X, Y ) = Cov(Y, X)
(Kovarianzzerlegungssatz),
(Symmetrie),
(5) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ).
Satz 5.7.5
Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable. Dann gilt für die Komponenten X und
Y :
(1) E(X ± Y ) = E(X) ± E(Y ).
Sind X und Y außerdem stochastisch unabhängig, dann gilt:
(2) E(X · Y ) = E(X) · E(Y ).
Satz 5.7.6
Gegeben sei die 2-dimensionale Zufallsvariable X = (X, Y ). Sind X und Y unabhängig, so gilt:
Cov(X, Y ) = 0.
Bemerkung 5.7.7
I.a. folgt aus Cov(X, Y ) = 0 nicht die Unabhängigkeit von X und Y.
Satz 5.7.8
Gegeben sei die 2-dimensionale Zufallsvariable X = (X, Y ). Dann gilt:
(1) Var(X ± Y ) = Var(X) + Var(Y ) ± 2 · Cov(X, Y )
Sind X und Y unabhängig, so folgt weiter:
(2) Var(X ± Y ) = Var(X) + Var(Y )
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN
122
Definition 5.7.9
Es seien X und Y zwei Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P).
(a) Sind X und Y diskret mit P{X = x} > 0, dann ist der bedingte Erwartungswert von
Y gegeben X = x definiert durch
X
E(Y |X = x) =
y · PY |X=x {y}
y
und die bedingte Varianz von Y gegeben X = x ist definiert durch
X
Var(Y |X = x) =
(y − E(Y |X = x))2 · PY |X=x {y}.
y
(b) Sind X und Y stetig mit fX (x) > 0, dann ist der bedingte Erwartungswert von Y
gegeben X = x definiert durch
Z ∞
y · fY |X=x (y)dy
E(Y |X = x) =
−∞
und die bedingte Varianz von Y gegeben X = x ist definiert durch
Z ∞
Var(Y |X = x) =
(y − E(Y |X = x))2 · fY |X=x (y)dy.
−∞
Bemerkung 5.7.10
Entsprechendes gilt für E(X|Y = y) und Var(X|Y = y).
Satz 5.7.11 (diskrete Zufallsvariable)
P
Es seien X und Y diskrete Zufallsvariablen und es möge E(Y 2 |X = x) := y y 2 · PY |X=x {y}
existieren. Dann gilt:
Var(Y |X = x) = E(Y 2 |X = x) − [E(Y |X = x)]2 .
Satz 5.7.12 (stetige Zufallsvariable)
R∞
Es seien X und Y stetige Zufallsvariablen und es möge E(Y 2 |X = x) := −∞ y 2 · fY |X=x (y)dy
existieren. Dann gilt:
Var(Y |X = x) = E(Y 2 |X = x) − [E(Y |X = x)]2 .
Definition 5.7.13
Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable mit Var(X) > 0 und Var(Y ) > 0. Man
bezeichnet die reelle Zahl
Korr(X, Y ) :=
Cov(X, Y )
p
=: ρ(X, Y )
+ Var(X) · Var(Y )
als Korrelationskoeffizienten (nach Bravais-Pearson) zwischen X und Y.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
123
5.7. MOMENTE ZWEIDIMENSIONALER ZUFALLSVARIABLEN
Satz 5.7.14
Es sei X = (X, Y ) eine 2-dimensionale Zufallsvariable über (Ω, F, P) mit Var(X) > 0 und
Var(Y ) > 0. Der Korrelationskoeffizient von X und Y hat die folgenden Eigenschaften:
(1) −1 ≤ Korr(X, Y ) ≤ 1,
(2) Korr(X, Y ) = 1, (bzw. = −1), genau dann wenn Y = aX + b
mit a > 0, (bzw. mit a < 0),
(3) Korr(X + a, Y + b) = Korr(X, Y ) für alle a, b ∈ R
(Translationsinvarianz),
(4) Korr(aX, bY ) = Korr(X, Y ) für alle a, b ∈ R mit a · b > 0,
(bzw. Korr(aX, bY ) = − Korr(X, Y ) falls a · b < 0),
(5) Korr(X, Y ) = Korr(Y, X) (Symmetrie),
(6) Sind X und Y unabhängig, so gilt Korr(X, Y ) = 0.
Bemerkung 5.7.15
Entsprechend zu Bemerkung (5.7.6) gilt auch für den Korrelationskoeffizienten, dass aus Korr(X, Y ) =
0 i.a. nicht die Unabhängigkeit von X und Y folgt, es kann aber in diesem Fall keine lineare
Abhängigkeit zwischen X und Y gegeben sein. Man bezeichnet zwei Zufallsvariablen X und
Y mit Korr(X, Y ) = 0 als unkorreliert.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 6
Mehrdimensionale Zufallsvariablen
6.1
Allgemeine Definitionen und Sätze
Definition 6.1.1
Eine n-dimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX heißt diskret,
wenn es eine endliche oder abzählbar unendliche Teilmenge B ⊂ Rn gibt mit
PX (B) = P{X ∈ B} = 1.
Definition 6.1.2
Es sei X eine n-dimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}
und der Wahrscheinlichkeitsverteilung PX . Dann heißt die Abbildung p : Rn → [0, 1] mit
PX {(x1 , . . . , xn )} für (x1 , . . . , xn ) ∈ X(Ω)
p((x1 , . . . , xn )) =
0
für (x1 , . . . , xn ) ∈ Rn \ X(Ω)
gemeinsame Wahrscheinlichkeitsfunktion von X. Die Menge T = {(x1 , . . . , xn ) ∈ Rn :
p((x1 , . . . , xn )) > 0} heißt Träger, die Elemente (x1 , . . . , xn ) ∈ T heißen Trägerpunkte und
die Werte p((x1 , . . . , xn )) die zugehörenden Punktwahrscheinlichkeiten.
Bemerkung 6.1.3
Es gilt:
PX (B) =
X
p((x1 , . . . , xn )) für alle B ⊂ X(Ω).
(x1 ,...,xn )∈B
124
125
6.1. ALLGEMEINE DEFINITIONEN UND SÄTZE
Satz 6.1.4
Es sei X eine n-dimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x1 , x2 , . . .}.
Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen:
(1) p(x) ≥ 0 für x ∈ Rn ,
(2)
P
x∈X(Ω) p(x)
= 1.
Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine n-dimensinale
Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x).
Definition 6.1.5
Jede RRiemann-integrierbare
Funktion f : Rn → R mit f (x1 , . . . , xn ) ≥ 0, (x1 , . . . , xn ) ∈ Rn
R∞
∞
und −∞ · · · −∞ f (x1 , . . . xn )dx1 · · · dxn = 1 heißt Riemann-Dichtefunktion (RiemannDichte oder auch kurz Dichtefunktion bzw. Dichte).
Definition 6.1.6
Es sei X = (X1 , · · · Xn ) eine n-dimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung PX und der Dichtefunktion fX . Die Zufallsvariable X heißt stetig, wenn für alle Intervalle
(a1 , b1 ] × · · · × (an , bn ] ⊂ R2 gilt:
PX ((a1 , b1 ] × · · · × (an , bn ]) = P{a1 < X1 ≤ b1 , . . . , an < X2 ≤ bn } =
R b1
a1
···
R bn
an
fX (x1 , . . . , xn )dxn · · · dx1 .
Definition 6.1.7
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung PX . Die Abbildung
FX : Rn → R
mit
FX (x1 , . . . , xn ) := PX ((−∞, x1 ] × · · · × (−∞, xn ]) =
P{X1 ≤ x1 , . . . , Xn ≤ xn } für alle (x1 , . . . , xn ) ∈ Rn
heißt Verteilungsfunktion von X = (X1 , . . . , Xn ) oder gemeinsame Verteilungsfunktion
der Zufallsvariablen X1 , . . . , Xn .
Bemerkung 6.1.8
Aufgrund der Definition einer Verteilungsfunktion gilt:
FX (x1 , . . . , xn ) =
P
 P

i:x1i1 ≤x1 · · ·
i:xnin ≤xn p(x1i1 , . . . xnin ) falls X diskret
 R x1
R xn
−∞ · · · −∞ fX (t1 , . . . , tn )dtn · · · dt1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
falls X stetig
126
6.1. ALLGEMEINE DEFINITIONEN UND SÄTZE
Satz 6.1.9
Ist fX eine Dichte zu der Verteilungsfunktion FX einer n-dimensionalen Zufallsvariablen X, so
◦
◦
gilt an allen Stetigkeitsstellen (x1 , . . . , xn ) von fX :
∂ n FX (x1 , . . . , xn ) fX (x1 , . . . , xn ) =
◦
◦
∂x1 . . . ∂xn
(x1 ,...,x2 )
◦
◦
Satz und Definition 6.1.10
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit der gemeinsamen Verteilungsfunktion FX . Dann wird für jedes i ∈ {1, . . . , n} durch
FXi (xi ) = lim x1 , . . . , xi−1→∞ FX (x1 , . . . , xi−1 , xi , xi+1 , . . . , xn ) =:
xi+1 , . . . , xn→∞
FX (∞, . . . , ∞, xi , ∞, . . . , ∞) für i = 1, . . . , n.
eine Verteilungsfunktion definiert. Man nennt sie i-te Randverteilungsfunktion von X.
Satz und Definition 6.1.11
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale diskrete Zufallsvariable mit den Punktwahrscheinlichkeiten p(x1i1 , . . . xnin ), i1 , . . . , in ∈ N. Dann wird durch
X
p(xkik ) =
p(x1i1 , . . . xnin ), ik ∈ N
{i1 ,...,in }\ik
eine Wahrscheinlichkeitsfunktion definiert. Man nennt sie i-te Randwahrscheinlichkeitsfunktion von X.
Satz und Definition 6.1.12
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale stetige Zufallsvariable mit der gemeinsamen
Dichte fX . Dann wird durch:
Z ∞
Z ∞
fXi (xi ) =
···
fX (t1 , . . . ti−1 , xi , ti+1 , . . . tn )dtn · · · dt1 , i = 1, . . . , n
−∞
−∞
eine Dichte definiert. Man nennt sie i-te Randdichtefunktionen von X.
Definition 6.1.13
Es seien X = (X1 , . . . Xn ) ein n-dimensionaler Zufallsvektor mit der gemeinsamen Verteilungsfunktion FX und den Randverteilungsfunktionen FXi , i = 1, . . . , n. Die Zufallsvariablen
Xi , i = 1, . . . , n, heißen (stochastisch) unabhängig, wenn gilt
FX (x1 , . . . , xn ) = FX1 (x1 ) × · · · × FXn (xn ) für alle (x1 , . . . , xn ) ∈ Rn .
Satz 6.1.14
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale diskrete Zufallsvariable mit der Wahrscheinlichkeitsfunktion p(x1 , . . . xn ) und den Randwahrscheinlichkeitsfunktionen p(xi ), i = 1, . . . , n. Die
Zufallsvariablen Xi , i = 1, . . . , n, sind genau dann unabhängig, wenn gilt
p(x1 , . . . xn ) = p(x1 ) × · · · × p(xn ) für alle (x1 , . . . , xn ) ∈ Rn .
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
127
6.1. ALLGEMEINE DEFINITIONEN UND SÄTZE
Satz 6.1.15
(a) Sind Xi stochastisch unabhängige Zufallsvariablen mit den Dichten fXi , i = 1, . . . , n, dann
hat der Zufallsvektor X = (X1 , . . . , Xn ) die Dichte fX mit
fX (x1 , . . . , xn ) = fX1 (x1 ) × · · · × fXn (xn ) für alle (x1 , . . . , xn ) ∈ Rn .
(b) Umgkehrt gilt: Hat X eine Dichte fX , dann sind die Xi stochastisch unabhängig mit den
Dichten fXi , i = 1, . . . , n.
Satz 6.1.16
Es seien X1 , . . . , Xk , k ∈ N, stochastisch unabhängige Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P) und
gk : R → R, k ∈ N
B − B−messbare Abbildungen. Dann sind g1 (X1 ), . . . , gk (Xk ) ebenfalls unabhängige Zufallsvariablen.
Satz 6.1.17
Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit existierenden ErwartungswerP
ten E(Xi ), i = 1, . . . , n. Dann existiert auch E( ni=1 Xi ) und es gilt
n
n
X
X
E(
Xi ) =
E(Xi ).
i=1
i=1
Satz 6.1.18
(a) Es sei X = (X1 , . . . , Xn ) eine n-dimensionale Zufallsvariable mit existierenden Varianzen
P
Var(Xi ), i = 1, . . . , n. Dann existiert auch Var( ni=1 Xi ) und es gilt
n
n
X
X
Var(
Xi ) =
Var(Xi ) + 2
i=1
i=1
X
Cov(Xi , Xj )
1≤i<j≤n
(b) Sind X1 , . . . , Xn außerdem stochastisch unabhängig, dann gilt:
n
n
X
X
Var(
Xi ) =
Var(Xi )
i=1
i=1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 7
Summen von unabhängigen
Zufallsvariablen
7.1
Bernoulli-, Binomial-, Poisson- und Normalverteilungen
Satz 7.1.1
Es seien X1 , ..., Xn , n ∈ N, unabhängig, identisch verteilte Zufallsvariablen, die alle Bernoulliverteilt sind, d. h.
x
0
1
, k = 1, ..., n, 0 < p < 1.
PXk {x} 1 − p p
Dann ist die Zufallsvariable
Zn := X1 + · · · + Xn
binomialverteilt mit den Parametern n und p, d. h. es gilt:
PZn {i} = (ni )pi (1 − p)n−i für i ∈ {0, 1, ..., n}.
Folgerung 7.1.2
Bei einem Zufallsexperiment trete ein Ereignis A mit der Wahrscheinlichkeit p ∈ (0, 1) ein.
Wird das Experiment n-mal unabhängig wiederholt, so ist die Anzahl Z der Versuche, bei
denen A eintritt, eine binomialverteilte Zufallsvariable mit den Parametern n und p.
Satz 7.1.3
Die Zufallsvariablen X1 , . . . , Xk seien stochastisch unabhängig und binomialverteilt mit den
Parametern (n1 , p), . . . , (nk , p), k ∈ N. Dann ist die Zufallsvariable
Zk := X1 + · · · + Xk
ebenfalls binomialverteilt mit den Parametern (n1 + · · · + nk , p).
128
7.1. BERNOULLI-, BINOMIAL-, POISSON- UND NORMALVERTEILUNGEN
129
Satz 7.1.4
Es seien X1 , . . . , Xk , k ∈ N, stochastisch unabhängige, poissonverteilte Zufallsvariablen mit
den Parametern λi , i = 1, . . . , k. Dann ist die Zufallsvariable
Zk := X1 + · · · + Xk
ebenfalls poissonverteilt mit dem Parameter λ = λ1 + · · · + λk .
Satz 7.1.5
Es seien X1 , . . . , Xk , k ∈ N, stochastisch unabhängige, N (µi , σ 2i )-verteilte Zufallsvariablen,
i = 1, . . . , k. Dann ist die Zufallsvariable
Zk := X1 + · · · + Xk
N (µ, σ 2 )-verteilt mit µ = µ1 + · · · + µk und σ 2 = σ 21 + · · · + σ 2k .
Folgerung 7.1.6
Es seien X1 , . . . , Xn , n ∈ N, stochastisch unabhängige, N (µ, σ 2 )-verteilte Zufallsvariablen,
i = 1, . . . , n. Dann ist die Zufallsvariable
X̄ :=
N (µ,
1 Xn
Xi
i=1
n
σ2
)-verteilt.
n
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 8
Ungleichung von Tschebyscheff und
das schwache Gesetz der großen
Zahlen
8.1
Ungleichung von Tschebyscheff
Satz und Definition 8.1.1
Es sei X eine eindimensionale Zufallsvariable mit E(X) = µ und Var(X) = σ 2 . Dann gilt die
sogenannte Ungleichung von Tschebyscheff:
P{| X − µ |> } ≤
σ2
2
für alle > 0
Korollar 8.1.2
Es sei X eine eindimensionale Zufallsvariable mit E(X) = µ und Var(X) = σ 2 . Dann gilt
P{| X − µ |≤ } ≥ 1 −
σ2
2
für alle > 0
Bemerkung 8.1.3
Häufig wählt man = λσ mit λ ∈ N. Dann folgt aus Korollar (8.1.2):
P{| X − µ |≤ λσ} ≥ 1 −
Man erhält:
λ
1
1− 2
λ
1
λ2
2
3
4
5
0, 75
0, 889
0, 937
0, 96
130
8.1. UNGLEICHUNG VON TSCHEBYSCHEFF
131
Das heißt z. B. für λ = 2, dass eine Zufallsvariable mit mindestens 75% Wahrscheinlichkeit
einen Wert annimmt, der nicht weiter als 2σ von ihrem Erwartungswert entfernt liegt.
Man bezeichnet [µ − λσ, µ + λσ] als λ − σ−Bereich um µ.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
132
8.2. DAS SCHWACHE GESETZ DER GROSSEN ZAHLEN
8.2
Das schwache Gesetz der großen Zahlen
Definition 8.2.1
Es sei (Xj )j∈N eine Folge von eindimensionalen Zufallsvariablen über einem Wahrscheinlichkeitsraum (Ω, F, P). Man sagt, sie genüge dem schwachen Gesetz der großen Zahlen,
wenn es eine Konstante c ∈ R gibt, so dass für die Zufallsvariablen
n
Yn :=
1X
Xj
n
n∈N
j=1
gilt:
lim P{|Yn − c| ≥ } = 0
n→∞
für alle > 0
Satz 8.2.2
Eine Folge (Xj )j∈N unabhängig identisch verteilter Zufallsvariablen mit E(Xj ) = µ und
Var(Xj ) = σ 2 > 0 für alle j ∈ N genügt dem schwachen Gesetz der großen Zahlen, d. h.
es gilt:
n
1X
lim P{|
Xj − µ |≥ } = 0
für alle > 0.
n→∞
n
j=1
Bemerkung 8.2.3
Ein Zufallsexperiment werde durch (Ω, F,P) beschrieben. Es sei A ∈ F ein beliebiges Ereignis
mit P(A) =: p. Das Experiment werde unabhängig wiederholt. Der Wiederholung j ∈ N sei
die Zufallsvariable Xj zugeordnet mit
1 für ω ∈ A
Xj (ω) =
0 für ω ∈
/A
Dann genügen die Zufallsvariablen X1 , X2 , ... dem schwachen Gesetz der großen Zahlen d. h.
es gilt:
n
1X
Xj − p |≥ } = 0
für alle > 0.
lim P{|
n→∞
n
j=1
Man sagt, die relative Häufigkeit für das Auftreten des Ereignisses A konvergiere stochastisch
gegen die Wahrscheinlichkeit P(A) = p.
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
133
8.2. DAS SCHWACHE GESETZ DER GROSSEN ZAHLEN
Beispiel 8.2.4
Der Wahrscheinlichkeitsraum (Ω, F,P) mit
Ω = {1, 2, . . . , 6}, F = P(Ω), P : F → R
mit
P{ω} =
1
6
für alle
ω∈Ω
beschreibe das Spiel mit einem fairen Würfel. Es sei A ∈ F ein Ereignis mit A = {1, 2} und
folglich P(A) = 13 .
Es werden 100 unabhängige Würfe durchgeführt. Dem Wurf k ∈ {1, . . . , 100} sei die Zufallsvariable Xk zugeordnet mit
1 für ω ∈ A
Xk (ω) =
.
0 für ω ∈
/A
Die Realisierungen y1 , . . . , y100 der Zufallsvariablen
n
Yn =
1X
Xk
n
k=1
sind für die 100 Würfe im folgenden Diagramm dargestellt:
y 1,...,y
1
1 0 0
0 ,9
0 ,8
0 ,7
0 ,6
0 ,5
0 ,4
0 ,3
0 ,2
0 ,1
n
0
0
1 0
2 0
3 0
4 0
5 0
6 0
7 0
8 0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
9 0
1 0 0
Kapitel 9
Zentraler Grenzwertsatz
9.1
Zentraler Grenzwertsatz von de Moivre-Laplace
Satz 9.1.1 (Zentraler Grenzwertsatz von de Moivre-Laplace)
Es sei (Yn )n∈N eine Folge von binomialverteilten Zufallsvariablen mit den Parametern n und
p, d. h.
n k
p (1 − p)n−k für k = 0, 1, ..., n; p ∈ (0, 1)
PYn {k} =
k
und (Zn )n∈N die Folge mit
Yn − np
Zn := p
.
np(1 − p)
Dann gilt
(a) limn→∞ P{Zn ≤ b} =
√1
2π
(b) limn→∞ P{a ≤ Zn ≤ b} =
Rb
2
−∞ e
√1
2π
− t2
Rb
a
dt = Φ(b) für alle b ∈ R.
t2
e− 2 dt = Φ(b) − Φ(a) für alle a, b ∈ R.
134
135
9.1. ZENTRALER GRENZWERTSATZ VON DE MOIVRE-LAPLACE
Zeichnerische Darstellung
Wahrscheinlichkeitsverteilung von Zn
Wahrscheinlichkeitsverteilung von Yn
p(x)
p(y)
0.35
0.30
0.25
0.20
0.15
0.10
0.05
y
x
0.00
0
1
2
3
4
−2
5
−1
0
1
2
3
p = 0.4, n = 5
p = 0.4, n = 5
Wahrscheinlichkeitsverteilung von Yn
Wahrscheinlichkeitsverteilung von Zn
p(y)
p(x)
0.25
0.20
0.15
0.10
0.05
x
0.00
0
2
4
6
p = 0.4, n = 10
8
10
y
−3
−2
−1
0
1
p = 0.4, n = 10
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2
3
4
136
9.1. ZENTRALER GRENZWERTSATZ VON DE MOIVRE-LAPLACE
Wahrscheinlichkeitsverteilung von Yn
Wahrscheinlichkeitsverteilung von Zn
p(x)
p(y)
0.20
0.15
0.10
0.05
x
0.00
0
5
10
15
20
y
−4
−2
0
2
4
p = 0.4, n = 20
p = 0.4, n = 20
Approximation mittels Histogramm
Approximation mittels Histogramm
f(x)
f(x)
0.40−−
0.40−−
6
x
x
−4
−2
0
p = 0.4, n = 5
2
4
−4
−2
0
p = 0.4, n = 10
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2
4
137
9.1. ZENTRALER GRENZWERTSATZ VON DE MOIVRE-LAPLACE
Approximation mittels Histogramm
Approximation mittels Histogramm
f(x)
f(x)
0.40−−
0.40−−
x
x
−4
−2
0
2
4
−4
p = 0.4, n = 20
−2
0
2
p = 0.4, n = 50
Bemerkung 9.1.2
Praktisch wird der zentrale Grenzwertsatz von de Moivre-Laplace wie folgt angewandt: Will
man für eine binomialverteilte Zufallsvariable Yn mit den Parametern p und n die Wahrscheinlichkeit
l X
n i
P{Yn ≤ l} =
p (1 − p)n−i
i
i=0
bzw.
P{k ≤ Yn ≤ l} =
l X
n
i=k
i
pi (1 − p)n−i
bestimmen, so liefert im Fall np(1 − p) ≥ 9 die Approximation mittels des zentralen Grenzwertsatzes von de Moivre-Laplace
Yn − np
l − np
l − np
P{Yn ≤ l} = P{ p
≤p
} ' Φ( p
)
np(1 − p)
np(1 − p)
np(1 − p)
bzw.
P{k ≤ Yn ≤ l} = P{ p
k − np
Yn − np
l − np
l − np
k − np
≤p
≤p
} ' Φ( p
) − Φ( p
).
np(1 − p)
np(1 − p)
np(1 − p)
np(1 − p)
np(1 − p)
Eine bessere Approximation erhält man mittels Stetigkeitskorrektur:
Yn − np
l − np
l − np + 0.5
P{Yn ≤ l} = P{ p
≤p
} ' Φ( p
)
np(1 − p)
np(1 − p)
np(1 − p)
und
k − np
Yn − np
l − np
l − np + 0.5
k − np − 0.5
P{k ≤ Yn ≤ l} = P{ p
≤p
≤p
} ' Φ( p
) − Φ( p
).
np(1 − p)
np(1 − p)
np(1 − p)
np(1 − p)
np(1 − p)
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
4
138
9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY
9.2
Zentraler Grenzwertsatz von Lindeberg-Lévy
Satz 9.2.1 (Zentraler Grenzwertsatz von Lindeberg-Lévy)
Es sei (Xj )j∈N eine Folge unabhängig identisch verteilter Zufallsvariablen mit E(Xj ) = µ und
Var(Xj ) = σ 2 > 0 für alle j ∈ N. Dann gilt für die Zufallsvariablen
Pn
1 Pn
j=1 Xj − µ √
j=1 Xj − nµ
n
√
Zn :=
n=
, (n ∈ N)
σ
σ n
(a) limn→∞ P{Zn ≤ z} =
√1
2π
2
− t2
−∞ e
Rz
(b) limn→∞ P{z1 ≤ Zn ≤ z2 } =
√1
2π
R z2
z1
dt = Φ(z) für alle z ∈ R.
t2
e− 2 dt = Φ(z2 ) − Φ(z1 ) für alle z1 , z2 ∈ R.
Zeichnerische Darstellung anhand der Exponentialverteilung
fXi (x) =

 0

Yn =

für x < 0 
ae−ax für x ≥ 0
a>0

Pn
i=1 Xi
Yn − E(Yn )
Zn = p
Var(Yn )
Dichtefunktion von Yn
Dichtefunktion von Zn
f(y)
f(z)
1.0
1.0
−−
0.8
0.6
0.40 −−
0.4
0.2
y
z
0.0
0
2
4
6
n = 1 und a = 1
8
10
−1
0
1
2
n=1
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
3
4
5
139
9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY
Dichtefunktion von Yn
Dichtefunktion von Zn
f(z)
f(y)
0.55 −−
0.4
0.3
0.40 −−
0.2
0.1
y
z
0.0
0
2
4
6
8
−2
10
−1
0
1
2
3
n = 2 und a = 1
n=2
Dichtefunktion von Yn
Dichtefunktion von Zn
4
5
f(y)
f(z)
0.14
0.40−−
0.12
0.10
0.08
0.06
0.04
0.02
z
0.00
0
5
10
15
n = 9 und a = 1
20
25
y
−2
0
n=9
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2
4
140
9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY
Dichtefunktion von Zn
Dichtefunktion von Yn
f(y)
f(z)
0.10
0.40 −−
0.08
0.06
0.04
0.02
y
z
0.00
0
5
10
15
20
25
30
−4
35
−2
0
2
n = 16 und a = 1
n = 16
Dichtefunktion von Yn
Dichtefunktion von Zn
4
f(y)
f(z)
0.08
0.40 −−
0.06
0.04
0.02
y
z
0.00
0
10
20
n = 25 und a = 1
30
40
−4
−2
0
n = 25
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
2
4
141
9.2. ZENTRALER GRENZWERTSATZ VON LINDEBERG-LÉVY
Dichtefunktion von Zn
Dichtefunktion von Yn
f(y)
f(z)
0.07
0.40 −−
0.06
0.05
0.04
0.03
0.02
0.01
z
0.00
0
10
20
30
40
50
60
y
−4
−2
0
n = 36 und a = 1
n = 36
Dichtefunktion von Yn
Dichtefunktion von Zn
f(z)
2
4
2
4
f(y)
0.06
0.40 −−
0.05
0.04
0.03
0.02
0.01
y
z
0.00
0
20
40
n = 49 und a = 1
60
80
−4
−2
0
n = 49
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Kapitel 10
Statistische Tabellen
142
143
Tabelle zur Binomialverteilung
Fn,p (x) =
x X
n
i=0
i
pi (1 − p)n−i
Fn,1−p (n − x − 1) = 1 − Fn,p (x)
n=1
n=2
n=3
n=4
n=5
n=6
n=7
n=8
x
0
1
0
1
2
0
1
2
3
0
1
2
3
4
0
1
2
3
4
5
0
1
2
3
4
5
6
0
1
2
3
4
5
6
7
0
1
2
3
4
5
6
7
8
p = 0.05
.9500
1.0
.9025
.9975
1.0
.8574
.9928
.9999
1.0
.8145
.9860
.9995
1.0
1.0
.7738
.9774
.9988
1.0
1.0
1.0
.7351
.9672
.9978
.9999
1.0
1.0
1.0
.6983
.9556
.9962
.9998
1.0
1.0
1.0
1.0
.6634
.9428
.9942
.9996
1.0
1.0
1.0
1.0
1.0
p = 0.10
.9000
1.0
.8100
.9900
1.0
.7290
.9720
.9990
1.0
.6561
.9477
.9963
.9999
1.0
.5905
.9185
.9914
.9995
1.0
1.0
.5314
.8857
.9842
.9987
.9999
1.0
1.0
.4783
.8503
.9743
.9973
.9998
1.0
1.0
1.0
.4305
.8131
.9619
.9950
.9996
1.0
1.0
1.0
1.0
p = 0.15
.8500
1.0
.7225
.97750
1.0
.6141
.9393
.9966
1.0
.5220
.8905
.9880
.9995
1.0
.4437
.8352
.9734
.9978
.9999
1.0
.3771
.7765
.9527
.9941
.9996
1.0
1.0
.3206
.7166
.9262
.9879
.9988
.9999
1.0
1.0
.2725
.6572
.8948
.9786
.9971
.9998
1.0
1.0
1.0
p = 0.20
.8000
1.0
.6400
.9600
1.0
.5120
.8960
.9920
1.0
.4096
.8192
.9728
.9984
1.0
.3277
.7373
.9421
.9933
.9997
1.0
.2621
.6554
.9011
.983
.9984
.9999
1.0
.2097
.5767
.8520
.9667
.9953
.9996
1.0
1.0
.1678
.5033
.7969
.9437
.9896
.9988
.9999
1.0
1.0
p = 0.25
.7500
1.0
.5625
.9375
1.0
.4219
.8438
.9844
1.0
.3164
.7383
.9492
.9961
1.0
.2373
.6328
.8965
.9844
.9990
1.0
.1780
.5339
.8306
.9624
.9954
.9998
1.0
.1335
.4449
.7564
.9294
.9871
.9987
.9999
1.0
.1001
.3671
.6785
.8862
.9727
.9958
.9996
1.0
1.0
p = 0.30
.7000
1.0
.4900
.9100
1.0
.3430
.7840
.9730
1.0
.2401
.6517
.9163
.9919
1.0
.1681
.5282
.8369
.9692
.9976
1.0
.1176
.4202
.7443
.9295
.9891
.9993
1.0
.0824
.3294
.6471
.8740
.9712
.9962
.9998
1.0
.0577
.2553
.5518
.8059
.9420
.9887
.9987
.9999
1.0
p = 0.35
.6500
1.0
.4225
.8775
1.0
.2746
.7183
.9571
1.0
.1785
.5630
.8735
.9850
1.0
.1160
.4284
.7648
.9460
.9947
1.0
.0754
.3191
.6471
.8826
.9777
.9982
1.0
.0490
.2338
.5323
.8002
.9444
.9910
.9994
1.0
.0319
.1691
.4278
.7064
.8939
.9747
.9964
.9998
1.0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
p = 0.40
0.6000
1.0
.3600
.8400
1.0
.2160
.6480
.9360
1.0
.1296
.4752
.8208
.9744
1.0
.0778
.3370
.6826
.9130
.9898
1.0
.0467
.2333
.5443
.8208
.9590
.9959
1.0
.0280
.1586
.4199
.7102
.9037
.9812
.9984
1.0
.0168
.1064
.3154
.5941
.8263
.9502
.9915
.9993
1.0
p = 0.45
.5500
1.0
.3025
.7975
1.0
.1664
.5748
.9089
1.0
.0915
.3910
.7585
.9590
1.0
.0503
.2562
.5931
.8688
.9815
1.0
.0277
.1636
.4415
.7447
.9308
.9917
1.0
.0152
.1024
.3164
.6083
.8471
.9643
.9963
1.0
.0084
.0632
.2201
.4770
.7396
.9115
.9819
.9983
1.0
p = 0.50
.5000
1.0
.2500
.7500
1.0
.1250
.5000
.8750
1.0
.0625
.3125
.6875
.9375
1.0
.0313
.1875
.5000
.8125
.9688
1.0
.0156
.1094
.3438
.6563
.8906
.9844
1.0
.0078
.0625
.2266
.5000
.7734
.9375
.9922
1.0
.0039
.0352
.1445
.3633
.6367
.8555
.9648
.9961
1.0
144
n=9
n = 10
n = 11
n = 12
n = 13
x
0
1
2
3
4
5
6
7
8
9
0
1
2
3
4
5
6
7
8
9
10
0
1
2
3
4
5
6
7
8
9
10
11
0
1
2
3
4
5
6
7
8
9
10
11
12
0
1
2
3
4
5
6
7
8
9
10
11
12
13
p = 0.05
.6302
.9288
.9916
.9994
1.0
1.0
1.0
1.0
1.0
1.0
.5987
.9139
.9885
.9990
.9999
1.0
1.0
1.0
1.0
1.0
1.0
.5688
.8981
.9848
.9984
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.5404
.8816
.9804
.9978
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.5133
.8646
.9755
.9969
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.10
.3874
.7748
.9470
.9917
.9991
.9999
1.0
1.0
1.0
1.0
.3487
.7361
.9298
.9872
.9984
.9999
1.0
1.0
1.0
1.0
1.0
.3138
.6974
.9104
.9815
.9972
.9997
1.0
1.0
1.0
1.0
1.0
1.0
.2824
.659
.8891
.9744
.9957
.9995
.9999
1.0
1.0
1.0
1.0
1.0
1.0
.2542
.6213
.8661
.9658
.9935
.9991
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.15
.2316
.5995
.8591
.9661
.9944
.9994
1.0
1.0
1.0
1.0
.1969
.5443
.8202
.9500
.9901
.9986
.9999
1.0
1.0
1.0
1.0
.1673
.4922
.7788
.9306
.9841
.9973
.9997
1.0
1.0
1.0
1.0
1.0
.1422
.4435
.7358
.9078
.9761
.9954
.9993
.9999
1.0
1.0
1.0
1.0
1.0
.1209
.3983
.692
.882
.9658
.9925
.9987
.9998
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.20
.1342
.4362
.7382
.9144
.9804
.9969
.9997
1.0
1.0
1.0
.1074
.3758
.6778
.8791
.9672
.9936
.9991
.9999
1.0
1.0
1.0
.0859
.3221
.6174
.8389
.9496
.9883
.998
.9998
1.0
1.0
1.0
1.0
.0687
.2749
.5583
.7946
.9274
.9806
.9961
.9994
.9999
1.0
1.0
1.0
1.0
.0550
.2336
.5017
.7473
.9009
.9700
.9930
.9988
.9998
1.0
1.0
1.0
1.0
1.0
p = 0.25
.0751
.3003
.6007
.8343
.9511
.9900
.9987
.9999
1.0
1.0
.0563
.2440
.5256
.7759
.9219
.9803
.9965
.9996
1.0
1.0
1.0
.0422
.1971
.4552
.7133
.8854
.9657
.9924
.9988
.9999
1.0
1.0
1.0
.0317
.1584
.3907
.6488
.8424
.9456
.9857
.9972
.9996
1.0
1.0
1.0
1.0
.0238
.1267
.3326
.5843
.7940
.9198
.9757
.9944
.9990
.9999
1.0
1.0
1.0
1.0
p = 0.30
.0404
.1960
.4628
.7297
.9012
.9747
.9957
.9996
1.0
1.0
.0283
.1493
.3828
.6496
.8497
.9527
.9894
.9984
.9999
1.0
1.0
.0198
.1130
.3127
.5696
.7897
.9218
.9784
.9957
.9994
1.0
1.0
1.0
.0138
.0850
.2528
.4925
.7237
.8822
.9614
.9905
.9983
.9998
1.0
1.0
1.0
.0097
.0637
.2025
.4206
.6543
.8346
.9376
.9818
.9960
.9993
.9999
1.0
1.0
1.0
p = 0.35
.0207
.1211
.3373
.6089
.8283
.9464
.9888
.9986
.9999
1.0
.0135
.0860
.2616
.5138
.7515
.9051
.9740
.9952
.9995
1.0
1.0
.0088
.0606
.2001
.4256
.6683
.8513
.9499
.9878
.9980
.9998
1.0
1.0
.0057
.0424
.1513
.3467
.5833
.7873
.9154
.9745
.9944
.9992
.9999
1.0
1.0
.0037
.0296
.1132
.2783
.5005
.7159
.8705
.9538
.9874
.9975
.9997
1.0
1.0
1.0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
p = 0.40
.0101
.0705
.2318
.4826
.7334
.9006
.9750
.9962
.9997
1.0
.0060
.0464
.1673
.3823
.6331
.8338
.9452
.9877
.9983
.9999
1.0
.0036
.0302
.1189
.2963
.5328
.7535
.9006
.9707
.9941
.9993
1.0
1.0
.0022
.0196
.0834
.2253
.4382
.6652
.8418
.9427
.9847
.9972
.9997
1.0
1.0
.0013
.0126
.0579
.1686
.3530
.5744
.7712
.9023
.9679
.9922
.9987
.9999
1.0
1.0
p = 0.45
.0046
.0385
.1495
.3614
.6214
.8342
.9502
.9909
.9992
1.0
.0025
.0233
.0996
.2660
.5044
.7384
.898
.9726
.9955
.9997
1.0
.0014
.0139
.0652
.1911
.3971
.6331
.8262
.939
.9852
.9978
.9998
1.0
.0008
.0083
.0421
.1345
.3044
.5269
.7393
.8883
.9644
.9921
.9989
.9999
1.0
.0004
.0049
.0269
.0929
.2279
.4268
.6437
.8212
.9302
.9797
.9959
.9995
1.0
1.0
p = 0.50
.0020
.0195
.0898
.2539
.5000
.7461
.9102
.9805
.9980
1.0
.0010
.0107
.0547
.1719
.3770
.6230
.8281
.9453
.9893
.9990
1.0
.0005
.0059
.0327
.1133
.2744
.5000
.7256
.8867
.9673
.9941
.9995
1.0
.0002
.0032
.0193
.0730
.1938
.3872
.6128
.8062
.9270
.9807
.9968
.9998
1.0
.0001
.0017
.0112
.0461
.1334
.2905
.5000
.7095
.8666
.9539
.9888
.9983
.9999
1.0
145
n = 14
n = 15
n = 16
x
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
p = 0.05
.4877
.8470
.9699
.9958
.9996
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.4633
.8290
.9638
.9945
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.4401
.8108
.9571
.993
.9991
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.10
.2288
.5846
.8416
.9559
.9908
.9985
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.2059
.5490
.8159
.9444
.9873
.9978
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.1853
.5147
.7892
.9316
.9830
.9967
.9995
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.15
.1028
.3567
.6479
.8535
.9533
.9885
.9978
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0874
.3186
.6042
.8227
.9383
.9832
.9964
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0743
.2839
.5614
.7899
.9209
.9765
.9944
.9989
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.20
.0440
.1979
.4481
.6982
.8702
.9561
.9884
.9976
.9996
1.0
1.0
1.0
1.0
1.0
1.0
.0352
.1671
.3980
.6482
.8358
.9389
.9819
.9958
.9992
.9999
1.0
1.0
1.0
1.0
1.0
1.0
.0282
.1407
.3518
.5981
.7982
.9183
.9733
.9930
.9985
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.25
.0178
.101
.2811
.5213
.7415
.8883
.9617
.9897
.9978
.9997
1.0
1.0
1.0
1.0
1.0
.0134
.0802
.2361
.4613
.6865
.8516
.9434
.9827
.9958
.9992
.9999
1.0
1.0
1.0
1.0
1.0
.0100
.0635
.1971
.4050
.6302
.8103
.9204
.9729
.9925
.9984
.9997
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.30
.0068
.0475
.1608
.3552
.5842
.7805
.9067
.9685
.9917
.9983
.9998
1.0
1.0
1.0
1.0
.0047
.0353
.1268
.2969
.5155
.7216
.8689
.9500
.9848
.9963
.9993
.9999
1.0
1.0
1.0
1.0
.0033
.0261
.0994
.2459
.4499
.6598
.8247
.9256
.9743
.9929
.9984
.9997
1.0
1.0
1.0
1.0
1.0
p = 0.35
.0024
.0205
.0839
.2205
.4227
.6405
.8164
.9247
.9757
.994
.9989
.9999
1.0
1.0
1.0
.0016
.0142
.0617
.1727
.3519
.5643
.7548
.8868
.9578
.9876
.9972
.9995
.9999
1.0
1.0
1.0
.0010
.0098
.0451
.1339
.2892
.4900
.6881
.8406
.9329
.9771
.9938
.9987
.9998
1.0
1.0
1.0
1.0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
p = 0.40
.0008
.0081
.0398
.1243
.2793
.4859
.6925
.8499
.9417
.9825
.9961
.9994
.9999
1.0
1.0
.0005
.0052
.0271
.0905
.2173
.4032
.6098
.7869
.905
.9662
.9907
.9981
.9997
1.0
1.0
1.0
.0003
.0033
.0183
.0651
.1666
.3288
.5272
.7161
.8577
.9417
.9809
.9951
.9991
.9999
1.0
1.0
1.0
p = 0.45
.0002
.0029
.0170
.0632
.1672
.3373
.5461
.7414
.8811
.9574
.9886
.9978
.9997
1.0
1.0
.0001
.0017
.0107
.0424
.1204
.2608
.4522
.6535
.8182
.9231
.9745
.9937
.9989
.9999
1.0
1.0
.0001
.0010
.0066
.0281
.0853
.1976
.3660
.5629
.7441
.8759
.9514
.9851
.9965
.9994
.9999
1.0
1.0
p = 0.50
.0001
.0009
.0065
.0287
.0898
.2120
.3953
.6047
.7880
.9102
.9713
.9935
.9991
.9999
1.0
.0000
.0005
.0037
.0176
.0592
.1509
.3036
.5000
.6964
.8491
.9408
.9824
.9963
.9995
1.0
1.0
.0000
.0003
.0021
.0106
.0384
.1051
.2272
.4018
.5982
.7728
.8949
.9616
.9894
.9979
.9997
1.0
1.0
146
n = 17
n = 18
n = 19
x
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
p = 0.05
.4181
.7922
.9497
.9912
.9988
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.3972
.7735
.9419
.9891
.9985
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.3774
.7547
.9335
.9868
.998
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.10
.1668
.4818
.7618
.9174
.9779
.9953
.9992
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.1501
.4503
.7338
.9018
.9718
.9936
.9988
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.1351
.4203
.7054
.885
.9648
.9914
.9983
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.15
.0631
.2525
.5198
.7556
.9013
.9681
.9917
.9983
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0537
.2241
.4797
.7202
.8794
.9581
.9882
.9973
.9995
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0456
.1985
.4413
.6841
.8556
.9463
.9837
.9959
.9992
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.20
.0225
.1182
.3096
.5489
.7582
.8943
.9623
.9891
.9974
.9995
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0180
.0991
.2713
.5010
.7164
.8671
.9487
.9837
.9957
.9991
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0144
.0829
.2369
.4551
.6733
.8369
.9324
.9767
.9933
.9984
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.25
.0075
.0501
.1637
.353
.5739
.7653
.8929
.9598
.9876
.9969
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
.0056
.0395
.1353
.3057
.5187
.7175
.8610
.9431
.9807
.9946
.9988
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0042
.0310
.1113
.2631
.4654
.6678
.8251
.9225
.9713
.9911
.9977
.9995
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.30
.0023
.0193
.0774
.2019
.3887
.5968
.7752
.8954
.9597
.9873
.9968
.9993
.9999
1.0
1.0
1.0
1.0
1.0
.0016
.0142
.0600
.1646
.3327
.5344
.7217
.8593
.9404
.9790
.9939
.9986
.9997
1.0
1.0
1.0
1.0
1.0
1.0
.0011
.0104
.0462
.1332
.2822
.4739
.6655
.8180
.9161
.9674
.9895
.9972
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.35
.0007
.0067
.0327
.1028
.2348
.4197
.6188
.7872
.9006
.9617
.9880
.9970
.9994
.9999
1.0
1.0
1.0
1.0
.0004
.0046
.0236
.0783
.1886
.3550
.5491
.7283
.8609
.9403
.9788
.9938
.9986
.9997
1.0
1.0
1.0
1.0
1.0
.0003
.0031
.0170
.0591
.1500
.2968
.4812
.6656
.8145
.9125
.9653
.9886
.9969
.9993
.9999
1.0
1.0
1.0
1.0
1.0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
p = 0.40
.0002
.0021
.0123
.0464
.1260
.2639
.4478
.6405
.8011
.9081
.9652
.9894
.9975
.9995
.9999
1.0
1.0
1.0
.0001
.0013
.0082
.0328
.0942
.2088
.3743
.5634
.7368
.8653
.9424
.9797
.9942
.9987
.9998
1.0
1.0
1.0
1.0
.0001
.0008
.0055
.0230
.0696
.1629
.3081
.4878
.6675
.8139
.9115
.9648
.9884
.9969
.9994
.9999
1.0
1.0
1.0
1.0
p = 0.45
.0000
.0006
.0041
.0184
.0596
.1471
.2902
.4743
.6626
.8166
.9174
.9699
.9914
.9981
.9997
1.0
1.0
1.0
.0000
.0003
.0025
.0120
.0411
.1077
.2258
.3915
.5778
.7473
.8720
.9463
.9817
.9951
.9990
.9999
1.0
1.0
1.0
.0000
.0002
.0015
.0077
.0280
.0777
.1727
.3169
.4940
.6710
.8159
.9129
.9658
.9891
.9972
.9995
.9999
1.0
1.0
1.0
p = 0.50
.0000
.0001
.0012
.0064
.0245
.0717
.1662
.3145
.5000
.6855
.8338
.9283
.9755
.9936
.9988
.9999
1.0
1.0
.0000
.0001
.0007
.0038
.0154
.0481
.1189
.2403
.4073
.5927
.7597
.8811
.9519
.9846
.9962
.9993
.9999
1.0
1.0
.0000
.0000
.0004
.0022
.0096
.0318
.0835
.1796
.3238
.5000
.6762
.8204
.9165
.9682
.9904
.9978
.9996
1.0
1.0
1.0
147
n = 20
n = 21
x
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
p = 0.05
.3585
.7358
.9245
.9841
.9974
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.3406
.7170
.9151
.9811
.9968
.9996
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.10
.1216
.3917
.6769
.8670
.9568
.9887
.9976
.9996
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.1094
.3647
.6484
.8480
.9478
.9856
.9967
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.15
.0388
.1756
.4049
.6477
.8298
.9327
.9781
.9941
.9987
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0329
.1550
.3705
.6113
.8025
.9173
.9713
.9917
.9980
.9996
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.20
.0115
.0692
.2061
.4114
.6296
.8042
.9133
.9679
.9900
.9974
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0092
.0576
.1787
.3704
.5860
.7693
.8915
.9569
.9856
.9959
.999
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.25
.0032
.0243
.0913
.2252
.4148
.6172
.7858
.8982
.9591
.9861
.9961
.9991
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0024
.0190
.0745
.1917
.3674
.5666
.7436
.8701
.9439
.9794
.9936
.9983
.9996
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.30
.0008
.0076
.0355
.1071
.2375
.4164
.6080
.7723
.8867
.9520
.9829
.9949
.9987
.9997
1.0
1.0
1.0
1.0
1.0
1.0
1.0
.0006
.0056
.0271
.0856
.1984
.3627
.5505
.7230
.8523
.9324
.9736
.9913
.9976
.9994
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
p = 0.35
.0002
.0021
.0121
.0444
.1182
.2454
.4166
.6010
.7624
.8782
.9468
.9804
.9940
.9985
.9997
1.0
1.0
1.0
1.0
1.0
1.0
.0001
.0014
.0086
.0331
.0924
.2009
.3567
.5365
.7059
.8377
.9228
.9687
.9892
.9969
.9993
.9999
1.0
1.0
1.0
1.0
1.0
1.0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
p = 0.40
.0000
.0005
.0036
.0160
.0510
.1256
.2500
.4159
.5956
.7553
.8725
.9435
.9790
.9935
.9984
.9997
1.0
1.0
1.0
1.0
1.0
.0000
.0003
.0024
.0110
.0370
.0957
.2002
.3495
.5237
.6914
.8256
.9151
.9648
.9877
.9964
.9992
.9998
1.0
1.0
1.0
1.0
1.0
p = 0.45
.0000
.0001
.0009
.0049
.0189
.0553
.1299
.2520
.4143
.5914
.7507
.8692
.9420
.9786
.9936
.9985
.9997
1.0
1.0
1.0
1.0
.0000
.0001
.0006
.0031
.0126
.0389
.0964
.1971
.3413
.5117
.6790
.8159
.9092
.9621
.9868
.9963
.9992
.9999
1.0
1.0
1.0
1.0
p = 0.50
.0000
.0000
.0002
.0013
.0059
.0207
.0577
.1316
.2517
.4119
.5881
.7483
.8684
.9423
.9793
.9941
.9987
.9998
1.0
1.0
1.0
.0000
.0000
.0001
.0007
.0036
.0133
.0392
.0946
.1917
.3318
.5000
.6682
.8083
.9054
.9608
.9867
.9964
.9993
.9999
1.0
1.0
1.0
148
Tabelle zur Poissonverteilung
Fλ (x) =
x
X
λi
i=0
i!
e−λ
x λ = 0.1
0 .9048
1 .9953
2 .9998
3
1.0
4
1.0
5
1.0
6
1.0
7
1.0
8
1.0
λ = 0.2
.8187
.9825
.9989
.9999
1.0
1.0
1.0
1.0
1.0
λ = 0.3
.7408
.9631
.9964
.9997
1.0
1.0
1.0
1.0
1.0
λ = 0.4
.6703
.9384
.9921
.9992
.9999
1.0
1.0
1.0
1.0
λ = 0.5
.6065
.9098
.9856
.9982
.9998
1.0
1.0
1.0
1.0
λ = 0.6
.5488
.8781
.9769
.9966
.9996
1.0
1.0
1.0
1.0
λ = 0.7
.4966
.8442
.9659
.9942
.9992
.9999
1.0
1.0
1.0
λ = 0.8
.4493
.8088
.9526
.9909
.9986
.9998
1.0
1.0
1.0
λ = 0.9
.4066
.7725
.9371
.9865
.9977
.9997
1.0
1.0
1.0
λ = 1.0
.3679
.7358
.9197
.9810
.9963
.9994
.9999
1.0
1.0
x λ = 1.5
0
.2231
1
.5578
2
.8088
3
.9344
4
.9814
5
.9955
6
.9991
7
.9998
8
1.0
9
1.0
10
1.0
11
1.0
12
1.0
13
1.0
14
1.0
15
1.0
16
1.0
17
1.0
18
1.0
19
1.0
λ = 2.0
.1353
.406
.6767
.8571
.9473
.9834
.9955
.9989
.9998
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
λ = 2.5
.0821
.2873
.5438
.7576
.8912
.958
.9858
.9958
.9989
.9997
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
λ = 3.0
.0498
.1991
.4232
.6472
.8153
.9161
.9665
.9881
.9962
.9989
.9997
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
1.0
λ = 3.5
.0302
.1359
.3208
.5366
.7254
.8576
.9347
.9733
.9901
.9967
.9990
.9997
.9999
1.0
1.0
1.0
1.0
1.0
1.0
1.0
λ = 4.0
.0183
.0916
.2381
.4335
.6288
.7851
.8893
.9489
.9786
.9919
.9972
.9991
.9997
.9999
1.0
1.0
1.0
1.0
1.0
1.0
λ = 4.5
.0111
.0611
.1736
.3423
.5321
.7029
.8311
.9134
.9597
.9829
.9933
.9976
.9992
.9997
.9999
1.0
1.0
1.0
1.0
1.0
λ = 5.0
.0067
.0404
.1247
.2650
.4405
.6160
.7622
.8666
.9319
.9682
.9863
.9945
.9980
.9993
.9998
.9999
1.0
1.0
1.0
1.0
λ = 5.5
.0041
.0266
.0884
.2017
.3575
.5289
.6860
.8095
.8944
.9462
.9747
.9890
.9955
.9983
.9994
.9998
.9999
1.0
1.0
1.0
λ = 6.0
.0025
.0174
.0620
.1512
.2851
.4457
.6063
.7440
.8472
.9161
.9574
.9799
.9912
.9964
.9986
.9995
.9998
.9999
1.0
1.0
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
149
Tabelle zur Standardnormalverteilung
1
Φ(z) = √
2π
Z
z
1 2
e− 2 x dx
−∞
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8389
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.998
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
150
(Pseudo-)Zufallszahlen
03
97
16
12
55
47
74
76
56
59
43
24
62
85
56
73
67
27
99
35
86
62
66
26
64
36
42
56
96
38
96
81
50
96
54
47
14
26
68
82
36
57
71
27
46
61
20
07
31
22
46
42
32
05
31
98
53
90
03
62
63
32
79
72
43
71
37
78
93
09
62
32
53
15
90
33
27
13
57
06
26
07
55
12
18
16
36
38
10
44
80
07
58
14
32
45
51
59
21
53
16
84
63
33
57
22
42
01
21
60
77
17
63
12
86
94
53
78
34
31
39
31
59
29
44
49
57
16
78
09
54
24
95
64
47
43
55
55
56
27
54
06
67
07
96
82
88
19
82
54
17
77
98
52
49
37
04
10
42
17
93
74
50
07
46
23
47
71
44
09
78
67
75
38
62
87
21
12
15
90
35
76
86
51
52
20
33
73
00
84
96
50
58
13
77
43
25
07
42
27
18
26
23
52
37
18
62
42
36
85
07
38
40
28
94
92
97
64
19
35
46
75
74
95
12
44
84
82
50
83
17
16
97
92
39
16
07
77
26
50
58
44
77
11
08
09
99
81
97
30
79
83
07
00
42
83
11
45
56
34
86
46
32
76
07
19
32
14
31
96
62
24
08
38
88
06
20
32
80
54
76
14
98
22
42
50
85
94
02
06
03
88
07
53
87
10
45
72
53
98
70
56
99
16
31
29
62
49
08
16
17
18
57
15
93
12
37
22
04
32
13
35
77
72
43
40
96
88
33
50
33
83
42
27
27
20
50
95
14
89
38
87
45
34
87
26
75
72
09
19
13
97
16
45
20
89
12
64
59
15
51
25
36
34
37
03
93
16
68
00
74
47
00
49
49
17
70
04
12
52
76
33
43
72
85
37
24
18
07
66
13
03
66
34
60
04
54
79
45
44
68
74
27
00
29
34
57
43
39
94
30
25
37
68
98
13
65
86
29
94
70
76
53
61
24
55
59
48
66
68
74
29
55
37
49
30
97
90
32
69
77
68
65
20
10
40
60
72
30
82
44
71
96
77
53
22
91
57
84
75
78
38
69
57
91
84
67
36
03
93
26
54
10
29
30
04
13
96
10
34
33
58
46
45
25
46
18
92
65
20
09
24
42
04
57
52
76
45
26
27
16
11
35
38
31
90
27
24
23
96
82
94
10
16
25
66
75
16
86
91
59
06
20
38
47
83
06
33
42
96
62
09
32
38
44
64
19
51
79
33
11
74
26
01
49
12
66
38
50
13
67
02
79
87
34
19
94
78
75
86
00
37
45
66
82
71
34
04
81
53
74
02
91
41
91
60
76
16
40
00
47
70
92
01
52
21
90
53
74
43
29
30
56
91
48
68
86
16
62
85
66
14
68
20
64
67
90
05
46
19
40
84
51
78
58
67
45
18
73
97
14
11
00
90
79
64
75
33
97
15
05
73
96
51
06
71
88
02
40
15
95
05
75
14
93
86
90
19
02
20
11
52
07
04
01
05
27
60
02
90
65
41
62
33
10
09
14
93
31
75
68
86
55
08
06
76
22
59
39
40
83
98
33
54
78
20
12
82
16
78
37
22
43
49
89
90
08
90
36
62
05
07
68
26
14
26
97
71
99
65
93
10
86
61
52
70
88
85
65
68
60
23
85
53
75
22
09
54
58
87
35
98
87
37
59
85
42
66
78
36
15
99
47
80
22
13
64
54
70
41
92
61
73
42
26
03
71
32
10
78
51
62
08
50
63
59
99
11
67
06
77
15
12
42
55
59
06
44
32
13
56
51
95
17
08
78
29
92
55
27
06
16
63
85
01
83
93
16
74
50
17
90
41
60
91
53
26
23
20
25
77
59
52
50
38
58
21
55
81
05
71
19
99
69
90
71
23
31
31
94
41
52
04
99
58
61
23
49
73
28
50
33
69
68
41
72
12
96
68
36
12
96
10
35
45
41
93
47
81
37
94
02
48
33
59
96
18
45
03
03
26
39
88
76
09
44
07
13
24
90
95
02
41
30
35
27
18
43
12
57
36
36
89
48
29
99
07
20
60
12
c
R.
Hauser: Deskriptive Statistik und Wahrscheinlichkeitsrechnung
Herunterladen