Folien Kapitel 4 - aktualisiert: 02.12.2010

Werbung
Kapitel 4:
Wahrscheinlichkeitsrechnung und
Kombinatorik
1
Statistik, Prof. Dr. Karin Melzer
4. Wahrscheinlichkeitsrechnung
Die Wahrscheinlichkeitsrechung stellt Modelle bereit zur Beschreibung und Interpretation
solcher zufälliger Erscheinungen, die statistische Gesetzmäßigkeiten zeigen.
Eine wichtige Triebfeder für die Wahrscheinlichkeitsrechnung war das Glückspiel.
Zahlreiche Mathematiker verdienten sich ihr Geld als Berater für Glücksspiele.
2
Statistik, Prof. Dr. Karin Melzer
4.1. Zufallsexperiment und Ereignisse
•
Begriffe
a) Zufallsexperiment:
Ein Zufallsexperiment muss es folgende Eigenschaften aufweisen:
• Alle möglichen Ergebnisse des Experiments sind vorab bekannt.
• Das Ergebnis eines einzelnen Experiments kann nicht
vorhergesagt werden (Zufälligkeit).
• Das Experiment kann unter identischen Bedingungen beliebig oft
wiederholt werden.
b) Ergebnismenge (Ereignismenge, Ereignisraum, Menge der
Grundergebnisse)
• Die Menge aller möglichen (einfachen) Ergebnisse des
Zufallsexperiments wird Ergebnismenge (Ereignismenge,
Ereignisraum) genannt.
• Sie wird mit Ω bezeichnet.
• Bei jeder Durchführung tritt genau einer der zu Ω gehörenden
Ausgänge ein.
3
Statistik, Prof. Dr. Karin Melzer
4.1. Zufallsexperiment und Ereignisse
•
Begriffe
c) Ereignis:
Ein Ereignis A ist eine Teilmenge von der Ergebnismenge Ω,
also A ⊆ Ω
• Wir sagen:
Das Ereignis A ist eingetreten, wenn das Ergebnis des
Zufallsexperiments ein Element von A ist.
•
•
ω∊A ⊆Ω
ω∉A ⊆Ω
⇒
⇒
A ist eingetreten
A ist nicht eingetreten
d) Elementarereignis
• Einelementige Teilmenge von Ω, nicht weiter zerlegbar, besteht
nur aus einem einzigen Versuchsergebnis.
4
Statistik, Prof. Dr. Karin Melzer
4.1. Zufallsexperiment und Ereignisse
•
Begriffe
e) Sicheres Ereignis: Ω
• Die Menge Ω stellt das Ereignis dar, das in jedem Fall eintritt und
wird das sichere Ereignis genannt.
f) Unmögliches Ereignis: ∅
• Tritt nie ein, die leere Menge { } bzw. ∅ ⊆ Ω beschreibt das
unmögliche Ereignis.
g) Realisierung eines Zufallsexperiments/Versuchsausgang
• Das Ergebnis der tatsächlichen Durchführung eines
Zufallsexperiments.
•
Beachten Sie:
- „Versuchsausgang“ bzw. „Ergebnis eines Zufallsexperiments“
ist nicht das Gleiche wie „Ereignis“!
-
Mit jedem Versuchsausgang treten gewisse Ereignisse ein und andere
nicht.
5
Statistik, Prof. Dr. Karin Melzer
4.2. Ereignisalgebra
Bei der Ereignisalgebra werden Ereignisse miteinander verknüpft,
um andere Ereignisse zu erhalten.
Seien A und B Ereignisse mit A, B ⊆ Ω .
a)
Das Ereignis A und B entspricht A ⋂ B (Durchschnitt)
b)
Das Ereignis A oder B entspricht A ⋃ B (Vereinigung)
c)
Das Gegenereignis von A, ist das Ereignis, das eintritt, wenn A nicht
eintritt. Es wird mit Ā = Ω\A bezeichnet (Komplementärmenge).
Tipp: Benutzen Sie a) – c), um Text in Formeln umzuwandeln.
d)
Die Ereignisse A und B heißen unvereinbar, wenn A ⋂ B = { } (disjunkt).
e)
Die Ereignisse A und B heißen vereinbar, wenn A ⋂ B ≠ { }.
f)
Die Implikation aus Ereignis A folgt aus Ereignis B bedeutet
A tritt ein ⇒ B tritt ein bzw. A ⊆ Β (Teilmenge).
6
Statistik, Prof. Dr. Karin Melzer
4.3. Laplace-Experiment
•
•
Ein Laplace-Experiment ist ein Zufallsexperiment mit den folgenden
Eigenschaften:
- Das Zufallsexperiment hat nur endlich viele mögliche
Elementarergebnisse
- Jedes dieser Elementarergebnisse ist gleich wahrscheinlich
Deshalb gilt:
- Bei einem Laplace-Experiment mit n möglichen Elementarereignissen,
besitzt jedes dieser Elementarereignisse die Wahrscheinlichkeit 1/n.
- Die Wahrscheinlichkeit P(A) eines beliebigen Ereignisses A ⊆ Ω
berechnet sich als
P( A) =
k Anzahl der für A günstigen Fälle A
=
=
Anzahl aller möglichen Fälle
Ω
n
- wobei
k = |A|: Anzahl der Elementarereignisse/Elemente in A
n = |Ω|: Anzahl der Elementarereignisse/Elemente in Ω
- Es handelt sich nur um verschiedene gebräuchliche Darstellungsformen
7
Statistik, Prof. Dr. Karin Melzer
4.3. Laplace-Experiment
Beispiele:
- Fairer Würfel:
P({i})=1/6 für i = 1,…,6
- Würfeln mit zwei verschiedenen Würfeln:
A1 = „Augensumme 4“, A2 = „gleiche Augenzahl“
⇒
P(A1) = 3/36 = 1/12
|A1| = 3, |A2| = 6, | Ω | = 36
P(A2) = 6/36 = 1/6
- Münzwurf: P({Kopf}) = P({Zahl}) = 1/2
Gegenbeispiele: Keine Laplace-Experimente sind
- Werfen einer Reißzwecke mit den Elementarereignissen „liegt auf der Spitze“ und
„liegt auf der Kappe“
- Würfeln mit zwei Würfeln, wobei nur die Augensumme betrachtet wird:
Ω = {2,3,4, … , 12} aber P({6}) = P({1,5}, {2,4}, {3,3}, {4,2}, {5,1}) = 5/36 ≠ 1/11
Um bei einem Laplace-Experiment die Wahrscheinlichkeit eines Ereignisses richtig
zu berechnen, muss man die Anzahl der möglichen und günstigen
Elementarereignisse abzählen – das ist eine kombinatorische Fragestellung Kombinatorik (Lehre des Abzählens).
8
Statistik, Prof. Dr. Karin Melzer
4.4. Kombinatorik („Kunst des Abzählens“)
•
Um bei einem Laplace-Experiment die Wahrscheinlichkeit eines Ereignisses richtig
zu berechnen, muss man die Anzahl der möglichen und günstigen
Elementarereignisse abzählen – das ist eine kombinatorische Fragestellung Kombinatorik (Lehre des Abzählens).
Grundproblematik:
• Auswählen einer Teilmenge aus einer Grundmenge („Ziehen“)
• Anordnen der Elemente einer Menge
Bezeichnungen:
• n-Menge:
• k-Stichprobe:
…
…
Menge von n Elementen (alle verschieden)
Teilmenge von k Elementen einer Grundmenge
•
•
geordnet:
ungeordnet:
…
…
Reihenfolge ist wichtig (Variationen)
Reihenfolge ist unwichtig (Kombinationen)
•
mit Zurücklegen
…
•
ohne Zurücklegen
…
gezogenes Element wird vor der nächsten
Ziehung zurückgelegt
gez. Element wird nicht zurückgelegt
9
Statistik, Prof. Dr. Karin Melzer
4.4. Kombinatorik („Kunst des Abzählens“)
a) Fundamentales Zählprinzip – Produktregel:
• Aus r Mengen M1, ... , Mr mit n1, … , nr Elementen lassen sich
N = n1 · n2 · … · nr
verschiedene r-Tupel (x1, x2, … ,xr) bilden mit xi ∈ Mi
oder
• Hat man eine Folge von Entscheidungen zu treffen, bei denen es für die
i. Entscheidung ni Möglichkeiten gibt (i = 1, … , r), dann ist die Gesamtzahl
aller möglichen Entscheidungs-Folgen gegeben durch
N = n1 · n2 · … · nr
Für die vier Grundprobleme der Kombinatorik gilt:
b) Geordnete k-Stichproben mit Zurücklegen (Variationen mit Wiederholung)
•
Einer n-Menge kann man
N = nk
geordnete k-Stichproben mit Zurücklegen entnehmen.
10
Statistik, Prof. Dr. Karin Melzer
4.4. Kombinatorik („Kunst des Abzählens“)
c) Geordnete k-Stichproben ohne Zurücklegen (Variationen ohne
Wiederholung)
• Einer n-Menge kann man
( n ) k = n ⋅ (n − 1) ⋅ K ⋅ (n − k + 1) =
n!
(n − k )!
geordnete k-Stichproben ohne Zurücklegen entnehmen.
Sonderfall für k = n: Permutation
• Eine n-Menge kann auf
(n! = „n-Fakultät“)
(n)n = n · (n – 1) · … · 2 · 1 = n!
Arten angeordnet werden.
Bemerkung: Fakultät
• n! = 1 · 2 · 3 · … · n (lies: n Fakultät) und 0! = 1 (Definition)
Berechnung von n! mit Taschenrechner
• bis 69! i. d. R. mindestens möglich
1
n
• für größere n näherungsweise mit lg(n! ) ≈ lg(2π n) + n lg 
2
e
(Formel von Stirling); lg = Logarithmus zur Basis 10 – TR: log-Taste
11
Statistik, Prof. Dr. Karin Melzer
4.4. Kombinatorik („Kunst des Abzählens“)
d) Ungeordnete k-Stichproben ohne Zurücklegen (Kombinationen ohne
Wiederholung)
•
Einer n-Menge kann man
 n  n ⋅ ( n − 1) ⋅ K ⋅ (n − k + 1)
n!
  =
=
1⋅ 2 ⋅K⋅ k
( n − k )!⋅k!
k 
(k ≤ n )
ungeordnete k-Stichproben ohne Zurücklegen entnehmen.
Sprechweise:
• Binomialkoeffizient:
„n über k“
n
 
k 
e) Ungeordnete k-Stichproben mit Zurücklegen (Kombinationen mit Wdh.)
• Einer n-Menge kann man
 n + k − 1 ( n + k − 1)!

 =
 k
 ( n − 1)!⋅k!
ungeordnete k-Stichproben mit Zurücklegen entnehmen.
12
Statistik, Prof. Dr. Karin Melzer
4.4. Kombinatorik („Kunst des Abzählens“)
Übersicht:
Stichprobenauswahl
k aus n
mit
Zurücklegen
ohne
Zurücklegen
mit Beachtung
der Reihenfolge
n
ohne Beachtung
der Reihenfolge
 n + k − 1


k


k
mit Mehrfachbesetzung
n!
= (n )k
(n − k )!
n
 
k 
ohne Mehrfachbesetzungen
mit
unterscheidbaren
Kugeln
nicht
unterscheidbare
Kugeln
Verteilen von k
Kugeln auf n
Zellen
13
Statistik, Prof. Dr. Karin Melzer
4.4. Kombinatorik („Kunst des Abzählens“)
Permutationen
•
•
Permutation = Anzahl der möglichen Anordnungen oder Vertauschungen
Permutationen ohne Wiederholung:
Wie viele Möglichkeiten gibt es, n verschiedene Objekte anzuordnen
Schon gesehen: n! (n Fakultät)
•
Permutationen mit Wiederholung
Von n Objekten gibt es nur k verschiedene, d.h. von Objekt 1 gibt es n1 (gleiche)
Exemplare, von Objekt 2 n2 (gleiche) Exemplare, … , von Objekt k gibt es nk gleiche
Exemplare.
Auf wie viele Arten kann man die n = n1 + … + nk Objekte anordnen?
Anzahl der möglichen Anordnungen:
n!
n1!⋅n2!⋅K ⋅ nk !
Durch die ni! Möglichkeiten der Anordnung in jeder Klasse muss man dividieren.
14
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
•
Bei zufälligen Ereignissen kann man keine exakte Voraussagen treffen. Es stellt sich
in der Mathematik jedoch der Wunsch ein, zumindest ein Maß für die Sicherheit (oder
Unsicherheit) anzugeben, die mit einer Aussage verbunden ist. Ein solches Maß ist
die Wahrscheinlichkeit.
•
Die Wahrscheinlichkeitsrechnung ordnet jedem Ereignis eines Zufallsexperiments
eine Wahrscheinlichkeit für sein Eintreten zu. Dem Ereignis A zugeschriebene
Wahrscheinlichkeit wird mit P(A) bezeichnet. (P von engl. probability).
•
Die Wahrscheinlichkeit für das Eintreten eines Ereignisses A ist immer eine reelle
Zahl, für die gilt.
0 ≤ P(A) ≤ 1
•
Zwei Extremfälle kennzeichnen Sicherheit:
-
Ist P(A) = 1, so tritt A mit Sicherheit ein.
-
Ist P(A) = 0, so tritt A mit Sicherheit nicht ein.
•
Die Werte dazwischen drücken Grade an Sicherheit aus. Je größer die
Wahrscheinlichkeit P(A), umso „eher“ ist anzunehmen, dass das Ereignis A eintritt.
•
Was aber bedeutet das genau? Wie sind die Grade an Sicherheit, die durch
Wahrscheinlichkeiten ausgedrückt werden, definiert?
15
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
4.5.1. Wahrscheinlichkeit und relative Häufigkeit
• Aus Erfahrung: die meisten Zufallsexperimente weisen eine gewisse statistische
Regelmäßigkeit auf, d.h. wiederholt man ein Zufallsexperiment oft, so scheinen sich die
relativen Häufigkeiten eines Ereignisses mit zunehmender Versuchsanzahl um einen
bestimmten Wert einzupendeln. Z.B. Werfen eines gezinkten Würfels
n
Versuchsreihe 1
Versuchsreihe 2
Anzahl
der
Würfe
Absolute
Häufigkeit
von "6„
Relative
Häufigkeit
von "6"
Absolute
Häufigkeit
von "6"
Relative
Häufigkeit
von "6"
10
2
0,2
4
0,4
50
15
0,3
19
0,38
100
26
0,26
31
0,31
1000
248
0,248
252
0,252
Auf lange Sicht scheint das Würfeln einer 6 mit einer relativen Häufigkeit von ¼ aufzutreten.
• In der Praxis: Wahrscheinlichkeit eines Ereignisses ≈ relative Häufigkeit dieses
Ereignisses in einer großen Anzahl von Versuchen (Näherungswert)
16
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
4.5.1. Wahrscheinlichkeit und relative Häufigkeit
• Für verschiedene Versuchsreihen ist die relative Häufigkeit i.d.R. verschieden (s.
Beispiel). Für sehr große n ergibt sich jedes Mal ungefähr die gleiche relative Häufigkeit.
Grenzwert: geht n gegen ∞, so sollte die relative Häufigkeit einen fixen, nur vom
Zufallsexperiment und dem betrachteten Ereignis A abhängigen Wert annehmen.
Diesen Wert nennen wir die Wahrscheinlichkeit des Ereignisses.
• Damit können wir eine Definition der Wahrscheinlichkeit formulieren:
Die Wahrscheinlichkeit eines Ereignisses ist die für eine gegen
unendlich strebende Anzahl n von Durchführungen des betreffenden
Zufallsexperiments vorausgesagte relative Häufigkeit seines Eintretens.
fn =
hn
n
→ P( A) für n → ∞
• Das Maß für die Sicherheit, mit dem gezinkten Würfel eine 6 zu würfeln, könnte man so
formulieren (Wahrscheinlichkeit, eine 6 zu würfeln beträgt bei dem gezinkten Würfel ¼):
"Unter einer sehr großen Zahl n von Würfel-Versuchen wird
ungefähr n/4 mal die Augenzahl 6 auftreten".
17
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
4.5.2. Rechnen mit Wahrscheinlichkeiten
Um mit Wahrscheinlichkeiten rechnen zu können, müssen erst ein paar
grundsätzliche Eigenschaften festgelegt werden. Diese Eigenschaften
wurden 1933 vom russischen Mathematiker Andrey Kolmogorov
aufgestellt und werden auch als Axiome bezeichnet. Aus diesen Axiomen
(Punkt a) bis c)) können die restlichen Eigenschaften hergeleitet werden.
a)
Die Wahrscheinlichkeit eines Ereignisses A ⊆ Ω liegt
immer zwischen 0 und 1:
0 ≤ P(A) ≤ 1
b)
Das sichere Ereignis besitzt die Wahrscheinlichkeit 1:
P(Ω) = 1
c)
Sind die beiden Ereignisse A und B unvereinbar, so
addieren sich die Wahrscheinlichkeiten:
P(A ⋃ B) = P(A) + P(B), wenn A ⋂ B = { }.
18
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
4.5.2. Rechnen mit Wahrscheinlichkeiten
d) Das unmögliche Ereignis besitzt die Wahrscheinlichkeit 0:
P({ }) = 0
e) Die Wahrscheinlichkeit des Gegenereignisses Ā von A ist
P(Ā) = 1 – P(A)
f) Die Wahrscheinlichkeit von A ⋂ B wird mit dem Multiplikationssatz
berechnet:
Multiplikationssatz allgemein:
P(A ⋂ B) = P(A) · P(B|A) = P(B) · P(A|B)
Multiplikationssatz für unabhängige Ereignisse: P(A ⋂ B) = P(A) · P(B)
Dabei ist P(B|A) (lies: „Wahrscheinlichkeit von B unter der Bedingung
A“) die Wahrscheinlichkeit, dass B eintritt, wenn sicher ist, dass A
eintritt bzw. eingetreten ist.
Wenn sich zwei Ereignisse nicht beeinflussen, spricht man von
unabhängigen Ereignissen, dann gilt P(B|A) = P(B).
g) Die Wahrscheinlichkeit für A ⋃ B wird mit dem Additionssatz berechnet:
P(A ⋃ B) = P(A) + P(B) – P(A ⋂ B )
h) Die Wahrscheinlichkeit ist monoton d.h.
P(A) ≤ P(B),
für A ⊆ B.
19
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
4.5.2. Rechnen mit Wahrscheinlichkeiten
Wann dürfen Sie die Wahrscheinlichkeiten von zwei Ereignissen einfach
•
addieren?
•
multiplizieren?
Beispiel:
Ein zufällig gewählter PC besitze
• mit Ws-keit 0,5 eine Festplatte mit mind. 80GB,
• mit Ws-keit 0,4 einen Flachbildschirm und
• mit Ws-keit 0,2 beide Eigenschaften.
•
P(PC hat mindestens eine der Eigenschaften) = ?
•
P(PC hat Festplatte mit mind. 80GB aber keinen Flachbildschirm) = ?
20
Statistik, Prof. Dr. Karin Melzer
4.5. Eigenschaften von Wahrscheinlichkeiten
4.5.2. Pfadregel bei mehrstufigen Zufallsexperimenten
•
•
•
Die Wahrscheinlichkeit eines Pfades ist gleich dem Produkt der
Wahrscheinlichkeiten längs des Pfades (Produktregel).
Die Wahrscheinlichkeit für ein Ereignis ergibt sich durch Addition der
Wahrscheinlichkeiten aller zu diesem Ereignis führenden Pfade
(Summenregel). Baumdiagramm
Beispiel: Aus einer Urne mit [a, a, a, b, b] werden 2 Buchstaben gezogen.
mit Zurücklegen
ohne Zurücklegen
a
a
a
a
b
b
a
a
b
b
b
1. Zug
•
b
2. Zug
1. Zug
2. Zug
P(a,a), P(a,b), P(b,a), P(b,b), P(„im 2. Zug b“) ?
21
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.1 Definitionen und Beispiele
abstrakt (Modell)
• Zufallsvariable
• Realisierung der Zufallsvariablen
• Wahrscheinlichkeit
real (Daten)
• Merkmal
• Merkmalsausprägung
• relative Häufigkeit
Definition:
Eine Zufallsvariable ist eine Funktion auf Ω (Ereignisraum), die jedem
Elementarereignis ω ∈Ω eine reelle Zahl zuordnet
X :Ω→ℜ
ω a X (ω ) ∈ ℜ
so dass die Wahrscheinlichkeit angegeben werden kann, mit der eine
Ausprägung auftritt (bzw. so dass P(X ≤ t) angegeben werden kann).
a) Eine Zufallsvariable heißt diskret, wenn sie nur einzelnen Punkte (endlich
viele oder unendliche viele) auf dem Zahlenstrahl annehmen kann.
b) Eine Zufallsvariable heißt stetig, wenn sie jeden beliebigen Wert in einem
Intervall annehmen kann.
22
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.1 Beispiele für Zufallsvariablen:
-
Augensumme zweier Würfel (diskret)
X: Ω → ℝ , (i,j) → i+j
-
Anzahl der Einsen in einer Folge von 0 und 1 (diskret)
Ω = Menge der (0,1)-Folgen der Länge n
X: Ω → ℝ , ω → k = # Einsen
-
Anzahl der Würfe einer Münze, bis zum ersten Mal „Kopf“ oben liegt (diskret),
Ω = {K, ZK, ZZK, ZZZK, … }
X: Ω → ℝ , ω → k = # Würfe
-
Anzahl defekter Artikel in einer Stichprobe (diskret),
Gewinn bei einem Glücksspiel (diskret),
Verbrauch einer Öltankfüllung innerhalb eines Jahres in Prozent (stetig)
X: Ω → ℝ , ω → x ∈ [0,1]
Länge (Masse, Volumen, Temperatur etc.) eines Gegenstandes bei einer mit
zufälligen Einflüssen und Fehlern behafteten Messung (stetig)
-
23
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.2 Diskrete Zufallsvariablen
a)
Wahrscheinlichkeitsverteilung oder Dichtefunktion
Die Menge aller Ausprägungen X = xi mit zugehörigen Wahrscheinlichkeiten
P(X = xi) heißt Wahrscheinlichkeitsverteilung oder (diskrete) Dichtefunktion/Dichte
Dichte = Liste aller Wahrscheinlichkeiten P(X = xi)
- Die Wahrscheinlichkeiten pk = P(X = xk ) heißen auch Gewichte der
Verteilung von X.
- Darstellung der Gewichte/Wkts.verteilung: Stab- oder Säulendiagramm
b)
Verteilungsfunktion
Die Funktion
F : ℜ → 0,1
heißt Verteilungsfunktion von X.
[ ],
x a F ( x ) = P( X ≤ x )
- Die Funktion F(t) beschreibt die Wahrscheinlichkeit, dass die Zufallsvariable X
kleiner als der fixe Wert t ist.
- Darstellung der Verteilungsfunktion: (Funktions-)Graph
24
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.2 Diskrete Zufallsvariablen
c) Zusammenhang Wahrscheinlichkeitsverteilung/Dichte – Verteilungsfunktion
• Die (kumulative) Verteilungsfunktion
F(x) = P(X ≤ x)
wird durch die Gewichte pk eindeutig bestimmt:
F ( x ) = P( X ≤ x ) =
∑ P( X = x ) = ∑ p
k
xk ≤ x
•
k : xk ≤ x
k
Dichte und Verteilungsfunktion lassen sich ineinander überführen.
Es gilt:
∑p
= 1,
k
0 ≤ pk ≤ 1
k
•
•
lim F(x) = 0 für x –∞, lim F(x) = 1 für x +∞, F(x) ist monoton wachsend.
Die Wahrscheinlichkeitsverteilung ist sozusagen die theoretische Verteilung eines
Ereignisses. Wenn man etwa das Zufallsexperiment Würfelwurf betrachtet, so
bestimmt die Wahrscheinlichkeitsverteilung, mit welchen Wahrscheinlichkeiten die
einzelnen Ausprägungen auftreten.
25
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.2 Diskrete Zufallsvariablen
Beispiel: Augensumme beim Werfen zweier Würfel
X((1,1)) = 2; X((1,2)) = 3; X((2,1)) = 3; X((2,3)) = 5; X((2,2)) = 4;…
Wahrscheinlichkeitsverteilung als Tabelle:
k
P(X=k)
2
3
4
5
6
7
8
9
10
11
12
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
Wahrscheinlichkeitsverteilung/Dichte als Säulendiagramm:
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
2
3
4
5
6
7
8
9
10
11
12
26
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.2 Diskrete Zufallsvariablen
Beispiel: Augensumme beim Werfen zweier Würfel (Forts.)
Verteilungsfunktion als Tabelle:
k
P(X≤k)
2
3
4
5
6
7
8
9
10
11
12
1/36
3/36
6/36
10/36
15/36
21/36
26/36
30/36
33/36
35/36
36/36
Verteilungsfunktion als Graph: Treppenfunktion
1,2
1
0,8
0,6
0,4
0,2
0
1
2
3
4
5
6
7
8
9
10
11
12
27
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.2 Diskrete Zufallsvariablen
Beispiel: Würfeln mit einem Würfel
X = Augenzahl eines fairen Würfels
Wahrscheinlichkeitsverteilung/Dichte und (kumulative) Verteilungsfunktion:
k
1
2
3
4
5
6
P(X = k)
P(X ≤ k)
Beispiel: Würfeln mit einem Würfel und einer Münze in einem Becher
falls Münze = Kopf
 Augenzahl des Würfels
X =
falls Münze = Zahl
2 × Augenzahl des Würfels
Wahrscheinlichkeitsverteilung/Dichte und (kumulative) Verteilungsfunktion:
k
1
2
3
4
5
6
7
8
9
10
11
12
P(X = k)
P(X ≤ k)
28
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.3 Kennzahlen diskreter Wahrscheinlichkeitsverteilungen
a)
Erwartungswert
µ = E ( X ) = ∑ xi ⋅ P ( X = xi )
i
Gewichtetes Mittel der möglichen Realisationen, daher heißen die P(X = xi) auch
Gewichte der Verteilung.
b)
Varianz
[
]
σ 2 = Var ( X ) = E ( X − µ )2 = ∑ (xi − µ )2 ⋅ P ( X = xi )
i
Taschenrechnerformel:
σ 2 = ∑ xi2 ⋅ P( X = xi ) − µ 2 = E [(X 2 )]− µ 2
i
c)
Standardabweichung
σ = σ 2 = Var ( X )
29
Statistik, Prof. Dr. Karin Melzer
4.6. Zufallsvariablen
4.6.3 Kennzahlen diskreter Wahrscheinlichkeitsverteilungen
Bemerkungen zu Erwartungswert µ und arithmetisches Mittel x :
Im Allgemeinen gilt: µ ≠ x .
Pro Zufallsexperiment ist µ eine Konstante, während x vom Zufall abhängt,
nämlich von der jeweiligen Messreihe x1, x2, x3, … xn , den Realisierungen der
Zufallsvariablen X.
Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass µ ≈ x .
Der Wert x wird später (siehe Kapitel 5) zur Schätzung von µ benutzt.
Bemerkungen zu Varianz σ2 und empirische Varianz s2:
Im Allgemeinen gilt: σ2 ≠ s2.
Pro Zufallsexperiment ist σ2 eine Konstante, während s2 vom Zufall abhängt,
nämlich von der jeweiligen Messreihe x1, x2, x3, … xn , den Realisierungen der
Zufallsvariablen X.
Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass σ2 ≈ s2 .
Der Wert s2 wird später (siehe Kapitel 5) zur Schätzung von σ2 benutzt.
30
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
In diesem Kapitel werden die folgenden diskreten Verteilungen behandelt
- Hypergeometrische Verteilung
- Binomialverteilung
- Poisson-Verteilung
•
•
•
•
•
Zufallsvariablen werden durch ihre Verteilung vollständig charakterisiert.
Bei diskreten Zufallsvariablen entspricht die Verteilung der Angabe der
Wahrscheinlichkeiten für die Elementarereignisse (Dichte).
Statt der Dichte kann man auch die Verteilungsfunktion angeben.
Dichte und Verteilungsfunktion lassen sich ineinander überführen.
Aus der Verteilung lassen sich die Wahrscheinlichkeiten für alle Ereignisse
berechnen.
Außerdem lassen sich alle anderen Kennzahlen ableiten:
- Erwartungswert
- Varianz
- Standardabweichung
31
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
4.7.1 Hypergeometrische Verteilung
Gegeben: - Grundgesamtheit aus N Elementen,
- M Elemente der Grundgesamtheit haben eine spezifische Eigenschaft A,
- entnommen wird eine Stichprobe (ohne Zurücklegen) vom Umfang n
Die ZV X gebe an, wie viele der gezogenen Objekte die Eigenschaft A haben.
X = Anzahl der Elemente mit Eigenschaft A in der Stichprobe
Dann ist X hypergeometrisch verteilt mit den Parametern n, N, M. Man schreibt
X ~ H(n;N;M)
Achtung: in machen Büchern ist die Reihenfolge der Parameter anders.
Die Wahrscheinlichkeit, genau x Elemente mit der spezifischen Eigenschaft in der
Stichprobe vorzufinden, beträgt dann: (Dichte)
M  N − M 
  ⋅ 

x   n − x 

P( X = x ) =
N
 
n
32
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
4.7.1 Hypergeometrische Verteilung
Erwartungswert und Varianz für X ~ H (n; N ; M ) :
µ = E(X ) = n ⋅
M
= n ⋅ p , wobei p = M = Anteil der Objekte mit
N
N
Eigenschaft A in der Grundgesamtheit
M  M  N −n
1 −  ⋅
N 
N  N −1
N −n
= n⋅ p⋅q⋅
, mit q = 1 − p
N −1
σ 2 = Var ( X ) = n ⋅
33
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
4.7.2 Binomialverteilung
Gegeben: - Ein Zufallsexperiment wird n-mal durchgeführt (unabhängig voneinander).
- Bei jeder der Durchführungen kann ein Ereignis A („Erfolg“) mit der
Wahrscheinlichkeit P(A) = p auftreten. Das Gegenereignis Ā („Misserfolg“)
tritt mit einer Wahrscheinlichkeit von P(Ā) = 1 – p auf.
Die Zufallsvariable X gibt an, wie oft bei den n Durchführungen das Ereignis A
eintritt. X = Anzahl „Erfolge“ (bei n-maliger Durchführung des Experiments)
Dann ist X binomialverteilt mit den Parametern n, p und man schreibt
X ~ B(n; p)
Die Wahrscheinlichkeit, dass das Ereignis A genau k-mal bei den n Durchführungen
des Zufallsexperimentes eintritt, beträgt (Dichte):
n
n −k
P ( X = k ) =   ⋅ p k ⋅ (1 − p )
k 
k = 0, 1, ..., n
Erwartungswert und Varianz für X ~ B(n; p):
µ = E(X) = n · p ,
σ2 = Var(X) = n · p · q mit
q=1–p
34
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
Typische Anwendungssituationen für die Binomialverteilung sind:
a) n unabhängige Wiederholungen eines Zufallsexperimentes
(z.B. Aufgabe 75: n-maliges Werfen eines Würfels mit X = Anzahl der Einsen)
b)
n-maliges Ziehen mit Zurücklegen aus einer endlichen Grundgesamtheit
(z.B. Aufgabe 70: n-maliges Ziehen von schwarzen Kugeln mit X = Anzahl der gezogenen
schwarzen Kugeln)
c)
n-maliges Ziehen ohne Zurücklegen aus einer unendlichen Grundgesamtheit
(z.B. Aufgabe 72: laufende Produktion oder Massenproduktion mit X = Anzahl der defekten Teile
in der Stichprobe)
d) Binomialverteilung B(n,p) als Näherung der hypergeometrischen Verteilung H(n;N;M).
Dabei ist p = M/N zu setzen.
Die Näherung ist erlaubt, falls N groß ist und n nicht zu groß ist,
n
Faustregel:
(verschieden Faustregeln in der Literatur!)
≤ 0,1
N
(D.h. Binomialverteilung als Näherung beim n-maligen Ziehen ohne Zurücklegen aus
einer endlichen aber sehr großen Grundgesamtheit bei kleinem Stichprobenumfang)
(z.B. Aufgabe 78: Lieferung sehr vieler Einheiten mit X = Anzahl der fehlerhaften Einheiten in
Stichprobe vom Umfang 60)
35
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
4.7.3 Poissonverteilung (Siméon Denis Poisson 1781-1840)
Gegeben:
Betrachtungseinheit wie z.B. Länge, Zeit oder Fläche
Eine mittlere Anzahl λ (lambda) von
Vorkommnissen pro Betrachtungseinheit
Betrachte die Zufallsvariable
X = Anzahl der Vorkommnisse pro Betrachtungseinheit
Dann sagt man, X ist Poissonverteilt mit dem Parameter λ
und schreibt
X ~ Po(λ)
Die Wahrscheinlichkeit, dass genau k
Vorkommnisse pro Betrachtungseinheit auftreten, beträgt
(Dichte):
P( X = k ) =
λk
k!
e −λ
36
Statistik, Prof. Dr. Karin Melzer
4.7. Spezielle diskrete Zufallsvariablen
4.7.3 Poisson-Verteilung
Erwartungswert und Varianz für X ~ Po(λ):
µ = E(X) = λ
σ2 = Var(X) = λ
Typische Anwendungssituationen sind:
a)
Beschreibung der Anzahl von Vorkommnissen (Unfälle, Fehler, Anrufe,…) pro
Betrachtungseinheit (Längen-, Zeit-, Flächeneinheit,…)
(z.B. Aufgabe 83)
b)
Poissonverteilung Po(λ) als Näherung für die Binomialverteilung B(n;p).
Näherung erlaubt, wenn n groß und p klein ist, Faustregel: n ≥ 30 und p ≤ 0,1
(verschieden Faustregeln in der Literatur!)
Dabei wird λ = np gesetzt.
(z.B. Aufgabe 81)
37
Statistik, Prof. Dr. Karin Melzer
4.8. Eigenschaften von Erwartungswert & Varianz
a)
Lineare Transformation:
Für eine beliebige Zufallsvariable X und Konstanten a,b ∊ ℝ gilt immer
E (aX + b ) = aE ( X ) + b
Var (aX + b ) = a 2Var ( X )
b)
c)
Summe von Zufallsvariablen:
Für zwei beliebige Zufallsvariablen X und Y gilt immer
E ( X + Y ) = E ( X ) + E (Y )
Für zwei unabhängige Zufallsvariablen X und Y gilt
Var ( X + Y ) = Var ( X ) + Var (Y )
Zwei diskrete Zufallsvariablen X und Y sind unabhängig, wenn
P (( X = xi ) ∩ (Y = yi )) = P ( X = xi ) ⋅ P (Y = yi )
Zwei beliebige Zufallsvariablen X und Y sind unabhängig, wenn
P (( X ≤ xi ) ∩ (Y ≤ yi )) = P ( X ≤ xi ) ⋅ P (Y ≤ yi )
Standardisierung von Zufallsvariablen:
Wenn E(X) = µ und Var(X) = σ2 , dann ist
Z=
X −µ
σ
eine Zufallsvariable mit
E (Z ) = 0
und Var ( Z ) = 1 .
38
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
•
Das Konzept der diskreten Zufallsgrößen
P( X = xi ) = pi > 0 , Σpi = 1 (Gewichte)
passt in vielen Situationen nicht:
-
•
•
•
•
Zeit bis zum Eintreten eines Ereignisses
(Ausfall eines Geräts, Antwort eines Servers)
Messungen auf kontinuierlicher Skala
(Größe, Gewicht, Widerstand, Spannung,…)
Beispiel:
P(Körpertemperatur übermorgen um 7:00 Uhr ist 36,457812 °C ) = ?
Es gibt keine Gewichte!
Modellvorstellungen mit Wahrscheinlichkeiten oder gar kombinatorischen
Berechnungen von Laplace-Wktn. sind hier nicht möglich!
Neue Vorstellung: Die Gewichte werden „verschmiert“, aus den {pi}
entsteht eine positive Funktion f , die Wahrscheinlichkeits-Dichte.
39
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
Die Wahrscheinlichkeits-Dichte
kann man sich vorstellen
als idealisiertes Histogramm
sehr viele Beobachtungen
viele Klassen
40
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
Definition:
Eine Zufallsvariable X ist eine stetige Zufallsvariable, wenn sie
•
jeden beliebigen Wert in einem Intervall annehmen kann,
das ist genau dann der Fall,
x
• wenn eine Funktion f ≥ 0 existiert, mit F ( x) = P( X ≤ x) = ∫ f (u )du
−∞
f heißt Dichtefunktion von X und
die Verteilungsfunktion F(x) = P(X ≤ x) ist eine stetige Funktion.
41
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
Folgerungen:
∞
•
•
∫ f (u)du = 1
−∞
F(x) = P(X ≤ x) entspricht dem Flächeninhalt unter dem Graphen von f im Intervall
von –∞ bis x bzw. der
„Fläche unter der Dichte links von x“:
x
F ( x) = P( X ≤ x) =
b
•
∫ f (u)du
−∞
P(a ≤ X ≤ b) = ∫ f ( x )dx = F (b) − F ( a )
a
P( X ≤ b) = F (b),
•
•
F (a ≤ X ) = 1 − F (a )
P(X=x) = 0 für alle x ∊ ℝ
P(X ≤ x) = P(X < x) und P(X ≥ x) = P(X > x)
jedes „≤“ darf für stetige ZV durch „<“ ersetzt werden.
•
F´(x) = f(x)
Ws-keiten werden durch Integration der Wkts-Dichte berechnet !
42
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
Berechnung von Kennzahlen und Wahrscheinlichkeiten einer diskreten
und stetigen Zufallsvariable X im Vergleich:
Ausdruck
Wert der
Verteilungsfunktion
an der Stelle x
Wahrscheinlichkeit
dafür, dass die
Zufallsvariable X
einen Wert zw. a und
b annimmt
Symbol
X diskret
FX ( x ) = P ( X ≤ x )
∑ P( X = k )
Erwartungswert
∫ f (u ) du
−∞
b
b
∑ P( X = k )
P(a ≤ X ≤ b )
∫ f (u ) du
k =a
a
∞
∑ x P( X = x )
µ = E(X )
σ 2 = Var ( X )
x
k≤x
i
∫ u ⋅ f (u ) du
i
i
∑ (x
Varianz
X stetig
−∞
− µ ) P ( X = xi ) =
2
i
i
∑x
2
i
P ( X = xi ) − µ
i
2
∞
∫ (u − µ ) f (u ) du =
2
−∞
∞
∫ u f (u ) du − µ
2
2
−∞
43
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
4.9.1. Beispiele für stetige Zufallsvariablen
a)
Gleichverteilung
Eine Zufallsvariable mit der Dichtefunktion
 1
,
f (x ) =  b − a
 0,
für a ≤ x ≤ b
sonst
heißt gleichverteilt auf dem Intervall [a,b].
Schreibweise: X ~ U(a,b)
Erwartungswert und Varianz sind in diesem Fall gegeben durch
(b − a )
a+b
µ=
und σ 2 =
2
12
2
44
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
4.9.1. Beispiele für stetige Zufallsvariablen
b)
Exponentialverteilung
Eine Zufallsvariable mit der Dichtefunktion
λe − λx , für x > 0
f (x ) = 
sonst
 0,
oder mit der Verteilungsfunktion
1 − e − λx , für x > 0
F (x ) = 
sonst
 0,
heißt exponentialverteilt mit Parameter λ.
Schreibweise: X ~ Exp(λ)
Für Erwartungswert und Varianz gilt:
µ=
1
λ
und σ 2 =
1
λ2
45
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
4.9.1. Beispiele für stetige Zufallsvariablen
c)
Normalverteilung
Eine Zufallsvariable X heißt normalverteilt mit Erwartungswert µ und Varianz σ2,
wenn für ihre Dichtefunktion gilt:
−
1
f (x ) =
⋅e
2π σ
( x − µ )2
2σ 2
Schreibweise: X ~ N(µ,σ2)
-
Erwartungswert µ und Varianz σ2 sind gegeben oder werden aus Daten über das
arithmetische Mittel und die empirische Varianz geschätzt
Die zugehörige Wahrscheinlichkeitsverteilung heißt Normalverteilung oder GaußVerteilung.
Der Graph der Dichtefunktion wird Gauß´sche Glockenkurve genannt.
46
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
4.9.1. Beispiele für stetige Zufallsvariablen
c)
Normalverteilung
Die Gauß´sche Glockenkurve besitzt die folgenden Eigenschaften:
sie ist symmetrisch zu x0=µ,
die einzige Maximumsstelle existiert bei x0=µ,
sie besitzt zwei Wendepunkte an den Stellen x1=µ + σ und x2=µ – σ,
Flächeninhalt unter der Gauß´schen Glockenkurve ist gleich 1 (d.h. eine schmale
Glockenkurve ist hoch, eine breite Glockekurve ist niedrig).
1
FX ( x) = P( X ≤ x) =
Die Verteilungsfunktion
σ ⋅ 2π
nur numerisch berechnet werden.
x
∫e
−
1 (t − µ )2
2 σ2
dt
kann
−∞
Für die Praxis werden deshalb Tabellen für die
Standardnormalverteilung N(0,1) verwendet.
(bzw. xls mit den Funktionen NORMVERT (Dichte/Verteilungsfunktion) oder
NORMINV (Quantile))
47
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
Verteilungsfunktion Φ(z ) der StandardNormalverteilung N(0; 1)
z
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
0
0,5000
0,5398
0,5793
0,6179
0,6554
0,6915
0,7257
0,7580
0,7881
0,8159
0,8413
0,8643
0,8849
0,9032
0,9192
0,9332
0,9452
0,9554
0,9641
0,9713
0,9772
0,9821
0,9861
0,9893
0,9918
0,9938
0,9953
0,9965
0,9974
0,9981
0,9987
1
0,5040
0,5438
0,5832
0,6217
0,6591
0,6950
0,7291
0,7611
0,7910
0,8186
0,8438
0,8665
0,8869
0,9049
0,9207
0,9345
0,9463
0,9564
0,9649
0,9719
0,9778
0,9826
0,9864
0,9896
0,9920
0,9940
0,9955
0,9966
0,9975
0,9982
0,9987
2
0,5080
0,5478
0,5871
0,6255
0,6628
0,6985
0,7324
0,7642
0,7939
0,8212
0,8461
0,8686
0,8888
0,9066
0,9222
0,9357
0,9474
0,9573
0,9656
0,9726
0,9783
0,9830
0,9868
0,9898
0,9922
0,9941
0,9956
0,9967
0,9976
0,9982
0,9987
3
0,5120
0,5517
0,5910
0,6293
0,6664
0,7019
0,7357
0,7673
0,7967
0,8238
0,8485
0,8708
0,8907
0,9082
0,9236
0,9370
0,9484
0,9582
0,9664
0,9732
0,9788
0,9834
0,9871
0,9901
0,9925
0,9943
0,9957
0,9968
0,9977
0,9983
0,9988
4
0,5160
0,5557
0,5948
0,6331
0,6700
0,7054
0,7389
0,7704
0,7995
0,8264
0,8508
0,8729
0,8925
0,9099
0,9251
0,9382
0,9495
0,9591
0,9671
0,9738
0,9793
0,9838
0,9875
0,9904
0,9927
0,9945
0,9959
0,9969
0,9977
0,9984
0,9988
5
0,5199
0,5596
0,5987
0,6368
0,6736
0,7088
0,7422
0,7734
0,8023
0,8289
0,8531
0,8749
0,8944
0,9115
0,9265
0,9394
0,9505
0,9599
0,9678
0,9744
0,9798
0,9842
0,9878
0,9906
0,9929
0,9946
0,9960
0,9970
0,9978
0,9984
0,9989
6
0,5239
0,5636
0,6026
0,6406
0,6772
0,7123
0,7454
0,7764
0,8051
0,8315
0,8554
0,8770
0,8962
0,9131
0,9279
0,9406
0,9515
0,9608
0,9686
0,9750
0,9803
0,9846
0,9881
0,9909
0,9931
0,9948
0,9961
0,9971
0,9979
0,9985
0,9989
7
0,5279
0,5675
0,6064
0,6443
0,6808
0,7157
0,7486
0,7794
0,8078
0,8340
0,8577
0,8790
0,8980
0,9147
0,9292
0,9418
0,9525
0,9616
0,9693
0,9756
0,9808
0,9850
0,9884
0,9911
0,9932
0,9949
0,9962
0,9972
0,9979
0,9985
0,9989
8
0,5319
0,5714
0,6103
0,6480
0,6844
0,7190
0,7517
0,7823
0,8106
0,8365
0,8599
0,8810
0,8997
0,9162
0,9306
0,9429
0,9535
0,9625
0,9699
0,9761
0,9812
0,9854
0,9887
0,9913
0,9934
0,9951
0,9963
0,9973
0,9980
0,9986
0,9990
9
0,5359
0,5753
0,6141
0,6517
0,6879
0,7224
0,7549
0,7852
0,8133
0,8389
0,8621
0,8830
0,9015
0,9177
0,9319
0,9441
0,9545
0,9633
0,9706
0,9767
0,9817
0,9857
0,9890
0,9916
0,9936
0,9952
0,9964
0,9974
0,9981
0,9986
0,9990
Ablesebeispiel: Φ (0,92) = 0,8212
Werte für
negatives z mit der Formel Φ (− z ) = 1 − Φ ( z ) , z. B.
Φ( −1,55) = 1 − 0,9394 = 0,0606
48
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
4.9.1. Beispiele für stetige Zufallsvariablen
d)
Standardnormalverteilung
Eine Zufallsvariable Z heißt standardnormalverteilt, wenn Z~N(0,1).
In diesem Fall gilt für ihre Dichtefunktion:
2
z
−
1
f (z ) =
⋅e 2
2π
Die Verteilungsfunktion lautet:
1
Φ (z ) = P (Z ≤ z ) =
2π
z
∫e
−
t2
2
dt
−∞
Die Standardnormalverteilung ist symmetrisch, d. h.
-
f(z) = f(-z) und
-
Φ(-z) = 1 – Φ(z)
49
Statistik, Prof. Dr. Karin Melzer
4.9. Stetige Zufallsvariablen
4.9.1. Beispiele für stetige Zufallsvariablen
d)
Standardnormalverteilung
Umrechnung Normalverteilung in Standardnormalverteilung:
X −µ
Ist X~N(µ,σ2). Dann ist die Zufallsvariable Z =
σ
(Standardisierung s. Abschnitt 4.8).
~ N (0,1)
Für die Verteilungsfunktionen gilt dann:
x−µ
FX (x ) = P ( X ≤ x ) = Φ 
 = P (Z ≤ z )
 σ 
Anwendung: diese Formel wird für die Berechnung von
Wahrscheinlichkeiten für normalverteilte ZVen benutzt.
50
Statistik, Prof. Dr. Karin Melzer
4.10. Quantile der Standardnormalverteilung &
Zufallsstreubereiche
4.10.1. Quantile der Standardnormalverteilung
Die Zahl z mit P(Z ≤ z) = 0,95 heißt das 95 %-Quantil der (Standard)Normalverteilung.
Der Zahlenwert dieses Quantils ist 1,645; man schreibt hierfür
z0,95 = 1,645.
Entsprechend sind das 99 %-Quantil und weitere Quantile definiert.
Die wichtigsten Quantile stehen in einer Tabelle zur Verfügung.
Allgemein:
Für eine Zufallsvariable Z ~ N(0;1) heißt die Zahl zp mit
für 0 ≤ p ≤ 1
P(Z ≤ zp) = Φ(zp) = p
das p-Quantil der Standardnormalverteilung.
Statistik, Prof. Dr. Karin Melzer
51
4.10. Quantile der Standardnormalverteilung &
Zufallsstreubereiche
Quantile
der t-Verteilung mit m Freiheitsgraden und
2,326
0,99
31,821
6,965
4,541
3,747
3,365
3,143
2,998
2,896
2,821
2,764
2,718
2,681
2,650
2,624
2,602
2,583
2,567
2,552
2,539
2,528
2,518
2,508
2,500
2,492
2,485
2,479
2,473
2,467
2,462
2,457
2,438
2,423
2,412
2,403
2,390
2,381
2,374
2,368
2,364
2,345
2,334
2,576
0,995
63,656
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3,169
3,106
3,055
3,012
2,977
2,947
2,921
2,898
2,878
2,861
2,845
2,831
2,819
2,807
2,797
2,787
2,779
2,771
2,763
2,756
2,750
2,724
2,704
2,690
2,678
2,660
2,648
2,639
2,632
2,626
2,601
2,586
3,090
0,999
318,289
22,328
10,214
7,173
5,894
5,208
4,785
4,501
4,297
4,144
4,025
3,930
3,852
3,787
3,733
3,686
3,646
3,610
3,579
3,552
3,527
3,505
3,485
3,467
3,450
3,435
3,421
3,408
3,396
3,385
3,340
3,307
3,281
3,261
3,232
3,211
3,195
3,183
3,174
3,131
3,107
der Standard-Normalverteilung (NV)
1,960
0,975
12,706
4,303
3,182
2,776
2,571
2,447
2,365
2,306
2,262
2,228
2,201
2,179
2,160
2,145
2,131
2,120
2,110
2,101
2,093
2,086
2,080
2,074
2,069
2,064
2,060
2,056
2,052
2,048
2,045
2,042
2,030
2,021
2,014
2,009
2,000
1,994
1,990
1,987
1,984
1,972
1,965
Quantile
1,645
0,95
6,314
2,920
2,353
2,132
2,015
1,943
1,895
1,860
1,833
1,812
1,796
1,782
1,771
1,761
1,753
1,746
1,740
1,734
1,729
1,725
1,721
1,717
1,714
1,711
1,708
1,706
1,703
1,701
1,699
1,697
1,690
1,684
1,679
1,676
1,671
1,667
1,664
1,662
1,660
1,653
1,648
q
1,282
0,9
3,078
1,886
1,638
1,533
1,476
1,440
1,415
1,397
1,383
1,372
1,363
1,356
1,350
1,345
1,341
1,337
1,333
1,330
1,328
1,325
1,323
1,321
1,319
1,318
1,316
1,315
1,314
1,313
1,311
1,310
1,306
1,303
1,301
1,299
1,296
1,294
1,292
1,291
1,290
1,286
1,283
.
0,842
und
0,8
1,376
1,061
0,978
0,941
0,920
0,906
0,896
0,889
0,883
0,879
0,876
0,873
0,870
0,868
0,866
0,865
0,863
0,862
0,861
0,860
0,859
0,858
0,858
0,857
0,856
0,856
0,855
0,855
0,854
0,854
0,852
0,851
0,850
0,849
0,848
0,847
0,846
0,846
0,845
0,843
0,842
;
NV
;
mit den Formeln
m
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
35
40
45
50
60
70
80
90
100
200
500
Ablesebeispiele:
Beispiele hierfür:
Werte für
Statistik, Prof. Dr. Karin Melzer
52
4.10. Quantile der Standardnormalverteilung &
Zufallsstreubereiche
4.10.2. Zufallsstreubereich oder Prognoseintervall
Unter einem Zufallsstreubereich oder einem Prognoseintervall einer normalverteilten
Zufallsvariable X versteht man ein Intervall um den Erwartungswert µ, indem sich die
Ausprägungen von X mit einer Wahrscheinlichkeit p (z. B. p = 90%, 98%, 99%) befinden.
⇒ Die Ausprägungen von X befinden sich außerhalb des Zufallsstreubereiches mit einer
Wahrscheinlichkeit von α =1-p.
Zufallsstreubereiche können die folgende Form annehmen:
a) Zweiseitiger Zufallsstreubereich für X~N(µ;σ2):
[µ − z
1−α2
⋅σ; µ + z1−α ⋅σ
2
]
b) Einseitig nach oben beschränkter Zufallsstreubereich für X~N(µ;σ2):
(− ∞; µ + z1−α ⋅ σ ]
c) Einseitig nach unten beschränkter Zufallsstreubereich für X~N(µ;σ2):
[µ − z1−α ⋅ σ ; ∞ )
53
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
Einführendes Beispiel (1)
Sie arbeiten in einer Firma, deren Gewinn im nächsten Jahr folgendermaßen
modelliert werden kann: drehen Sie ein Glücksrad, das Werte zwischen 0
und 1 liefert, und multiplizieren Sie diesen Wert mit 1 Mio. (d. h. der Gewinn
liegt zw. 0 und 1 Mio. EUR).
Ihr Risiko: Beträgt der Gewinn weniger als 200.000 €, bekommen Sie keinen
Bonus.
Fragen:
• Wie hoch wäre der durchschnittliche Gewinn, wenn diese Situation
wiederholt auftritt?
• Wie groß ist die Wkt., dass Sie keinen Bonus bekommen?
• Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Was sollten Sie ihm
antworten?
• Wie würde ein Histogramm aussehen, das die Prozentanteile dafür zeigt,
dass der Gewinn in die folgenden Klassen fällt:
0 − 0,2
0,2 − 0,4
0,4 − 0,6
0,6 − 0,8
0,8 − 1
54
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
Einführendes Beispiel (2)
Jetzt: Durchschnittsbildung Bei der Bildung eines Durchschnitts von
Zufallszahlen wird die Unsicherheit reduziert („Diversifizierung“)
Modifizieren Sie die Gewinnfunktion: bilden Sie den Durchschnitt aus dem
Ergebnis von zwei Glücksrädern und multiplizieren Sie diesen Wert mit 1
Mio.
Beträgt der Gewinn weniger als 200.000 €, bekommen Sie keinen Bonus.
Fragen (wie vorher):
• Wie hoch wäre der durchschnittliche Gewinn, wenn diese Situation
wiederholt auftritt?
• Wie groß ist die Wkt., dass Sie keinen Bonus bekommen?
• Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Was sollten Sie ihm
antworten?
• Wie würde ein Histogramm aussehen, das die Prozentanteile dafür zeigt,
dass der Gewinn in die folgenden Klassen fällt:
0 − 0,2
0,2 − 0,4
0,4 − 0,6
0,6 − 0,8
0,8 − 1
55
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
Einführendes Beispiel (3)
Simulation mit xls: zufallszahl() erzeugt zufällige Zahlen zwischen 0 und 1. Mit <F9>
kontrollieren, ob‘s funktioniert (Werte müssen sich ändern).
Fragen (wie vorher):
• Durchschnittlicher Gewinn: Wie im ersten Fall: 0,5 Millionen (Erwartungswert)
• Wkt., dass kein Bonus gezahlt wird: Wesentlich kleiner als im 1. Fall (s. Histogramm)
• Ihr Chef fragt nach „einer Zahl“ für den Gewinn.
Wenn es um Zufallszahlen geht, sollte man den Chef daran gewöhnen, besser zu
fragen „Wie ist die Verteilung?“
Histogramm
anstatt „Was ist die Zahl?“
40,00%
• Beispiel für Histogramm mit
35,00%
prozentualer Verteilung des
30,00%
Gewinns:
Warum geht das Histogramm in
der Mitte nach oben?
Noch wichtiger: was bedeutet das?
Prozent
25,00%
20,00%
15,00%
10,00%
5,00%
0,00%
0 - 0,2
0,2 - 0,4
0,4 - 0,6
0,6 - 0,8
0,8 - 1
Gewinn in Mio.
56
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
Einführendes Beispiel (4)
Warum geht das Histogramm in der Mitte nach oben?
Würfeln mit einem Würfel: Werte von 1 bis 6 mit gleicher Wkt. 1/6:
1/6
1
2
3
4
5
6
Würfeln mit 2 Würfeln: Werte zwischen 2 und 12 mit unterschiedlicher Wkt.
6/36
43
5/36
33
34
44
32
42
52
53
54
22
23
24
25
35
45
55
21
31
41
51
61
62
63
64
65
12
13
14
15
16
26
36
46
56
4/36
3/36
2/36
1/36
11
66
Glücksrad: Angenommen, die Glücksräder drehen sich in 1/100-tel-Abschnitten.
Wie bekommt man 0: nur als Mittelwert von 0 und 0
Wie bekommt man 0,5: Mittelwert von 0 und 1, 0,01/0,99, 0,02/0,98, etc.
D.h. die Form der Verteilung ändert sich, wenn man den Mittelwert von ZV bildet.
57
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
Einführendes Beispiel (5)
Welche Bedeutung hat die Änderung der Verteilung zur Mitte hin?
Histogramm:
• wenn der Balken in der Mitte höher wird, müssen die Balken an den Enden kleiner
werden (Summe: 100%)
• Das Risiko, keinen Bonus zu bekommen wird also kleiner.
Allgemein:
• Wenn man den Durchschnitt von Zufallsvariablen bildet, wird die Verteilung des
Durchschnitts in der Mitte höher und an den Enden niedriger, d.h. die Verteilung wird
mehr zentralisiert.
• Die Streuung einer Verteilung ist ein Maß für die Unsicherheit einer Zufallsvariablen.
• Je breiter die Verteilung, desto größer ist die Varianz bzw. Std.abweichung und damit
desto größer ist die Unsicherheit.
• Je schmaler die Verteilung, desto kleiner ist die Varianz bzw. Std.abweichung und
damit desto kleiner ist die Unsicherheit.
• ZGWS: bildet man die Summe o. den Durchschnitt über genügend viele unabhängige
Zufallsvariablen (die Verteilung ist dabei egal), so erhält man eine Normalverteilung!
58
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
4.11.1. Summe/Durchschnitt normalverteilter Zufallsvariablen (ZV)
Sind X1, X2, X3, … Xn unabhängige (!) und normalverteilte Zufallsvariablen mit versch.
Erwartungswerten µ1, µ2, µ3, …, µn und Standardabweichungen σ1, σ2, σ3, …, σn , dann gilt:
Sn = X1+ X2+X3+… +Xn ~ N(µ1+µ2+µ3+ …+µn ; σ12 + σ22 + σ32 + …+ σn2 )
Insbesondere heißt das, wenn X1 und X2 unabhängig und normalverteilt sind:
X1+ X2 ~ N(µ1 + µ2; σ12 + σ22 )
X1 – X2 ~ N(µ1 – µ2; σ12 + σ22 )
(Achtung: „+“ bei der Varianz)
Jetzt: gleiche Erwartungswerte µ1= µ2 = µ3 = …= µn = µ und σ12 = σ22 = σ32 = …= σn2 =σ2
Sn = X1+ X2+X3+… +Xn ~ N(nµ ; nσ2 )
D = 1/n (X1+ X2+X3+… +Xn) ~ N(µ ; σ2/n )(Durchschnitt normalverteilter ZV)
(Summe normalverteilter ZV)
59
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
4.11.2. Der zentrale Grenzwertsatz: Summe/Durchschnitt nicht
normalverteilter Zufallsvariablen
Sind X1, X2, X3, … Xn (nicht notwendigerweise normalverteilte)
Zufallsvariablen, die unabhängige Durchführungen desselben
Zufallsexperimentes beschreiben,
mit gleichen Erwartungswerten E(X1)= E(X2)=…=E(Xn) = µ und
gleichen Varianzen Var(X1)=Var(X2)=…=Var(Xn)= σ2,
dann gilt für große n:
X 1 + X 2 + ... + X n ≈ N (nµ ; nσ 2 )
 σ2 
X 1 + X 2 + ... + X n
≈ N  µ ; 
n
 n 
Insbesondere bedeutet das, dass eine Summe vieler unabhängiger Größen
näherungsweise normalverteilt ist, selbst wenn die einzelnen Summanden nicht
normalverteilt sind.
60
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
4.11.2. Beispiele des zentralen Grenzwertsatzes
a) Näherung der Binomialverteilung durch die Normalverteilung
0
0
0,45
0,25
0,4
0,35
0,2
0,3
0,15
0,25
0,2
0,1
0,15
0,1
0,05
0,05
0
0
0
0
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
0
61
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
4.11.2. Beispiele des zentralen Grenzwertsatzes
b) Näherung einer Summe von Gleichverteilungen
durch die Normalverteilung
1,2
1,2
1
1
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0
0
0,7
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
-0,2
0,45
0,6
0,4
0,35
0,5
0,3
0,4
0,25
0,3
0,2
0,15
0,2
0,1
0,1
0,05
0
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
0
62
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
4.11.2. Stetigkeitskorrektur
Wird eine diskrete Zufallsvariable X, die nur ganzzahlige Werte annehmen kann, durch
eine Normalverteilung approximiert, sollten Wahrscheinlichkeiten mit den Formeln
 a − µ − 0,5 
 b − µ + 0,5 
P ( a ≤ X ≤ b) ≈ Φ 

 − Φ
σ
σ




P ( X ≤ b)
P(a ≤ X )
 b − µ + 0,5 
≈ Φ

σ


 a − µ − 0,5 
≈ 1 − Φ

σ


berechnet werden.
Achtung: Bei diesen Formeln darf „≤“ nicht durch „<“ ersetzt werden.
Die Summanden „+0,5“ bzw. „–0,5“ nennt man „Stetigkeitskorrektur“.
Sie sind erforderlich, wenn eine diskrete Zufallsvariable X mit ganzzahligen Werten
durch eine stetige Zufallsvariable (Normalverteilung) angenähert wird.
63
Statistik, Prof. Dr. Karin Melzer
4.11. Der Zentrale Grenzwertsatz
4.11.2. Approximation von BV, PV, HV durch die Normalverteilung
a)
B(n;p) ≈ N(µ;σ2) mit µ = n·p und σ2 = n·p·q, wobei q = 1 – p.
Faustregel: Approximation ist gültig für n·p·q ≥ 9.
b)
Po(λ) ≈ N(µ;σ2) mit µ = λ und σ2 = λ.
Faustregel: Approximation ist gültig für λ ≥ 9.
c)
H(n;M;N) ≈ N(µ;σ2) mit µ = n·p und σ2 = n·p·q·(N – n)/(N – 1), wobei p = M/N und
q = 1 – p.
Faustregel: Approximation ist gültig für n/N ≤ 0,05 und n·p·q ≥ 9.
Merke: Alle Faustregeln bedeuten σ ≥ 3.
In allen drei Fällen ist die Stetigkeitskorrektur bei der Berechnung der
Wahrscheinlichkeiten zu beachten.
64
Statistik, Prof. Dr. Karin Melzer
Herunterladen