Statistik 4.1. Zufallsexperiment und Ereignisse

Werbung
Statistik
Kapitel 4:
Wahrscheinlichkeitsrechnung und Kombinatorik
4.1. Zufallsexperiment und Ereignisse
» Zufallsexperiment: drei Eigenschaften notwendig
» Alle möglichen Ergebnisse des Experiments sind vorab bekannt.
» Das Ergebnis eines einzelnen Experiments kann nicht vorhergesagt
werden (Zufälligkeit).
» Das Experiment kann unter identischen Bedingungen beliebig oft
wiederholt werden.
» Realisierung eines Zufallsexperiments/Versuchsausgang
» Das Ergebnis der tatsächlichen Durchführung eines Zufallsexperiments.
» Ergebnismenge (Ereignismenge, Ereignisraum, Menge der
Grundergebnisse) Ω
» Die Menge aller möglichen (einfachen) Ergebnisse des Zufallsexperiments
wird Ergebnismenge (Ereignismenge, Ereignisraum) genannt.
» Sie wird mit Ω bezeichnet.
» Bei jeder Durchführung tritt genau einer der zu Ω gehörenden Ausgänge
ein.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
2
4.1. Zufallsexperiment und Ereignisse
» Ereignis: ein Ereignis A ist eine Teilmenge der Ergebnismenge Ω,
also A ⊆ Ω
» Wir sagen:
» Das Ereignis A ist eingetreten, wenn das Ergebnis des
Zufallsexperiments ein Element von A ist.
» ω∊A ⊆Ω
⇒
A ist eingetreten
» ω∉A ⊆Ω
⇒
A ist nicht eingetreten
» Sicheres Ereignis: Ω
» Die Menge Ω stellt das Ereignis dar, das in jedem Fall eintritt
» Unmögliches Ereignis: ∅
» Tritt nie ein, leere Menge { } bzw. ∅ ⊆ Ω
» Beachten Sie:
» „Versuchsausgang“ bzw. „Ergebnis eines Zufallsexperiments“
ist nicht das Gleiche wie „Ereignis“!
» Mit jedem Versuchsausgang treten gewisse Ereignisse ein und andere
nicht.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
4.2. Laplace
-
3
Experiment
» Ein Laplace-Experiment ist ein Zufallsexperiment mit den
folgenden Eigenschaften:
» Das Zufallsexperiment hat nur endlich viele mögliche Ergebnisse
» Jedes dieser Ergebnisse ist gleich wahrscheinlich
» Grundformel für Wahrscheinlichkeiten bei LaplaceExperimenten
» Die Wahrscheinlichkeit P(A) eines beliebigen Ereignisses A ⊆ Ω
berechnet sich als
P( A) =
A
Anzahl der Ergebnisse in A
k
=
=
n Anzahl aller möglichen Ergebnisse Ω
» wobei
k = |A|: Anzahl der Elementarereignisse/Elemente in A
n = |Ω|: Anzahl der Elementarereignisse/Elemente in Ω
» Es handelt sich nur um verschiedene gebräuchliche
Darstellungsformen
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
4
4.3. Kombinatorik
(„Kunst des Abzählens“)
» Um bei einem Laplace-Experiment die Wahrscheinlichkeit eines
Ereignisses richtig zu berechnen, muss man die Anzahl der möglichen
und günstigen Ergebnisse in A abzählen – das ist eine
kombinatorische Fragestellung
Kombinatorik = Lehre des Abzählens.
Definition: Fakultät
» n! = 1 · 2 · 3 · … · n (lies: n Fakultät) und
» 0! = 1 (per Definition)
» Berechnung von n! mit TR mindestens bis 69! i. d. R. möglich
» für größere n näherungsweise mit der Formel von Stirling;
lg = Logarithmus zur Basis 10 – TR: log-Taste
1
n
lg(n! ) ≈ lg(2π n ) + n lg 
2
e
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
5
4.3. Kombinatorik: Permutationen
(„Kunst des Abzählens“)
4.3.1 Permutationen
» Permutation = Anzahl der möglichen Anordnungen oder
Vertauschungen
» Permutationen ohne Wiederholung
» Wie viele Möglichkeiten gibt es, n verschiedene Objekte
anzuordnen (o. Wdh. = alle Elemente verschieden)?
Anzahl Möglichkeiten: n! (lies: n Fakultät)
» Permutationen mit Wiederholung
» Von Objekt 1 gibt es n1 (gleiche) Exemplare, von Objekt 2 gibt es n2
(gleiche) Exemplare, …, von Objekt k gibt es nk gleiche Exemplare.
» Auf wie viele Arten kann man die n = n1 + … + nk Objekte anordnen?
n!
» Anzahl der möglichen Anordnungen:
n1!⋅n2!⋅K ⋅ nk !
» Durch die ni! Möglichkeiten der Anordnung in jeder Klasse muss
man dividieren.
» Achtung: nicht alle Objekte verschieden
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
6
4.3. Kombinatorik: Grundprobleme
(„Kunst des Abzählens“)
4.3.2 Die vier Grundprobleme der Kombinatorik
» Grundaufgabe: Aus n verschiedenen Objekten werden k
ausgewählt. Wie viele Möglichkeiten gibt es?
» Die Antwort auf diese Frage hängt davon ab,
» ob die Reihenfolge des Auswählens eine Rolle spielt
(„mit Beachtung der Reihenfolge“, „geordnet“) oder nicht
(„ohne Beachtung der Reihenfolge“, ungeordnet)
» ob ein Objekt mehrfach ausgewählt werden darf
(„mit Wiederholung“, „Ziehen mit Zurücklegen“) oder nicht
(„ohne Wiederholung“, Ziehen ohne zurücklegen“).
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
7
4.3. Kombinatorik: Grundprobleme
(„Kunst des Abzählens“)
Anzahl der Möglichkeiten bei den vier Grundaufgaben:
» Ziehen mit Zurücklegen mit Beachtung der Reihenfolge
N = nk
» Ziehen ohne Zurücklegen mit Beachtung der Reihenfolge
n!
(n − k )!
n! Möglichkeiten (Permutation)
( n )k = n ⋅ (n − 1) ⋅ K ⋅ ( n − k + 1) =
» Sonderfall für k = n:
» Ziehen ohne Zurücklegen ohne Beachtung der Reihenfolge
 n  n ⋅ (n − 1) ⋅ K ⋅ ( n − k + 1)
n!
  =
=
1⋅ 2 ⋅K⋅ k
( n − k )!⋅k!
k 
(k ≤ n )
» Sprechweise: Binomialkoeffizient  n 
 
„n über k“
k 
» Ziehen mit Zurücklegen ohne Beachtung der Reihenfolge
 n + k − 1 ( n + k − 1)!

 =
 k
 ( n − 1)!⋅k!
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
8
4.3. Kombinatorik: Grundprobleme
(„Kunst des Abzählens“) Übersicht
Stichprobenauswahl
k aus n
mit Zurücklegen
ohne
Zurücklegen
geordnet/mit
Beachtung
der Reihenfolge
n
k
ungeordnet/ohne
Beachtung
der Reihenfolge
 n + k − 1


k


n!
= (n )k
(n − k )!
n
 
k 
mit unterscheidbaren Kugeln
nicht
unterscheidbare Kugeln
mit Mehrfachbesetzung
ohne
Mehrfachbesetzungen
Verteilen von k
Kugeln auf n
Zellen
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
9
4.4. Eigenschaften von
Wahrscheinlichkeiten
» Zufällige Ereignisse → keine exakten Voraussagen möglich.
» In der Mathematik: Man möchte zumindest ein Maß für die Sicherheit
(oder Unsicherheit) anzugeben, die mit einer Aussage verbunden ist.
Ein solches Maß ist die Wahrscheinlichkeit.
» Die Wahrscheinlichkeitsrechnung ordnet jedem Ereignis eine
Wahrscheinlichkeit für sein Eintreten zu.
» Die dem Ereignis A zugeschriebene Wahrscheinlichkeit wird mit P(A)
bezeichnet (P von engl. probability).
» Die Wahrscheinlichkeit für das Eintreten eines Ereignisses A ist immer
eine reelle Zahl, für die gilt
0 ≤ P(A) ≤ 1
» Zwei Extremfälle kennzeichnen Sicherheit:
» Ist P(A) = 1, so tritt A mit Sicherheit ein.
» Ist P(A) = 0, so tritt A mit Sicherheit nicht ein.
» Werte dazwischen drücken Grade an Sicherheit aus.
» Je größer die Wahrscheinlichkeit P(A), umso „eher“ ist anzunehmen,
dass das Ereignis A eintritt.
» Was aber bedeutet das genau? Wie sind die Grade an Sicherheit, die
durch Wahrscheinlichkeiten ausgedrückt werden, definiert?
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
10
4.4. Eigenschaften von
Wahrscheinlichkeiten
4.4.1. Wahrscheinlichkeit und relative Häufigkeit
»
»
»
»
Wahrscheinlichkeit ist eine Konstante
relative Häufigkeit hängt vom Zufall (konkreter Ausgang der Experimente) ab
Im Allgemeinen ist daher P(A) ≠ hn(A)
Beispiel: Werfen eines gezinkten Würfels
Versuchsreihe 1
n
Versuchsreihe 2
Anzahl der
Würfe
Absolute
Häufigkeit von
„6“
Relative
Häufigkeit von
„6“
Absolute
Häufigkeit von
„6“
Relative
Häufigkeit von
„6“
10
2
0,2
4
0,4
50
15
0,3
19
0,38
100
26
0,26
31
0,31
1000
248
0,248
252
0,252
» Auf lange Sicht scheint 6 mit einer relativen Häufigkeit von 0,25 aufzutreten.
» In der Praxis: Wahrscheinlichkeit eines Ereignisses ≈ relative Häufigkeit dieses
Ereignisses in einer großen Anzahl von Versuchen (Näherungswert)
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
11
4.4. Eigenschaften von
Wahrscheinlichkeiten
4.4.1 Wahrscheinlichkeit und relative Häufigkeit
» Wenn man P(A) nicht ausrechnen kann, aber ein Zufallsexperiment n
mal durchführt, kann man P(A) durch die relative Häufigkeit schätzen.
» Nach dem Gesetz der großen Zahlen wird diese Schätzung um so
besser sein, je größer n ist.
» Definition der Wahrscheinlichkeit:
» Die Wahrscheinlichkeit eines Ereignisses ist die für eine gegen
unendlich strebende Anzahl n von Durchführungen des betreffenden
Zufallsexperiments vorausgesagte relative Häufigkeit seines
Eintretens.
fn =
hn
n
→ P( A) für n → ∞
» Das Maß für die Sicherheit, mit dem gezinkten Würfel eine 6 zu
würfeln, könnte man so formulieren (die Wkt., eine 6 zu würfeln,
beträgt bei dem gezinkten Würfel ¼):
» "Unter einer sehr großen Zahl n von Würfel-Versuchen wird
ungefähr n/4 mal die Augenzahl 6 auftreten".
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
12
4.4.2 Schranken für
Wahrscheinlichkeiten
» Die Wahrscheinlichkeit eines Ereignisses A ⊆ Ω liegt
immer zwischen 0 und 1:
0 ≤ P(A) ≤ 1
» P(A) = 0 gilt für ein unmögliches Ereignis
» P(A) = 1 gilt nur für ein mit Sicherheit eintretendes Ereignis.
» Beispiel „Würfeln“
» A = Augenzahl größer als 7; dann ist P(A) = 0
» B = Augenzahl kleiner als 7; dann ist P(B) = 1
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
13
4.4.3 Wahrscheinlichkeiten für
zusammengesetzte Ereignisse
Gegenereignis und zusammengesetzte Ereignisse
» Man kann Ereignisse miteinander verknüpfen, um
andere/komplexere Ereignisse zu erhalten.
» Seien A und B Ereignisse mit A, B ⊆ Ω .
a) „nicht A“ = Ā = Ω\A
d.h. A tritt nicht ein, Gegenereignis von A
b) „A und B“ = A ⋂ B (Durchschnitt)
d.h. A und B treten beide ein; sowohl A als auch B tritt ein
c) „A oder B“ = A ⋃ B (Vereinigung)
d.h. A tritt ein oder B tritt ein oder beide treten ein
Tipp: Benutzen Sie a) – c), um Text in Formeln umzuwandeln.
» Die Ereignisse A und B heißen unvereinbar, wenn A ⋂ B = { }
d.h. A und B haben keine gemeinsamen Elemente.
» Die Ereignisse A und B heißen vereinbar, wenn A ⋂ B ≠ { }.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
14
4.4.3 Wahrscheinlichkeiten für
zusammengesetzte Ereignisse
Wahrscheinlichkeiten zusammengesetzter Ereignisse
» Wkt. des Gegenereignisses Ā von A:
P(Ā) = 1 – P(A)
» P(A ⋂ B) – Multiplikationssatz:
» Multiplikationssatz allgemein:
P(A ⋂ B) = P(A) · P(B|A) = P(B) · P(A|B)
» Multiplikationssatz für unabhängige Ereignisse: P(A ⋂ B) = P(A) · P(B)
Dabei ist P(B|A) (lies: „Wahrscheinlichkeit von B unter der Bedingung A“)
die Wahrscheinlichkeit, dass B eintritt, wenn sicher ist, dass A eintritt bzw.
eingetreten ist.
Wenn sich zwei Ereignisse (definitiv) nicht beeinflussen, spricht man von
unabhängigen Ereignissen, dann gilt P(B|A) = P(B).
» P(A ⋃ B) – Additionssatz:
» Additionssatz allgemein:
P(A ⋃ B) = P(A) + P(B) – P(A ⋂ B )
» Additionssatz für unvereinbare Ereignisse (c)):P(A ⋃ B) = P(A) + P(B)
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
15
4.4.3 Wahrscheinlichkeiten für
zusammengesetzte Ereignisse
Bemerkung/Beispiel: (un)abhängige Ereignisse
» In einer Urne befinden sich zwei weiße und drei schwarze
Kugeln. Zwei Kugeln werden nacheinander gezogen
a) mit Zurücklegen
b) ohne Zurücklegen
» Wie groß ist die Wahrscheinlichkeit, dass beide weiß sind?
» Ereignisse W1 = „erste Kugel weiß“ , W2= „zweite Kugel
weiß“
a) W1 und W2 sind unabhängig, wenn mit Zurücklegen gezogen
wird.
P(W1) =
P(W2) =
P(W1 ∩ W2) =
b) Die Wahrscheinlichkeit für W2 hängt davon ab, ob im ersten Zug
eine weiße Kugel gezogen wurde, oder nicht. W1 und W2 sind
abhängig, wenn ohne Zurücklegen gezogen wird.
P(W1) =
P(W2|W1) =
P(W1 ∩ W2) =
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
16
4.4.3 Wahrscheinlichkeiten für
zusammengesetzte Ereignisse
» Wann dürfen Sie die Wahrscheinlichkeiten von zwei Ereignissen
einfach
» addieren?
» multiplizieren?
» Beispiel:
» Ein zufällig gewählter PC besitze
» mit Ws-keit 0,5 eine Festplatte mit mind. 80GB,
» mit Ws-keit 0,4 einen Flachbildschirm und
» mit Ws-keit 0,2 beide Eigenschaften.
» P(PC hat mindestens eine der Eigenschaften) = ?
» P(PC hat Festplatte mit mind. 80GB aber keinen Flachbildschirm)
=?
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
17
4.4.4 Wahrscheinlichkeiten bei
mehrstufigen Zufallsexperimenten
» Zufallsexperimente, die aus Einzelversuchen aufgebaut sind, die
nacheinander oder gleichzeitig durchgeführt werden, kann man als
Baumdiagramm darstellen.
» Knoten: Eregnisse
» Entlang der Pfade werden die
Wahrscheinlichkeiten aufgetragen
Berechnung von Wahrscheinlichkeiten im Baumdiagramm:
(Wahrscheinlichkeitsbaum)
P(B | A )
A
(
)
B
(
)
B
(
)
B
P(A )
P B |A
( )
PB|A
PA
B
Ā
P B |A
1. Stufe
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
2. Stufe
» Wahrscheinlichkeit eines Pfades
= Produkt der
Wahrscheinlichkeiten längs des
Pfades (Produktregel).
„Entlang der Pfade wird
multipliziert“
» Wahrscheinlichkeit für ein
Ereignis = Summe der
Wahrscheinlichkeiten aller zu
diesem Ereignis führenden Pfade
(Summenregel)
„Entlang der Äste wird addiert“
18
4.5 Zufallsvariablen
» real (Daten)
» Merkmal
» Merkmalsausprägung
» relative Häufigkeit
abstrakt (Modell)
Zufallsvariable
Realisierung der Zufallsvariablen
Wahrscheinlichkeit
Definition:
» Eine Zufallsvariable (ZV) X beschreibt, welche Ausprägungen
eines quantitativen Merkmals in einem Zufallsexperiment mit
welchen Wahrscheinlichkeiten auftreten.
» Man spricht von einer diskreten Zufallsvariablen, falls es sich um
ein quantitativ-diskretes Merkmal handelt,
» und von einer stetigen Zufallsvariablen, falls es sich um ein
quantitativ-stetiges Merkmal handelt.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
19
4.6 Diskrete Zufallsvariablen
» Wahrscheinlichkeitsverteilung oder Dichtefunktion
» Diskrete ZV kann nur einzelne Punkte auf dem Zahlenstrahl als
Ausprägungen annehmen
» Die Menge aller Ausprägungen einer Zufallsvariable mit den
zugehörigen Wktn. heißt Wahrscheinlichkeitsverteilung oder
(diskrete) Dichtefunktion/Dichte
» (diskrete) Dichte = Liste aller Wahrscheinlichkeiten P(X = xi)
» Darstellung der Wkts.verteilung: Tabelle, Formel oder Stab- oder
Säulendiagramm
» Verteilungsfunktion
» Die Funktion F ( x ) = P ( X ≤ x ), x ∈ ℜ
heißt Verteilungsfunktion von X.
» Die Funktion F(t) beschreibt die Wahrscheinlichkeit, dass die
Zufallsvariable X kleiner als der fixe Wert t ist.
» Darstellung der Verteilungsfunktion: Funktionsterm oder
(Funktions-)Graph
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
20
4.6 Diskrete Zufallsvariablen
» Zusammenhang Wahrscheinlichkeitsverteilung/Dichte –
Verteilungsfunktion
» Die (kumulative) Verteilungsfunktion F(x) = P(X ≤ x)
wird durch die Wahrschinlichkeiten P(X = xi) eindeutig bestimmt:
∑ P( X = x )
F ( x ) = P( X ≤ x ) =
k
xk ≤ x
» Dichte und Verteilungsfunktion lassen sich ineinander überführen.
Gewichte = Höhe der Sprünge der diskreten Verteilungsfunktion
» Es gilt:
0 ≤ P ( X = xk ) ≤ 1
∑ P( X = x ) = 1 ,
k
k
» 0 ≤ F(x) ≤ 1 für, F(x) ist monoton wachsend.
» Die Wahrscheinlichkeitsverteilung ist sozusagen die theoretische
Verteilung eines Ereignisses. Wenn man etwa das Zufallsexperiment
Würfelwurf betrachtet, so bestimmt die Wahrscheinlichkeitsverteilung,
mit welchen Wahrscheinlichkeiten die einzelnen Ausprägungen
auftreten.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
21
4.6 Diskrete Zufallsvariablen
» Beispiel: Augensumme beim Werfen zweier Würfel
» X((1,1)) = 2; X((1,2)) = 3; X((2,1)) = 3; X((2,3)) = 5; …
» Wahrscheinlichkeitsverteilung als Tabelle:
k
P(X=k)
2
3
4
5
6
7
8
9
10
11
12
1/36
2/36
3/36
4/36
5/36
6/36
5/36
4/36
3/36
2/36
1/36
» Wahrscheinlichkeitsverteilung/Dichte als Säulendiagramm:
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
2
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
3
4
5
6
7
8
9
10
11
12
22
4.6 Diskrete Zufallsvariablen
» Beispiel: Augensumme beim Werfen zweier Würfel (Forts.)
» Verteilungsfunktion als Tabelle:
k
P(X≤k)
2
3
4
5
6
7
8
9
10
11
12
1/36
3/36
6/36
10/36
15/36
21/36
26/36
30/36
33/36
35/36
36/36
» Verteilungsfunktion als Graph: Treppenfunktion
1,2
1
0,8
0,6
0,4
0,2
0
1
2
3
4
5
6
7
8
9
10
11
12
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
23
4.6 Diskrete Zufallsvariablen
» Beispiel: Würfeln mit einem Würfel
» X = Augenzahl eines fairen Würfels
» Wahrscheinlichkeitsverteilung/Dichte und (kumulative) Vert.funktion:
1
k
2
3
4
5
6
P(X = k)
P(X ≤ k)
» Beispiel: Würfeln mit einem Würfel und einer Münze in einem Becher
falls Münze = Kopf
falls Münze = Zahl
 Augenzahl des Würfels
X =
 2 × Augenzahl des Würfels
» Wahrscheinlichkeitsverteilung/Dichte und (kumulative) Vert.funktion:
k
1
2
3
4
5
6
7
8
9
10
11
12
P(X = k)
P(X ≤ k)
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
24
4.6 Diskrete Zufallsvariablen
Kennzahlen diskreter Zufallsvariablen
» Erwartungswert
µ = E (X ) =
∑x
i
⋅ P ( X = xi )
i
» Varianz
σ 2 = Var ( X ) = ∑ ( xi − µ )2 ⋅ P ( X = xi )
i
» „Taschenrechnerformel“ (besser zu berechnen):


σ 2 =  ∑ xi2 ⋅ P ( X = xi ) − µ 2
 i

» Standardabweichung
σ = σ 2 = Var ( X )
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
25
4.6 Diskrete Zufallsvariablen
Bemerkungen zu Erwartungswert µ und arithmetisches Mittel x:
» Pro Zufallsexperiment ist µ eine Konstante, während x vom Zufall abhängt,
nämlich von der jeweiligen Messreihe x1, x2, x3, … xn , den Realisierungen der
Zufallsvariablen X.
» Im Allgemeinen gilt daher: µ ≠ x
» Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass µ ≈ x .
» Der Wert x wird später (siehe Kapitel 5) zur Schätzung von µ benutzt.
Die Schätzung ist umso besser, je größer n ist.
Bemerkungen zu Varianz σ2 und empirische Varianz s2:
» Pro Zufallsexperiment ist σ2 eine Konstante, während s2 vom Zufall abhängt,
nämlich von der jeweiligen Messreihe x1, x2, x3, … xn , den Realisierungen der
Zufallsvariablen X.
» Im Allgemeinen gilt daher: σ2 ≠ s2.
» Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass σ2 ≈ s2 .
» Der Wert s2 wird später (siehe Kapitel 5) zur Schätzung von σ2 benutzt.
Die Schätzung ist umso besser, je größer n ist.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
26
4.7 Spezielle diskrete Zufallsvariablen
» Wir betrachten hier folgende diskrete Verteilungen
» Hypergeometrische Verteilung
» Binomialverteilung
» Poisson-Verteilung
» Zufallsvariablen (ZV) werden durch ihre Verteilung vollständig
charakterisiert.
» Bei diskreten ZV entspricht die Verteilung der Angabe der
Wahrscheinlichkeiten für die Elementarereignisse (Dichte).
» Statt der Dichte kann man auch die Verteilungsfunktion angeben.
Dichte und Verteilungsfunktion lassen sich ineinander überführen.
» Aus der Verteilung lassen sich die Wahrscheinlichkeiten für alle
Ereignisse berechnen.
» Außerdem lassen sich alle anderen Kennzahlen ableiten:
» Erwartungswert
» Varianz
» Standardabweichung
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
27
4.7 Spezielle diskrete Zufallsvariablen
4.7.1 Hypergeometrische Verteilung
» Ausgangslage
» Grundgesamtheit (GG) aus N Elementen,
» M Elemente der GG haben eine spezifische Eigenschaft A,
» entnommen wird eine Stichprobe (ohne Zurücklegen) vom Umfang n
» Die ZV X gebe an, wie viele der gezogenen Objekte die Eigenschaft A haben.
X = Anzahl der Elemente mit Eigenschaft A in der Stichprobe
» Dann ist X hypergeometrisch verteilt mit Parametern n, N, M. Man schreibt
X ~ H(n;N;M)
» Achtung: in machen Büchern ist die Reihenfolge der Parameter anders.
» Die Wahrscheinlichkeit, genau k Elemente mit der spezifischen Eigenschaft in
der Stichprobe vorzufinden, beträgt dann: (diskrete Dichte)
M  N − M 
  ⋅ 

k   n − k 

P( X = k ) =
N
 
n
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
28
4.7 Spezielle diskrete Zufallsvariablen
4.7.1 Hypergeometrische Verteilung
» Erwartungswert für X ~ H(n;N;M):
wobei
» Varianz:
p=
M
=
N
µ = E(X ) = n ⋅
M
= n⋅ p ,
N
Anteil der Objekte mit Eigenschaft A in der
Grundgesamtheit
σ 2 = Var ( X ) = n ⋅ p ⋅ q ⋅
N −n
, mit q = 1 − p
N −1
Typische Anwendungssituation für hypergeometrische Verteilung:
» Ziehen ohne Zurücklegen:
» Gegeben sind N Objekte (z. B. eine Lieferung von Bauteilen oder Kugeln in
einer Urne). M gebe die Anzahl der Objekte mit einer bestimmten
Eigenschaft A an (z. B. defektes Bauteil bzw. rote Kugel). Unter den
Objekten wird n-mal eines zufällig ausgewählt; das gezogene Objekt wird
nicht zurückgelegt. Das Ergebnis der folgenden Ziehung ist also von den
vorherigen Ziehungen abhängig. X gibt dann an, wie viele der gezogenen
Objekte die Eigenschaft A haben (z. B. Anzahl der Defektstücke bzw.
Anzahl der roten Kugeln).
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
29
4.7 Spezielle diskrete Zufallsvariablen
4.7.2 Binomialverteilung
» Ausgangslage
» Ein Zufallsexperiment wird n-mal durchgeführt (unabhängig voneinander).
» Bei jeder der Durchführungen kann ein Ereignis A („Erfolg“) mit der
Wahrscheinlichkeit P(A) = p auftreten. Das Gegenereignis Ā („Misserfolg“) tritt
mit einer Wahrscheinlichkeit von P(Ā) = 1 – p auf.
» Die Zufallsvariable X gibt an, wie oft bei den n Durchführungen das
Ereignis A eintritt.
» X = Anzahl „Erfolge“ bei n-maliger Durchführung des Experiments
» Dann ist X binomialverteilt mit den Parametern n, p und man schreibt
X ~ B(n; p)
» Die Wahrscheinlichkeit, dass das Ereignis A genau k-mal bei den n
Durchführungen des Zufallsexperimentes eintritt, beträgt (Dichte):
n
n−k
P ( X = k ) =   ⋅ p k ⋅ (1 − p )
k 
k = 0 , 1, ..., n
» Erwartungswert und Varianz für X ~ B(n; p):
»
»
µ = E(X) = n · p ,
σ2 = Var(X) = n · p · q
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
mit
q=1–p
30
4.7 Spezielle diskrete Zufallsvariablen
4.7.2 Binomialverteilung
Typische Anwendungssituationen für die Binomialverteilung:
» n unabhängige Wiederholungen eines Zufallsexperimentes
(z.B. Aufg. 75: Werfen eines Würfels mit X = # Einsen)
» n-maliges Ziehen mit Zurücklegen aus einer endlichen
Grundgesamtheit (z.B. Aufg. 70: Ziehen von schwarzen Kugeln
mit X = # der gezogenen schwarzen Kugeln)
» n-maliges Ziehen ohne Zurücklegen aus einer unendlichen
Grundgesamtheit (z.B. Aufg. 72: laufende Produktion oder
Massenproduktion mit p= Ausschussanteil, X = # der defekten
Teile in der Stichprobe)
» Binomialverteilung B(n,p) als Näherung der hypergeometrischen
Verteilung H(n;N;M).
» Falls N groß ist und n nicht zu groß ist (Faustregel: n ≤ 0,1 )
darf die hypergeom. Verteilung H(n;N;M) durch die N
Binomialverteilung B(n,p) angenähert werden.
» Dabei ist p = M/N zu setzen.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
31
4.7 Spezielle diskrete Zufallsvariablen
4.7.3 Poisson
- Verteilung
» Gegeben
» Betrachtungseinheit wie z.B. Länge, Zeit
oder Fläche
» die mittlere Anzahl λ (lambda) von
Vorkommnissen pro Betrachtungseinheit
» X = Anzahl der Vorkommnisse pro
Betrachtungseinheit
» Dann sagt man, X ist Poissonverteilt mit
dem Parameter λ
» und schreibt
X ~ Po(λ)
» Die Wahrscheinlichkeit, dass genau k
Vorkommnisse pro Betrachtungseinheit
auftreten, beträgt (diskrete Dichte):
P( X = k ) =
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
λk
k!
Siméon Denis Poisson 1781-1840
e −λ
32
4.7 Spezielle diskrete Zufallsvariablen
4.7.3 Poisson
- Verteilung
» Erwartungswert und Varianz für X ~ Po(λ):
µ = E(X) = λ
σ2 = Var(X) = λ
Typische Anwendungssituationen für Poissonverteilung:
» In Fällen, bei denen als Parameter nur eine „mittlere Anzahl“
bekannt ist, eignet sich die Poissonverteilung.
» Beispiel: In einer Telefonzentrale gehen im Mittel 3 Gespräche
innerhalb von 5 Minuten ein. Dann ist zur Beschreibung der
zufälligen Anzahl der in 5 Minuten eingehenden Gespräche eine
Poissonverteilung mit λ = 3 anwendbar.
» Poissonverteilung als Näherung der Binomialverteilung,wenn n groß
und p klein ist
» Faustregel: Näherung erlaubt für n ≥ 30 und p ≤ 0,1
(verschieden Faustregeln in der Literatur!)
» Dann Po(λ) als Näherung für die Binomialverteilung B(n;p),
wobei λ = np gesetzt wird (z.B. Aufgabe 81)
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
33
4.8 Eigenschaften von
Erwartungswert & Varianz
» Lineare Transformation:
» Für eine beliebige Zufallsvariable X und Konstanten a,b ∊ ℝ gilt immer
E (aX + b ) = aE ( X ) + b
Var (aX + b ) = a 2Var ( X )
» Summe von Zufallsvariablen:
» Für zwei beliebige Zufallsvariablen
X und Y gilt immer E ( X + Y ) = E ( X ) + E (Y )
» Für zwei unabhängige Zufallsvariablen
X und Y gilt
Var ( X + Y ) = Var ( X ) + Var (Y )
» Diese Formeln gelten analog auch für mehr als zwei ZV
» Standardisierung von ZV: Wenn E(X) = µ und Var(X) = σ2, dann ist
Z=
X −µ
σ
eine Zufallsvariable mit E(Z) = 0 und Var(Z) = 1.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
34
4.8 Stetige Zufallsvariablen
» Das Konzept der diskreten Zufallsgrößen
P( X = xi ) = pi > 0 , Σpi = 1 (Gewichte)
passt in vielen Situationen nicht:
» Zeit bis zum Eintreten eines Ereignisses
(Ausfall eines Geräts, Antwort eines Servers)
» Messungen auf kontinuierlicher Skala
(Größe, Gewicht, Widerstand, Spannung,…)
» Beispiel:
P(Körpertemperatur übermorgen um 7:00 Uhr ist 36,457812 °C) = ?
» Es gibt keine Gewichte!
» Modellvorstellungen mit Wahrscheinlichkeiten oder gar
kombinatorischen Berechnungen von Laplace-Wktn. sind hier nicht
möglich!
» Neue Vorstellung: Die Gewichte werden „verschmiert“, aus den {pi }
entsteht eine positive Funktion f , die Wahrscheinlichkeits-Dichte.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
35
4.8 Stetige Zufallsvariablen
» Die WahrscheinlichkeitsDichte kann man sich
vorstellen als idealisiertes
Histogramm
→ sehr viele Beobachtungen
→ viele Klassen
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
36
4.8 Stetige Zufallsvariablen
Definition:
» Eine Zufallsvariable X ist eine stetige Zufallsvariable,
wenn sie jeden beliebigen Wert in einem Intervall
annehmen kann,
» das ist genau dann der Fall, wenn eine Dichtefunktion
f ≥ 0 existiert, mit
x
F ( x) = P ( X ≤ x) =
∫ f (u ) du
−∞
» f(x) heißt Dichtefunktion von X
» Die Verteilungsfunktion F(x) = P(X ≤ x) ist dann eine
stetige Funktion.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
37
4.8 Stetige Zufallsvariablen
Folgerungen:
» Fläche unter der Dichte = 1:
∞
∫ f (u)du = 1
−∞
» F(x) = P(X ≤ x) entspricht dem Flächeninhalt unter dem Graphen von f
im Intervall von x–∞ bis x bzw. „Fläche unter der Dichte links von x“:
F ( x) = P( X ≤ x) =
∫ f (u ) du
−∞
» Berechnung bvon Wahrscheinlichkeiten als Fläche unter der Dichte:
P(a ≤ X ≤ b) = ∫ f ( x )dx = F (b) − F ( a )
a
P( X ≤ b) = F (b),
» P(X=x) = 0
F (a ≤ X ) = 1 − F (a )
für alle x ∊ ℝ
» P(X ≤ x) = P(X < x) und P(X ≥ x) = P(X > x)
jedes „≤“ darf für stetige ZV durch „<“ ersetzt werden.
» Zusammenhang Dichte – Verteilungsfunktion: F´(x) = f(x)
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
38
4.8 Stetige Zufallsvariablen
» Berechnung von Kennzahlen und Wahrscheinlichkeiten einer
diskreten und stetigen Zufallsvariable X im Vergleich:
Ausdruck
Wert der
Verteilungsfunktion
an der Stelle x
Wahrscheinlichkeit
dafür, dass die
Zufallsvariable X
einen Wert zw. a und
b annimmt
Symbol
X diskret
∑ P( X
FX ( x) = P( X ≤ x)
b
k =a
σ
= Var ( X )
b
= k)
∫ f (u ) du
a
∑ x P( X
i
∞
= xi )
∫ u ⋅ f (u ) du
i
∑ (x
Varianz
∫ f (u ) du
−∞
∑ P (X
µ = E (X )
2
x
= k)
k≤x
P (a ≤ X ≤ b )
Erwartungswert
X stetig
−∞
− µ ) P ( X = xi ) =
i
∑x
∞
∫ (u − µ ) f (u ) du
2
2
i
2
i
=
−∞
P ( X = xi ) − µ 2
∞
∫ u f (u ) du − µ
2
i
2
−∞
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
39
4.9 Spezielle stetige Zufallsvariablen
» Wir betrachten folgende Beispiele für stetige ZV
» Gleichverteilung
» Exponentialverteilung
» Normalverteilung/Standardnormalverteilung
4.9.1 Gleichverteilung
 1
» Eine Zufallsvariable

,
für a ≤ mit
x ≤ b der Dichtefunktion
f (x ) =  b − a
 0 ,
sonst
heißt gleichverteilt auf dem Intervall [a,b].
» Schreibweise: X ~ U(a,b)
(b − a )
a+b
µ=
und σ 2 =
Erwartungswert 2und Varianz sind
12 in
2
»
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
diesem Fall gegeben durch
40
4.9 Spezielle stetige Zufallsvariablen
4.9.2 Exponentialverteilung
» Eine Zufallsvariable mit der Dichtefunktion
λ e − λx ,
f (x ) = 
 0,
für x > 0
sonst
oder mit der Verteilungsfunktion
1 − e − λx , für x > 0
F (x ) = 
sonst
 0,
heißt exponentialverteilt mit Parameter λ.
» Schreibweise: X ~ Exp(λ)
» Für Erwartungswert und Varianz gilt:
µ=
1
λ
und
σ2 =
1
λ2
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
41
4.9 Spezielle stetige Zufallsvariablen
4.9.3 Normalverteilung
» Ist eine Zufallsvariable X normalverteilt, so schreibt man
X ~ N(µ,σ2)
» Dabei ist µ der Erwartungswert und σ2 die Varianz
» Erwartungswert µ und Varianz σ2 müssen entweder bekannt
sein, oder es muss eine Stichprobe vorliegen, so dass man die
Werte aus den Daten über das arithmetische Mittel bzw. die
empirische Varianz schätzen kann.
» Die zugehörige Wahrscheinlichkeitsverteilung heißt
Normalverteilung oder Gauß-Verteilung.
» Dichte:
(Gauß´sche Glockenkurve)
( x−µ )
−
2
1
f (x ) =
⋅e
2π σ
2σ 2
» Erwartungswert: E(X) =
» Varianz: Var(X) = σ2
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
µ
(bestimmt Lage der Dichte)
(bestimmt Form der Glocke)
42
4.9 Spezielle stetige Zufallsvariablen
4.9.3 Normalverteilung
» Die Gauß´sche Glockenkurve besitzt die folgenden Eigenschaften:
»
»
»
»
sie ist symmetrisch zu x0=µ,
die einzige Maximumsstelle existiert bei x0=µ,
sie besitzt zwei Wendepunkte an den Stellen x1=µ + σ und x2=µ – σ,
Flächeninhalt unter der Gauß´schen Glockenkurve ist gleich 1 (d.h. eine
schmale Glockenkurve ist hoch, eine breite Glockekurve ist niedrig).
» Die Verteilungsfunktion
FX ( x) = P ( X ≤ x) =
x
1
σ ⋅ 2π
∫e
−
1 (t − µ )2
2 σ2
dt
−∞
kann nur numerisch berechnet werden (und damit auch die Wktn.)
» In der Praxis
» Verwendung von Tabellen für die Standardnormalverteilung N(0,1).
» bzw. Berechnung in xls mit den Funktionen NORMVERT
(Dichte/Verteilungsfunktion) oder NORMINV (Quantile))
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
43
4.9 Spezielle stetige Zufallsvariablen
4.9.3 Normalverteilung
Berechnung von Wahrscheinlichkeiten für normalverteilte ZVen:
» Standardnormalverteilung: Z ~ N(0,1)
» Für die Standardnormalverteilung liegt die Verteilungsfunktion
Φ(z) = P(Z ≤ z) als Tabelle vor
» Eine beliebige Normalverteilung X~N(µ,σ2) muss zunächst standardisiert
werden
Z=
X −µ
σ
~ N (0,1)
» Für die Verteilungsfunktionen gilt dann:
x−µ
X−µ x−µ

x−µ
FX (x ) = P(X ≤ x ) = P
≤
 = P Z ≤
 = Φ

σ  
σ 
 σ
 σ 
» Damit kann man die Wahrscheinlichkeiten für X~N(µ,σ2) berechnen:
x−µ
P( X ≤ x ) = Φ

 σ 
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
44
4.9 Spezielle stetige Zufallsvariablen
4.9.3 Normalverteilung
Berechnung von Wahrscheinlichkeiten für normalverteilte ZVen:
» Wahrscheinlichkeiten für X~N(µ,σ2):
b − µ 
a− µ 
P(a ≤ X ≤ b) = Φ 
 − Φ

 σ 
 σ 
b − µ 
P(X ≤ b) = Φ 

 σ 
a− µ 
P(X ≥ a) = 1 − Φ 

 σ 
mit Φ (− z ) = 1 − Φ (z )
» wobei jedes < durch ≤ ersetzt werden darf.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
45
4.9 Spezielle stetige Zufallsvariablen
4.9.3 Normalverteilung
Verteilungsfunktion Φ (z ) der StandardNormalverteilung N(0; 1)
z
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
0
0,5000
0,5398
0,5793
0,6179
0,6554
0,6915
0,7257
0,7580
0,7881
0,8159
0,8413
0,8643
0,8849
0,9032
0,9192
0,9332
0,9452
0,9554
0,9641
0,9713
0,9772
0,9821
0,9861
0,9893
0,9918
0,9938
0,9953
0,9965
0,9974
0,9981
0,9987
1
0,5040
0,5438
0,5832
0,6217
0,6591
0,6950
0,7291
0,7611
0,7910
0,8186
0,8438
0,8665
0,8869
0,9049
0,9207
0,9345
0,9463
0,9564
0,9649
0,9719
0,9778
0,9826
0,9864
0,9896
0,9920
0,9940
0,9955
0,9966
0,9975
0,9982
0,9987
2
0,5080
0,5478
0,5871
0,6255
0,6628
0,6985
0,7324
0,7642
0,7939
0,8212
0,8461
0,8686
0,8888
0,9066
0,9222
0,9357
0,9474
0,9573
0,9656
0,9726
0,9783
0,9830
0,9868
0,9898
0,9922
0,9941
0,9956
0,9967
0,9976
0,9982
0,9987
3
0,5120
0,5517
0,5910
0,6293
0,6664
0,7019
0,7357
0,7673
0,7967
0,8238
0,8485
0,8708
0,8907
0,9082
0,9236
0,9370
0,9484
0,9582
0,9664
0,9732
0,9788
0,9834
0,9871
0,9901
0,9925
0,9943
0,9957
0,9968
0,9977
0,9983
0,9988
4
0,5160
0,5557
0,5948
0,6331
0,6700
0,7054
0,7389
0,7704
0,7995
0,8264
0,8508
0,8729
0,8925
0,9099
0,9251
0,9382
0,9495
0,9591
0,9671
0,9738
0,9793
0,9838
0,9875
0,9904
0,9927
0,9945
0,9959
0,9969
0,9977
0,9984
0,9988
5
0,5199
0,5596
0,5987
0,6368
0,6736
0,7088
0,7422
0,7734
0,8023
0,8289
0,8531
0,8749
0,8944
0,9115
0,9265
0,9394
0,9505
0,9599
0,9678
0,9744
0,9798
0,9842
0,9878
0,9906
0,9929
0,9946
0,9960
0,9970
0,9978
0,9984
0,9989
6
0,5239
0,5636
0,6026
0,6406
0,6772
0,7123
0,7454
0,7764
0,8051
0,8315
0,8554
0,8770
0,8962
0,9131
0,9279
0,9406
0,9515
0,9608
0,9686
0,9750
0,9803
0,9846
0,9881
0,9909
0,9931
0,9948
0,9961
0,9971
0,9979
0,9985
0,9989
7
0,5279
0,5675
0,6064
0,6443
0,6808
0,7157
0,7486
0,7794
0,8078
0,8340
0,8577
0,8790
0,8980
0,9147
0,9292
0,9418
0,9525
0,9616
0,9693
0,9756
0,9808
0,9850
0,9884
0,9911
0,9932
0,9949
0,9962
0,9972
0,9979
0,9985
0,9989
8
0,5319
0,5714
0,6103
0,6480
0,6844
0,7190
0,7517
0,7823
0,8106
0,8365
0,8599
0,8810
0,8997
0,9162
0,9306
0,9429
0,9535
0,9625
0,9699
0,9761
0,9812
0,9854
0,9887
0,9913
0,9934
0,9951
0,9963
0,9973
0,9980
0,9986
0,9990
9
0,5359
0,5753
0,6141
0,6517
0,6879
0,7224
0,7549
0,7852
0,8133
0,8389
0,8621
0,8830
0,9015
0,9177
0,9319
0,9441
0,9545
0,9633
0,9706
0,9767
0,9817
0,9857
0,9890
0,9916
0,9936
0,9952
0,9964
0,9974
0,9981
0,9986
0,9990
Ablesebeispiel: Φ (0,92) = 0,8212
Werte für
negatives z mit der Formel Φ ( − z ) = 1 − Φ ( z ) , z. B.
Φ ( −1,55) = 1 − 0,9394 = 0,0606
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
46
4.10 Quantile der Standard
normalverteilung & Zufallsstreubereiche
4.10.1 Quantile der Standardnormalverteilung
» Die Zahl z mit P(Z ≤ z) = 0,95 heißt das 95 %-Quantil der
(Standard)Normalverteilung.
» Der Zahlenwert dieses Quantils ist 1,645; man schreibt hierfür
z0,95 = 1,645.
» Entsprechend sind das 99 %-Quantil und weitere Quantile definiert.
» Die wichtigsten Quantile stehen in einer Tabelle zur Verfügung.
» Allgemein:
» Für eine Zufallsvariable Z ~ N(0;1) heißt die Zahl zp mit
47
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
Quantile
der t-Verteilung mit m Freiheitsgraden und
2,326
0,99
31,821
6,965
4,541
3,747
3,365
3,143
2,998
2,896
2,821
2,764
2,718
2,681
2,650
2,624
2,602
2,583
2,567
2,552
2,539
2,528
2,518
2,508
2,500
2,492
2,485
2,479
2,473
2,467
2,462
2,457
2,438
2,423
2,412
2,403
2,390
2,381
2,374
2,368
2,364
2,345
2,334
2,576
0,995
63,656
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3,169
3,106
3,055
3,012
2,977
2,947
2,921
2,898
2,878
2,861
2,845
2,831
2,819
2,807
2,797
2,787
2,779
2,771
2,763
2,756
2,750
2,724
2,704
2,690
2,678
2,660
2,648
2,639
2,632
2,626
2,601
2,586
3,090
0,999
318,289
22,328
10,214
7,173
5,894
5,208
4,785
4,501
4,297
4,144
4,025
3,930
3,852
3,787
3,733
3,686
3,646
3,610
3,579
3,552
3,527
3,505
3,485
3,467
3,450
3,435
3,421
3,408
3,396
3,385
3,340
3,307
3,281
3,261
3,232
3,211
3,195
3,183
3,174
3,131
3,107
der Standard-Normalverteilung (NV)
1,960
0,975
12,706
4,303
3,182
2,776
2,571
2,447
2,365
2,306
2,262
2,228
2,201
2,179
2,160
2,145
2,131
2,120
2,110
2,101
2,093
2,086
2,080
2,074
2,069
2,064
2,060
2,056
2,052
2,048
2,045
2,042
2,030
2,021
2,014
2,009
2,000
1,994
1,990
1,987
1,984
1,972
1,965
Quantile
1,645
0,95
6,314
2,920
2,353
2,132
2,015
1,943
1,895
1,860
1,833
1,812
1,796
1,782
1,771
1,761
1,753
1,746
1,740
1,734
1,729
1,725
1,721
1,717
1,714
1,711
1,708
1,706
1,703
1,701
1,699
1,697
1,690
1,684
1,679
1,676
1,671
1,667
1,664
1,662
1,660
1,653
1,648
q
1,282
0,9
3,078
1,886
1,638
1,533
1,476
1,440
1,415
1,397
1,383
1,372
1,363
1,356
1,350
1,345
1,341
1,337
1,333
1,330
1,328
1,325
1,323
1,321
1,319
1,318
1,316
1,315
1,314
1,313
1,311
1,310
1,306
1,303
1,301
1,299
1,296
1,294
1,292
1,291
1,290
1,286
1,283
.
0,842
und
0,8
1,376
1,061
0,978
0,941
0,920
0,906
0,896
0,889
0,883
0,879
0,876
0,873
0,870
0,868
0,866
0,865
0,863
0,862
0,861
0,860
0,859
0,858
0,858
0,857
0,856
0,856
0,855
0,855
0,854
0,854
0,852
0,851
0,850
0,849
0,848
0,847
0,846
0,846
0,845
0,843
0,842
;
NV
;
mit den Formeln
m
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
35
40
45
50
60
70
80
90
100
200
500
Ablesebeispiele:
Beispiele hierfür:
Werte für
48
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
0≤p≤1
für
P(Z ≤ zp) = Φ(zp) = p
das p-Quantil der Standardnormalverteilung.
4.10 Quantile der Standard
normalverteilung & Zufallsstreubereiche
4.10 Quantile der Standard
normalverteilung & Zufallsstreubereiche
4.10.2 Zufallsstreubereich oder Prognoseintervall
» Zufallsstreubereich oder Prognoseintervall einer normalverteilten
Zufallsvariable X: ein Intervall um den Erwartungswert µ, in dem sich
die Ausprägungen von X mit einer Wahrscheinlichkeit p (z. B. p =
90%, 98%, 99%) befinden.
» Die Ausprägungen von X befinden sich außerhalb des
Zufallsstreubereiches mit einer Wahrscheinlichkeit von α =1-p.
» Zufallsstreubereiche können die folgende Form annehmen:
» Zweiseitiger Zufallsstreubereich für X~N(µ;σ2):
[µ − z
1− α2
⋅ σ ; µ + z1−α ⋅ σ
2
]
» Einseitig nach oben beschränkter Zufallsstreubereich für X~N(µ;σ2):
(− ∞; µ + z1−α ⋅ σ ]
» Einseitig nach unten beschränkter Zufallsstreubereich für X~N(µ;σ2):
[µ − z1−α ⋅ σ ; ∞ )
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
49
4.10 Quantile der Standard
normalverteilung & Zufallsstreubereiche
4.10.3 Zufallsstreubereich für X
» Das durch X~N(µ;σ2) beschriebene Zufallsexperiment soll jetzt nicht nur
einmal durchgeführt werden, sondern n-mal unabhängig wiederholt
werden. In welchem Bereich wird der arithmetische Mittelwert der n
Daten liegen? Ein solcher Bereich heißt ein Zufallsstreubereich für X
» Die entsprechenden Formeln lauten:
» zweiseitiger Zufallsstreubereich
σ
σ 

 µ − z1− α2 ⋅ n ; µ + z1− α2 ⋅ n 


» einseitig nach oben beschränkt
σ 

 − ∞; µ + z1−α ⋅
n 

» einseitig nach unten beschränkt
σ


 µ − z1−α ⋅ n ; ∞ 


» Formeln für n = 1 Zufallsstreubereich für X
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
50
4.11 Der Zentrale Grenzwertsatz
Einführendes Beispiel (1)
» Sie arbeiten in einer Firma, deren Gewinn im nächsten Jahr folgendermaßen
modelliert werden kann: drehen Sie ein Glücksrad, das Werte zwischen 0 und
1 liefert, und multiplizieren Sie diesen Wert mit 1 Mio. (d. h. der Gewinn liegt
zw. 0 und 1 Mio. EUR).
» Ihr Risiko: Ist der Gewinn < 200.000 €, bekommen Sie keinen Bonus.
» Fragen:
» Wie hoch wäre der durchschnittliche Gewinn, wenn diese Situation wiederholt
auftritt?
» Wie groß ist die Wkt., dass Sie keinen Bonus bekommen?
» Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Was sollten Sie ihm
antworten?
» Wie würde ein Histogramm aussehen, das die Prozentanteile dafür zeigt, dass
der Gewinn in die folgenden Klassen fällt:
0 − 0,2
0,2 − 0,4
0,4 − 0,6
0,6 − 0,8
0,8 − 1
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
51
4.11 Der Zentrale Grenzwertsatz
Einführendes Beispiel (2)
» Jetzt: Durchschnittsbildung Bei der Bildung eines Durchschnitts von
Zufallszahlen wird die Unsicherheit reduziert („Diversifizierung“)
» Modifizieren Sie die Gewinnfunktion: bilden Sie den Durchschnitt aus dem
Ergebnis von zwei Glücksrädern und multiplizieren Sie diesen Wert mit 1 Mio.
» Beträgt der Gewinn weniger als 200.000 €, bekommen Sie keinen Bonus.
» Fragen (wie vorher):
» Wie hoch wäre der durchschnittliche Gewinn, wenn diese Situation wiederholt
auftritt?
» Wie groß ist die Wkt., dass Sie keinen Bonus bekommen?
» Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Was sollten Sie ihm
antworten?
» Wie würde ein Histogramm aussehen, das die Prozentanteile dafür zeigt, dass
der Gewinn in die folgenden Klassen fällt:
0 − 0,2
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
0,2 − 0,4
0,4 − 0,6
0,6 − 0,8
0,8 − 1
52
4.11 Der Zentrale Grenzwertsatz
Einführendes Beispiel (3)
» Simulation mit xls: zufallszahl() erzeugt zufällige Zahlen zwischen 0 und 1.
Mit <F9> kontrollieren, ob‘s funktioniert (Werte müssen sich ändern).
» Fragen (wie vorher):
» Warum geht das Histogramm in
» der Mitte nach oben?
» Noch wichtiger: was bedeutet das?
Prozent
» Durchschnittlicher Gewinn: Wie im ersten Fall: 0,5 Millionen (Erwartungswert)
» Wkt., dass kein Bonus gezahlt wird: Wesentlich kleiner als im 1. Fall (s.
Histogramm)
» Ihr Chef fragt nach „einer Zahl“ für den Gewinn.
Wenn es um Zufallszahlen geht, sollte man den Chef daran gewöhnen,
besser zu fragen
Histogramm
„Wie ist die Verteilung?“
40,00%
anstatt „Was ist die Zahl?“
35,00%
» Beispiel für Histogramm mit
30,00%
prozentualer Verteilung des
25,00%
Gewinns:
20,00%
15,00%
10,00%
5,00%
0,00%
0 - 0,2
0,2 - 0,4
0,4 - 0,6
0,6 - 0,8
0,8 - 1
Gewinn in Mio.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
53
4.11 Der Zentrale Grenzwertsatz
Einführendes Beispiel (4)
Warum geht das Histogramm in der Mitte nach oben?
» Würfeln mit einem Würfel: Werte von 1 bis 6 mit gleicher Wkt. 1/6:
1/6
1
2
3
4
5
6
» Würfeln mit 2 Würfeln: Werte zwischen 2 und 12 mit unterschiedlicher Wkt.
6/36
43
5/36
33
34
44
32
42
52
53
54
22
23
24
25
35
45
55
21
31
41
51
61
62
63
64
65
12
13
14
15
16
26
36
46
56
4/36
3/36
2/36
1/36
11
66
» Glücksrad:
»
»
»
»
Angenommen, die Glücksräder drehen sich in 1/100-tel-Abschnitten.
Wie bekommt man 0: nur als Mittelwert von 0 und 0
Wie bekommt man 0,5: Mittelwert von 0 und 1, 0,01/0,99, 0,02/0,98, etc.
D.h. die Form der Verteilung ändert sich, wenn man den Mittelwert von ZV
bildet.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
54
4.11 Der Zentrale Grenzwertsatz
Einführendes Beispiel (5)
Welche Bedeutung hat die Änderung der Verteilung zur Mitte hin?
» Histogramm:
» wenn der Balken in der Mitte höher wird, müssen die Balken an den Enden
kleiner werden (Summe: 100%)
» Das Risiko, keinen Bonus zu bekommen wird also kleiner.
» Allgemein:
» Wenn man den Durchschnitt von Zufallsvariablen bildet, wird die Verteilung
des Durchschnitts in der Mitte höher und an den Enden niedriger, d.h. die
Verteilung wird mehr zentralisiert.
» Die Streuung einer Verteilung ist ein Maß für die Unsicherheit einer
Zufallsvariablen.
» Je breiter die Verteilung, desto größer ist die Varianz bzw. Std.abweichung und
damit desto größer ist die Unsicherheit (das Risiko).
» Je schmaler die Verteilung, desto kleiner ist die Varianz bzw. Std.abweichung
und damit desto kleiner ist die Unsicherheit.
» ZGWS: bildet man die Summe o. den Durchschnitt über genügend viele
unabhängige Zufallsvariablen (die Verteilung ist dabei egal), so erhält man eine
Normalverteilung!
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
55
4.11 Der Zentrale Grenzwertsatz
4.11.1 Summe/Durchschnitt normalverteilter ZV
» Sind X1, X2, X3, … Xn unabhängige (!) und normalverteilte
Zufallsvariablen mit versch. Erwartungswerten µ1, µ2, µ3, …, µn und
Standardabweichungen σ1, σ2, σ3, …, σn , dann gilt:
» Sn = X1+ X2+X3+… +Xn ~ N(µ1+µ2+µ3+ …+µn ; σ12 + σ22 + σ32 + …+ σn2 )
» Spezialfälle:
» X1+ X2 ~ N(µ1 + µ2; σ12 + σ22 )
» X1 – X2 ~ N(µ1 – µ2; σ12 + σ22 )
(Achtung: „+“ bei Var)
» Jetzt: gleiche Erwartungswerte µ1= µ2 = µ3 = …= µn = µ und gleiche
Varianzen σ12 = σ22 = σ32 = …= σn2 =σ2
» Sn = X1+ X2+X3+… +Xn ~ N(nµ ; nσ2 )
(Summe normalverteilter ZV)
2
» D = 1/n (X1+ X2+X3+… +Xn) ~ N(µ ; σ /n ) (Durchschnitt normalverteilter ZV)
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
56
4.11 Der Zentrale Grenzwertsatz
4.11.2 Der zentrale Grenzwertsatz
» Zentraler Grenzwertsatz: Summe/Durchschnitt nicht normalverteilter
Zufallsvariablen
» Sind X1, X2, X3, … Xn (nicht notwendigerweise normalverteilte) Zufallsvariablen,
die unabhängige Durchführungen desselben Zufallsexperimentes beschreiben,
» mit gleichen Erwartungswerten E(X1)= E(X2)=…=E(Xn) = µ und
» gleichen Varianzen Var(X1)=Var(X2)=…=Var(Xn)= σ2,
dann gilt für große n:
X 1 + X 2 + ... + X n ≈ N (n µ ; n σ 2 )
 σ2
X 1 + X 2 + ... + X n
≈ N  µ ;
n
n




» Insbesondere bedeutet das, dass eine Summe vieler unabhängiger Größen
näherungsweise normalverteilt ist, selbst wenn die einzelnen Summanden
nicht normalverteilt sind.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
57
4.11 Der Zentrale Grenzwertsatz
4.11.2 Beispiele für den ZGWS
» Näherung der Binomialverteilung durch die Normalverteilung
0
0
0,45
0,25
0,4
0,35
0,2
0,3
0,15
0,25
0,2
0,1
0,15
0,1
0,05
0,05
0
0
0
0
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
0
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
58
4.11 Der Zentrale Grenzwertsatz
4.11.2 Beispiele für den ZGWS
» Näherung einer Summe von Gleichverteilungen durch die Normalverteilung
1,2
1,2
1
1
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0
0,2
0,7
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
-0,2
0
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
0,45
0,6
0,4
0,35
0,5
0,3
0,4
0,25
0,3
0,2
0,15
0,2
0,1
0,1
0,05
0
-3
-2,6 -2,2 -1,8 -1,4
-1
-0,6 -0,2 0,2
0,6
1
1,4
1,8
2,2
2,6
3
3,4
3,8
0
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
0,6
1
1,4 1,8
2,2
2,6
3
3,4
3,8
59
4.11 Der Zentrale Grenzwertsatz
4.11.3 Stetigkeitskorrektur
» Wird eine diskrete Zufallsvariable X, die nur ganzzahlige Werte annehmen
kann, durch eine Normalverteilung approximiert, sollten
Wahrscheinlichkeiten mit den Formeln
 a − µ − 0,5 
 b − µ + 0,5 
P ( a ≤ X ≤ b) ≈ Φ 

 − Φ
σ
σ




P ( X ≤ b)
 b − µ + 0,5 
≈ Φ

σ


P( a ≤ X )
 a − µ − 0,5 
≈ 1 − Φ

σ


berechnet werden.
» Achtung: Bei diesen Formeln darf „≤“ nicht durch „<“ ersetzt werden.
» Die Summanden „+0,5“ bzw. „–0,5“ nennt man „Stetigkeitskorrektur“.
» Sie sind erforderlich, wenn eine diskrete Zufallsvariable X mit
ganzzahligen Werten durch eine stetige Zufallsvariable (Normalverteilung)
angenähert wird.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
60
4.11 Der Zentrale Grenzwertsatz
4.11.3 Approximation von BV, PV, HV durch NV
Approximation von BV, PV, HV durch die Normalverteilung
» B(n;p) ≈ N(µ;σ2) mit µ = n·p und σ2 = n·p·q, wobei q = 1 – p.
» Faustregel: Approximation ist gültig für n·p·q ≥ 9.
» Po(λ) ≈ N(µ;σ2) mit µ = λ und σ2 = λ.
» Faustregel: Approximation ist gültig für λ ≥ 9.
» H(n;M;N) ≈ N(µ;σ2) mit µ = n·p und σ2 = n·p·q·(N – n)/(N – 1), wobei
p = M/N und q = 1 – p.
» Faustregel: Approximation ist gültig für n/N ≤ 0,05 und n·p·q ≥ 9.
» Merke: Alle Faustregeln bedeuten σ ≥ 3.
» In allen drei Fällen ist die Stetigkeitskorrektur bei der
Berechnung der Wahrscheinlichkeiten zu beachten.
Statistik, Prof. Dr. Karin Melzer
Hochschule Esslingen
61
Herunterladen