Statistik B

Werbung
Statistik B
Wahrscheinlichkeitsrechnung und induktive
Statistik
Prof. Dr. Alois Kneip
Sommersemester 2010
Literatur:
Fahrmeier, Künstler, Pigeot und Tutz (2004): Statistik, Springer Verlag
Fahrmeier, Künstler, Pigeot, Tutz, Caputo und Lang
(2005): Arbeitsbuch Statistik, Springer Verlag
Statistik_II@finasto
0–1
Inhalt:
1) Wahrscheinlichkeitsrechnung
2) Diskrete Zufallsvariablen
3) Stetige Zufallsvariablen
4) Mehrdimensionale Zufallsvariablen
5) Stichproben und Schätzverfahren
6) Testen von Hypothesen
7) Spezielle Testprobleme
8) Lineare Einfachregression
Statistik_II@finasto
0–2
Einführung
Statistik I (Deskriptive Statistik)
Analyse von konkreten Daten: Datenaufbereitung,
Auswertung und Interpretation mit Hilfe von Maßzahlen (relative Häufigkeiten, Mittelwert, Median, usw.)
Statistik II (1. Teil: Wahrscheinlichkeitsrechnung, Zufallszahlen)
Entwicklung von stochastischen Modellen; Formalisierung eines Zufallsvorgangs; Fragestellung: Welche Resultate können eintreten und wie sind die zugehörigen
Wahrscheinlichkeiten?
Statistik II (2. Teil: Induktive Statistik)
Vergleich konkreter Daten mit idealisierter Modellvorstellung; Quantifzierung von Unsicherheit; Testen von
Hypothesen.
Statistik_II@finasto
0–3
Fragestellungen der Wahrscheinlichkeitsrechnung
Historisches Beispiel:
Analyse von „Glücksspiel“, Gewinnwahrscheinlichkeit
Frage des George Brossin Chevalier de Méré an
Blaise Pascal:
Was ist wahrscheinlicher: Bei 4 Würfen mit einem
Würfel (mindestens) einmal „6“ zu werfen oder bei 24
Würfen mit 2 Würfeln mindestens eine „Doppelsechs“
zu werfen?
Vermutung: Gleichwahrscheinlich.
(Doppelsechs ist zwar 6-mal weniger häufig als „6“,
aber dafür hat man 6-mal so viele Versuche.)
Feststellung des Chevalier de Méré (nach sehr vielen
Partien am Spieltisch): Nicht gleichwahrscheinlich.
Systematische Analyse dieser Situation?
Beispiel:
Wie groß ist die Wahrscheinlichkeit, im Lotto „6 Richtige“ zu tippen?
Statistik_II@finasto
0–4
Vorgehen der induktiven Statistik
Beispiel 1:
Experiment: 100-maliges Werfen einer Münze
Statistik I: (Datenanalyse)
⇒ Beobachtete absolute Häufigkeiten: 65 mal „Kopf“
und 35 mal „Zahl“
Frage: Münze fair (d.h. Ergebnis nur Zufall) oder manipuliert?
Statistik II:
Modellannahme: „Münze ist fair“
⇒ Chance für Kopf : Zahl stehen 50 : 50
Induktion: Falls die Modellannahme erfüllt ist, d.h.
falls die „Hypothese“ einer fairen Münze richtig ist, so
ist die Wahrscheinlichkeit bei 100 Versuchen ≥ 65 mal
Kopf zu beobachten nur 0, 003 (0,3%)
Schlussfolgerung: Die Hypothese einer fairen Münze
ist abzulehnen, die Münze ist wohl manipuliert
Statistik_II@finasto
0–5
Beispiel: Meinungsforschung
Frage: Wieviel Prozent der Bevölkerung sind für oder
gegen eine bestimmte wirtschaftspolitische Entscheidung der Bundesregierung?
Datenerhebung: Befragung von n = 1000 zufällig
ausgewählten Bürgerinnen und Bürgern (⇒ Zufallsstichprobe).
Datenanalyse (Statistik I): Relative Häufigkeiten z.B.
0, 513 = 51, 3% („dafür“) und 0, 487 = 48, 7% („dagegen“)
Problem: Unsicherheit! Wie nahe liegt die aus der
Stichprobe berechnete relative Häufigkeit an dem wahren Prozentsatz in der Bevölkerung?
Induktive Statistik: Formalisierung des Problems
und Berechnung von „Konfidenzintervallen“ zur Quantifizierung der Unsicherheit:
Mit einer sehr geringen Irrtumswahrscheinlichkeit liegt
der wahre Prozentsatz in der Bevölkerung im Intervall
[0, 513 ± 0, 031] = [0, 482, 0, 544]
Statistik_II@finasto
0–6
6
Wahrscheinlichkeitsrechnung
6.1
Grundbegriffe
Ziel der Wahrscheinlichkeitsrechnung ist die Analyse
einer stochastischen Situation. Grundlage ist die Modellierung von Zufallsvorgängen.
Zwei Fragen:
• Was kann alles passieren?
• Mit welcher Wahrscheinlichkeit passiert dies
oder jenes?
Ein Zufallsvorgang führt zu einem von mehreren,
sich gegenseitig ausschließenden Ergebnissen. Es ist
vor der Durchführung ungewiss, welches Ergebnis
tatsächlich eintreten wird.
Ein Zufallsexperiment ist ein Zufallsvorgang, der
unter kontrollierbaren Bedingungen wiederholbar
ist.
Idee:
Ein „Ergebnis“ ω ∈ S tritt ein, zufallsgesteuert.
Die (nichtleere) Menge S aller möglichen Ergebnisse
heißt Ergebnisraum oder Ereignisraum.
Statistik_II@finasto
6–1
Beispiele:
Lose ziehen (auf Kirmes)
S = {Niete, Trostpreis, Teddy, Ferrari}
Nächstes Spiel eines Fußballvereins
S = {Gewinn, Niederlage, Unentschieden}
Ein Münzwurf
S = {Kopf, Zahl}={+1,
b
−1}={0,
b
1}
Würfel
S = {1, 2, 3, 4, 5, 6}
Einarmiger Bandit
S = {(z1 , z2 , z3 )|zi ∈ {Glocke, Krone, Apfel}}
2 Würfel (Monopoly, Backgammon, . . . )
S = {(1, 1), (1, 2), (2, 2), (2, 3), . . . , (6, 6)}
Statistik_II@finasto
6–2
Beispiele (Fortsetzung):
Ziehung der Lottozahlen
(vereinfacht, ohne Zusatzzahl)
S = {{z1 , . . . , z6 }|zi ̸= zj 1 ≤ zi ≤ 49}
n Münzwürfe
S = {ω = (z1 , . . . , zn )|zi ∈ {K, Z}}
Anzahl Schadensmeldungen, die bei einer Versicherung in einem bestimmten Monat eingehen
S = {0, 1, 2, . . . }
Anzahl Unfälle auf einer bestimmten Kreuzung
S = {0, 1, 2, . . . }
Statistik_II@finasto
6–3
Beispiele (Fortsetzung):
Pfeilwurf auf Zielscheibe (mit Radius 20cm)
S = {alle Punkte in einer Kreisscheibe mit Radius 20cm}
={(x,
ˆ
y)|x2 + y 2 ≤ 202 } ⊂ R2
Drehen eines Glücksrads/Flaschendrehen
S = {Winkel von 0 bis 360◦ }=[0,
ˆ 360)
„Random-Taste“ auf Ihrem Taschenrechner
S = {Zufallszahlen im Einheitsintervall}=[0,
ˆ 1]
Aktienkurs
S = {Möglicher Tages-Verlauf der VW-Aktie morgen}
=
ˆ {Alle „Pfade“ ausgehend von heutigem Schlusskurs}
Statistik_II@finasto
6–4
Die letzten Beispiele zeigen:
Oft ist das Eintreten jedes einzelnen Ergebnisses
sehr, sehr unwahrscheinlich (z.B.: einen festen Punkt
auf der Zielscheibe treffen).
⇒ Diskussion von Wahrscheinlichkeiten nicht auf der
Ebene der Ergebnisse, sondern auf der Ebene der Ereignisse A ⊂ S.
Eine Teilmenge A des Ergebnisraums S heißt Ereignis.
Wir sagen: „A tritt ein“, wenn ein Ergebnis ω ∈ A
eintritt.
einzelnes Ergebnis ω ∈ S ⇔ Elementarereignis A =
{ω}
Beispiele:
Ein Münzwurf:
A = „Kopf liegt oben“
= {K} ⊂ S = {K,Z}
1 Würfel:
A = „Eine 6 wird gewürfelt“ = {6} ⊂ {1, 2, 3, 4, 5, 6}
B = „Eine gerade Zahl wird gewürfelt“ = {2, 4, 6}
C = „Mehr als 4 wird gewürfelt“ = {5, 6}
Statistik_II@finasto
6–5
Beispiele (Fortsetzung):
2 Würfel:
A = „Pasch gewürfelt“
B = „Doppelsechs“
C = „Keine 4 dabei“
Einarmiger Bandit:
A = „Hauptgewinn“
= {„Automat zeigt 3 Kronen“}
= {(Krone,Krone,Krone)}
Glücksrad / Flaschendrehen:
A = „Glücksrad bleibt in bestimmtem Sektor stehen“
= „Flasche zeigt auf bestimmte Person“
= {Winkel ∈ [α, α]}
Zielscheibe:
A = „Pfeil trifft ins Schwarze“
= {(x, y)|x2 + y 2 ≤ 1}
B = „Pfeil landet im äußeren Ring“
= {(x, y)|182 < x2 + y 2 ≤ 202 }
Statistik_II@finasto
6–6
Beispiele (Fortsetzung):
Schadensmeldungen / Unfälle:
A = „kein Schaden“
= {0} ⊂ N
B = „höchstens 4 Schäden“
C = „Mehr als 100 Schäden“
Aktienkurs:
A = „Schlusskurs ist größer als Ausgangskurs“
B = „mehr als 3% zugelegt“
Statistik_II@finasto
6–7
6.2
Mengen und Ereignisse
x ∈ A: „x ist ein Element der Menge A“.
x ̸∈ A: „x ist kein Element der Menge A“.
A ⊂ B: A ist Teilmenge von B; x ∈ A ⇒ x ∈ B.
Die Schnittmenge A ∩ B ist die Menge aller Elemente, die sowohl in A als auch in B sind;
A ∩ B = {x : x ∈ A und x ∈ B}
Die Vereinigungsmenge A ∪ B ist die Menge aller
Elemente, die in A oder B sind;
A ∪ B = {x : x ∈ A oder x ∈ B}.
Die Differenzmenge A\B ist die Menge aller Elemente, die in A aber nicht in B sind;
A\B = {x : x ∈ A und x ̸∈ B}.
Für A ⊂ S ist die Komplementärmenge Ā von A
bzgl S die Menge aller Elemente von S, die nicht in
A sind. (Andere Notation: Ac , {A.)
Die Potenzmenge P(S) ist die Menge aller Teilmengen von S; P(S) = {M |M ⊂ S}.
Die Mächtigkeit (Kardinalität) von S ist die Anzahl der Elemente in S; #S = #{x : x ∈ S}.
Statistik_II@finasto
6–8
Rechenregeln für Mengen
(Veranschaulichung im Venn-Diagramm)
• Kommutativgesetz:
A∩B =B∩A
A∪B =B∪A
• Assoziativgesetz:
(A ∩ B) ∩ C = A ∩ (B ∩ C)
(A ∪ B) ∪ C = A ∪ (B ∪ C)
• Distributivgesetz:
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
• De Morgansche Regeln:
(A ∪ B) = Ā ∩ B̄
(A ∩ B) = Ā ∪ B̄
• Aus A ⊂ B folgt B̄ ⊂ Ā.
• Für die Differenzmenge A\B gilt:
A\B = A ∩ B̄.
Statistik_II@finasto
6–9
Ein Ereignis ist jede beliebige Teilmenge des Ereignisraumes
Beispiel:
Zufallsexperiment: einmaliges Werfen eines Wurfels
Ereignis A: \Werfen einer geraden Augenzahl"
A = 2; 4; 6
) f
g
Sicheres Ereignis
S
Ereignis, das als Ergebnis des Zufallsexperiments
eintreten mu
Unm
ogliches Ereignis
;
Ereignis, das im Ergebnis des Zufallsexperimentes
auf keinen Fall eintreten kann
Statistik_II@finasto
6–10
Komplement
arereignis
Menge samtlicher Elementarereignisse des Ereignisraumes S , die nicht im betrachteten Ereignis
enthalten sind
Ereignis
Komplementarereignis zu A
A
A
=;
S
Beispiel:
Zufallsexperiment: einmaliges Werfen eines Wurfels
Ereignis A: \Werfen einer geraden Augenzahl"
A = f2; 4; 6g
= f1; 3; 5g
A
Statistik_II@finasto
6–11
Venn-Diagramm:
Statistik_II@finasto
6–12
Relationen und Operationen von
Ereignissen
A zieht B nach sich: A B
Wenn bei der Realisierung gegebener Bedingungen, bei der das Ereignis
eintritt, stets auch
das Ereignis
eintritt, so sagt man
zieht
nach sich. ist eine Teilmenge von .
A
B
A
B
A
B
A und B sind gleichwertig (aquivalent), wenn
A B und B A: A B
Statistik_II@finasto
6–13
Vereinigung von Ereignissen (logische Summe)
Die Vereinigung zweier Ereignisse A und B ist die
Menge aller Elementarereignisse, die zu A oder B
geh
oren: A
[B =C
A
[B
Verallgemeinerung
Ereignisse: A1; A2; : : : ; An
A
Statistik_II@finasto
1[A2[ : : : [An =
[
n
=1
Ai
i
6–14
Durchschnitt von Ereignissen
Der Durchschnitt von A und B ist die Menge aller
Elementarereignisse, die sowohl zu A als auch zu
B geh
oren: A
\B =C
A
\B
Verallgemeinerung
Ereignisse: A1; A2; : : : ; An
A
Statistik_II@finasto
1\A2\ : : : \An =
\
n
=1
Ai
i
6–15
Disjunkte Ereignisse
Zwei Ereignisse A und B heien disjunkt, wenn ihr
gleichzeitiges Eintreten unmoglich ist:
A\B =;
Stets disjunkt:
A und A : A \ A = ;
A und ; : ; \ A = ;
Statistik_II@finasto
6–16
Logische Dierenz von Ereignissen
Ereignis C , das darin besteht, da das Ereignis
A eintritt, w
ahrend das Ereignis B nicht eintritt:
A B = C = A
B
n
\
Beispiel:
Zufallsexperiment: einmaliges Werfen eines Wurfels
f
) n
A
g
f g
= f1 2g, n = f4g
= 1; 2; 3 , B = 3; 4
A B
=C
Statistik_II@finasto
;
B A
6–17
Zerlegung des Ereignisraumes
S
Ein System von Ereignissen A1; A2; : : : ; An heit
eine Zerlegung von S , wenn die Relationen
Ai 6= ;, (i = 1; 2; : : : ; n)
Ai \ Ak = ;, f
ur i 6= k, disjunkt
A1 [ A2 [ : : : [ An = S
gelten und eines der Ereignisse bei einem Zufallsexperiment eintreten mu
Beispiel:
Zufallsexperiment: Werfen eines Wurfels
= f1; 2; 3; 4; 5; 6g
S
1 = f1g
A4 = f5; 6g
A
2 = f3; 4g
A5 = f2; 5g
A
3 = f1; 3; 4g
A6 = f6g
A
Zerlegung von S : A1; A2; A5; A6
1 \ A2 = ;
A2 \ A5 = ;
A
1 \ A5 = ;
A2 \ A6 = ;
A
1 \ A6 = ;
A5 \ A6 = ;
A
1 [ A2 [ A5 [ A6 = S
A
Statistik_II@finasto
6–18
Zerlegung des Ereignisraumes
S
Ein System von Ereignissen A1; A2; : : : ; An heit
eine Zerlegung von S , wenn die Relationen
Ai 6= ;, (i = 1; 2; : : : ; n)
Ai \ Ak = ;, f
ur i 6= k, disjunkt
A1 [ A2 [ : : : [ An = S
gelten und eines der Ereignisse bei einem Zufallsexperiment eintreten mu
Beispiel:
Zufallsexperiment: Werfen eines Wurfels
= f1; 2; 3; 4; 5; 6g
S
1 = f1g
A4 = f5; 6g
A
2 = f3; 4g
A5 = f2; 5g
A
3 = f1; 3; 4g
A6 = f6g
A
Zerlegung von S : A1; A2; A5; A6
1 \ A2 = ;
A2 \ A5 = ;
A
1 \ A5 = ;
A2 \ A6 = ;
A
1 \ A6 = ;
A5 \ A6 = ;
A
1 [ A2 [ A5 [ A6 = S
A
Statistik_II@finasto
6–19
Zusammenfassung
Beschreibung des zugrunde- Bezeichnung (Sprech- Darstellung
liegenden Sachverhaltes
weise)
A
tritt sicher ein
A
tritt sicher nicht ein
wenn
A
A
ist sicheres Ereignis
ist unmogliches Ereignis
A
eintritt, tritt B ein
A
ist Teilmenge von B
genau dann, wenn A eintritt,
und B sind aquivalente Ereignisse
wenn A eintritt, tritt B nicht
und B sind disjunkte
Ereignisse
tritt B ein
ein
A
A
=S
A
=;
A
B
A
B
A
\B =;
B
= A
genau dann, wenn A eintritt,
A
genau dann, wenn minde-
A
ist Vereinigung der Ai
A
=
S
genau dann, wenn alle
A
ist Durchschnitt der
A
=
T
tritt B nicht ein
stens ein Ai eintritt
(genau dann, wenn A1 oder
A2 oder : : : eintritt), tritt A
ein
Ai
eintreten
(genau dann, wenn A1 und
A2 und : : : eintreten), tritt A
ein
Statistik_II@finasto
und B sind komplementare Ereignisse
A
Ai
i
i
Ai
Ai
6–20
6.3
Wahrscheinlichkeiten
Vor der Durchführung eines Zufallsvorgangs ist es
ungewiss, welches Ereignis eintritt. In der Wahrscheinlichkeitsrechnung wird nun die Chance für das
Eintreten eines bestimmten Ereignisses A ⊂ S durch
eine Zahl, die „Wahrscheinlichkeit“ P [A], bewertet.
Problem: Wie kommt man zu Wahrscheinlichkeiten?
1) Klassischer Wahrscheinlichkeitsbegriff
(Laplace-Wahrscheinlichkeiten)
Bei „fairen“Würfeln, Glücksrädern, Münzen,
Lotto-Ziehungsgeräten, etc., gilt
• S = {ω1 , . . . , ωN } ist endlich
• Alle Ergebnisse sind gleichwahrscheinlich
⇒ Die Wahrscheinlichkeit von A ⊂ S ergibt sich
durch Abzählen:
Anzahl der Elementarereignisse in A
P [A] =
Anzahl der Elementarereignisse in S
Beispiel: Würfel, A =”gerade Augenzahl
⇒ P [A] = 3/6 = 1/2
Statistik_II@finasto
6–21
2) Objektiver (statistischer) Wahrscheinlichkeitsbegriff
Wahrscheinlichkeiten ergeben sich als Grenzwert der
relativen Häufigkeit eines Ereignisses A ⊂ S
• n-malige Wiederholung des interessierenden Zufallsexperiments ⇒ relative Häufigkeit fn (A)
• Feststellung: Für n → ∞ stabilisieren sich die relativen Häufigkeiten erfahrungsgemäß um einen
festen Wert. Dieser Wert entspricht der Wahrscheinlichkeit P [A]
Beispiel: n = 100, 1000, 10000, . . . mal würfeln. Bei einem fairen Würfel stabilisieren sich die relativen Häufigkeiten von A =„gerade Augenzahl“ um P [A] = 1/2.
3) Subjektive Wahrscheinlichkeiten
Subjektive Wahrscheinlichkeiten geben persönliche Einschätzungen wider.
Beispiele: Ihre Einschätzung der Chance, die Klausur
Statistik II zu bestehen; Konjunkturprognose durch
einen Sachverständigen
Statistik_II@finasto
6–22
1. Beispiel:
Stabilisierung der relativen Häufigkeiten beim wiederholten Wurf einer fairen Münze.
n
h(„Kopf“)
f („Kopf“)
10
7
0,700
20
11
0.550
40
17
0,425
60
24
0,400
80
34
0,425
100
47
0,470
200
92
0,460
400
204
0,510
600
348
0,580
800
404
0,505
1000
492
0,492
2000
1010
0,505
3000
1530
0,510
4000
2032
0,508
5000
2515
0,503
Statistik_II@finasto
6–23
2. Beispiel:
Stabilisierung der relativen Häufigkeiten beim wiederholten Wurf eines fairen Würfels.
n = 20 Würfe
n = 200 Würfe
0.25
0.2
0.15
0.15
0.1
0.1
0.05
0.05
1
2
3
4
5
1
6
n = 2.000 Würfe
2
3
4
5
6
n = 20.000 Würfe
0.175
0.15
0.15
0.125
0.125
0.1
0.1
0.075
0.075
0.05
0.05
0.025
0.025
1
2
3
Statistik_II@finasto
4
5
6
1
2
3
4
5
6
6–24
3. Beispiel:
Man betrachte ein Land mit N = 82.000.000 Bürgerinnen und Bürgern.
• 41.820.000 Frauen ⇒ Anteil = 51%
• 40.180.000 Männer ⇒ Anteil = 49%
• Zufallsexperiment: Ziehen eines zufällig ausgewählten Individuums (⇒ 82.000.000 mögliche Elementarereignisse
Frage: Wahrscheinlichkeit des Ereignisses A („Frau“)?
41.820.000
= 0.51
P [A] =
82.000.000
Wiederholtes Ziehen von n = 10, 100, 1000, ... Individuen: Mit wachsendem n nähert sich fn (A) immer
stärker der Wahrscheinlichkeit P [A] an.
Vollerhebung: fN (A) = P [A]
Statistik_II@finasto
6–25
6.4
Wahrscheinlichkeitsverteilungen
Ziel: Unabhängig von der Art des Wahrscheinlichkeitsbegriffs entwickeln wir einen Apparat, mit dem
wir die Ausgänge eines Zufallsvorgangs quantifizieren
können. Wir legen hier nur fest, welche Eigenschaften
Wahrscheinlichkeiten haben müssen und wie wir mit
ihnen rechnen dürfen.
Jede „sinnvolle“ Zuordnung von Wahrscheinlichkeiten
für Ereignisse A, B ⊂ S besitzt z.B. folgenden Eigenschaften:
0 ≤ P [A] ≤ 1
P [S] = 1
A ⊂ B ⇒ P [A] ≤ P [B]
P [Ā] = 1 − P [A]
P [A ∪ B] = P [A] + P [B], falls A und B nicht gleichzeitig eintreten können.
Die von Wahrscheinlichkeiten zu fordernden Eigenschaften sind in den „Axiomen“ des russischen Mathematikers Kolmogoroff zusammengefasst.
Alle zum Umgang mit Wahrscheinlichkeiten wichtigen Rechenregeln lassen sich aus diesen Axiomen ableiten.
Statistik_II@finasto
6–26
Gegeben: Diskreter Ereignisraum S = {ω1 , ω2 , . . .}
Ein Wahrscheinlichkeitsmaß P ist eine Abbildung,
die allen Ereignissen A eines Zufallsvorgangs eine Zahl
P [A] zuordnet, und die folgenden Bedingungen (Eigenschaften, Axiome) genügt:
Axiom 1:
Die Wahrscheinlichkeit P [A] eines Ereignisses A ist
eine eindeutig bestimmte Zahl mit
0 ≤ P [A] ≤ 1 (Nichtnegativität)
Axiom 2:
P [S] = 1 (Normierung)
Axiom 3: (Additivität)
Sind A1 , A2 , . . . , Ak , . . . paarweise disjunkt, dann
gilt Für disjunkte Ereignisse (A ∪ B = ∅) gilt
P [A1 ∪A2 ∪. . .∪Ak . . .] = P [A1 ]+P [A2 ]+. . .+P [Ak ]+. . .
(S, P[S], P ) heißt dann ein (diskreter) Wahrscheinlichkeitsraum und P heißt (diskrete) Wahrscheinlichkeitsverteilung.
Falls S endlich ist, S = (ω1 , . . . , ωN ), sprechen wir von
einem endlichen Wahrscheinlichkeitsraum.
Statistik_II@finasto
6–27
S : „Was kann alles passieren?“
genauer: „Welche Ereignisse sind modelliert?“
P : „Mit welcher Wahrscheinlichkeit treten die Ereignisse ein?“
Rechenregeln:
• P [S] = 1, P [∅] = 0
• P [A] ≤ P [B], falls A ⊂ B
• P [Ā] = 1 − P [A] mit Ā = S\A
• P [A1 ∪A2 ∪. . .∪Ak ] = P [A1 ]+P [A2 ]+. . .+P [Ak ],
falls A1 , A2 , . . . , Ak paarweise disjunkt
• P [A\B] = P [A] − P [A ∩ B]
• Additionssatz:
P [A ∪ B] = P [A] + P [B] − P [A ∩ B]
Statistik_II@finasto
6–28
Beispiele:
1. Fairer Würfel:
• Elementarwahrscheinlichkeiten:
1
p1 = P [{1}] = = p2 = · · · = p6
6
• Wahrscheinlichkeit eine gerade Zahl zu würfeln:
P [„Gerade Zahl“] = P [{2, 4, 6}]
1 1 1
1
= p2 + p4 + p6 = + + =
6 6 6
2
• Wahrscheinlichkeit eine ungerade Zahl zu würfeln:
P [„Ungerade Zahl“] = P [{1, 3, 5}]
1
= p1 + p3 + p5 =
2
= 1 − P [„Gerade Zahl“]
• Wahrscheinlichkeit mehr als 4 zu würfeln:
P [„Mehr als 4“] = P [{5, 6}]
= p5 + p6 =
Statistik_II@finasto
1 1
1
+ =
6 6
3
6–29
2. Gefälschter Würfel:
• Elementarwahrscheinlichkeiten:
p1 =
1
1
1
, p2 = p3 = p4 = p5 = , p6 =
12
6
4
• Wahrscheinlichkeit eine gerade Zahl zu würfeln:
P [„Gerade Zahl“] = P [{2, 4, 6}]
= p2 + p4 + p6 =
1 1 1
7
+ + =
6 6 4
12
• Wahrscheinlichkeit eine ungerade Zahl zu würfeln:
P [„Ungerade Zahl“] = P [{1, 3, 5}]
5
12
= 1 − P [„Gerade Zahl“]
= p1 + p3 + p5 =
• Wahrscheinlichkeit mehr als 4 zu würfeln:
P [„Mehr als 4“] = P [{5, 6}]
1 1
5
= p5 + p6 = + =
6 4
12
Statistik_II@finasto
6–30
3. Warten auf die erste Zahl beim wiederholten
Wurf einer fairen Münze:
• Elementarwahrscheinlichkeiten:
P [„Zahl im 1. Versuch“] = 12 =: p1
P [„Zahl erst im 2. Versuch“] = 14 =: p2
P [„Zahl erst im 3. Versuch“] = 21 · 12 · 12 = 81 =: p3
( 1 )k
P [„Zahl erst im kten Versuch“] = 2 =: pk
Probe:
∞
∑
pk =
k=1
∞ ( )k
∑
1
k=1
2
=1
(Geometr. Reihe)
• Wahrscheinlichkeit für eine gerade Anzahl von Versuchen:
P [„Gerade Anzahl Versuche“]
∞ ( )2k
∑
1
1 1
1
= p2 + p4 + p6 + · · · =
=
=
2
4 1 − 14
3
k=1
• Wahrscheinlichkeit für eine ungerade Anzahl von
Versuchen:
P [„Ungerade Anzahl Versuche“]
1
2
= 1 − = = p1 + p3 + p5 + · · ·
3
3
Statistik_II@finasto
6–31
Allgemeine Wahrscheinlichkeitsräume
Wenn der Grundraum nicht diskret ist, können die
Wahrscheinlichkeiten von Ereignissen nicht mehr durch
Summieren von Elementarwahrscheinlichkeiten berechnet werden.
Betrachtet man z.B. den Pfeilwurf auf eine Zielscheibe, so ist die Trefferwahrscheinlichkeit für jeden fest
gewählten, einzelnen Punkt der Scheibe gleich 0. Damit kann die Wahrscheinlichkeit für „einen Treffer ins
Schwarze“ nicht als Summe der Elementarwahrscheinlichkeiten aller Punkte „im Schwarzen“ erhalten werden.
Anmerkung: Bei nicht diskreten Räumen ist weiterhin zu
beachten, dass es aus mathematischen Gründen nicht möglich ist, allen denkbaren Mengen A ⊂ S Wahrscheinlichkeiten zuzuweisen und gleichzeitig zu verlangen, dass die
Rechenregeln für Wahrscheinlichkeiten weiter gelten. Als
Ausweg betrachtet man eine Kollektion von Mengen, die
abgeschlossen ist unter mengentheoretischen Operationen
(„σ-Algebra“). Nur noch den in der Kollektion enthaltenen
Ereignissen wird eine Wahrscheinlichkeit zugeordnet. Alle
in der Praxis relevanten Mengen wie z.B. Intervalle, Quadrate, Rechtecke, Kreise, Kreissektoren, Kreisringe, usw.,
sind i. Allg. in einer solchen Kollektion enthalten.
Statistik_II@finasto
6–32
6.5
Laplace-Modell
Annahmen im Laplace-Modell:
• S endlich, S = {ω1 , . . . , ωN }
• Alle Elementarereignisse gleichwahrscheinlich
⇒ Elementarwahrscheinlichkeiten:
1
1
pk = P [{ωk }] =
=
N
#S
für alle k = 1, . . . , N
⇒ Berechnung der Wahrscheinlichkeit von A:
∑
1
P [A] =
pk = #{ωk |ωk ∈ A} ·
N
ωk ∈A
#{ωk |ωk ∈ A}
=
#S
Anzahl der für A günstigen Fälle
=
Anzahl aller Fälle
Beispiele: Fairer Würfel, faire Münze.
2 faire Würfel: P [„Pasch“] =
6
36
=
1
6
Kompliziertere Modelle (z.B. Wahrscheinlichkeit fuer
3,4,5,6 Richtige beim Lotto)
⇒ geschicktes Abzählen: Kombinatorik.
Statistik_II@finasto
6–33
6.6
Zufallsstichproben und Kombinatorik
Gegeben: Grundgesamtheit bestehend aus N Elementen {e1 , . . . , eN }
Beispiele: Urne bestehend aus 49 Kugeln (Lottozahlen), Gesamtheit aller Studenten in Bonn,...
Wir betrachten nun Stichproben, die durch zufällige Ziehung von n Elementen der Grundgesamtheit
entstehen
Beispiele: Ziehung der Lottozahlen, Erstellung einer
Zufallsstichprobe von Bonner Sudenten zu statistischen Zwecken
In vielen Fällen interessiert man sich dabei für die
Wahrscheinlichkeit eine bestimmte Stichprobe zu
ziehen. Diese hängt ab von der Gesamtzahl der
möglichen Stichproben in Abhängigkeit von der Art
und Weise des Ziehungsvorgangs. und erfordert die
Anwendung von kombinatorischen Überlegungen.
Statistik_II@finasto
6–34
Modell mit Zurücklegen
Grundgesamtheit aus N Elementen; n voneinander
unabhängige Ziehungen jeweils eines zufälligen Elements ( nach jeder Ziehung wird das gezogene Element wieder in die Grundgesamtheit zurückgelegt).
Anzahl der möglichen Stichproben: N n
Grundgesamtheit aus N = 3 Elementen {a, b, c}
Stichproben des Umfangs n = 2: {a, a}, {a, b}, {a, c},
{b, a}, {b, b}, {b, c}, {c, a}, {c, b}, {c, c}
Jede dieser Stichproben wird mit der gleichen Wahrscheinlichkeit (1/9) gezogen
Stichproben, die durch unabhängiges Ziehen mit Zurücklegen aus einer Grundgesamtheit entstehen, heißen einfache Zufallsstichproben.
Statistik_II@finasto
6–35
Die Antwort auf die Frage des Chevalier de Méré:
Was ist wahrscheinlicher: Aus 4 Würfen mindestens
eine „6“ oder aus 24 Würfen mindestens eine „Doppelsechs“ zu erhalten?
Fall 1: Mindestens eine 6 aus 4 Würfen
• Gesamtzahl aller möglichen Stichproben (= Ergebnisse der 4 Würfe): 64
• Gesamtzahl aller möglichen Stichproben (= Ergebnisse der 4 Würfe), die keine 6 enthalten: 54
⇒ P [„mindestens eine 6 aus 4 Würfen“]
= 1 − P [„keine 6 aus 4 Würfen“]
54
= 1 − 4 ≈ 0, 5177
6
Analog: P [„mindestens eine Doppelsechs aus 24 Würfen“]
= 1 − P [„keine Doppelsechs aus 24 Würfen“]
3524
= 1 − 24 ≈ 0, 4914
36
(An der kleinen Differenz der Wahrscheinlichkeiten
sieht man, dass der Chevalier de Meré ein äußerst eifriger Spieler gewesen sein muss, um den Unterschied
am Spieltisch wahrzunehmen.)
Statistik_II@finasto
6–36
Modell ohne Zurücklegen
Grundgesamtheit aus N Elementen; n aufeinanderfolgende Ziehungen jeweils eines zufälligen Elements. Nach jeder Ziehung wird das gezogene Element nicht wieder in die Grundgesamtheit zurückgelegt).
Grundgesamtheit aus N = 3 Elementen {a, b, c}
6 Stichproben des Umfangs n = 2 bei Ziehen ohne
Zurücklegen: {a, b}, {a, c}, {b, a}, {b, c}, {c, a}, {c, b}
Jede dieser Stichproben ist gleichwahrscheinlich (1/6)
.
Anmerkung: Beim Modell ohne Zurücklegen sind
die einzelnen Ziehungen nicht unabhängig voneinander; das Resultat einer Ziehung beeinflusst die
möglichen Ergebnisse jeder weiteren Ziehung
Statistik_II@finasto
6–37
Modell ohne Zurücklegen
Anzahl der möglichen Stichproben vom Umfang n:
N!
N · (N − 1) · (N − n + 1) =
(N − n)!
Fakultät
Die Fakultät einer natürlichen Zahl k ist definiert
durch
k! = k · (k − 1) · (k − 2) · . . . · 2 · 1
Es gilt
1! = 1,
0! = 1
Beispiele:
2! = 2
3! = 6
4! = 24
10! = 3628800
20! = 2432902008176640000
Statistik_II@finasto
6–38
Permutationen
Grundgesamtheit aus N Elementen; durch N maliges zufälliges Ziehen ohne Zurücklegen werden
nacheinander alle Elemente der Grundgesamtheit
gezogen.
Die resultierenden Stichproben (Permutationen) unterscheiden sich nur in der Reihenfolge der Elemente.
Anwendungsbeispiel: Auslosung der Startreihenfolge bei einem Sportereignis mit N teilnehmenden
Sportlern.
N = 3 Elementen {a, b, c} 6 mögliche Permutationen:
{a, b, c}, {a, c, b}, {b, a, c}, {b, c, a}, {c, a, b}, {c, b, a}
Jede Permutation ist gleichwahrscheinlich (1/6)
Anzahl möglicher Permutationen bei N Objekten:
Statistik_II@finasto
N!
6–39
Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge
Grundgesamtheit aus N Elementen; durch zufälliges Ziehen ohne Zurücklegen werden nacheinander
n Elemente gezogen.
Keine Berücksichtigung der Reihenfolge; zwei Stichproben sind äquivalent, wenn sie die gleichen Elemente entahlten.
Anzahl der möglichen Stichproben vom Umfang n
(jeweils gleichwahrscheinlich):
( )
N
n
Binomialkoeffizient
(N )
Der Binomialkoeffizient n ist definiert als
( )
N
N!
=
(N − n)! · n!
n
Es gilt
( )
( )
( )
N
N
N
= 1,
= N,
= 1,
0
1
N
( )
N
= 0 falls N < n
n
Statistik_II@finasto
6–40
Anwendungsbeispiel: Ziehung der Lottozahlen.
Bei der Ziehung der Lottozahlen handelt es sich um
ein Beispiel für ein Modell ohne Zurücklegen und
ohne Berücksichtigung der Reihenfolge. Die Stichprobe
4, 7, 11, 13, 26, 28
wird nicht unterschieden von der Ziehung
11, 26, 13, 28, 4, 7
Es gibt also
( )
49
49!
=
= 13983816
6
(43)! · 6!
Möglichkeiten 6 Lottozahlen aus 49 Kugeln zu ziehen
⇒ Wahrscheinlichkeit, dass eine bestimmte (getippte)
Kombination die richtige ist:
P [”6 Richtige”] =
Statistik_II@finasto
1
= 0, 000000072
13983816
6–41
Wahrscheinlichkeit für 3, 4, 5, 6 Richtige?
Modell ohne Zurücklegen, Reihenfolge irrelevant
⇒ alle Ziehungen gleichwahrscheinlich
⇒ Laplace-Modell
1
P [„6 Richtige“] = (49) =
6
P [„3 Richtige“] =
=
1
≈ 0, 000000072
13.983.816
#{„3 Richtige und 3 Falsche“}
#{Alle möglichen Tipps}
(6)(49−6)
3
(496−3
)
= ...
6
#{„k Richtige und 6 − k Falsche“}
P [„k Richtige“] =
#{Alle möglichen Tipps}
(6)(49−6)
=
k
(496−k
)
6
Statistik_II@finasto
6–42
Anmerkungen:
In der Sprache der Kombinatorik werden Zusammenstellungen (Ziehungen) von n Elementen, die
sich unter Berücksichtigung der Reihenfolge ergeben, als Variationen bezeichnet
Zusammenstellungen (Ziehungen) von n Elementen, die ohne Berücksichtigung der Reihenfolge ergeben, werden Kombinationen genannt
Anzahl Stichproben beim Modell mit Zurücklegen
und ohne Berücksichtigung der Reihenfolge (Kombination mit Wiederholung):
(
)
N +n−1
n
Vorsicht: Stichproben nicht gleichwahrscheinlich
Statistik_II@finasto
6–43
6.7
Bedingte Wahrscheinlichkeiten und
Unabhängigkeit
Bei manchen Problemen der Wahrscheinlichkeitsrechnung betrachtet man das Eintreten von Ereignissen in
Abhängigkeit von bestimmten anderen Ereignissen.
Beispiel: Ein Unternehmen stellt 2000 Teile auf zwei
Maschinen her.
• 1400 Teile werden auf Maschine 1 hergestellt.
Davon sind 1162 Teile fehlerfrei.
• 600 Teile werden auf Maschine 2 produziert.
Hiervon sind 378 Teile fehlerfrei.
A ={Teil ist fehlerfrei}
B ={Teil auf Maschine 1 hergestellt}
C ={Teil auf Maschine 2 hergestellt}
Statistik_II@finasto
6–44
fehlerfrei = A
mit Fehlern = Ā
Maschine 1 = B
1162
238
1400
Maschien 2 = C
378
222
600
1540
460
2000
1540
P [A] =
= 0, 77
2000
1400
P [B] =
= 0, 7
2000
1162
P [A ∩ B] =
= 0, 581
2000
Wie hoch ist die Wahrscheinlichkeit, dass ein zufällig
entnommenes fehlerfreies Teil auf Maschine 1 hergestellt wurde?
P [A ∩ B]
0, 581
P [B|A] =
=
= 0.7545
P [A]
0, 77
Statistik_II@finasto
6–45
Bedingte Wahrscheinlichkeit
Wollen definieren: Wahrscheinlichkeit von A, angenommen B tritt ein. (B ist „neuer“ Grundraum)
Bezeichnung: P [A|B]
Definition: [bedingte Wahrscheinlichkeit]
Man betrachte Ereignisse A, B ⊂ S mit P [B] > 0.
Die bedingte Wahrscheinlichkeit von A gegeben B wird definiert durch
P [A|B] :=
P [A ∩ B]
P [B]
P [·|B] als Funktion der Ereignisse A heisst bedingte
Wahrscheinlichkeitsverteilung bzgl B.
Bedingte Wahrscheinlichkeiten sind wiederum Wahrscheinlichkeiten im Sinne der Axiome von Kolmogoroff
(alle Rechenregeln für „normale“ Wahrscheinlichkeiten
sind erfüllt).
Statistik_II@finasto
6–46
Unabhängigkeit
Definition: [Unabhängige Ereignisse]
Ein Ereignis A ist dann von einem Ereignis B stochastisch unabhängig, wenn das Eintreten des Ereignisses A von dem Eintreten oder Nichteintreten
des Ereignisses B nicht abhängt.
P [A|B] = P [A]
P [B|A] = P [B]
P [A ∩ B] = P [A] P [B]
Bemerkung: unabhängig ist nicht gleichbedeutend
mit disjunkt
Beispiel:
Zwei Ereignisse: A und B mit P [A] > 0, P [B] > 0
P [A ∩ B] = ∅ ⇒ P [A ∩ B] = 0
aber: P [A ∩ B] = 0 ̸= P [A] P [B]
Statistik_II@finasto
6–47
Beispiel 1:
Zweimaliges Werfen eines Würfels
A = {„Im ersten Wurf eine 6“}
B = {„Im zweiten Wurf eine 6“}
P [B|A] = P [B] =
1
,
6
A und B sind unabhängig
Beispiel 2: Augenfarbe und Intelligenz
A = {„Hohe Intelligenz“}, B = {„Blaue Augen“}
Vierfeldertafel der Wahrscheinlichkeiten in einer Population:
IQ\Augen
B (blau)
B̄ (nicht blau)
Summe
A
P [A ∩ B] = 0.1
P [A ∩ B̄] = 0.4
P [A] = 0.5
Ā
P [Ā ∩ B] = 0.1
P [Ā ∩ B̄] = 0.4
P [Ā] = 0.5
Summe
P [B] = 0.2
P [B̄] = 0.8
P [S] = 1
P [A ∩ B] = P [A] · P [B] = 0.1,
P [Ā ∩ B̄] = P [Ā)] · P [B̄] = 0.4
⇒ A und B sind unabhängig,
Statistik_II@finasto
6–48
Verallgemeinerung auf mehr als zwei Ereignisse
Multiplikationssatz:
Für Ereignisse A1 , . . . , An
P [A1 ∩ . . . ∩ An ] = P [A1 )] · P [A2 |A1 ]
· P [A3 |A1 ∩ A2 ] · · ·
· P [An |A1 ∩ . . . ∩ An−1 ]
Unabhängigkeit:
Die Ereignisse A1 , . . . , An heißen stochastisch unabhängig, wenn für jede Auswahl Ai1 , . . . , Aim mit
m ≤ n gilt
P [Ai1 ∩ . . . ∩ Aim ] = P [Ai1 ] · P [Ai2 ] · · · P [Aim ]
Statistik_II@finasto
6–49
6.8
Totale Wahrscheinlichkeit und das
Theorem von Bayes
Beispiel: [Weinkeller]
• Qualitätswein, Kabinett, Spätlese: 5:3:2
• Weißweinanteil: 1/5, 1/3 bzw. 1/4
Wahrscheinlichkeit für Weinsorten
A1 = { Qualitätswein }
P [A1 ] = 0, 5
A2 = { Kabinett }
P [A2 ] = 0, 3
A3 = { Spätlese }
P [A3 ] = 0, 2
⇒ vollständige Zerlegung von S
A1 ∪ A2 ∪ A3 = S
A1 ∩ A2 = ∅, A1 ∩ A3 = ∅, A2 ∩ A3 = ∅,
Frage: Wie hoch ist die Wahrscheinlichkeit für Ereignis
B, eine ausgewählte Flasche ist „Weißwein“?
1
5
1
P [B|A2 ] =
3
1
P [B|A3 ] =
4
P [B|A1 ] =
Statistik_II@finasto
6–50
A 1 Qualitätswein
A1
B
A2
A3
B
B
A3 Kabinett
A2 Spätlese
Vorgehen: A1 .A2 , A3 bilden eine vollständige Zerlegung des Grundraums S
⇒ B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 )
P [B] =P [(B ∩ A1 ) ∪ (B ∩ A2 ) ∪ (B ∩ A3 )]
=P [(B ∩ A1 )] + P [(B ∩ A2 )] + P [(B ∩ A3 )]
=P [B|A1 ] P [A1 ] + P [B|A2 ] P [A2 ]
+ P [B|A3 ] P [A3 ]
1 1 1 3
1 2
= · + ·
+ ·
5 2 3 10 4 10
1
=
4
Statistik_II@finasto
6–51
Totale Wahrscheinlichkeit
Satz von der totalen Wahrscheinlichkeit:
Seien A1 , . . . , Ak Ereignisse, die eine Zerlegung
von S bilden, d.h. es gilt: Ai ∩ Aj = ∅, i ̸= j, und
A1 ∪ A2 ∪ · · · ∪ Ak = S.
Dann folgt für ein Ereignis B ⊂ S:
P [B] = P [A1 ∩ B] + P [A2 ∩ B] + . . . + P [Ak ∩ B]
=
k
∑
P [Ai ∩ B]
i=1
=
k
∑
P [B|Ai ] · P [Ai ].
i=1
Statistik_II@finasto
6–52
Beispiel: [Weinkeller (Fortsetzung)]
Weitere mögliche Fragestellung:
Wie groß ist die Wahrscheinlichkeit P [A1 |B] dafür,
daß eine zufällig ausgewählte Weißweinflasche Qualitätswein ist?
Grundlage: Wir kennen die Wahrscheinlichkeiten
P [B|Ai ] und P [Ai ] i = 1, . . . , 3
Aus der Definition der bedingten Wahrscheinlichkeit
folgt:
P [A1 ∩ B] = P [A1 |B] P [B] = P [B|A1 ] P [A1 ]
⇒
P [B|A1 ] P [A1 ]
P [B]
P [B|A1 ] P [A1 ]
= ∑3
i=1 P [B|Ai ] P [Ai ]
P [A1 |B] =
=
Statistik_II@finasto
1
5
·
1
4
1
2
=
2
5
6–53
Satz von Bayes
[Thomas Bayes, englischer Pastor, Mathematiker, (17021761)]
Seien die Vorraussetzungen des Satzes von der totalen
Wahrscheinlichkeit erfüllt. Dann kann auch nach der
Wahrscheinlichkeit von Ai gefragt werden unter der
Bedingung, dass B eingetreten ist (Wahrscheinlichkeit
a posteriori).
Satz von Bayes:
Seien A1 , . . . , Ak Ereignisse, die eine Zerlegung von
S bilden Sei B Ereignis, derart daß P [B] > 0. Dann
gilt:
P [Aj ]P [B|Aj ]
P [Aj ]P [B|Aj ]
P [Aj |B] = ∑k
=
P [B]
P [Ai ]P [B|Ai ]
i=1
Wir nennen die Wahrscheinlichkeiten
• P [Ai ] a-priori Wahrscheinlichkeiten
• P [Ai |B] a-posteriori Wahrscheinlichkeiten
Statistik_II@finasto
6–54
Hilfsmittel bei der Berechnung von Wahrscheinlichkeiten: Baumdiagramm
Voraussetzung: Vollständige Zerlegung des Ereignisraums
Beispiel: Ereignisse A, Ā und B, B̄
P (A)
P (Ā)
P (B|A)
B
P (B̄|A)
B̄
P (B|Ā)
B
P (B̄|Ā)
B̄
A
Ā
zur Kontrolle: Die Wahrscheinlichkeiten, der von einem Punkt des Baumdiagramms ausgehenden Äste,
haben stets die Summe 1. Die Summe aller Pfadwahrscheinlichkeiten ist 1.
Statistik_II@finasto
6–55
Pfadregeln:
1) Wird ein Ergebnis durch einen einzelnen Pfad beschrieben, so ist die Wahrscheinlichkeit dieses Ergebnisses (= Pfadwahrscheinlichkeit) gleich dem
Produkt aller Wahrscheinlichkeiten längs des zugehörigen Pfades.
2) Setzt sich ein Ereignis aus mehreren Pfaden zusammen, so werden die entsprechenden Pfadwahrscheinlichkeiten addiert.
Statistik_II@finasto
6–56
2
Diskrete Zufallsvariablen
Beispiel:
Zufallsexperiment: dreimaliges Werfen einer idealen
Münze (Kopf (K) und Zahl (Z))
Ereignisraum
Ω = {KKK, KKZ, KZK, ZKK, KZZ, ZKZ, ZZK, ZZZ}
Alle Elementarereignisse sind gleichwahrscheinlich
Zufallsvariable: X = Anzahl „Z“
Werte von X:
X=0
falls das Elementarereignis {KKK} eintritt
X=1
falls eines der Elementarereignisse {KKZ},
{KZK} oder {ZKK} eintritt
X=2
falls eines der Elementarereignisse {KZZ},
{ZKZ} oder {ZZK} eintritt
X=3
falls das Elementarereignis {ZZZ} eintritt
Statistik_II@finasto
2–1
Zufallsvariable
Eine numerische Variable oder ein Merkmal X, dessen Werte oder Ausprägungen die Ergebnisse eines
Zufallsvorgangs sind, heißt Zufallsvariable X. Die
Zahl x ∈ R, die X bei einer Durchführung des
Zufallsvorgangs annimmt, heißt Realisierung oder
Wert von X.
Formal ist eine Zufallsvariable eine Abbildung, die
jedem möglichen Elementarereignis ω ∈ Ω einen Zahlenwert X(ω) zuweist:
ω 7→ X(ω)
Wie in der deskriptiven Statistik ist das Skalenniveau
eines Merkmals entscheidend für das weitere Vorgehen. Von besonderer Bedeutung ist die Unterscheidung zwischen diskreten und stetigen Zufallsvariablen.
Statistik_II@finasto
2–2
Beispiele:
1) Ω = Menge aller Bürgerinnen und Bürger von Bonn
Zufallsexperiment: Zufälliges Ziehen aus Ω
Diskrete Zufallsvariable: In Abhängigkeit vom Geschlecht
nimmt X die Werte 0 und 1 an

 0 falls weiblich
X=
 1 falls männlich
Stetige Zufallsvariable: Jedem Bürger wird seine Körpergröße zugewiesen, X = Körpergröße.
2) Würfelspiel: X = Anzahl der benötigten Versuche
bis zum ersten Mal eine „6“ auftritt
X diskrete Zufallsvariable, jede natürliche Zahl ist
mögliche Ausprägung
Von statistischem Interesse: Wahrscheinlichkeiten, z.B
P [X = 1], P [X ≤ 3], P [X ≥ 4], etc.
Anmerkung: Im Fall 1) entsprechen Wahrscheinlichkeiten den relativen Häufigkeiten in der Grundgesamtheit.
Statistik_II@finasto
2–3
2.1
Wahrscheinlichkeitsverteilungen
Eine Zufallsvariable heißt diskret, falls sie nur
endlich oder abzählbar unendlich viele Werte
x1 , x2 , . . . , xk , . . . annehmen kann. Die Wahrscheinlichkeitsverteilung von X ist durch die
Wahrscheinlichkeiten
P [X = xi ] = pi ,
i = 1, 2, . . . , k, . . .
gegeben.
Beispiel: Dreimaliges Werfen einer idealen Münze
Elementar-
Wahrschein-
Anzahl
Wahrscheinlich-
ereignis
lichkeit
der Z
keiten von X
ωj
P [{ωj }]
xi
P [X = xi ] = pi
ω1 - KKK
P [{ω1 }] = 0, 125
x1 = 0
p1 = 0, 125
ω2 - KKZ
P [{ω2 }] = 0, 125
x2 = 1
p2 = 0, 375
ω3 - KZK
P [{ω3 }] = 0, 125
ω4 - ZKK
P [{ω4 }] = 0, 125
ω5 - KZZ
P [{ω5 }] = 0, 125
x3 = 2
p3 = 0, 375
ω6 - ZKZ
P [{ω6 }] = 0, 125
ω7 - ZZK
P [{ω7 }] = 0, 125
ω8 - ZZZ
P [{ω8 }] = 0, 125
x4 = 3
p4 = 0, 125
Statistik_II@finasto
2–4
Wahrscheinlichkeitsfunktion
Die Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen mit möglichen Werten
x1 , x2 , . . . , xk , . . . ist definiert durch



P [X = x] für x ∈ {x1 , x2 , . . . , xk , . . .}
f (x) =



0
sonst
Eigenschaften:
∑
f (xi ) = pi ≥ 0,
f (xi ) = 1
i
Beispiel:
Wahrscheinlichkeitsfunktion
0.4
f(x)
0.3
0.2
0.1
0.0
0
Statistik_II@finasto
1
x
2
3
2–5
Verteilungsfunktion
(einer diskreten Zufallsvariable X mit Werten xi )
∑
F (x) = P [X ≤ x] =
f (xi )
xi ≤x
Beispiel:
F (x) =


0
für







0, 125 für
x<0
0, 5
für




0, 875 für




1
für
2≤x<3
0≤x<1
1≤x<2
x≥3
Verteilungsfunktion
1.0
0.8
0.6
F(x)
0.4
0.2
0.0
0
1
2
3
x
Statistik_II@finasto
2–6
Berechnung von Wahrscheinlichkeiten für beliebige Ereignisse A ⊂ Ω:
∑
∑
P [X ∈ A] =
P [X = xi ] =
pi
Spezialfälle:
i:xi ∈A
P [X ≤ b] =
∑
i:xi ∈A
pi = F (b)
i:xi ≤b
P [X ≥ a] =
∑
pi
i:xi ≥a
P [X > a] =
∑
pi = 1 − F (a)
i:xi >a
P [X ∈]a, b]] =
∑
pi = F (b) − F (a)
i:a<xi ≤b
Beispiel: Dreimaliges Werfen einer idealen Münze
P [X ≤ 2] = p1 + p2 + p3 = 0, 875
P [0 < X ≤ 1] = P [X = 1] = p2 = 0, 375
P [0 ≤ X ≤ 1] = p1 + p2 = 0, 5
P [2 ≤ X ≤ 3] = p3 + p4 = 0, 5
Statistik_II@finasto
2–7
2.2
Unabhängigkeit von Zufallsvariablen
Idee: Zwei Zufallsvariablen X und Y sind unabhängig,
falls sie sich gegenseitig nicht beeinflussen.
Zwei diskrete Zufallsvariablen X und Y heißen unabhängig, wenn für alle möglichen Werte x, y
P [X = x, Y = y] = P [X = x] · P [Y = y]
Verallgemeinerung:
X1 , . . . , Xn heißen unabhängig, falls
P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] · · · P [Xn = xn ]
Anmerkung: Seien X1 , . . . , Xn Zufallsvariablen, die
jeweils die einzelnen Versuche bei n-maliger unabhängiger Wiederholung eines Zufallsexperiments beschreiben. Dann gilt
• Alle Xi haben die gleiche Verteilung
• X1 , . . . , Xn sind voneinander unabhängig
Statistik_II@finasto
2–8
2.3
Erwartungswert und Varianz
Der Erwartungswert E(X) einer diskreten Zufallsvariable X ist definiert durch
∑
E(X) = x1 p1 + . . . + xk pk + . . . =
xi pi
i≥1
bzw.
E(X) = x1 f (x1 ) + . . . + xk f (xk ) + . . . =
∑
xi f (xi )
i≥1
Statt E(X) schreibt man auch µX oder einfach µ,
wenn klar ist, welche Zufallsvariable gemeint ist.
µ = E(X) wird häufig auch als „Mittelwert“ der
Zufallsvariable X bezeichnet.
Subjektive Interpretation von µX :
pi ist ein „Gewicht“, das dem Wert xi zukommt, da
man diesen mit Wahrscheinlichkeit P [X = xi ] = pi
erwartet. Für X „erwartet“ man dann die Summe der
gewichteten Werte xi pi .
Statistik_II@finasto
2–9
Analogie( Statistik I): Empirischer Mittelwert eines
diskreten Merkmals X mit k möglichen Ausprägungen: n Beobachtungen mit relativen Häufigkeiten
f1,n , . . . , fk,n
k
∑
xi fi,n
x̄ =
i=1
Man beachte jedoch:
E(X) charakterisiert eine Zufallsvariable
x̄ beschreibt den Schwerpunkt von Daten
„Asymptotischer“ Zusammenhang zwischen x̄
und E(X): Gesetz der großen Zahlen
Das der Zufallsvariable X zugrundeliegende Zufallsexperiment werde n mal unabhängig voneinander durchgeführt.
x̄n
- Mittelwert der resultierenden Beobachtungen
Gesetz der großen Zahlen: Falls n groß ist, liegt
x̄n mit hoher Wahrscheinlichkeit nahe bei E(X); je
größer n, umso geringer der zu erwartende Unterschied
⇒ Häufigkeitsinterpretation von µX .
Statistik_II@finasto
2–10
Beispiele: (Erwartete Wettgewinne)
1) Werfen einer Münze; Wetteinsatz: 1 DM Gewinn
bei Zahl, 1 DM Verlust bei Kopf

 1
falls „Z“
Zufallsvariable: X =
 −1 falls „K“
E(X) =
1
1
· (−1) + · 1 = 0
2
2
Bei häufigem Werfen der Münze ist der „mittlere“ Gewinn 0, Gewinne und Verluste gleichen sich aus
2) Dreimaliges Werfen einer Münze; Wetteinsatz: 10
DM Gewinn bei „ZZZ“, jeweils 1 DM Verlust bei anderen Ergebnissen
Zufallsvariable:

 10 falls „ZZZ“
X=
 −1 sonst
E(X) = 0, 125 · 10 + 0, 875 · (−1) = 0, 375
Bei häufiger Wiederholung des Zufallsexperiments ist
der „mittlere“ Gewinn 0,375 DM.
Statistik_II@finasto
2–11
Transformationen
Transformationsregel für Erwartungswerte
Sei g(x) eine reelle Funktion. Dann gilt für Y = g(X)
∑
∑
E(Y ) = E(g(X)) =
g(xi )pi =
g(xi )f (xi )
i≥1
i≥1
Beispiel: g(x) = x2 , X diskret mit k möglichen Ausprägungen
E(g(X)) = E(X 2 ) = x21 p1 + . . . + x2k pk
Lineare Transformationen
• Für Y = aX + b gilt:
E(Y ) = aE(X) + b
• Für zwei Zufallsvariablen X1 und X2 und Konstanten a1 , a2 gilt:
E(a1 X1 + a2 X2 ) = a1 E(X1 ) + a2 E(X2 )
Statistik_II@finasto
2–12
2.4
Varianz und Standardabweichung
Die Varianz Var(X) einer diskreten Zufallsvariable
X ist definiert durch
Var(X) = (x1 − µ)2 p1 + . . . + (xk − µ)2 pk + . . .
∑
=
(xi − µ)2 f (xi )
i≥1
und die Standardabweichung ist
√
σX = Var(X)
2
Statt Var(X) schreibt man auch σX
oder einfach σ 2 ,
wenn klar ist, welche Zufallsvariable gemeint ist.
• Varianz als erwartete quadratische Abweichung
Var(X) = E(X − µ)2
• Rechentechnisch günstige Formel
Statistik_II@finasto
Var(X) = E(X 2 ) − µ2
2–13
Lineare Transformation
Für Y = aX + b ist
Var(Y ) = a2 Var(X) und σY = |a|σX
Unabhängige Zufallsvariablen: Sind X und Y
unabhängig, so gilt
E(X · Y ) = E(X) · E(Y )
Var(X + Y ) = Var(X) + Var(Y )
Beispiel: Werfen eines idealen Würfels; Gewinn von
X = 1 DM bei „1“, . . . , X = 6 DM bei „6“
Erwartungswert:
µ = E(X) =
6
∑
1
i=1
6
· i = 3, 5
Varianz:
σ 2 = E(X 2 ) − µ2 =
6
∑
1
i=1
Statistik_II@finasto
6
· i2 − (3, 5)2 = 2, 917
2–14
2.5
Weitere Charakeristika von Verteilungen
Die Definition von Modus, Median, etc. erfolgt analog zu den entsprechenden Definitionen in Statistik I,
indem man relative Häufigkeiten durch Wahrscheinlichkeiten ersetzt.
Modus: xmod ist ein Wert für den die Wahrscheinlichkeitsfunktion f (x) = P [X = x] maximal wird.
Quantile: Ein Wert xp mit 0 < p < 1 für den
P [X ≤ xp ] = F (xp ) ≥ p
und
P [X ≥ xp ] ≥ 1 − p
gilt, heißt p−Quantil der diskreten Zufallsvaribale X.
Für p = 0, 5 heißt xmed = x0,5 Median
Bei symmetrischen Verteilungen gilt:
xmod = xmed = µX
Statistik_II@finasto
2–15
2.6
Wichtige diskrete Verteilungsmodelle
2.6.1 Die diskrete Gleichverteilung
Eine diskrete Zufallsvariable mit möglichen Ausprägungen x1 , . . . , xk heißt gleichverteilt auf
{x1 , . . . , xk }, wenn für alle i = 1, . . . , k
P [X = xi ] =
1
k
gilt
Anwendung: Werfen eines idealen Würfels
Die Zufallsvariable
X = „Augenzahl“
ist gleichverteilt auf {1, 2, . . . , 6}
p1 = P [X = 1] = . . . = p6 = P [X = 6] =
Statistik_II@finasto
1
6
2–16
Übersicht: Diskrete Gleichverteilung
• Wahrscheinlichkeitsfunktion

1


 k für x = x1 , x2 , . . . , xk
f (x) =



0 sonst
• Erwartungswert
k
1∑
E(X) = µ =
xi
k i=1
• Varianz
k
∑
1
Var(X) = σ 2 =
(xi − µ)2
k i=1
• Verteilungsfunktion


für x < x1

0
F (x) = ki
für xi ≤ x < xi+1 , 1 ≤ i < k



1
für xk ≤ x
Statistik_II@finasto
2–17
0.15
0.05
0.1
f(x)
0.2
0.25
Wahrscheinlichkeitsfunktion (diskrete Gleichverteilung)
1
2
3
x
4
5
6
0.5
0
F(x)
1
Verteilungsfunktion (diskrete Gleichverteilung)
1
Statistik_II@finasto
2
3
x
4
5
6
2–18
Bernoulli Variablen
Oft interessiert man sich bei einem Zufallsvorgang
nur dafür, ob ein bestimmtes Ereignis A eintritt oder
nicht. Man spricht dann von einem Bernoulli Vorgang oder Bernoulli-Experiment. Die Zufallsvariable

 1 falls A eintritt
X=
 0 falls A nicht eintritt
heißt binäre Variable oder Bernoulli- Variable Beispiele:
A = „weiblich“ (X = 1), Ā = „männlich“ (X=0)
A = „arbeitslos“ (X = 1), Ā = „nicht arbeitslos“
(X=0)
X folgt einer Bernoulli-Verteilung mit Parameter
p = P [A], kurz
X ∼ Bernoulli(p)
Es gilt dann:
P [X = 1] = p,
P [X = 0] = 1 − p
E(X) = p,
Var(X) = p(1 − p)
Statistik_II@finasto
2–19
2.6.2 Die geometrische Verteilung
Ein Bernoulli-Experiment werde solange wiederholt,
bis zum ersten Mal das interessierende Ereignis A
eintritt. Man betrachte
X
=
Beispiel:
Anzahl der Versuche bis
zum ersten Mal „A“ eintritt
Würfelspiel: Man würfelt solange, bis zum ersten Mal
eine „6“ geworfen wird.
X = Anzahl der Würfe bis zum ersten Mal „6“ eintritt
⇒ X ist geometrisch verteilt mit Parameter p:
X ∼ G(p)
Herleitung:
Mögliche Werte von X: 1, 2, 3, . . . (alle nat. Zahlen!)
X nimmt einen Wert x an, falls zunächst x−1 mal das
Komplementärereignis Ā und dann im x−ten Versuch
A eintritt. Die Unabhängigkeit der Ereignisse führt
auf
x−1
P [X = x] = P (Ā
∩
.
.
.
∩
Ā
∩A)
=
(1
−
p)
·p
|
{z
}
x − 1 mal
Statistik_II@finasto
2–20
Übersicht: Geometrische Verteilung
• Wahrscheinlichkeitsfunktion

x−1

(1
−
p)
p für x = 1, 2, 3, . . .


fG (x) =



0
sonst
• Erwartungswert
E(X) =
• Varianz
Var(X) =
1
p
1−p
p2
• Verteilungsfunktion

[x]
∑

 (1 − p)k−1 p für x ≥ 1
FG (x) = k=1

0
sonst
[x] - größte ganze Zahl mit [x] ≤ x
Statistik_II@finasto
2–21
Beispiel: Würfelspiel
X = Anzahl der Würfe bis zum ersten Mal „6“ eintritt
Da p = P [„6“] = 16 , gilt
1
X ∼ G( )
6
1
E(X) = = 6
p
Im „Mittel“ braucht man also 6 Versuche, um zum
ersten Mal eine „6“ zu würfeln.
11
P [X ≤ 2] = p + (1 − p)p =
= 0, 3056
36
Geometrische Reihe:
∑l
1−αl+1
k
k=0 α = 1−α für 0 ≤ α < 1
5
∑
1 − (1 − p)6
⇒ P [X ≤ 6] = p
(1 − p) = p
p
k=0
( )6
5
= 0, 6651
=1−
6
P [X > 10] = 1 − P [X ≤ 10]
[
( )10 ]
5
=1− 1−
= 0, 1615
6
Statistik_II@finasto
k
2–22
2.6.3 Die Binomialverteilung
n unabhängige Wiederholungen eines BernoulliExperiments mit gleicher Erfolgswahrscheinlichkeit
p. Man betrachte
X = Anzahl der Versuche, bei denen „A“ eintritt
Beispiele:
Würfelspiel mit einem fairen Würfel: Mit Wahrscheinlichkeit p = 1/6 wird eine „6“ geworfen
X = Anzahl der „6“ bei n = 20 Würfen
Meinungsumfrage zu einer bestimmten politischen Entscheidung; p = Anteil der Befürworter in der Population.
Einfache Zufallsstichprobe vom Umfang n:
X = Anzahl Befürworter in der Stichprobe
⇒ X ist binomialverteilt mit den Parametern p
und n:
X ∼ B(n, p)
Anmerkung: Bernoulli(p) = B(1, p)
Statistik_II@finasto
2–23
Herleitung der Binomialverteilung
Mögliche Werte von X: 0, 1, 2, . . . , n − 1, n
X nimmt einen Wert x an, falls z.B. das Ereignis „zunächst x mal A, danach n − x mal Ā“ eintritt. Unabhängigkeit impliziert
x
n−x
P [A
∩
.
.
.
∩
A
∩
Ā
∩
.
.
.
∩
Ā
]
=
p
(1
−
p)
|
{z
} |
{z
}
x mal
n − x mal
Anzahl möglicher Ziehungen, bei denen jeweils x mal
A und n − x mal Ā auftritt:
( )
n!
n
=
x!(n − x)!
x
Alle diese Fälle sind gleichwahrscheinlich
⇒
Statistik_II@finasto
( )
n x
P [X = x] =
p (1 − p)n−x
x
2–24
Herleitung von Erwartungswert und Varianz:
X läßt sich als Summe von unabhängigen Bernoulliverteilten Zufallsvariablen schreiben:
X=
n
∑
Xi
i=1
mit

 1 falls beim i-ten Versuch „A“ eintritt
Xi =
 0 falls beim i-ten Versuch „ Ā“ eintritt
X1 , . . . , Xn sind unabhängig, und
E(Xi ) = p, Var(Xi ) = p(1 − p)
i = 1, . . . , n
Damit ergibt sich
E(X) = E(X1 ) + . . . + E(Xn ) = np
Var(X) = Var(X1 ) + . . . + Var(Xn ) = np(1 − p)
Statistik_II@finasto
2–25
Übersicht: Binomialverteilung
• Wahrscheinlichkeitsfunktion
( )
n x
n−x

p
(1
−
p)
für x = 0, 1, 2, . . . , n

 x
fB (x) =



0
sonst
• Erwartungswert
E(X) = np
• Varianz
Var(X) = np(1 − p)
• Verteilungsfunktion

[x] ( )
∑

n k

n−k

p
(1
−
p)

k=0 k
FB (x) =




0
Statistik_II@finasto
für x ≥ 0
sonst
2–26
Beispiel:
B
(8; p)
0.2
f(x)
0.4
p=0.1
0.2
f(x)
0.4
p=0.25
0.2
f(x)
0.4
p=0.5
0.2
f(x)
0.4
p=0.75
0.2
f(x)
0.4
p=0.9
Statistik_II@finasto
2–27
Beispiel: Schießen auf eine Zielscheibe
Mittelmäßiger Schütze:
p = P [„Treffer in Schwarze“] = 0, 3
X = Anzahl der „Treffer ins Schwarze“ bei n = 5
Schüssen
⇒ X ∼ B(5; 0, 3)
Wahrscheinlichkeit von 2 Treffern
( )
5
P [X = 2] = fB (2) =
· 0, 32 · 0, 73 = 0, 3087
2
Wahrscheinlichkeits- und Verteilungsfunktion:
p = 0, 3, n = 5
Statistik_II@finasto
x
fB (x)
FB (x)
0
0,1681
0,1681
1
0,3601
0,5282
2
0,3087
0,8369
3
0,1323
0,9692
4
0,0284
0,9976
5
0,0024
1,0000
2–28
2.6.4 Die hypergeometrische Verteilung
Aus einer endlichen Grundgesamtheit von N Einheiten, von denen M eine interessierende Eigenschaft
„A“ besitzen, wird n mal rein zufällig, aber ohne Zurücklegen gezogen. Man betrachte
X = Anzahl der gezogenen Objekte mit der
Eigenschaft „A“
Beispiele:
Lotterie: Behälter mit N = 50 Losen, M = 10 Gewinnen und N − M = 40 Nieten
X = Anzahl der „Gewinne“ beim Kauf von n = 25 Losen
Wohngemeinschaft mit N = 5 Personen, M = 2 Frauen und N − M = 3 Männern. Zufällige Ziehung von
n = 2 unterschiedlichen Personen.
X = Anzahl der Frauen unter den 2 gezogenen Personen
⇒ X folgt einer hypergeometrischen Verteilung
mit den Parametern n, M und N :
X ∼ H(n, M, N )
Anmerkung: H(1, M, N ) = Bernoulli(p) = B(1, p)
für p = M/N
Statistik_II@finasto
2–29
Übersicht: Hypergeometrische Verteilung
Wir setzen voraus, dass N > n
• Wahrscheinlichkeitsfunktion
 M N −M
( x )( n−x )


für x = 0, 1, 2, . . . , n

 (Nn )
fH (x) =



0
sonst
Achtung: Man setzt hier
(k1 )
k2
= 0, falls k2 > k1 .
• Erwartungswert
E(X) = n
M
N
• Varianz
M
M N −n
Var(X) = n (1 −
)
N
N N −1
• Verteilungsfunktion

[x] M N −M
∑

( x )( n−k )



k=0
(Nn )
FH (x) =




0
Statistik_II@finasto
für x ≥ 0
sonst
2–30
Beispiele: Hypergeometrische Verteilung für verschiedene Werte von n, M, N :
0
0.1
0.2
f(x)
0.3
0.4
0.5
N=100, M=20, n=10
0
2
4
x
6
8
6
8
0.1
0.2
f(x)
0.3
0.4
N=16, M=8, n=8
0
2
Statistik_II@finasto
4
x
2–31
Zusammenhang mit der Binomialverteilung
Ebenso wie eine binomialverteilte lässt sich auch eine hypergeometrische verteilte Zufallsvariable X als
Summe von Bernoulli-verteilten Variablen schreiben:
X=
n
∑
Xi
i=1
mit

 1 falls bei der i-ten Ziehung „A“ eintritt
Xi =
 0 falls bei der i-ten Ziehung „ Ā“ eintritt
Da ohne Zurücklegen gezogen wird, sind hier die Zufallsvariablen X1 , . . . , Xn voneinander abhängig.
Beim Vergleich von XH ∼ H(n, M, N ) und XB ∼
B(n, p) mit p = M/N ergibt sich:
E(XH ) = np = E(XB )
N −n
Var(XH ) = np(1 − p)
< Var(XB ) = np(1 − p)
N −1
−n
Für kleine Werte n/N ist der „Korrekturfaktor“ N
N −1
praktisch gleich 1.
Approximation: Sind N und M groß gegenüber n,
so gilt approximativ
P (XH = x) ≈ P (XB = x)
Statistik_II@finasto
für x = 0, 1, . . . , n
2–32
Beispiel: Lotterielose
Behälter mit N Losen, M Gewinnen und N − M Nieten
X = Anzahl der „Gewinne“ beim Kauf von n = 2
Losen aus dem Behälter
⇒ X ∼ H(2, M, N )
N = 6, M = 2
⇒ p = M/N = 1/3
H(2, 2, 6)
B(2, 1/3)
x
fH (x)
fB (x)
0
6
= 0.4
15
8
≈ 0.533
15
1
≈ 0.067
15
1
2
N = 60, M = 20
4
9
4
9
1
9
= 0.444
≈ 0.444
≈ 0.112
⇒ p = M/N = 1/3
H(2, 20, 60)
B(2, 1/3)
x
fH (x)
fB (x)
0
0.441
1
0.452
2
0.107
4
9
4
9
1
9
= 0.444
≈ 0.444
≈ 0.112
⇒ H(2, 20, 60) ≈ B(2, 1/3)
Statistik_II@finasto
2–33
2.6.5 Die Poisson-Verteilung
Die Poisson-Verteilung dient zur Modellierung von
Zählvorgängen in kontinuierlicher Zeit. Man betrachtet
X
=
Anzahl des Auftretens eines Ereignisses
„A“ in einem festen Zeitintervall [0, 1]
Beispiele:
X = Anzahl der Insolvenzen in einem Jahr
X = Anzahl der Unfälle auf einem vorgegebenen Abschnitt der A61 innerhalb eines Monats
X = Anzahl der Anrufe bei der Hotline eines Unternehmens innerhalb eines Tages
Zur Modellierung solcher Zählvariablen X wird häufig
von einer „Poisson-Verteilung“ ausgegangen. Die
jeweilige Struktur der Verteilung berechnet sich dann
in Abhängigkeit von einem Parameter λ > 0, der dem
im Mittel zu erwartenden Wert von X entspricht. Man
schreibt
X ∼ P o(λ)
Statistik_II@finasto
2–34
Übersicht: Poisson-Verteilung
• Wahrscheinlichkeitsfunktion

 λx e−λ für x = 0, 1, 2, . . .
fPo (x) = x!
0
sonst
• Erwartungswert
E(X) = λ
• Varianz
Var(X) = λ
• Verteilungsfunktion

[x]

 ∑ λk e−λ
FP o (x) = k=0 k!

0
Statistik_II@finasto
für x ≥ 0
sonst
2–35
Beispiele [Poisson-Verteilung]
0.1
f(x)
0.2
0.3
0.4
lambda=5
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
9
10
11
12
13
14
15
x
0
0.1
f(x)
0.2
0.3
0.4
lambda=1
0
1
2
3
4
5
6
7
8
x
Statistik_II@finasto
2–36
Poisson-Verteilung für Intervalle variabler Länge (Poisson-Prozess)
Sei
X = Anzahl des Auftretens eines Ereignisses
„A“ im Zeitintervall [0, 1]
und für einen Zeitpunkt t > 0 sei
Xt = Anzahl des Auftretens des Ereignisses
„A“ in dem Zeitintervall [0, t]
Falls X ∼ P o(λ), so ist Xt Poisson-verteilt mit Parameter λ · t:
Hieraus folgt
• P [Xt = x] =
Xt ∼ P o(λt)
(λt)x −λt
x! e
für x = 0, 1, 2, . . .
• E(Xt ) = λt, Var(Xt ) = λt
Statistik_II@finasto
2–37
Anmerkung: Die Modellierung von Zählvorgängen durch die Poisson-Verteilung beruht auf einigen Annahmen, deren Gültigkeit - zumindest näherungsweise - kritisch geprüft werden muss. Sei
X
=
Anzahl des Auftretens eines Ereignisses
„A“ im Zeitintervall [0, t]
X ist Poisson-verteilt, falls
• Die Wahrscheinlichkeit, dass zwei Ereignisse genau gleichzeitig auftreten, ist Null.
• Die Wahrscheinlichkeit des Eintretens von „A“ innerhalb eines sehr kleinen Teilintervalls von [0, t]
ist proportional zur Länge des Intervalls und hängt
nicht von dessen Lage auf der Zeitachse ab.
• Die Anzahlen von Ereignissen in zwei disjunkten
Teilintervallen sind voneinander unabhängig.
Statistik_II@finasto
2–38
Beispiel:
Es treten durchschnittlich zwei Defekte pro Monat an
einer Maschine auf
1) Wie groß ist die Wahrscheinlichkeit, dass in einem
Monat kein Defekt auftritt?
X = Anzahl der Defekte in einem Monat
E(X) = λ = 2,
X ∼ P o(2)
20 −2
P [X = 0] = fP o (0) = e = 0, 135
0!
2) Wie groß ist die Wahrscheinlichkeit, dass in zwei
Monaten kein Defekt auftritt?
X2 = Anzahl der Defekte in zwei Monaten
t = 2, X2 ∼ P o(λ · 2) = P o(4)
40 −4
P [X2 = 0] = e = e−4 = 0, 018
0!
Statistik_II@finasto
2–39
3) Wie groß ist die Wahrscheinlichkeit, dass in t Monaten kein Defekt auftritt?
Xt = Anzahl der Defekte in t Monaten
E(Xt ) = λt = 2t,
X ∼ P o(2t)
(2t)0 −2t
P [Xt = 0] =
e
= e−2t
0!
4) Wie groß ist die Wahrscheinlichkeit, dass die Wartezeit bis zum nächsten Defekt mehr als zwei Monate
beträgt?
Y = Wartezeit bis zum nächsten Defekt
P [Y > 2] = P [X2 = 0] = e−4 = 0, 018
5) Wie groß ist die Wahrscheinlichkeit, dass die Wartezeit bis zum nächsten Defekt weniger als 1/2 Monat
beträgt?
P [Y < 0, 5] = 1 − P [Y ≥ 0, 5] = 1 − P [X0,5 = 0]
= 1 − e−1 = 0, 632
Statistik_II@finasto
2–40
Approximation der Binomialverteilung durch
eine Poisson-Verteilung
Sei X ∼ B(n, p). Für großes n bei gleichzeitig kleiner
„Erfolgswahrscheinlichkeit“ p gilt
( )
n x
(np)x −np
n−x
P [X = x] =
p (1 − p)
≈
e
,
x
x!
d.h. X ist approximativ Poisson-verteilt mit Parameter λ = np
Faustregel: Approximation sinnvoll, falls n groß und
np < 5
Beispiel: Lottospiel
Erfolgswahrscheinlichkeit: p = 1/13.983.816
X = Anzahl „6 Richtige“ bei n = 10.000.000 Lottospielern, np = 0, 715
⇒ Approximativ
X ∼ P o(0, 715)
Statistik_II@finasto
2–41
3
Stetige Zufallsvariablen
Eine Zufallsvariable heißt stetig, falls zu je zwei
Werten a < b auch jeder Zwischenwert im Intervall
[a, b] möglich ist
Beispiele:
X = „Alter“, X = „Körpergröße“, X = „Temperatur“,
X = „Intelligenzquotient“
In der Praxis kommen häufig Variablen vor, die als
quasistetig aufzufassen sind. Quasistetig bedeutet,
dass eine Zufallsvariable extrem viele Ausprägungen
besitzt und die Wahrscheinlichkeit eines einzelnen möglichen Wertes vernachlässigbar klein ist. Solche Merkmale werden in der Statistik wie stetige Zufallsvariablen behandelt.
Beispiele:
X = „Einkommen“, X = „Vermögen“, X = „Umsatz
einer Firma“,
Statistik_II@finasto
3–1
3.1
Wahrscheinlichkeitsverteilungen
Modellierung von stetigen Zufallsvariablen:
• P [X = x] = 0 für einen einzelnen möglichen
Wert x
• Ansatz: Man betrachtet Intervalle und zugehörige Wahrscheinlichkeiten
P [X ∈ [a, b]]
Wahrscheinlichkeiten stetiger
blen
Für stetige Zufallsvariablen X gilt
P [a ≤ X ≤ b] =
Zufallsvaria-
P [a < X ≤ b] = P [a ≤ X < b]
= P [a < X < b]
und
P [X = x] = 0
Statistik_II@finasto
für jedes x ∈ R
3–2
Die Verteilung einer stetigen Zufallsvariablen lässt sich
durch die zugehörige Dichtefunktion charakterisieren. Wahrscheinlichkeiten ergeben sich als Flächen unter der Dichtefunktion.
Analogie (Statistik I): Histogramm eines stetigen Merkmals
• Gruppierung anhand von Klassen benachbarter
Intervalle [c0 , c1 ), [c1 , c2 ), . . . , [ck−1 , ck ) der gleichen
Klassenbreite δ
• Berechnung der relativen Häufigkeit fj für jede
Klasse [cj−1 , cj )
• Histogrammwerte innerhalb jeder Klasse: fj /δ
• Fläche des Histogramms über [cj−1 , cj ) = fj
Verhalten für großes n:
• fj nahe an P [cj−1 ≤ X < cj ]
• Falls n → ∞ und gleichzeitig δ → 0, so konvergiert das Histogramm gegen eine Funktion
f (x) ≥ 0 (=Dichtefunktion)
P [a ≤ X ≤ b] = Fläche von f (x) über [a, b]
∫ b
=
f (x)dx
a
Statistik_II@finasto
3–3
Stetige Zufallsvariable
0
Histogramm
0.2
0.4
n=50
0
Histogramm
0.2
0.4
n=500
0
Histogramm
0.2
0.4
n=5000
0
0.2
Dichte
0.4
Model
Statistik_II@finasto
3–4
Flächen und Integrale:
Für eine positive Funktion f (x) ≥ 0 gilt
∫ b
f (x)dx = Fläche von f (x) über [a, b]
a
Man betrachte eine allgemeine Funktion g(x) mit
positiven und negativen Werten.
• positiver Teil von g(x):
g+ (x) = max{0, g(x)}
• negativer Teil von g(x):
g− (x) = min{0, g(x)}
∫
b
⇒
g(x)dx = Fläche von g+ (x) über [a, b]
a
− Fläche von g− (x) über [a, b]
Statistik_II@finasto
3–5
Stetige Zufallsvariablen und Dichten
X stetige Zufallsvariable: Es existiert eine Funktion
f (x), so dass für jedes Intervall [a, b]
∫ b
P [a ≤ X ≤ b] =
f (x)dx
a
f heißt (Wahrscheinlichkeits-) Dichte von X
Eigenschaften von Dichten:
• Positivität: f (x) ≥ 0
• Normierung: Die Gesamtfläche zwischen
x-Achse und f (x) ist gleich 1,
∫ ∞
P [−∞ < X < ∞] =
f (x)dx = 1
−∞
Verteilungsfunktion einer stetigen Zufallsvariablen
∫
F (x) = P [X ≤ x] =
Statistik_II@finasto
x
f (t)dt
−∞
3–6
Wahrscheinlichkeitsdichte:
Z 1
f (x)
0;
f (x)dx = 1:
+
1
Verteilungsfunktion:
F
F
(x) monoton wachsend
(
1) = 0
;
F
1) = 1
(+
1
Verteilungsfunktion
1
Dichtefunktion
:
0.8
0.6
F(x)
f(x)
0.6
0.8
F(x)
0.4
0.4
f(x)
0.2
0.2
F(b)
F(b)
b
0
b
-3
-2
-1
0
x
Statistik_II@finasto
1
2
3
-3
-2
-1
0
1
2
3
x
3–7
Die Verteilungsfunktion ist ein zentrales Werkzeug zur
Berechnung von Wahrscheinlichkeiten. Die Verteilungsfunktion einer stetigen Zufallsvariable besitzt folgende
Eigenschaften:
• F (x) ist eine stetige, monoton wachsende Funktion, 0 ≤ F (x) ≤ 1.
• F (a) = P [X < a]
• P [X ≥ a] = P [X > a] = 1 − F (a)
• P [a ≤ X ≤ b] = P [a < X < b] = F (b) − F (a)
Interpretation von Dichten:
• f (x) groß für alle Werte in einem Intervall [a, b]:
Es besteht eine relativ hohe Wahrscheinlichkeit,
dass X einen Wert in [a, b] annimmt
• f (x) sehr klein für alle Werte in einem Intervall
[c, d]: Es besteht eine sehr geringe Wahrscheinlichkeit, dass X einen Wert in [c, d] annimmt
Statistik_II@finasto
3–8
Klassifikation von Verteilungen
symmetrisch, unimodal
0.4
0.3
0.2
0.1
0.0
-3
-2
-1
0
1
2
3
rechtssteil
linkssteil
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
0
1
2
3
-4
4
-3
bimodal
-2
-1
multimodal
1.0
4
0.8
3
0.6
2
0.4
1
0.2
0.0
0
-3
-2
-1
Statistik_II@finasto
0
1
2
3
-2.5
-2.0
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
3–9
3.0
Spezialfall: Stetige Gleichverteilung
Stetige Gleichverteilung
Eine stetige Zufallsvariable mit Ausprägungen in einem Intervall [a, b] heißt gleichverteilt, falls für jedes Teilintervall [c, d] ⊂ [a, b] gilt
d−c
P [c ≤ X ≤ d] =
b−a
Man schreibt: X ∼ U (a, b)
Wahrscheinlichkeitsdichte


fU (x) =
1
b−a
FU (x) =
Statistik_II@finasto
für a ≤ x ≤ b
 0
sonst



 0
für x < a
Verteilungsfunktion



x−a
b−a
für a ≤ x ≤ b
1
für x > b
3–10
Stetige Gleichverteilung auf [1, 6]
0.15
0.05
0.1
f(x)
0.2
0.25
Dichtefunktion (stetige Gleichverteilung)
1
2
3
4
x
5
6
0.5
0
f(x)
1
Verteilungsfunktion (stetige Gleichverteilung)
0
Statistik_II@finasto
1
2
3
x
4
5
6
7
3–11
Beispiel: Wartezeit auf eine Straßenbahn
• Ideale Welt: An einer bestimmten Haltestelle hält
jeweils genau alle 20 Minuten eine Straßenbahn
• Eine Person kommt ohne Kenntnis des Fahrplans
zu einer zufälligen Zeit an die Haltestelle
X = „Wartezeit (in Minuten) auf die nächste Straßenbahn“
⇒
X ∼ U (0, 20)
P [0 ≤ X ≤ 20] = 1
10
= 0, 5
20
10
P [X ≥ 10] = 1 −
= 0, 5
20
10
5
P [5 ≤ X ≤ 10] =
−
= 0, 25
20 20
P [X ≤ 10] =
Statistik_II@finasto
3–12
3.2
Verteilungsparameter
Erwartungswert
Diskrete Zufallsvariable:
µ = E(X) =
∑
xi f (xi )
i≥1
Stetige Zufallsvariable:
∫
∞
µ = E(X) =
−∞
x · f (x)dx
Rechenregeln:
• Y = aX + b, a, b beliebig
E(Y ) = E(aX + b) = aE(X) + b
• Für zwei Zufallsvariablen X und Y
E(X + Y ) = E(X) + E(Y )
Beispiel: X ∼ U (a, b) → E(X) =
Statistik_II@finasto
a+b
2
3–13
Beispiele: Zwei Verteilungen mit
∫ x
E(X) =
x · f (x)dx = 0
−∞
y
0.3
0
0
0.1
0.1
0.2
0.2
y
0.3
0.4
0.5
Wahrscheinlichkeitsdichte f(x)
0.4
Wahrscheinlichkeitsdichte f(x)
-5
0
x
5
-3
-2
-1
1
2
3
1
2
3
x f(x)
0
-0.5
-0.2
-0.1
0
y
y
0.1
0.2
0.5
x f(x)
0
x
-5
E(X) = 0
Statistik_II@finasto
0
x
5
-3
-2
-1
0
x
E(X) = 0
3–14
Beispiele mit E(X) = 0 und E(X) > 0
0
0.1
0.2
y
0.3
0.4
Wahrscheinlichkeitsdichte f(x)
-5
0
x
5
-0.2
-0.1
0
y
0.1
0.2
x f(x)
-5
0
x
5
E(X) = 0
0
0.1
0.2
y
0.3
0.4
Wahrscheinlichkeitsdichte f(x)
-5
0
x
5
0
0.2
y
0.4
x f(x)
-5
0
x
5
E(X) = 1
0
0.1
0.2
y
0.3
0.4
Wahrscheinlichkeitsdichte f(x)
-5
0
x
5
0
0.2
0.4
y
0.6
0.8
x f(x)
-5
0
x
5
E(X) = 2
Statistik_II@finasto
3–15
Varianz
Diskrete Zufallsvariable:
2
σ = Var(X) =
∑
(xi − µ)2 f (xi )
i≥1
Stetige Zufallsvariable:
∫
σ 2 = Var(X) =
∞
−∞
(x − µ)2 · f (x)dx
√
σ = Var(X) heißt Standardabweichung
Rechenregeln:
• Var(X) = E(X − µ)2 = E(X 2 ) − µ2
• Y = aX + b, a, b beliebig
Var(Y ) = Var(aX + b) = a2 · Var(X)
• Für unabhängige Zufallsvariablen X und Y
Var(X + Y ) = Var(X) + Var(Y )
Beispiel: X ∼ U (a, b) ⇒ Var(X) =
Statistik_II@finasto
(b−a)2
12
3–16
• Der Erwartungswert µ = E(X) ist ein Lageparameter, der Aufschluss über das Zentrum der Verteilung gibt.
• Die Standardabweichung ist ein Maß für die
Dispersion
Ungleichung von Tschebyscheff:
1
P [|X − µ| > kσ] ≤ 2
k
für alle k > 0
1
k2
[µ − kσ, µ + kσ] heißt zentrales Schwankungsintervall
⇒ P [µ − kσ ≤ X ≤ µ + kσ] ≥ 1 −
k
P [µ − kσ ≤ X ≤ µ + kσ]
2
≥1−
3
≥1−
4
≥1−
1
4 = 0, 75
1
9 ≈ 0, 89
1
16 = 0, 9375
Achtung: Die Ungleichung gibt nur eine untere Schranke für die Wahrscheinlichkeit. Genauere Berechnungen
auf der Basis spezieller Verteilungsmodelle.
Statistik_II@finasto
3–17
Beispiel:
X
EX
Zufallsvariable
mit ( ) = 0,
(Dichte = Glockenkurve)
V ar(X ) = 1
Y
0
0.2
0.4
k=1: P(-1<X<1) = 0.6827
-4
-2
0
X
2
4
Y
0
0.2
0.4
k=2: P(-2<X<2) = 0.9545
-4
-2
0
X
2
4
Y
0
0.2
0.4
k=3: P(-3<X<3) = 0.9973
-4
-2
0
X
2
4
Y
0
0.2
0.4
k=4: P(-4<X<4) = 0.9999
-4
Statistik_II@finasto
-2
0
X
2
4
3–18
Beispiel:
X
EX
Zufallsvariable
mit ( ) = 0,
(Dichte = schiefe Dichte)
V ar(X ) = 1
0
Y
0.2
k=1: P(-1<X<1) = 0.5443
-3
-2
-1
0
1
2
X
3
4
5
6
7
6
7
6
7
6
7
0
Y
0.2
k=2: P(-2<X<2) = 0.9089
-3
-2
-1
0
1
2
X
3
4
5
0
Y
0.2
k=3: P(-3<X<3) = 0.9579
-3
-2
-1
0
1
2
X
3
4
5
0
Y
0.2
k=4: P(-4<X<4) = 0.9808
-3
Statistik_II@finasto
-2
-1
0
1
2
X
3
4
5
3–19
Weitere Verteilungsparameter einer stetigen Zufallsvariable X
Modus: xmod ist ein Wert, für den die Dichtefunktion
f (x) maximal wird.
Median: xmed ist der Wert, für den gilt:
F (xmed ) = P [X ≤ xmed ] = P [X ≥ xmed ] = 1−F (xmed ) =
Quantile: Für 0 < p < 1 ist das p-Quantil xp der
Wert, für den
F (xp ) = P [X ≤ xp ] = p
und
1 − F (xp ) = P [X ≥ xp ] = 1 − p
gilt.
Median und Quantile sind eindeutig bestimmt, wenn
die Verteilungsfunktion F streng monoton ist.
Statistik_II@finasto
3–20
1
2
Illustration: Quantil xp
Verteilungsfunktion: P [X ≤ xp ] = F (xp ) = p
1.0
F(x)
0.8
p
0.6
0.4
0.2
0.0
-3
-2
-1
0
1
xp
2
3
Dichte: Das Quantil xp teilt die Gesamtfläche von f
über der x-Achse in zwei Teile der Größen
p = P [X ≤ xp ] und 1 − p = P [X ≥ xp ] auf.
0.4
0.3
0.2
0.1
p
1-p
0.0
-3
Statistik_II@finasto
-2
-1
0
xp
1
2
3
3–21
Lageregeln
Symmetrische Verteilung: xmod = xmed = µ
xmod = xmed = µ
Linkssteile Verteilung: xmod ≤ xmed ≤ µ
xmod xmed
µ
Rechtssteile Verteilung: µ ≤ xmed ≤ xmod
µ
Statistik_II@finasto
xmed xmod
3–22
3.3
Die Exponentialverteilung
Exponentialverteilung
Eine stetige Zufallsvariable X mit nichtnegativen
Werten heißt exponentialverteilt mit Parameter
λ > 0, kurz X ∼ Ex(λ), wenn sie die Dichte

 λe−λx für x ≥ 0
fEx (x) =
 0
sonst
besitzt.
Es gilt:
E(X) = λ1 ,
Var(X) =
1
λ2
Dichten der Exponentialverteilung
1.0
λ=1
0.8
0.6
0.4
λ=0,5
0.2
0.0
0
2
Statistik_II@finasto
4
6
8
10
3–23
Verteilungsfunktion

 1 − e−λx für x ≥ 0
FEx (x) =
 0
für x < 0
Zusammenhang mit der Poisson-Verteilung:
Anzahl des Auftretens eines Ereignisses
Y =
„A“ in einem festen Zeitintervall [0, 1]
Yt =
Anzahl des Auftretens des Ereignisses
„A“ in dem Zeitintervall [0, t]
Y ∼ P o(λ)
⇒
Yt ∼ P o(λt)
Für
X = Wartezeit bis zum ersten Auftreten
des Ereignisses „A“
gilt dann
X ∼ Ex(λ),
denn
P [X ≤ t] = 1 − P [Yt = 0] = 1 − e−λt
Statistik_II@finasto
3–24
3.4
Die Normalverteilung
(Gauß-Verteilung)
Normalverteilung
Eine Zufallsvariable X heißt normalverteilt mit
Parametern µ ∈ R und σ 2 > 0, kurz X ∼ N (µ, σ 2 ),
wenn sie die Dichte
(
)
2
1
(x − µ)
f (x) = √
exp −
für x ∈ R
2
2σ
2πσ
besitzt.
Es gilt: E(X) = µ, Var(X) = σ 2
• Die Normalverteilung wird auch als Gauß-Verteilung
und die Dichte als Gauß-Kurve bezeichnet
• Die Normalverteilung spielt eine zentrale Rolle
in der induktiven Statistik. Bei sehr vielen Zufallsphänomenen wird angenommen, dass sie zumindest approximativ normalverteilt sind.
• Normalverteilungen sind unimodal und symmetrisch un ihren Mittelwert µ
Statistik_II@finasto
3–25
Gauß-Kurven mit µ = 0 und σ 2 = 0.25, 1, 4
N(0,0.25)
0.8
0.6
0.4
N(0,1)
0.2
N(0,2)
0.0
-4
-2
0
2
4
Gauß-Kurven mit µ = −1, 0, 2 und σ 2 = 1
N(0,1)
0.4
N(2,1)
N(-1,1)
0.3
0.2
0.1
0.0
-4
-2
0
2
4
Gauß-Kurven mit verschiedenen µ und σ 2
N(2,0.16)
1.0
0.8
0.6
N(0,1)
0.4
N(-1,2.25)
0.2
0.0
-4
Statistik_II@finasto
-2
0
2
4
3–26
Spezialfall mit µ = 0, σ 2 = 1:
Standardnormalverteilung N (0, 1)
Dichte der Standardnormalverteilung N (0, 1):
( 2)
1
x
ϕ(x) = √ exp −
für x ∈ R
2
2π
Verteilungsfunktion:
∫
Φ(x) =
∫
x
x
ϕ(t)dt =
−∞
−∞
( 2)
1
t
√ exp −
dt
2
2π
• Die Standardnormalverteilung ist symmetrisch zum
Nullpunkt,
Φ(−x) = 1 − Φ(x)
• Die Werte von Φ(z) sind tabelliert.
Statistik_II@finasto
3–27
Die Quantile der Standardnormalverteilung
Die Quantile der Standardnormalverteilung sind durch
Φ(zp ) = p
bestimmt. Wegen der Symmetrie gilt
zp = −z1−p
p
50%
75%
90%
95%
97,5%
99%
zp
0 = xmed
0,675
1,282
1,645
1,960
2,326
0.4
φ(x)
0.3
0.2
0.1
1-p
1-p
0.0
-3
Statistik_II@finasto
-2
-zp
-1
0
1
zp
2
3
3–28
Rückführung einer allgemeinen N (µ, σ 2 )-Verteilung auf
die Standardnormalverteilung:
Standardisierung:
Ist X ∼ N (µ, σ 2 ), so ist die standardisierte Zufallsvariable
X −µ
Z=
σ
standardnormalverteilt, d.h. Z ∼ N (0, 1)
Für die Verteilungsfunktion F von X gilt:
(
)
x−µ
x−µ
F (x) = Φ
= Φ(z) mit z =
σ
σ
Quantile: Für 0 < p < 1 berechnet sich das pQuantil xp der N (µ, σ)-Verteilung durch
zp =
xp − µ
bzw xp = µ + σzp
σ
⇒ P [a ≤ X ≤ b] = F (b) − F (a)
(
)
(
)
b−µ
a−µ
=Φ
−Φ
σ
σ
Statistik_II@finasto
3–29
Beispiel: Füllmenge von Bier
In einer Abfüllanlage werden Flaschen mit nominal
50 cl Bier gefüllt. Die Anlage arbeitet jedoch nicht
vollständig exakt. Im Mittel werden tatsächlich 50 cl
eingefüllt, die Standardabweichung beträgt jedoch 1,2
cl.
Modell:
X = „Füllmenge“ ∼ N (50, 1.44)
(
)
52 − 50
P [X ≤ 52] = F (52) = P Z ≤
1, 2
= P [Z ≤ 1, 67] = Φ(1, 67) = 0, 953
P [X ≥ 49] = 1 − F (49)
(
)
49 − 50
= 1 − Φ(−0, 833)
=1−Φ
1, 2
= 1 − (1 − Φ(0, 833)) = 0, 797
Statistik_II@finasto
3–30
Zentrale Schwankungsintervalle
Ist X ∼ N (µ, σ 2 ), so gilt für α > 0
P [µ − z1−α/2 σ ≤ X ≤ µ + z1−α/2 σ] = 1 − α
Für z1−α/2 = k erhält man die Bereiche
P [µ − σ ≤ X ≤ µ + σ] = 0, 6827
k=1:
k=2:
P [µ − 2σ ≤ X ≤ µ + 2σ] = 0, 9545
k=3:
P [µ − 3σ ≤ X ≤ µ + 3σ] = 0, 9973
1−α
α/2
µ−z1-α/2 σ
Statistik_II@finasto
α/2
µ
µ+z1-α/2 σ
3–31
Beispiel: Füllmenge von Bier
X = „Füllmenge“ ∼ N (50, 1.44)
Frage: Zwischen welchen Werten liegt die tatsächliche Füllmenge mit einer Wahrscheinlichkeit von
95%?
0, 95 = 1 − α ⇒ α = 0, 05, z1−α/2 = z0,975 = 1, 96
⇒ P [µ − 1, 96σ ≤ X ≤ µ + 1, 96σ] = 1 − α = 0, 95
Anwendung auf Füllmenge: P [47, 65 ≤ X ≤ 52, 35] =
0, 95
95%
2,5%
2,5%
µ−1.96σ
Statistik_II@finasto
µ
µ+1.96σ
3–32
Eigenschaften der Normalverteilung:
Lineare Transformation
Für X ∼ N (µ, σ 2 ) ist die linear transformierte Variable Y = aX + b wieder normalverteilt mit
Y ∼ N (aµ + b, a2 σ 2 )
Addition
2
Sind X ∼ N (µX , σX
) und Y ∼ N (µY , σY2 ) normalverteilt und unabhängig, so gilt
2
X + Y ∼ N (µX + µY , σX
+ σY2 )
Verallgemeinerung: Sind Xi ∼ N (µi , σi2 ) unabhängig, so ist jede Linearkombination Y = a1 X1 +
. . . + an Xn normalverteilt mit
Y ∼ N (a1 µ1 + . . . + an µn , a21 σ12 + . . . + a2n σn2 )
Statistik_II@finasto
3–33
Der zentrale Grenzwertsatz
Zufallsvariable X (diskret oder stetig)
Beispiele: X =”Geschlecht einer zufällig ausgewählten
Person” (0/1 falls weiblich/männlich); X =”Einkommen
einer zufällig ausgewählten Person”,
Einfache Zufallsstichprobe des Umfangs n (bzw. nmalige unabhängige Wiederholung des Zufallsexperiments):
• Folge X1 , . . . , Xn von Zufallsvariablen, die jeweils
eine einzelne Ziehung (Wiederholung) beschreiben
• Alle Xi haben die gleiche Verteilung wie X und
X1 , . . . , Xn sind voneinander unabhängig,
µ = E(X) = E(Xi ),
σ 2 = Var(X) = Var(Xi )
X1 , . . . , Xn - unabhängig und identisch verteilte Zufallsvariablen (mit Mittelwert µ und Varianz σ 2 )
Statistik_II@finasto
3–34
Man betrachte nun den Mittelwert:
n
∑
1
• X̄ = n
Xi (Zufallsvariable!!)
i=1
• x̄ =
1
n
n
∑
xi tatsächlich beobachteter (realisierter)
i=1
numerischer Wert (z.B. x̄ = 0, 0456)
Zentraler Grenwertsatz
Seien X1 , . . . , Xn unabhängig und identisch verteilte
Zufallsvariablen mit Mittelwert µ und Varianz σ 2 .
Dann gilt
(
)
X̄ − µ
√ ≤ z → Φ(z) für n → ∞
P
σ/ n
Mit anderen Worten: Für großes n gilt approximativ
(
)
2
σ
X̄ ∼ N µ,
n
Folgerung für Summen von Zufallsvariablen:
n groß, so gilt approximativ
n
∑
Xi ∼ N (nµ, nσ 2 )
i=1
Anmerkung: Die asymptotische Normalität von X̄ gilt
unabhängig von der Struktur der Verteilung der Xi (diese
Verteilung ist natürlich für alle Stichprobenumfänge n die
gleiche (z:B. Exponentialverteilung, Bernoulli, etc.)
Statistik_II@finasto
3–35
Beispiel:
N = 7 Kugeln: 10, 11, 11, 12, 12, 12, 16
X: „Zahl auf einer zufällig gezogenen Kugel“
x
10
11
12
16
f (x)
1/7
2/7
3/7
1/7
µ = E(X) = 12,
σ 2 = Var(X) = 22/7 = 3.143
Einfache Zufallsstichprobe (n = 2): Unabhängig
und identisch verteilte Zufallsvariablen X1 und X2
X1 : „Zahl auf der 1. gezogenen Kugel“
X2 : „Zahl auf der 2. gezogenen Kugel“
Mögliche Realisationen:
2.Kugel
1.Kugel
10
11
11
12
12
12
16
10
(10;10)
10;11
10;11
10;12
10;12
10;12
10;16
11
11;10
(11;11)
11;11
11;12
11;12
11;12
11;16
11
11;10
11;11
(11;11)
11;12
11;12
11;12
11;16
12
12;10
12;11
12;11
(12;12)
12;12
12;12
12;16
12
12;10
12;11
12;11
12;12
(12;12)
12;12
12;16
12
12;10
12;11
12;11
12;12
12;12
(12;12)
12;16
16
16;10
16;11
16;11
16;12
16;12
16;12
(16;16)
Statistik_II@finasto
3–36
Mögliche Stichprobenmittelwerte x̄
2. Kugel
1. Kugel
10
11
11
12
12
12
16
10
(10)
10,5
10,5
11
11
11
13
11
10,5
(11)
11
11,5
11,5
11,5
13,5
11
10,5
11
(11)
11,5
11,5
11,5
13,5
12
11
11,5
11,5
(12)
12
12
14
12
11
11,5
11,5
12
(12)
12
14
12
11
11,5
11,5
12
12
(12)
14
16
13
13,5
13,5
14
14
14
(16)
Wahrscheinlichkeitsverteilung von X̄
x
10
10.5
11
11.5
12
13
13,5
14
16
f (x)
1
49
4
49
10
49
12
49
9
49
2
49
4
49
6
49
1
49
E(X) = 12 = µ,
Var(X) = 22/14 = σ 2 /2
Für wachsendes n gibt es immer mehr mögliche Werte
von X ⇒ Übergang zu einer quasistetigen Verteilung,
die sich für genügend großes n durch eine Normalverteilung approximieren lässt
(
)
22/7
X̄ ∼ N 12,
n
Statistik_II@finasto
3–37
Verteilungen der Zufallsvariablen Xi
E(X)
E(X)
Zugehörige Verteilungen des Mittelwertes X̄ =
E(X)
E(X)
E(X)
E(X)
E(X)
1
n
∑n
i=1
E(X)
n=2
E(X)
E(X)
E(X)
E(X)
E(X)
E(X)
n=4
E(X)
E(X)
n = 30
Statistik_II@finasto
3–38
Xi
Verhalten von X̄ für n → ∞:
σ
σ
√
√
P [µ − z1−α/2
≤ X̄ ≤ µ + z1−α/2
]≈1−α
n
n
Die Länge 2z1−α/2 √σn dieser zentralen Schwankungsintervalle wird für steigendes n immer kleiner.
n=1600
n=100
α/2
1−α
1−α
α/2
α/2
µ
Beispiel: σ = 1, α = 0, 05 ⇒ z1−α/2 √σn =
α/2
µ
1,96
√
n
n = 100
P [µ − 0, 196 ≤ X̄ ≤ µ + 0, 196] ≈ 0, 95
n = 1600
P [µ − 0, 049 ≤ X̄ ≤ µ + 0, 049] ≈ 0, 95
⇒ Für großes n ist zu erwarten, dass der beobachtete Mittelwert x̄ sehr nahe am Erwartungswert
µ der Zufallsvariablen liegt (Gesetz der großen
Zahlen)
Statistik_II@finasto
3–39
Anwendung des zentralen Grenzwertsatzes: Approximation der Binomialverteilung
Zentraler Grenzwertsatz
Sei X ∼ B(n, p). Für großes n gilt approximativ
X − np
Z=√
∼ N (0, 1)
np(1 − p)
bzw.
X ∼ N (np, np(1 − p))
Faustregeln: np ≥ 5, n(1 − p) ≥ 5
Anwendung (mit Stetigkeitskorrektur):
(
)
x − 0, 5 − np
P [X < x] ≈ Φ √
np(1 − p)
)
(
x + 0, 5 − np
P [X ≤ x] ≈ Φ √
np(1 − p)
⇒ P [x1 ≤ X ≤ x2 ]
)
)
(
(
x2 + 0, 5 − np
x1 − 0, 5 − np
√
√
≈Φ
−Φ
np(1 − p)
np(1 − p)
Statistik_II@finasto
3–40
3.5
Spezielle Verteilungsmodelle
χ2 -Verteilung
Seien X1 , . . . , Xn unabhängige und identisch
N (0, 1)-verteilte Zufallsvariablen. Dann heißt die
Verteilung von
χ2 = X12 + · · · + Xn2
Chi-Quadrat-Verteilung mit n Freiheitsgraden,
kurz χ2 ∼ χ2 (n).
Es gilt:
E(χ2 ) = n,
Var(χ2 ) = 2n
Dichten der χ2-Verteilung
0.5
n=2
0.4
0.3
0.2
n=5
0.1
n=10
0.0
0
Statistik_II@finasto
5
10
15
20
3–41
• Die Dichten der χ2 -Verteilung sind linkssteil, nähern sich jedoch für große n der Gauß-Kurve an
(zentraler Grenzwertsatz)
• n > 30: χ2 (n) ≈ N (n, 2n)
• Wichtige Quantile der χ2 (n)-Verteilung sind tabelliert. Für n > 30 benutzt man eine Normalverteilungsapproximation
χ2p;n
√
1
= (zp + 2n − 1)2
2
Anwendungsbereich: Verfahren der inferentiellen
Statistik (Anpassungstests, Tests im Zusammenhang
mit Varianzen); spezielle Lebensdauermodelle
Statistik_II@finasto
3–42
t-Verteilung, Student-Verteilung
Seien X ∼ N (0, 1) und Y ∼ χ2n unabhängig. Dann
heißt die Verteilung von
X
√
T =
Y /n
t-Verteilung mit n Freiheitsgraden, kurz T ∼ t(n).
Es gilt:
E(T ) = 0, (n > 1),
n
, (n > 2)
Var(T ) = n−2
Dichten der Student-Verteilung
0.4
n=10
0.3
0.2
0.1
n=1
0.0
-4
Statistik_II@finasto
-2
0
2
4
3–43
• Die Dichten der t-Verteilung sind symmetrisch um
0. Im Vergleich zu ϕ besitzen sie für kleine n größere Enden, d.h. die Flächen unter den Dichtekurven für kleine und große Werte x sind größer.
• n groß (n > 30): t(n) ≈ N (0, 1)
• Wichtige Quantile der t(n)-Verteilung sind tabelliert. Für n > 30 benutzt man eine Normalverteilungsapproximation
tp;n ≈ zp
Anwendungsbereich: Verfahren der inferentiellen Statistik (Tests im Zusammenhang mit Mittelwerten); robuste
Statistik (Modellierung von Daten mit einem hohen Anteil
extremer Werte)
Statistik_II@finasto
3–44
Fisher-Verteilung
Seien X ∼ χ2 (m) und Y ∼ χ2 (n) unabhängig. Dann
heißt die Verteilung von
X/m
F =
Y /n
Fisher- oder F -Verteilung mit den Freiheitsgraden m und n, kurz F ∼ F (m, n).
n
Es gilt: E(F ) = n−2
(für n > 2)
Anwendungsbereich: Quantile der F -verteilung (tabelliert) werden bei Testverfahren in der Regressions- und
Varianzanalyse benötigt
Dichten der F-Verteilung
F(50,50)
1.2
F(2,10)
0.8
F(10,3)
0.4
0.0
0
Statistik_II@finasto
1
2
3
4
3–45
Herunterladen