Formelsammlung

Werbung
————————————————————————————————————————————————————————————Fakultät Verkehrswissenschaften ”Friedrich List”
Professur für Ökonometrie und Statistik, insb. im Verkehrswesen
————————————————————————————————————————————————————————————-
Formelsammlung
zu Vorlesungen ”Statistik”
Deskriptive Statistik
Wahrscheinlichkeitstheorie
c I. Okhrin, Dresden, 2015
Inhaltsverzeichnis
1
Deskriptive Statistik
4
1.1
Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2
Kenngrößen einer univariaten Datenmenge . . . . . . . . . . . . . . . . . . . . . . .
4
1.2.1
Häufigkeiten, Verteilungsfunktion, Histogramm . . . . . . . . . . . . . . . .
4
1.2.2
Skalare Kenngrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
Kenngrößen einer bivariaten Datenmenge . . . . . . . . . . . . . . . . . . . . . . .
9
1.3.1
Korrelationsmaße bei metrisch skalierten Merkmalen . . . . . . . . . . . . .
9
1.3.2
Korrelationsmaße bei ordinal skalierten Daten . . . . . . . . . . . . . . . . .
10
1.3.3
Bivariate Häufigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.3.4
Korrelationsmaße bei nominal skalierten Merkmalen . . . . . . . . . . . . .
12
1.3
2
Wahrscheinlichkeitstheorie
14
2.1
Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.2
Grundgesamtheit, Ereignisse und Mengen . . . . . . . . . . . . . . . . . . . . . . .
15
2.3
Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
2.4
Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . . . . . . . . . . . . . . . .
17
2.5
Zufallsvariable und Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . . . .
18
2.5.1
Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.5.2
Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.5.3
Diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.5.4
Stetige Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
2.5.5
2-dim. Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . .
2
20
INHALTSVERZEICHNIS
3
2.5.6
Erwartungswert einer Zufallsvariable . . . . . . . . . . . . . . . . . . . . .
22
2.5.7
Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.5.8
Tschebyscheff-Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.5.9
Korrelationsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.5.10 Grenzwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
A
26
A.1 Einige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
A.2 Verteilungsfunktion der Standardnormalverteilung . . . . . . . . . . . . . . . . . . .
30
Kapitel 1
Deskriptive Statistik
1.1
Grundbegriffe
Grundgesamtheit (Population) :
Ω = {ω}.
Merkmalsvektor X : Ω → S, S – Merkmalsraum,
x = X(ω) – Beobachtung (Merkmalsrealisation, Ausprägung, Realisation).
Klassifizierung von Merkmalen (Skalentypen)
1. Nominalskala (klassifikatorische, kategoriale):
2. Ordinal- oder Rangskala:
x = y, x 6= y.
x < y, x = y, x > y.
3. Metrische Skala:
(a) Intervallskala: wie 2. und x − y hat inhaltliche Bedeutung,
(b) Verhältnisskala: wie 3.a und Nullpunkt.
Merkmalstypen
1. Diskretes Merkmal: höchstens abzählbar viele Ausprägungen,
2. Stetiges (kontinuierliches) Merkmal: sonst
1.2
1.2.1
Kenngrößen einer univariaten Datenmenge
Häufigkeiten, Verteilungsfunktion, Histogramm
(I) Ohne Klassenbildung
Voraussetzung: Stichprobe x1 , . . . , xn mit i.a. xi ∈ IR (univariat), Ausprägungen a1 , . . . , ak (k ≤ n)
• absolute Häufigkeit von ai :
n(ai ) = Anzahl der Fälle, in denen die Ausprägung ai in der Stichprobe x1 , . . . , xn auftritt
• relative Häufigkeit von ai :
h(ai ) = n(ai )/n
4
1.2. KENNGRÖSSEN EINER UNIVARIATEN DATENMENGE
5
zusätzliche Voraussetzung: mind. Ordinalskala ; a1 < .. < ak
• absolute Summenhäufigkeit zu ai :
N(ai ) = Anzahl der Elemente der Stichprobe, die kleiner oder gleich ai sind
• relative Summenhäufigkeit zu ai :
H(ai ) = N(ai )/n
i
– N(ai ) =
i
∑ n(a j ) , H(ai) =
j=1
∑ h(a j )
j=1
– H(ai ) − H(ai−1 ) = h(ai )
• empirische Verteilungsfunktion :
F̂(x) = relative Anzahl der Realisationen, die kleiner gleich x sind
– F̂(x) = 0 für x < a1 , F̂(x) = 1 für x ≥ ak ,
– F̂(x) monoton steigend (nichtfallend),
– F̂(x) rechtsseitig stetig,
– F̂(x) = H(a j ), falls a j ≤ x < a j+1 ,
– F̂(a j ) − F̂(a j −) = h(a j )
(II) Mit Klassenbildung
neue Voraussetzung: Klassenbildung ,
disjunkte Teilmengen Ki , wobei jede Ausprägung in genau eine Klasse fällt
• absolute Klassenhäufigkeit von Ki :
n(Ki ) = Anzahl der Ausprägungen in Ki
• relative Klassenhäufigkeit von Ki :
h(Ki ) = n(Ki )/n
zusätzliche Voraussetzung: X sei reellwertig, d.h. S ⊂ IR, S =
r
S
Ki , Klassen seien Intervalle
i=1
h(Ki )
• Histogramm: fˆ(x) =
|Ki |
für x ∈ Ki ,
|Ki | – Klassenbreite von Ki
– Fläche zur Klasse Ki : h(Ki )/|Ki | · |Ki | = h(Ki ), d. h. die entscheidende Information über
das Histogramm ist die Fläche des Rechtecks!
Z∞
–
−∞
r
fˆ(x) dx = ∑ h(Ki ) = 1
i=1
– Wahl der Klassenanzahl:
√
1. Sind die Daten gleich über ein Intervall verteilt, so k = [ n ]
6
KAPITEL 1. DESKRIPTIVE STATISTIK
2. Kompromißvorschlag: k = [10 log10 (n)]
• Stamm-und-Blätter-Diagramm
Beispiel: 1215, 1410, 1300, 1320, 1420, 1385, 1510
Einheit 10
; 122, 141, 130, 132, 142, 139, 151
12 2
13 029
14 12
15 1
feinere Unterteilung:
12
12
13
13
14
14
15
1.2.2
2
02
9
12
1
Skalare Kenngrößen
(I) Lagemaße
Aussage über das Zentrum der Stichprobe.
Voraussetzung: metrische Daten x1 , . . . , xn
Bezeichnung: geordnete Daten x(1) ≤ x(2) ≤ . . . ≤ x(n) mit x(i) – i-te Ordnungsstatistik.
• Mittelwert (arithmetisches Mittel, Durchschnitt):
1
x̄ =
n
–
1
n
1
∑ xi = n
i=1
k
k
∑ n(ai) ai = ∑ h(ai) ai
i=1
i=1
n
∑ (xi − x̄) = 0
i=1
n
–
n
n
∑ (xi − x̄)2 ≤ ∑ (xi − a)2
i=1
∀a ∈ IR
i=1
– Für yi = a xi + b ist ȳ = a x̄ + b .
– Der Mittelwert reagiert empfindlich auf Ausreißer.
– Der Mittelwert ist nur repräsentativ bei in etwa symmetrischen Daten, ansonsten schwer
interpretierbar.
– Mittelwert für klassierte Daten: Klassen K1 ,. . . ,Kr mit Klassenmittel m1 , . . . , mr
r
1 r
x̄K = ∑ n(Ki ) mi = ∑ h(Ki ) mi
n i=1
i=1
1.2. KENNGRÖSSEN EINER UNIVARIATEN DATENMENGE
• α-getrimmtes Mittel x̄α
1
x̄α =
n − 2 [n α]
n−[n α]
∑
α ∈ (0, 0.5)
x(i) ,
i=[n α]+1
... ist robuster in Bezug auf Ausreißer als der Mittelwert
• p-Quantil x̃ p : p ∈ (0, 1]
x([n p]+1)
x̃ p =
x(n p) + x(n p+1) /2
x̃0.25
– Sonderfälle: x̃0.5 = med
x̃0.75
für np ∈
/ ZZ
,
für np ∈ ZZ
unteres Quartil
heißt Median
oberes Quartil
– Die Anzahl der Beobachtungen, die kleiner gleich x̃ p ist, ist größer gleich [n p]
– x([n p]) ≤ x̃ p ≤ x([n p]+1)
n
–
n
∑ |xi − med| ≤ ∑ |xi − a| ∀a ∈ IR
i=1
i=1
– Der Median ast eine äußerst robuste Größe
– Der Median kann auch als Kenngröße bei nichtsymmetrischen Daten verwendet werden
(II) Streuungsmaße
Aussage über die Streuung der Daten um das Zentrum.
• empirische Varianz (Populationsvarianz)
s̃
2
1
=
n
=
1
n
n
1
∑ (xi − x̄) = n
i=1
n
2
∑ xi2
− x̄2
i=1
k
k
∑ n(ai) (ai − x̄)2 = ∑ h(ai) (ai − x̄)2
i=1
i=1
– (empirische) Standardabweichung s̃ =
√
s̃2
– Stichprobenvarianz (Vgl. induktive Statistik):
s2 =
– s2 =
n 2
n−1 s̃
1
n−1
n
1
n
n
∑ (xi − x̄)2 = n − 1 ∑ xi2 − n − 1 x̄2
i=1
=⇒
i=1
s2 > s̃2
– Für yi = a xi + b sind s̃2y = a2 s̃2x und s̃y = |a| s̃x
– Die empirische Varianz reagiert empfindlich auf Ausreißer.
– Die empirische Varianz ist nur sinnvoll bei symmetrischen Daten.
7
8
KAPITEL 1. DESKRIPTIVE STATISTIK
– Empirische Varianz für klassierte Daten: K1 , . . . , Kr
s̃2K =
r
1
n
∑ n(Ki) (mi − x̄K )2 =
i=1
1
n
r
∑ n(Ki) m2i
− x̄K2
i=1
• MAD (median absolute deviation)
ist der Median von |xi − x̃0.5 | ,
i = 1, . . . , n
– ... ist robust gegenüber Ausreißern.
– verwandte, weniger robuste Varianten:
d1 =
1
n
∑ |xi − x̃0.5|,
d2 =
1
n
∑ |xi − x̄| .
• Spannweite:
R̃ = x(n) − x(1)
– nicht robust
• Quartilabstand :
QA = x̃0.75 − x̃0.25
– Der Quartilabstand ist resistent gegenüber Ausreißern.
– Es liegen mindestens [n/2] aller Beobachtungen im Intervall [x̃0.25 , x̃0.75 ].
(III) Schiefheitsmaße
Aussage über die Abweichung der Häufigkeitsverteilung von der Symmetrie.
Voraussetzung: unimodale (eingipflige) Verteilung
Bezeichnung: Häufigkeitsverteilung heißt rechtsschief, falls der Gipfel auf der linken Seite liegt,
ansonsten linksschief.
• (empirische) Stichprobenschiefe:
1
n
n
∑
i=1
xi − x̄
s̃
3
– Stichprobenschiefe > 0 → Rechtsschiefe,
– Stichprobenschiefe < 0 → Linksschiefe.
1.3. KENNGRÖSSEN EINER BIVARIATEN DATENMENGE
9
(IV) Zusammenfassung skalarer Maße: Box-Plot
?
◦
◦
◦◦
◦
??
x0.25 − 3QA
x0.25 − 1.5QA
x0.25 x0.5
QA
1.5QA
x0.75 + 1.5QA
x0.75
x0.75 + 3QA
1.5QA
Beachte Maßstab bei der Konstruktion!!
1.3
1.3.1
Kenngrößen einer bivariaten Datenmenge
Korrelationsmaße bei metrisch skalierten Merkmalen
• (empirische) Kovarianz zwischen X und Y :
s̃XY
1
=
n
n
1
∑ (xi − x̄)(yi − ȳ) = n
i=1
n
∑ xi yi − x̄ ȳ .
i=1
– s̃XY = s̃Y X
– empfindlich auf Ausreißer.
• Stichprobenkovarianz
sXY =
n
1
n−1
∑ (xi − x̄)(yi − ȳ) =
i=1
1
n−1
n
∑ xi yi −
i=1
n
x̄ ȳ
n−1
• (empirischer) Korrelationskoeffizient nach Bravais/Pearson
rXY =
s̃XY
sXY
=
s̃X s̃Y
sX sY
n
∑ (xi − x̄)(yi − ȳ)
= s
i=1
n
n
∑ (xi − x̄)2 ∑ (yi − ȳ)2
i=1
i=1
n
∑ xi yi − nx̄ ȳ
= s
i=1
n
n
( ∑ xi2 − nx̄2 )( ∑ y2i − nȳ2 )
i=1
i=1
.
x
10
KAPITEL 1. DESKRIPTIVE STATISTIK
– rXY = rY X
– rXY ∈ [−1; 1].
– Es ist rXY = 1 (bzw. -1), falls alle Beobachtungen (xi , yi ) auf einer Geraden mit positiver
(negativer) Steigung liegen. Dabei ist
yi = ȳ + m xi − x̄
mit m > 0 (m < 0).
– Der Korrelationskoeffizient nach Bravais/Pearson ist ein Maß für den linearen Zusammenhang.
1.3.2
Korrelationsmaße bei ordinal skalierten Daten
Voraussetzung: X und Y sind wenigstens ordinal skaliert
• Rangbildung Stichprobe x1 , . . . , xn , geordnete Stichprobe x(1) ,. . . ,x(n) :
R(x j ) mit
R(x j ) = v
⇔
x j = x(v)
heißt Rang der Beobachtung x j .
– Durchschnittsrangbildung bei gleichen Beobachtungen (Bindungen), z. B. für zwei gleiche Beobachtungen:
x j = xk ; R(x j ) = R(xk ) =
j6=k
v + v+1
2
(x j = x(v) = x(v+1) = xk )
– Stichprobe (x1 , y1 ), . . . , (xn , yn ), Ränge (R(x1 ), R(y1 )), . . . , (R(xn ), R(yn )).
– Mittelwert R̄ =
n+1
2
• Rangkorrelationskoeffizient von Spearman
n
∑ (R(xi) − R̄) (R(yi) − R̄)
i=1
n
RXY = rR(X),R(Y ) = s
2
∑ (R(xi) − R̄)
i=1
n
2
∑ (R(yi) − R̄)
i=1
n
∑ R(xi) R(yi) − n R̄2
= v
u
u
t
i=1
!
n
∑ R(xi)2 − n R̄2
i=1
Falls keine Bindungen vorliegen:
n
2
6 ∑ R(xi ) − R(yi )
RXY = 1 −
i=1
n (n2 − 1)
.
n
∑ R(yi)2 − n R̄2
i=1
!
1.3. KENNGRÖSSEN EINER BIVARIATEN DATENMENGE
11
– |RXY | ≤ 1
– Es ist RXY = 1 (−1) genau dann, wenn
R(yi ) = R̄ + m (R(xi ) − R̄)
für alle i.
bzw. für i 6= j
xi < x j
⇔
yi < y j
(yi > y j ) .
– RXY ist ein Maß für den monotonen Zusammenhang! Perfekter monotoner Zusammenhang tritt für R2XY = 1 auf.
– RXY ist invariant in Bezug auf monoton wachsende Transformationen.
– RXY ist robust in Bezug auf Ausreißer.
– Bei viele Bindungen ist es empfehlenswert, zur Bestimmung der Ränge die entsprechenden Formeln in der Kontingenztafel auf Seite 12 nutzen.
1.3.3
Bivariate Häufigkeiten
Voraussetzung: Stichprobe (x1 , y1 ), . . . , (xn , yn ), Ausprägungen von X seien a1 , . . . , ak bzw. b1 , . . . , bl
von Y
• absolute Häufigkeit für (ai , b j ):
ni j = n(X = ai ,Y = b j ) = Anzahl der Fälle, in denen das Paar (ai , b j ) in der Stichprobe auftritt.
• absolute Randhäufigkeit von ai :
ni· = Anzahl der Fälle, in denen die Ausprägung ai in x1 , . . . , xn auftritt (analog n· j )
ni· = ∑lj=1 ni j
• relative Häufigkeit für (ai , b j ):
ni j
hi j = h(X = ai ,Y = b j ) =
n
• relative Randhäufigkeit von ai :
l
ni·
= ∑ hi j
hi· = h(X = ai ) =
n
j=1
12
KAPITEL 1. DESKRIPTIVE STATISTIK
• Kontingenztafel der absoluten Häufigkeiten
Y
X
b1
···
b2
bl
Σ
a1
n11
n12
···
n1l
n1·
a2
..
.
n21
..
.
n22
..
.
···
..
.
n2l
..
.
n2·
..
.
ak
nk1
nk2
···
nkl
nk·
Σ
n·1
n·2
···
n·l
n
R̄Y
1 + n·1
2
1 + n·2
n·1 +
2
···
1 + n·l
∑l−1
j=1 n· j +
2
• bedingte relative Häufigkeit für ai von X, falls Y den Wert b j besitzt:
n(X = ai ,Y = b j ) ni j
=
n(Y = b j )
n· j
h(X = ai ,Y = b j ) hi j
=
=
h(Y = b j )
h· j
h(X = ai |Y = b j ) =
Rechenregeln
– 0 ≤ h(X = ai |Y = b j ) ≤ 1
k
1
– ∑ h(X = av |Y = b j ) =
h(Y = b j )
v=1
k
∑ h(X = av,Y = b j ) = 1
v=1
– Satz der totalen Wahrscheinlichkeit:
l
h(X = ai ) =
∑ h(X = ai |Y = b j ) h(Y = b j )
j=1
– Satz von Bayes:
h(X = ai |Y = b j ) =
1.3.4
h(Y = b j | X = ai ) h(X = ai )
h(Y = b j )
Korrelationsmaße bei nominal skalierten Merkmalen
Voraussetzung: X und Y sind wenigstens nominal skaliert (z. B. Kontingenztafel)
• Unabhängigkeit
X heißt unabhängig von Y , falls für alle i ∈ {1, . . . , k} gilt
h(X = ai |Y = b1 ) = h(X = ai |Y = b2 ) = . . . = h(X = ai |Y = bl )
ist äquivalent zu
R̄X
(mittlerer Rang)
1 + n1·
2
1 + n2·
n1· +
2
..
.
k−1
ni· +
∑i=1
1 + nk·
2
1.3. KENNGRÖSSEN EINER BIVARIATEN DATENMENGE
13
– h(X = ai ) = h(X = ai |Y = b j ) für alle j ∈ {1, . . . , l}
– Y ist unabhängig von X ; Bezeichnung X und Y sind unabhängig.
– X und Y sind genau dann unabhängig, wenn für alle i, j gilt
h(X = ai ,Y = b j ) = h(X = ai ) h(Y = b j ),
d. h. es ist
hi j = hi· h· j
ni j = ni· n· j /n
bzw.
für alle i, j.
• χ2 -Koeffizient
2
2
χ
= ∑ki=1
∑lj=1
(ni j −ni· n· j /n)
ni· n· j /n
= n
∑ki=1
n2i j
∑lj=1 ni· n· j
−1
=n
∑ki=1
– χ2 „groß“; X und Y nicht unabhängig.
• Pearsonscher Kontingenzkoeffizient
s
χ2
C=
,
χ2 + n
s
wobei
C ≤ Cmax =
min{k, l} − 1
≤1
min{k, l}
; korrigierter Pearsonscher K.
CKorr = C/Cmax .
– je kleiner CKorr , desto „schwächer“ist die Abhängigkeitsstruktur
– es ist CKorr = 0 genau dann, wenn X und Y unabhängig sind
– CKorr ∈ [0; 1]
h2i j
∑lj=1 hi· h· j
−1
.
Kapitel 2
Wahrscheinlichkeitstheorie
2.1
Kombinatorik
Um |A| zu bestimmen, muß man häufig Probleme der Art lösen: Wieviele Möglichkeiten gibt es, aus
n Elementen k auszuwählen. Dabei unterscheidet man Ziehungen, bei denen die Reihenfolge eine
Rolle spielt oder nicht, sowie ob gezogene Elemente wieder zurückgelegt werden. Dabei ergeben sich
folgende Anzahlen:
Zurücklegen
Reihenfolge
ja
ja
nein
nein
n!
V̄nk = nk
Vnk =
(n−k)!
n
+
k
−
1
n
C̄nk =
Cnk =
k
k
V–
Variationen
C–
Kombinationen
n
n!
Dabei ist
=
(mit n! = 1 · 2 · . . . · (n − 1) · n) der Binomialkoeffizient.
k
k! (n − k)!
Der Binomialkoeffizient hat u. a. folgende Eigenschaften:
n
0
n
1
n
k
n
n
+
k−1
k
= 1,
= n,
n
=
,
n−k
n+1
=
(Pascalsches Dreieck) .
k
14
2.2. GRUNDGESAMTHEIT, EREIGNISSE UND MENGEN
15
Verallgemeinerung von Cnk : n verschiedene Objekte sollen in k verschiedene Mengen vom Umfang
n1 , . . . , nk eingeteilt werden, wobei n1 + . . . + nk = n ist. Anzahl der Möglichkeiten beträgt hierbei
=
n!
n1 ! . . . nk !
n
Diese Größe heißt Multinomialkoeffizient. Man schreibt hierfür
n1 . . . nk
2.2
Grundgesamtheit, Ereignisse und Mengen
Identifikation: Ereignis = Menge
Ereignis: Teilmenge von Ω
Elementarereignis: einelementiges Ereignis
Grundgesamtheit Ω: Ergebnismenge, Menge aller Elementarereignisse
Mengenoperationen
Voraussetzung: A, B ⊆ Ω.
Durchschnitt
A∩B =
{ω ∈ Ω : ω ∈ A und ω ∈ B}
Vereinigung
A∪B =
{ω ∈ Ω : ω ∈ A oder ω ∈ B}
Differenz
A−B =
{ω ∈ Ω : ω ∈ A und ω ∈
/ B}
Komplement
Ā =
{ω ∈ Ω : ω ∈
/ A}
0/
– unmögliches Ereignis
Ω
– sicheres Ereignis
A ∩ B = 0/ – disjunkte (unvereinbare) Ereignisse A, B
A ∪ B = B ∪ A,
A∩B = B∩A
(A ∪ B) ∪C = A ∪ (B ∪C),
(A ∩ B) ∩C = A ∩ (B ∩C)
A ∩ (B ∪C) = (A ∩ B) ∪ (A ∩C),
A ∪ (B ∩C) = (A ∪ B) ∩ (A ∪C)
(A ∩ B) = Ā ∪ B̄,
(A ∪ B) = Ā ∩ B̄
A − B = A ∩ B̄
16
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
2.3
Wahrscheinlichkeitsbegriff
• Laplace-Wahrscheinlichkeit
Ist Ω endlich und sind alle Elementarereignisse gleichwahrscheinlich, so gilt
P(A) =
|A| Anzahl der für A “günstigen” Fälle
=
,
|Ω|
Anzahl der möglichen Fälle
wobei |A| die Anzahl der Elemente von A bezeichne, analog |Ω|.
Voraussetzung: Ereignisse A, B ⊆ Ω, n Versuche, rel. Häufigkeit h(A) bzw. hn (A)
• Rechenregeln für relative Häufigkeiten
– 0 ≤ h(A) ≤ 1
– h(Ω) = 1
/ =0
– h(0)
– h(Ā) = 1 − h(A)
– h(A ∪ B) = h(A) + h(B) , falls A ∩ B = 0/
– h(A ∪ B) = h(A) + h(B) − h(A ∩ B)
– h(A) = h(A ∩ B) + h(A ∩ B̄)
• Statistische Definition der Wahrscheinlichkeit (von Mises, 1931)
P(A) := lim hn (A)
n→∞
• Axiomatik nach Kolmogorov, 1933 (vereinfacht)
Eine Funktion P : Ω → [0, 1] mit den Eigenschaften
1. ∀ A ⊆ Ω : 0 ≤ P(A) ≤ 1
2. P(Ω) = 1
3. P(A ∪ B) = P(A) + P(B) ∀ A, B ⊆ Ω mit A ∩ B = 0/
4. für A1 , A2 , . . . ⊂ Ω mit
∞
S
An ⊂ Ω gilt P(A1 ∪ A2 ∪ . . .) ≤ P(A1 ) + P(A2 ) + . . .
n=1
heißt Wahrscheinlichkeitsmaß. P(A) heißt die Wahrscheinlichkeit des Ereignisses A.
• Rechenregeln
– P(Ā) = 1 − P(A)
/ =0
– P(0)
– P(A) = P(A ∩ B) + P(A ∩ B̄)
– Ist B ⊆ A, so ist P(B) ≤ P(A)
– P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
– Ist Ω endlich, so gilt für A ⊆ Ω: P(A) =
∑ P({a})
a∈A
2.4. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHÄNGIGKEIT
2.4
17
Bedingte Wahrscheinlichkeit und Unabhängigkeit
• Bedingte Wahrscheinlichkeit für ein Ereignis A ⊆ Ω unter der Bedingung B ⊆ Ω (für A, wenn
B vorliegt) ist
P(A | B) =
P(A ∩ B)
P(B)
für
P(B) > 0 .
Bei fixer Bedingung B ist P(· | B) ein Wahrscheinlichkeitsmaß, für das die in 2.3 genannten
Regeln gelten.
• Multiplikationssatz für bedingte Wahrscheinlichkeiten Es seien A1 , . . . , Ak Ereignisse. Dann
gilt für k ≥ 2 (bei P(A1 ∩ · · · ∩ Ak−1 ) > 0):
P(A1 ∩ · · · ∩ Ak ) = P(A1 ) · P(A2 | A1 ) · P(A3 | A1 ∩ A2 ) · . . . · P(Ak | A1 ∩ · · · ∩ Ak−1 ).
• Satz von der totalen Wahrscheinlichkeit Es seien A1 , . . . , Ak paarweise disjunkte Ereignisse
mit A1 ∪ · · · ∪ Ak = Ω. Dann gilt für ein beliebiges Ereignis B
k
P(B) = ∑ P(B | Ai ) · P(Ai )
i=1
• Satz von Bayes (1702 – 1761) Es seien A1 , . . . , Ak paarweise disjunkte Ereignisse mit
A1 ∪ · · · ∪ Ak = Ω. Dann gilt für i ∈ {1, . . . , k}
P(Ai | B) =
P(B | Ai ) · P(Ai )
k
∑ P(B | A j ) · P(A j )
j=1
– z.B., für P(B) 6= 0
P(A | B) =
P(B | A) · P(A)
P(B)
• Unabhängigkeit von Ereignissen Zwei Ereignisse A, B ⊆ Ω heißen (stochastisch) unabhängig, falls gilt
P(A ∩ B) = P(A) · P(B) .
; bei P(A) · P(B) > 0
P(A) = P(A | B) ,
P(B) = P(B | A) .
Ereignisse A1 , . . . , An (n ≥ 2) sind (stochastisch) unabhängig (in der Gesamtheit), falls für alle
Teilmengen {i1 , . . . , ir } von {1, . . . , n} gilt:
P(Ai1 ∩ · · · ∩ Air ) = P(Ai1 ) · . . . · P(Air ) .
18
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
2.5
Zufallsvariable und Verteilungsfunktionen
2.5.1
Zufallsvariable
Merkmal (Merkmalsvektor) X: Abbildung von Grundgesamtheit Ω in Bildraum S
S ⊂ IR
;
Zufallsvariable
X: Ω→S
Zufallsvariablen X1 , . . . , Xn ; X = (X1 , . . . , Xn ) heißt n-dim. Zufallsvariable (Zufallsvektor)
2.5.2
Verteilungsfunktion
Voraussetzung: Zufallsvariable X
• Verteilungsfunktion
FX (x) = P ω ∈ Ω : X(ω) ≤ x , x ∈ IR
kurz: F(x) = P(X ≤ x)
– 0 ≤ F(x) ≤ 1 für alle x
– F(∞) = lim F(x) = 1,
x→∞
F(−∞) = lim F(x) = 0
x→−∞
– F(x) ist monoton wachsend in x
– F ist rechtsseitig stetig, d. h. F(x + 0) = F(x) ∀x
• Berechnung von Wahrscheinlichkeiten
Es gilt für a < b:
– P(a < X ≤ b) = F(b) − F(a)
– P(a ≤ X ≤ b) = F(b) − F(a − 0)
– P(X > a) = 1 − P(X ≤ a) = 1 − F(a),
P(X ≥ a) = 1 − P(X < a) = 1 − F(a − 0)
– P(X = a) = F(a) − F(a − 0)
mit F(a − 0) = lim F(a − ε) = lim F(a − ε)
ε↓0
ε→+0
2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN
2.5.3
19
Diskrete Zufallsvariable
Nimmt X höchstens abzählbar viele verschiedene Werte an, so heißt X eine diskrete Zufallsvariable
und FX eine diskrete Verteilungsfunktion.
Werte von X:
x1 < x2 < x3 < . . ., pi = P(X = xi )
• Wahrscheinlichkeitsfunktion von X ist

 p , falls x = x
i
i
fX (x) =
 0 , falls x 6= x ∀i
i
• Verteilungsfunktion ist
i
FX (x) =
∑ f (xv)
= P(X = x1 ) + · · · + P(X = xi )
v=1
für xi ≤ x < xi+1 .
Insbesondere: F(x) = 0 für x < x1 , F(x) = 1 für x ≥ xn .
Beispiele für diskrete Verteilungen siehe Seite 27.
2.5.4
Stetige Zufallsvariable
• X heißt stetige Zufallsvariable, falls eine nicht-negative Funktion f existiert mit:
Zx
F(x) =
f (t) dt
, für alle x ∈ IR .
−∞
f heißt Dichte (Wahrscheinlichkeitsdichte) von X
• Eigenschaften für a ≤ b ∈ IR:
Z∞
f (t) dt = 1
–
−∞
– P(a < X ≤ b) =
Zb
Z∞
f (t) dt , P(X > a) =
a
f (t) dt
a
– P(a < X < b) = P(a ≤ X ≤ b) , P(X = a) = 0
– F differenzierbar: f (x) = F 0 (x)
20
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
• Beispiele für stetige Verteilungen
– Gleichverteilung: Wartezeitprobleme,
– Exponentialverteilung: Lebensdauern,
– Normalverteilung: Bedeutung → Zentraler Grenzwertsatz (Vgl. Seite 24)
Siehe auch Seite 28f.
• Normalverteilung
Bezeichnungen: X ∼ N(µ, σ2 ), Dichte nµ,σ2 , Verteilungsfunktion N µ,σ2 ,
Standardnormalverteilung: Φ = N 0,1 , φ = n0,1
Dichte
(
)
1
1 x−µ 2
fµ,σ2 (x) = √ exp −
2
σ
σ 2π
– φ(x) = φ(−x)
– Φ(x) = 1 − Φ(−x)
– X ∼ N(µ, σ2 )
; a X + b ∼ N(a µ + b, a2 σ2 )
– X ∼ N(µ, σ2 )
;
– X ∼Φ
X−µ
σ
∼ Φ, d. h. FX (x) = Φ
x−µ σ
; µ + σ X ∼ N(µ, σ2 )
– X1 ∼ N(µ1 , σ21 ), X2 ∼ N(µ2 , σ22 ) und X1 und X2 sind unabhängig
; X1 + X2 ∼ N(µ1 + µ2 , σ21 + σ22 )
– maxx∈IR f (x) = f (µ)
• Exponentialverteilung
Bezeichnungen: X ∼ E(λ)
Motivation: Zeit T zwischen zwei Ereignissen bei Poissonverteilung, d. h. mit X ∼ P(λ)
Dichte (mit λ > 0)

 0
,x<0
f (x) =
 λ exp(−λ x) , x ≥ 0
Verteilungsfunktion (mit λ > 0)
F(x) = 1 − exp(−λ x),
2.5.5
x≥0
2-dim. Verteilungsfunktionen
Voraussetzung: X = (X1 , X2 ) – 2-dim. ZV:
• 2-dim. Verteilungsfunktion des Zufallsvektors X
FX (x1 , x2 ) = P {ω ∈ Ω : X1 (ω) ≤ x1 , X2 (ω) ≤ x2 } , x1 , x2 ∈ IR
kurz: F(x) = P(X ≤ x)
2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN
21
• X diskret, falls X höchstens abzählbar viele verschiedene Werte annimmt, und
; f (x1 , x2 ) = P(X1 = x1 , X2 = x2 ) – Wahrscheinlichkeitsfunktion von (X1 , X2 )
• X heißt stetig, falls für alle x1 , x2 ∈ IR
Zx1 Zx2
F(x1 , x2 ) =
f (t1 ,t2 ) dt2 dt1
−∞ −∞
mit f (t1 ,t2 ) ≥ 0 für alle t1 ,t2 . f heißt Dichte von (X1 , X2 ).
• Randverteilung
von X1 ist F1 (x1 ) = FX (x1 , ∞) = P(X1 ≤ x1 )
von X2 ist F2 (x2 ) = FX (∞, x2 ) = P(X2 ≤ x2 )
P(X1 = x1 ) = ∑ P(X1 = x1 , X2 = x2, j )
– bei distreter Verteilung
j
Z+∞
– bei stetiger Verteilung
fX1 (x1 ) =
f (x1 , x2 ) dx2
−∞
• Eigenschaften einer 2-dim. Verteilungsfunktion
– 0 ≤ F(x1 , x2 ) ≤ 1,
–
lim
F(x1 , x2 ) = 0,
lim F(x1 , x2 ) = 1
x1 → −∞
x1 → ∞ ,
(x2 → −∞)
x2 → ∞
– Monotonie: x1 ≤ y1 , x2 ≤ y2 → F(x1 , x2 ) ≤ F(y1 , y2 )
– rechtsseitig stetig: F(x1 , x2 ) = F(x1 + 0, x2 ) = F(x1 , x2 + 0) = F(x1 + 0, x2 + 0)
– x1 < y1 , x2 < y2 :
P(x1 < X1 ≤ y1 , x2 < X2 ≤ y2 ) = F(y1 , y2 ) − F(y1 , x2 ) − F(x1 , y2 ) + F(x1 , x2 ) ≥ 0
• Bedingte Verteilungen Voraussetzung: f Wahrscheinlichkeitsfunktion/Dichte von (X1 , X2 ), fi
die Wahrscheinlichkeitsfunktion/Dichte von Xi (Randverteilung)
f1 (x1 | x2 ) =
f (x1 , x2 )
f2 (x2 )
für
f2 (x2 ) > 0
heißt “bedingte Wahrscheinlichkeitsfunktion/Dichte von X1 , wenn X2 den Wert x2 annimmt”.
F1 (x1 | x2 ) =
Zx1
f (u1 | x2 ) du1
−∞
• Unabhängigkeit von Zufallsvariablen
Definition: Zufallsvariablen X1 , . . . , Xn heißen unabhängig, falls für alle x1 , . . . , xn ∈ IR
n
F(x1 , . . . , xn ) = ∏ F(xi ).
i=1
22
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
Äquivalente Definitionen:
n
– diskrete ZV: ∀x1 , . . . , xn : P(X1 = x1 , . . . , Xn = xn ) = ∏ P(Xi = xi )
i=1
n
– stetige ZV: ∀x1 , . . . , xn : f (x1 , . . . , xn ) = ∏ f (xi )
i=1
– 2dim. ZV, f1 , f2 Wahrscheinlichkeitsfunktion/Dichte: ∀x1 , x2 mit f2 (x2 ) > 0 :
f1 (x1 )
f1 (x1 | x2 ) =
Sind x1 , . . . , xn ∈ IR - unabhängig und sind g1 , . . . , gn Funktionn, so sind auch g1 (x1 ), . . . , qn (xn ) ∈
IR unabhängig
• Anwendung auf Summen von ZV
Voraussetzung: X1 , X2 unabhängige ZV
– diskret: P(X1 + X2 = x) = ∑ P(X1 = x − t)P(X2 = t)
t
Z∞
f1 (x − t) f2 (t) dt
– stetig: fX1 +X2 (x) =
−∞
• Beispiele
– Xi ∼ N(µi , σ2i )
;
∑ni=1 Xi ∼ N ∑ni=1 µi , ∑ni=1 σ2i
– Xi ∼ N(µ, σ2 )
;
X̄ ∼ N(µ, σ2 /n)
– Xi ∼ B(1, p)
;
n
∑ Xi ∼ B(n, p)
i=1
2.5.6
Erwartungswert einer Zufallsvariable
E(X) = ∑ xi P(X = xi ).
Erwartungswert einer diskreten Zufallsvariable X:
i
Z∞
E(X) =
Erwartungswert einer stetigen Zufallsvariable X:
x f (x) dx.
−∞
• f sei Wahrscheinlichkeits- oder Dichtefunktion: Ist f symmetrisch bzgl. m, d. h.
f (m + x) = f (m − x) ∀x
so ist E(X) = m, falls existent.
• Es sei Y = g(X).
Ist X diskret, so gilt (falls existent)
E(Y ) = ∑ g(xi ) f (xi ) .
i
Z∞
Ist X stetig, so gilt (falls existent)
Beispiel: Y = a X + b:
E(Y ) =
g(x) f (x) dx .
−∞
E a X + b = a E(X) + b .
2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN
• Sind X1 , . . . , Xn Zufallsvariable mit jeweils existierendem Erwartungswert, so ist
!
n
E
n
= ∑ E(Xi ) .
∑ Xi
i=1
i=1
Sind die Zufallsvariablen X1 , . . . , Xn zusätzlich noch unabhängig, so ist auch
!
n
E
∏ Xi
i=1
2.5.7
n
= ∏ E(Xi ) .
i=1
Varianz
Varianz einer Zufallsvariable X:
σ2 = Var(X) = E [X − E(X)]2 .
p
Standardabweichung σ = Var(X).
• Verschiebungssatz (mit µ := E(X)):
Var(X) = E [X − µ]2 = E(X 2 ) − µ2
• Für alle a, b ∈ IR ist
Var(a X + b) = a2 Var(X)
• Sind die Zufallsvariablen X1 , . . . , Xn unabhängig und existieren jeweils die Varianzen, so ist
n
Var
∑ Xi
i=1
2.5.8
!
n
= ∑ Var(Xi )
i=1
Tschebyscheff-Ungleichung
Voraussetzung: Zufallsvariable X mit der Verteilungsfunktion F
Es gilt für alle ε > 0:
P(|X − µ| ≥ ε) ≤
Var(X)
ε2
bzw. äquivalent
P(|X − µ| < ε) ≥ 1 −
Var(X)
.
ε2
23
24
KAPITEL 2. WAHRSCHEINLICHKEITSTHEORIE
2.5.9
Korrelationsmaße
• Kovarianz von X und Y
Voraussetzung: Zufallsvariablen X und Y
Cov(X,Y ) = E [X − E(X)] [Y − E(Y )] = E(X Y ) − E(X) E(Y )
• Korrelationskoeffizient von Bravais-Pearson von X und Y
Voraussetzung: Zufallsvariablen X und Y mit Var(X) > 0 und Var(Y ) > 0
Cov(X,Y )
Corr(X,Y ) = p
Var(X)Var(Y )
Bemerkung: Ist Corr(X,Y ) = 0, so heißen X und Y unkorreliert.
• Eigenschaften
– Corr(a X + b, cY + d) = Corr(X,Y )
(Invarianz bez. Lage- und Skalenverschiebungen)
– |Corr(X,Y )| ≤ 1
– |Corr(X,Y )| = 1, falls X und Y auf einer Geraden liegen, d. h. Y = α + β X .
– Sind X und Y unabhängig, so ist Cov(X,Y ) = 0.
Die Umkehrung gilt i. A. nicht!
– Für alle a, b ∈ IR und zwei beliebige Zufallsvariablen X und Y gilt
Var a X + bY ) = a2 Var(X) + 2 a bCov(X,Y ) + b2 Var(Y ) .
2.5.10
Grenzwertsätze
• Schwaches Gesetz der großen Zahlen Voraussetzung: Folge unabhängiger, identisch verteilter
Zufallsvariabler X1 , X2 , . . . mit E(X1 ) = µ
lim P |X̄ − µ > ε = 0
n→∞
P
Man schreibt hierfür kurz X̄ → µ (convergence in probability)
• Zentraler Grenzwertsatz Voraussetzung: Es seien X1 , X2 , . . . unabhängig und identischverteilt
Zufallsvariablen mit E(Xi ) = µ und Var(Xi ) = σ2
√ X̄ − µ
lim P
n
≤ x = Φ(x)
n→∞
σ
Andere Schreibweise
– lim P ∑√Xi −n2 µ ≤ x = Φ(x)
nσ
n→∞
X̄−E(X̄)
– lim P √
≤ x = Φ(x)
n→∞
Var(X̄)
2.5. ZUFALLSVARIABLE UND VERTEILUNGSFUNKTIONEN
25
• Spezialfall ZGWS Moivre-Laplace
n
Xi ∼ B(1, p) sowie
∑ Xi =: Yn ∼ B(n, p); Mit a, b ∈ IN
i=1
P(a < Yn ≤ b) = P(a + 0.5 < Yn ≤ b + 0.5)
a + 0.5 − n p
Yn − n p
b + 0.5 − n p
=P p
<p
≤p
n p (1 − p)
n p (1 − p)
n p (1 − p)
!
!
b + 0.5 − n p
a + 0.5 − n p
≈Φ p
−Φ p
.
n p (1 − p)
n p (1 − p)
!
Bemerkung
– Yn ∼ B(n, p) ist für große n “rund” normalverteilt,
– +0.5 – sogenannte Stetigkeitskorrektur; verbessert Approximation
– Faustregel: n p (1 − p) > 9 – gute, n p (1 − p) > 5 – brauchbare Näherungen.
• Grenzwertsatz von Poisson
Yn ∼ B(n, p): Mit p → 0 und np → λ > 0 für n → ∞ konvergiert Yn gegen Z ∼ P(λ)
Bemerkung
– Yn ∼ B(n, p) ist für große n “rund” poissonverteilt, wenn p gleichzeitig klein ist,
– Faustregel: n p ≤ 10 und n ≥ 1500 p.
Anhang A
Im Anhang finden Sie eine Reihe von Tabellen, so
1. einen Überblick über einige Verteilungen
2. die Verteilungsfunktion der Standardnormalverteilung,
A.1
Einige Verteilungen
26
Poisson
Poissona
P(λ)
Geometrisch
geometryczny
G(p)
Hypergeometrisch
hipergeometryczny
H(N, M, n)
Binomial
dwumianowy
B(n, p)
Verteilung
λm −λ
e
m!
m ∈ {0, 1, . . .}
λ>0
0< p<1
p (1 − p)m−1
m ∈ {1, 2, . . .}
mmin := max 0, n − (N−M) ,
mmax := min{n, M}
N ∈ {1, 2, . . .},
M ∈ {0, 1, . . . , N},
n ∈ {1, 2, . . . N}
0< p<1
n ∈ {1, 2, . . .}
Parameterraum
n−m
N
n
m ∈ {mmin , mmin +1, . . . , mmax},
m
Wahrscheinlichkeitsfunktion
f (m)
n
pm (1 − p)n−m
m
m ∈ {0, 1, . . . , n}
M N−M Diskrete Verteilungen
λ
1
p
n
M
N
np
M N −M N −n
N N N −1
λ
1− p
p2
(N > 1)
n
n p (1 − p)
Erwartungswert Varianz
µ = E(X)
σ2 = E [X −µ]2
A.1. EINIGE VERTEILUNGEN
27
Student∗∗
tn
Chi-Quadrat
χ2n ∗
Exponential
E(λ)
Normal
N(µ, σ2 )
Gleich
U(a, b)
Verteilung
n
2
n
x
1
x 2 −1 e− 2 , x ≥ 0
n
2 Γ 2
− n+1
2
x2
Γ n+1
1
+
2
n
√
, x ∈ IR
Γ n2
πn
f (x) = λ e−λx , x ≥ 0
2
1
− (x−µ)
√
e 2 σ2 , x ∈ IR
2πσ2
1
, x ∈ [a, b]
b−a
Wahrscheinlichkeitsfunktion
f (x)
n ∈ IN
n ∈ IN
λ>0
µ ∈ IR
σ>0
−∞ < a < b < ∞
Parameterraum
Stetige Verteilungen
0
n
n−2
2n
1
λ2
1
λ
n
σ2
µ
(n > 2)
(b − a)2
12
a+b
2
(n > 1)
Varianz
σ2 = E [X − µ]2
Erwartungswert
µ = E(X)
28
ANHANG A.
Laplace
Cauchy
Gamma
Γ(r, λ1 )
Fm,n
Fisher∗∗∗
Verteilung
m
m 2
n n
2
m
m − m+n
2
x 2 −1 1 + x
,
n
:
i=1
µ
λ > 0 , µ ∈ IR
∑ Xi2 ∼ χ2n mit unabhängigen Xi ∼ N (0, 1), i =
n
-
r
λ
n
n−2
(n > 2)
Erwartungswert
µ = E(X)
β > 0 , α ∈ IR
λ > 0, r > 0
m, n ∈ IN
Parameterraum
1, 2, .., n
∗∗ : pX
∼ tn mit unabhängigen X ∼ N (0, 1) und
Y /n
Y ∼ χ2n
∗∗∗ : X/m ∼ F
2
m,n mit unabhängigen X ∼ χm und Y ∼
Y /n
χ2n
∗
1
, x ∈ IR
π β {1 + [(x − α)/β]2 }
1 − |x−µ|
e λ , x ∈ IR
2λ
λr r−1 −λx
x e
,x≥0
Γ(r)
Γ m+n
2
Γ m2 Γ
x≥0
Wahrscheinlichkeitsfunktion
f (x)
Stetige Verteilungen
2 λ2
-
r
λ2
2 n2 (m + n − 2)
m (n − 2)2 (n − 4)
(n > 4)
Varianz
σ2 = E [X − µ]2
A.1. EINIGE VERTEILUNGEN
29
30
A.2
ANHANG A.
Verteilungsfunktion der Standardnormalverteilung
φ(ξ)
X ∼ N (0, 1) =⇒ P(X ≤ x) = Φ(x) =
Zx
−∞
z
}|
{
1
−ξ2
√ exp
dξ
2
2π
Φ(x) = 1 − Φ(−x)
zq = −z1−q (Quantil der Standardnormalverteilung)
Y ∼ N (µ, σ2 ) ⇐⇒
Y −µ
∼ N (0, 1)
σ
Yq = µ + σzq (Quantil der Normalverteilung)
φξ
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººº
ºººººººº
º
º
º
º
º
º
ººº
ººº
ººº
ºº
ººº
ºº
ººººº
ººº
ºº
ººº
º
º
º
º
ººººººººººº
ºººººººº
ººº
ººº
ººº
º
ººº
º
º
º
º
º
º
º
º
ºººººººººººººº
ººº
º
º
º
º
º
º
º
º
º
º
ºº
ºº
ººº
ººººº
ººº
ººº
ººº
ºº
ºº
ºº
ºº
ººººº
ºº
ºº
ºººº
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ººººººººº
ºº
ºº
ººººº
ººº
ººººº
ºº
º
º
º
º
ºº
º
º
º
º
º
º
º
º
º
º
ººººº
ººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ºº
ºº
ººººº
ºº
ººº
ººº
ºº
ºº
ººº
ººº
ºººº
ººººº
ºº
ºº
ººº
ºº
ººº
º
ººº
ººº
ººº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ºººººº
ººº
ººººº
ººº
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ººº
ºººº
ººº
ººº
ººº
ººº
ºº
ºº
ºº
º
ººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººººººººººººººººº
ºº
ºº
ºººº
º
º
º
ººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºººººº
ºº
ºº
ºº
ºº
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ººº
ºº
ºº
ººº
ººº
ººº
ººº
ººº
º
ºººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ºººº
ººº
ººº
ººº
ººº
ººº
ºº
ºº
ºº
ºººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ººººººº
ººº
ºººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººººººººººº
ººº
ººº
ººº
ººº
ººº
ººº
ººººº
ººº
ººº
ººººººº
ºº
ºººººº
ººº
ººº
ºº
ºººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºººººº
ºº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
º
ººººººººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ºº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºººººº
ººº
ºº
º
º
ººººººººººº
º
ººº
ººº
ººº
ººº
ºº
º
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ººº
ººº
ººº
ººº
ºººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººº
ºº
º ºººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºº
ºººººººººººººººººººººº
ººº
ººººººººº
ºº
ºº
ºº
ºº
ºº
ºº
ºººº
ºº
ºº
ºº
ººº
ºº
ººº
º
ºººººººº
º ºººº
ºº
ººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ºº
ºº
ºº
ºº
ºº
ººº
ºº
ººº
ººº
ºº
ºº
ººº
ºº
ºººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº ººº
ººº
ºººººººººººººººººººººººººº
º
ººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººº
º
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºº
º
ºººººººººººººººººººººº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
ºº
º
ººº
ººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºººººººººººººººººººººººººººººººººººººººººººº
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººººººººººººººººººººººººººººººººººº
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
º
ººº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººººººººººººººººº
º
ºº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººººººººººººººººººººººººººº
ººººººººº
ººº
ººº
ººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ººº
ººº
ººº
ººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
º
ººº
ºººººººººººººººººººººººººººººººººººººººººººº
ººº
º
º
ººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ººº
ººº
ººº
ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ºººººººººººººººººººººººººººººººººººººº
º
º
ºººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ººº
ººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
º
º
ºººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººº
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºººº
ººº
ººº
ººº
ººº
ººº
ººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ººº
º
º
º
ºººº
º
º
º
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ºº
º
ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ºººº
º
º
º
º
º
ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
ºººººººººººººººººººººº
ººº
ººººººº
ººº
ººº
ººº
ººººº
ººººººººººº
ººº
ººººººº
ººººººº
ººº
ººº
ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºººººººººººº
º
º
º
º
º
ººººººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººº
ººººº
ººº
ººº
ººº
ººº
ººººº
ººº
ººº
ºººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
º
º
º
º
º
º
º
º
º
º
ºººº
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
º
ºº
ººººººººººººººººººººººººººººººººººººººººººººººººººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººººººººººººººººº
ººººººººººººººººººººººººººººººººººººººººººº
ººººººººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººº
ººººººº
ººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººººº
Φx
.
.
...
.
.
...
.
.
..
... ..
x
Beispiele:
Φ(0)
Φ(1.3)
Φ(2.64)
Φ(−0.83)
=
=
=
=
0.5
0.9032
0.9959
1 − Φ(0.83) = 1 − 0.7967 = 0.2033
Ab x ≥ 3.7 ist Φ(x) ≈ 1 bzw. x ≤ −3.7 ist Φ(x) ≈ 0.
ξ
A.2. VERTEILUNGSFUNKTION DER STANDARDNORMALVERTEILUNG
x
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8389
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.9980
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
3.5
3.6
0.9998 0.9998 0.9998 0.9998 0.9998
0.9998 0.9998 0.9999 0.9999 0.9999
0.9998 0.9998 0.9998 0.9998 0.9998
0.9999 0.9999 0.9999 0.9999 0.9999
31
Herunterladen