3 Induktive Statistik }n ( ) ( ) ( ) ( ) 1

Werbung
3 Induktive Statistik
3.1 Wahrscheinlichkeitsrechnung
3.1.1 Grundbegriffe/ Definitionen
Zufallsexperiment
Vorgang, der beliebig oft wiederholbar ist und dessen Ergebnis vom Zufall
abhängt.
Elementarereignis ei
Reihe möglicher elementarer Ergebnisse.
Ereignisraum S
Ergibt sich aus der Menge aller Elementarereignisse { e1 , e 2 , . . ., e n } .
Ereignis A, B
Jede beliebige Teilmenge des Ereignisraumes.
Wahrscheinlichkeitsbegriff nach Laplace
Sind alle Elementarereignisse gleichmöglich, so gilt
W ( ei ) =
Zahl der günstigste n Fälle
Zahl aller gleichwahr scheinlichen Fälle
Wahrscheinlichkeitsbegriff nach von Mises
hn (A )
n→∞
n
W (A ) = lim fn (A ) = lim
n→∞
Wahrscheinlichkeitsbegriff nach Kolmogorov
Axiom 1:
0 ≤ W (A ) ≤ 1
Axiom 2:
W (S ) = 1
Axiom 3:
W (A ∪ B ) = W (A ) + W (B )
für A ⊂ S
(Nichtnegativität)
(Normierung)
für A ∩ B = ∅
Aus Axiom (3 ) ergibt sich die Beziehung
F. W. Peren, Formelsammlung Wirtschaftsstatistik,
DOI 10.1007/978-3-662-47852-3_2, © Springer-Verlag Berlin Heidelberg 2015
(Additivität)
28
3 Induktive Statistik
W (A 1 ∪ A 2 ∪ . . . ∪ A n ) = W (A 1 ) + W (A 2 ) + . . . + W (A n )
für
(i ≠ j).
Ai ∩ A j = ∅
Rechenregeln für Wahrscheinlichkeiten
(1) Komplementär-Wahrscheinlichkeit (Gegenwahrscheinlichkeit)
Für A , das Komplementärereignis von A, gilt
( )
W A = 1 − W (A ).
(2) Wahrscheinlichkeit für ein unmögliches Ereignis
W (∅ ) = 0
(3) Additionssatz für zwei beliebige Ereignisse
W (A ∪ B ) = W (A ) + W (B ) − W (A ∩ B)
(4) Wahrscheinlichkeitsbedingung für ein Teilereignis
W (A ) ≤ W (B )
für A ⊂ B
3.1.2 Sätze der Wahrscheinlichkeitsrechnung
Multiplikationssatz
Für zwei stochastisch unabhängige Ereignisse A und B gilt
W (A ∩ B ) = W (A ) ⋅ W (B )
Für zwei stochastisch abhängige Ereignisse A und B gilt
W (A ∩ B ) = W (A ) ⋅ W (B / A ) = W (B ) ⋅ W (A / B ) .
3.1 Wahrscheinlichkeitsrechnung
29
Bedingte Wahrscheinlichkeit
Für W (A ) > 0 definiert sich die bedingte Wahrscheinlichkeit des Ereignisses B unter der Bedingung A als
W (B / A ) =
W (A ∩ B )
.
W (A )
Stochastische Unabhängigkeit
Zwei Ereignisse A, B heißen stochastisch unabhängig, wenn gilt
(
W (B / A ) = W B / A
bzw.
)
(
)
∨ W (A / B ) = W A / B ,
W (A ∩ B ) = W (A ) ⋅ W (B ) .
Satz der totalen Wahrscheinlichkeit
Wenn A 1 ∪ A 2 ∪ . . . ∪ A n = S und A i ∩ A j = ∅ für i ≠ j ,
so gilt für E ⊂ S
n
(i = 1, . . . ,n) .
W (E ) = ¦ W (A i ) ⋅ W (E / A i )
i=1
Theorem von Bayes
Wenn A 1 ∪ A 2 ∪ . . . ∪ A n = S und A i ∩ A j = ∅ für i ≠ j ,
so gilt für E ⊂ S
(
)
W Aj /E =
( )
(
W Aj ⋅ W E/ Aj
n
¦
i =1
)
W (A i ) ⋅ W (E / A i )
(i, j = 1 , . . . , n) .
30
3 Induktive Statistik
3.2 Wahrscheinlichkeitsverteilungen
3.2.1 Begriff der Zufallsvariablen
Um das Ergebnis eines Zufallsexperimentes quantitativ verarbeiten zu
können, ist dieses in eine reelle Zahl zu transformieren.
Die Zufallsvariable X umfasst eine bestimmte Anzahl von n Elementarereignissen e j ( j = 1, 2, . . ., n) im Ereignisraum S.
Definitionsbereich: Ereignisraum S
Wertebereich: Menge der reellen Zahlen
Zu unterscheiden sind:
1. Diskrete Zufallsvariablen: Hier lässt sich jedem möglichen Ereignis genau eine bestimmte Eintrittswahrscheinlichkeit zuordnen (z.B. Werfen
eines Würfels).
2. Stetige Zufallsvariablen: Hier existieren unendlich viele mögliche Ausprägungen eines Merkmals. Die Möglichkeit zur Bestimmung der Eintrittswahrscheinlichkeit ist nahezu Null.
3.2.2 Wahrscheinlichkeits-, Verteilungs- und Dichtefunktion
3.2.2.1 Diskrete Zufallsvariable
Wahrscheinlichkeitsfunktion
f (x i ) = W ( X = x i )
(i = 1, 2, ...)
Eigenschaften der Wahrscheinlichkeitsfunktion:
(1)
f (x i ) ≥ 0
(2)
¦ f (x i ) = 1
i
mit
(i = 1, 2, ...)
3.2 Wahrscheinlichkeitsverteilungen
Verteilungsfunktion
F(x ) = W (X ≤ x )
Eigenschaften der Verteilungsfunktion:
(1) F(x) ist monoton steigend
(2) F(x) ist stetig
(3) lim F(x ) = 0
x→ −∞
(4) lim F(x ) = 1
x→ +∞
3.2.2.2 Stetige Zufallsvariable
Anstelle von Wahrscheinlichkeiten werden sogenannte Dichten angegeben, dies erfolgt in Form von Dichtefunktionen.
Wahrscheinlichkeitsdichte
b
W (a ≤ X ≤ b ) = ³ f (x ) dx
a
Eigenschaften jeder Wahrscheinlichkeitsdichte:
(1) f (x ) ≥ 0
+∞
(2)
³ f (x )dx = 1
−∞
Verteilungsfunktion
F(x ) = W (X ≤ x ) =
x
³ f (q)dq
−∞
Ÿ F′(x ) = f (x )
31
32
3 Induktive Statistik
Eigenschaften jeder Verteilungsfunktion von stetigen Zufallsvariablen:
(1) 0 ≤ F(x ) ≤ 1
(2) F(x ) ist monoton steigend, d.h. für x 1 < x 2 gilt F(x 1 ) ≤ F(x 2 )
(3) lim F(x ) = 0
x→ −∞
(4) lim F(x ) = 1
x→ + ∞
(5) F(x) ist im gesamten Definitionsbereich stetig.
3.2.3 Parameter für Wahrscheinlichkeitsverteilungen
Erwartungswert und Varianz von Zufallsvariablen
Diskrete Zufallsvariable
E(X ) = ¦ x i f (x i )
i
[
Var (X ) = E [X − E(X )]
2
]
= ¦ [x i − E(X )] f (x i )
2
i
= ¦ x i2 ⋅ f (x i ) − [E(X )]
2
i
Stetige Zufallsvariable
E(X ) =
+∞
³ xf (x )dx
[
Var (X ) = E [X − E(X )] 2
=
+∞
]
³ [x − E(X)] f (x )dx
2
−∞
−∞
=
+∞
³ x ⋅ f (x )dx − [E(X)]
2
−∞
2
3.3 Theoretische Verteilungen
33
3.3 Theoretische Verteilungen
3.3.1 Diskrete Verteilungen
Binomialverteilung
Wahrscheinlichkeitsfunktion
­§ n · x
n− x
°¨ ¸ θ (1 − θ)
fB (x / n ; θ) = ®¨© x ¸¹
° 0
¯
für x = 0 , 1, . . ., n
für x ≠ 0 , 1, . . ., n
Verteilungsfunktion
x
§n ·
n−v
FB (x / n ; θ) = ¦ ¨¨ ¸¸ θ v (1 − θ )
v =0 © v ¹
Erwartungswert
E(X ) = n ⋅ θ
Varianz
Var (X ) = n ⋅ θ(1 − θ)
Rekursionsformel
fB (x + 1/ n ; θ) = fB (x / n ; θ) ⋅
n−x
θ
⋅
x + 1 1− θ
34
3 Induktive Statistik
Hypergeometrische Verteilung
Wahrscheinlichkeitsfunktion
­ § M ·§ N − M ·
¸¸
° ¨¨ ¸¸¨¨
°° © x ¹© n − x ¹
fH (x / N; n ; M) = ®
§N ·
¨¨ ¸¸
°
© n¹
°
°¯ 0
für x = 0 , 1, . . . , n
für x ≠ 0 , 1, . . . , n
Verteilungsfunktion
x
FH (x / N; n ; M) = ¦
v =0
§ M ·§ N − M ·
¨¨ ¸¸¨¨
¸¸
© v ¹© n − v ¹
§N·
¨¨ ¸¸
© n¹
Erwartungswert
E(X ) = n ⋅
M
N
Varianz
Var (X ) = n ⋅
M N−M N−n
⋅
⋅
N
N
N−1
Rekursionsformel
fH (x + 1/ N; n; M) = fH (x / N; n ; M) ⋅
(M − x ) (n − x )
(x + 1) (N − M − n + x + 1)
3.3 Theoretische Verteilungen
35
Poissonverteilung
Wahrscheinlichkeitsfunktion
­ μ x e −μ
°
fp (x / μ ) = ® x !
°0
¯
für x ≠ 0 , 1, . . .
e = 2,71828...
(Eulersche Zahl)
für x = 0 , 1, . . .
Verteilungsfunktion
x
Fp (x / μ ) = ¦
v =0
μ v e −μ
v!
Erwartungswert und Varianz
E(X ) = Var (X ) = μ
Rekursionsformel
fp (x + 1/ μ ) = fp (x / μ )
μ
x +1
3.3.2 Stetige Verteilungen
Normalverteilung
Wahrscheinlichkeitsdichte
(
fn x/ȝ; ı
2
)=
1
ı 2ʌ
e
1 § x −ȝ ·
− ¨
¸
2© ı ¹
2
36
3 Induktive Statistik
Verteilungsfunktion
(
)= ³ ı
x
Fn x/ȝ; ı
2
−
1
2ʌ
−∞
e
1 § q − ȝ ·2
¨
¸
2© ı ¹
dq
Erwartungswert
E (X ) = μ
Varianz
Var (X ) = σ 2
Standardnormalverteilung
Ist die Zufallsvariable X normalverteilt mit E(x ) = μ und Var (x ) = σ² , so wird
X zur standardisierten Zufallsvariablen Z mit
Z=
X−μ
σ
und dem Erwartungswert E( Z) = 0 und der Varianz Var( Z) = 1
Wahrscheinlichkeitsdichte
1
fN (z ) =
2π
e
1
− z2
2
Verteilungsfunktion
FN (z ) =
z
³
−∞
1
2π
e
1
− q2
2
dq
http://www.springer.com/978-3-662-47851-6
Herunterladen