2005-12-13

Werbung
STATISIK
LV Nr.: 1852
WS 2005/06
13. Dezember 2005
1
Theorie
• Wahrscheinlichkeitsrechnung
– Einführung, Begriffe, …
– Zufallsvariable
– Wahrscheinlichkeits- Vt.
• Kombinatorik
• Verteilungen
– Diskrete Verteilungen
– Stetige Verteilunge
2
Wahrscheinlichkeitsrechung
• Betrachte Ereignisse die nicht
deterministisch (vorherbestimmbar) sind,
Ereignisse mit Zufallscharakter.
– Bsp. Werfen eines idealen Würfels, Werfen
einer fairen Münze, …
– Oder Ereignisse, die von so vielen
Einflussfaktoren abhängen, dass das Ergebnis
nicht sicher bestimmt werden kann.
3
Wahrscheinlichkeitsrechung
Grundbegriffe:
• Zufallsexperiment:
– Vorgang nach einer bestimmten Vorschrift
ausgeführt, beliebig oft wiederholbar, Ergebnis
hängt vom Zufall ab, bei mehrmaligen
Durchführung des Experiments beeinflussen
die Ergebnisse einander nicht – unabhängig
voneinander. (z.B. Münzwurf, Werfen eines
Würfels, …)
4
Wahrscheinlichkeitsrechung
• Elementarereignisse (Realisationen)
– Zufallsexperiment: Reihe aller möglichen
elementarer Ereignisse {e },…,{e }
1
n
• Ereignisraum S:
– Menge der Elementarereignisse S={e ,…,e }
1
n
• Ereignis:
– Jede beliebige Teilmenge des Ereignisraumes
(setzt sich aus einem od. mehreren
Elementarereignissen zusammen)
5
Wahrscheinlichkeitsrechung
• Vereinigung
– Vereinigung von 2 Ereignissen A und B: AUB Menge
aller Elementarereignisse, die zu A oder B gehören
• Durchschnitt
– Durchschnitt von 2 Ereignissen A und B: A∩B Menge
aller Elementarereignisse, die zu A und B gehören
• Disjunkte Ereignisse
– 2 Ereignisse A und B schließen einander aus, A∩B=Ø
(Ø unmögliches Ereignis)
• Komplementärereignis A
– Menge aller Elementarereignisse des Ereignisraumes S,
die nicht in Ereignis A enthalten sind
6
Wahrscheinlichkeitsrechung
• Wahrscheinlichkeit ist ein Maß zur
Quantifizierung der Sicherheit bzw.
Unsicherheit des Eintretens eines
bestimmten Ereignisses im Rahmen eines
Zufallsexperiments.
7
Wahrscheinlichkeitsrechung
• Klassischer Wahrscheinlichkeitsbegriff:
Zahl der günstigen Fälle
W(A) 
Zahl aller gleichmögl ichen Fälle
• Bsp. Urne mit 10 Kugeln (8 rot, 2 schwarz)
– Gesucht: Wahrscheinlichkeit, dass eine zufällig
gezogene Kugel rot ist (Ereignis A)
– Ereignisraum 10 mögl. Elementarereignisse, 8
günstige Fälle
– W(A) = 8 / 10 = 0,8
8
Wahrscheinlichkeitsrechung
• Statistischer Wahrscheinlichkeitsbegriff:
• Grenzwert der relativen Häufigkeiten des
Auftretens von A
h n (A)
W(A)  lim f n (A)  lim
n 
n 
n
9
Wahrscheinlichkeitsrechung
• Subjektiver Wahrscheinlichkeitsbegriff:
• Ereignissen werden „Wettchancen“
zugeordnet. Quote für A ist a:b, dann ergibt
sich die Wahrscheinlichkeiten
a
b
W(A) 
und W(A) 
ab
ab
10
Wahrscheinlichkeitsrechung
• Axiomatischer Wahrscheinlichkeitsbegriff:
• Definition von mathematischen
Eigenschaften
1. 0 ≤ W(A) ≤ 1
2. W(S) = 1
3. A und B disjunkt: W(A U B) = W(A) + W(B)
11
Zufallsvariable
• Zufallsvariable: Variable deren Wert vom
Zufall abhängt (z.B. X, Y, Z)
– Bsp. Zufallsexperiment: 2-maliges Werfen einer
Münze. Frage: Wie oft erscheint „Zahl“?
Mögliche Werte: 0, 1, 2. Variable „Anzahl
Zahl“ hängt vom Zufall ab – Zufallsvariable.
• Realisation (Ausprägung): Wert, den eine
Zufallsvariable X annimmt (z.B. x, y, z).
– Bsp. 2-maliges Werfen einer Münze, ZV X
„Anzahl Zahl“, Ausprägungen: x1=0, x2=1,
x3=2.
12
Zufallsvariable
• Zufallsvariable: Funktion, die jedem
Elementarereignis eine bestimmt reelle Zahl
zuordnet, z.B. X(ej)=xi
• Definitionsbereich einer ZV: Ereignisraum
S des zugrundeliegenden
Zufallsexperiments.
• Wertebereich einer ZV: Menge der reellen
Zahlen.
13
Zufallsvariable
• Diskrete Zufallsvariable: ZV mit endlich
vielen oder abzählbar unendlich vielen
Ausprägungen
• Stetige Zufallsvariable: können (zumindest
in einem bestimmten Bereich der reellen
Zahlen) jeden beliebigen Zahlenwert
annehmen.
14
Wahrscheinlichkeit
• Diskrete Zufallsvariable:
• Wahrscheinlichkeit, mit der eine diskrete
ZV X eine spezielle Ausprägung xi
annimmt, W(X=xi): Summe der
Wahrscheinlichkeiten derjenigen
Elementarereignisse ej, denen Ausprägung
xi zugeordnet ist:
W(X  x i ) 
 W(e )
X(e j )  x i
j
15
Wahrscheinlichkeitsfunktion
• Wahrscheinlichkeitsfunktion einer diskreten
ZV: Funktion f(xi), die für jede Ausprägung
der ZV (unterschiedliche Ausprägungen xi
einer ZV X) die Wahrscheinlichkeit ihres
Auftretens angibt: f(xi) = W(X=xi)
• Eigenschaften:
– f(xi) ≥ 0
– Σi f(xi) = 1
i=1,2,…
16
Verteilungsfunktion
• Verteilungsfunktion einer diskreten ZV:
Funktion F(x), die die Wahrscheinlichkeit
dafür angibt, dass die ZV X höchstens den
Wert x annimmt. F(x) = W(X ≤ x)
• Es gilt:
F(x)  W(X  x)   f(x i )
xi x
• Treppenfunktion
17
Verteilungsfunktion
• Verteilungsfunktion einer stetigen ZV (kann
in einem bestimmten Intervall jeden
beliebigen Wert annehmen): Funktion F(x),
die die Wahrscheinlichkeit dafür angibt,
dass die ZV X höchstens den Wert x
annimmt. F(x) = W(X ≤ x)
• Stetige Funktion
18
Verteilungsfunktion
• Eigenschaften einer stetigen Vt-Funktion:
1. 0 ≤ F(x) ≤ 1
2. F(x) ist monoton wachsend (d.h. für x1 < x2
gilt F(x1) ≤ F(x2)
3. lim x→-∞ F(x) = 0
4. lim x→∞ F(x) = 1
5. F(x) ist überall stetig
19
Wahrscheinlichkeitsdichte
• Wahrscheinlichkeitsdichte (Dichtefunktion)
f(x) einer stetigen ZV: Ableitung der
Verteilungsfunktion.
• Es gilt:
F´(x)  f(x)
x
F(x)   f(v)dv

20
Wahrscheinlichkeitsdichte
• Eigenschaften:
1. f(x) ≥ 0

2.  f(x)dx  1

b
3. W(a  X  b)   f(x)dx
a
4. W(X=x) = 0
5. W(a ≤ X ≤ b) = W(a < X < b)
6. W(X ≤ a) = F(a)
W(a ≤ X ≤ b) = F(b) – F(a)
W(X ≤ b) = F(b)
21
Parameter
• Charakterisierung der Wahrscheinlichkeitsverteilung von Zufallsvariablen durch
Parameter (Maßzahlen)
• Erwartungswert E(X) = Lageparameter
(Entspricht dem arithm. Mittel)
• Varianz Var(X) = Streuungsparameter
22
Erwartungswert
• Diskrete ZV:
E(X)   x i W(X  x i )  x i f(x i )
i
i
• Stetige ZV:

E(X) 
 x  f(x)dx

23
Varianz
• Diskrete ZV:
Var(X)   x i  E(X)  f(x i )
2
i
• Stetige ZV:

Var(X) 
 x  E(X)  f(x)dx
2

• Standardabweichung: σ X 
Var(X)
24
Standardisierung
• Lineare Transformation: Y = a + bX
• Spezialfall Standardisierung:
a = – E(X) / σX
b = 1 / σX
• Standardisierte Variable Z:
X  E(X)
Z
σX
• Es gilt: E(Z) = 0 und Var(Z) = 1
25
Theoretische Verteilungen
• Bedeutung von theoretische Verteilungen
• Deskriptive Statistik:
– Approximative funktionsmäßige Beschreibung
empirisch beobachteter Häufigkeitsverteilungen
• Mathematische Statistik:
– Wahrscheinlichkeiten für Ergebnisse
bestimmter Zufallsexperimente
26
Kombinatorik
• Wie kann eine gegebene Anzahl von
Elementen unterschiedlich angeordnet und
zu Gruppen zusammengefasst werden?
• Wie viele Möglichkeiten gibt es, n Elemente
anzuordnen? Anzahl der möglichen
Permutationen?
• Wie viele Möglichkeiten gibt es, von n
Elementen k auszuwählen? Anzahl der
möglichen Kombinationen?
27
Kombinatorik
• Permutationen:
• n voneinander verschiedene Elemente:
n! = n·(n-1)·(n-2)·…·1 Permutationen
• Bsp.1: n=3, Elemente e1, e2, e3. Anzahl der
möglichen Permutationen: 3! = 3·2·1 = 6
(e1, e2, e3) (e1, e3, e2) (e2, e1, e3) (e2, e3, e1)
(e3, e1, e2) (e3, e2, e1)
• Bsp.2: n=10, Anzahl der möglichen
Permutationen: 10! = 3 628 800
28
Kombinatorik
• n Elemente, wobei ni Elemente vom Typ i
sind (r unterschiedliche Typen):
n!
n1!...  n r !
• Bsp.1: n=10, r=3 und n1=3, n2=5, n3=2,
Anzahl der möglichen Permutationen:
10!
3628800

 2520
3!5!2! 6 120  2
29
Kombinatorik
• Kombinationen:
• Aus n verschiedene Elemente sollen k Stück
gewählt werden
– Kombination ohne Wiederholung: jedes
Element kann nur einmal gewählt werden
• Berücksichtigung der Reihenfolge:
n!
Anzahl der Möglichkeiten:
(n  k)!
• Keine Berücksichtigung der Reihenfolge:
Anzahl der Möglichkeiten:  n 
n!
  
 k  k!(n  k)!
30
Kombinatorik
• Kombinationen ohne Wiederholung:
• n=3, k=2, Elemente e1, e2, e3.
– Berücksichtigung der Reihenfolge:
Möglichkeiten: (e1, e2) (e2, e1) (e1, e3) (e3, e1)
(e2, e3) (e3, e2), also 3!/(3-2)! = 6 Möglichkeiten
– Keine Berücksichtigung der Reihenfolge:
Möglichkeiten: (e1, e2), (e1, e3) (e2, e3), also
3!/(2!(3-2)!) = 3 Möglichkeiten
31
Kombinatorik
• Kombinationen ohne Wiederholung:
• Bsp.1: Lotto, Möglichkeiten aus 49 Zahlen
6 zu wählen (Reihenfolge unberücksichtigt)
 49 
   13 983 816
6
• Bsp.2: Pferderennen, sind 8 Pferde am Start,
gibt es für die Belegung der ersten 3 Plätze
8!/(8-3)! = 336 Möglichkeiten
32
Kombinatorik
• Aus n verschiedene Elemente sollen k Stück
gewählt werden
– Kombination mit Wiederholung: ein Element
kann auch mehrfach ausgewählt werden.
• Berücksichtigung der Reihenfolge
Anzahl der Möglichkeiten: nk
• Keine Berücksichtigung der Reihenfolge
Anzahl der Möglichkeiten:
 n  k  1 (n  k  1)!

 
 k  k!(n  1)!
33
Kombinatorik
• Kombination mit Wiederholung:
• n=3, k=2, Elemente e1, e2, e3.
– Berücksichtigung der Reihenfolge,
Möglichkeiten: (e1, e1), (e1, e2), (e1, e3), (e2, e2),
(e2, e1), (e2, e3), (e3, e3), (e3, e1), (e3, e2), Anzahl
der Möglichkeiten: nk = 3² = 9
– Keine Berücksichtigung der Reihenfolge,
Möglichkeiten: (e1, e1), (e1, e2), (e1, e3), (e2, e2),
(e2, e3), (e3, e3), Anzahl der Möglichkeiten:
(3+2-1)! / (2!·(3-1)!) = 4! / (2!·2!) = 6
34
Kombinatorik
• Kombinationen mit Wiederholung:
• Bsp.1: Würfelt man viermal hintereinander,
sind 64 = Abläufe möglich
• Bsp.2: Hat man vier verschiedene Sorten
Süßigkeiten, gibt es 286 Möglichkeiten eine
Tüte mit 10 Süßigkeiten zu füllen.
 4  10  1

  286
 10 
35
Theoretische Verteilungen
• Diskrete Verteilungen
–
–
–
–
Binomialverteilung
Hypergeometrische Verteilung
Poissonverteilung
...
• Stetige Verteilungen
–
–
–
–
–
–
–
Gleichverteilung
Exponentialverteilung
Normalverteilung
Chi-Quadrat Verteilung
t-Verteilung (Studentverteilung)
F-Verteilung
...
36
Binomialverteilung
• Wahrscheinlichkeiten für die Häufigkeit des
Eintreffens bestimmter Ereignisse bei
Bernoulli-Experimenten berechnen.
• Bernoulli-Experiment: Folge von BernoulliVersuchen. Urnenmodell mit Zurücklegen
– Es gibt nur 2 mögliche Ausgänge: A und Ā
– Wahrscheinlichkeiten für Eintreten von A (θ)
und Ā (1- θ) sind konstant
– Versuche sind voneinander unabhängig.
37
Binomialverteilung
• Bsp. Bernoulli-Experiment:
– fünfmaliges Werfen einer Münze,
Zufallsvariable X „Anzahl der Zahlen“,
Realisation x = 0, 1, 2, 3, 4, 5
– Wahrscheinlichkeiten für Eintreten von A:
W(X=x) = f(x) = ?
38
Binomialverteilung
• Wahrscheinlichkeit des Auftretens einer
bestimmten Realisation x: W(X=x) = f(x)
• Wahrscheinlichkeitsfunktion der
Binomialverteilung:
 n  x
 θ (1  θ) n  x
f B (x; n, θ)   x 
für x  0,1,..., n
 0
sonst

39
Binomialverteilung
• Bsp. Münzwurf (n=5), Wahrscheinlichkeit
dass genau 2-mal Zahl geworfen wird:
W(X=2)
 5 2
f B (2;5,0.5)   0,5 (1  0,5)52  0,3125
 2
40
Binomialverteilung
• Wahrscheinlichkeit, dass die Zufallsvariable
X höchstens den Wert x annimmt:
Verteilungsfunktion FB(x;n,θ)
n i
n-i
FB (x;n,θ)     θ (1  θ)
i 0  i 
x
41
Binomialverteilung
• Bsp. Münzwurf (n=5), Wahrscheinlichkeit
dass höchstens 2-mal Zahl geworfen wird:
W(X  2)
 5 i
FB (2;5,0.5)     0,5 (1  0,5)5-i  0,5
i 0  i 
2
42
Binomialverteilung
• Erwartungswert der Binomialverteilung:
E(X) = n·θ
• Varianz der Binomialverteilung:
Var(X) = n·θ·(1-θ)
• Bsp. Münzwurf:
– E(X) = 5·0,5 = 2,5
– Var(X) = 5·0,5·(1-0,5) = 1,25
43
Hypergeometrische Verteilung
• Urnenmodell Ziehen ohne Zurücklegen:
– Urne mit N Kugeln (M schwarze, N-M weiße)
– Zufallsstichprobe: ziehe n Kugeln ohne
Zurücklegen
– Wahrscheinlichkeit, dass unter den n gezogenen
Kugeln genau x schwarze zu finden sind?
• Ziehen ohne Zurücklegen, keine
Berücksichtigung der Reihenfolge.
44
Hypergeometrische Verteilung
• Urnenmodell:
– Aus M schwarzen Kugeln genau x auswählen: Anzahl
der Kombinationen  Mx 
 
– Aus N-M weißen Kugeln genau n-x auswählen: Anzahl
 N-M 
der Kombinationen  n-x 
– Jede mögl. Stpr. „x schwarze aus M“ kann mit jeder
mögl. Stpr. „n-x weiße aus N-M“ kombiniert werden.
– Daher: Gesamtzahl der Möglichkeiten genau x
N-M 
schwarze zu ziehen:  Mx 


  n-x 
– Gesamtzahl der Möglichkeiten aus N Kugeln n zu
ziehen:  Nn 
 
45
Hypergeometrische Verteilung
• Wahrscheinlichkeit genau n schwarz Kugeln
 M   N-M 
 

zu ziehen:
 x   n-x 
 N
 
n
• Wahrscheinlichkeitsfunktion der
Hypergeometrischen Verteilung:
  M   N-M 
  

x
n-x

   
f H (x;N,n,M)= 
für x=0,1,...,n
 N
 

n

 0
sonst
46
Hypergeometrische Verteilung
• Verteilungsfunktion: Summation der
Einzelwahrscheinlichkeiten
• Liefert Wahrscheinlichkeit für „höchstens x
schwarze Kugeln“
47
Hypergeometrische Verteilung
• Bsp. Sortiment von N=8 Dioden, es werden
n=3 zufällig gezogen (ohne Zurücklegen),
M=5 der Dioden sind defekt.
• Ges: Wahrscheinlichkeit, dass genau 2 (=x)
der 3 gezogenen Dioden defekt sind.
 M  N-M   5  8-5 
 
   
x
n-x
2  3-2  10  3




P(X=x)=
=
=
=0,5357
56
 N
 8
 
 
n
 
 3
48
Hypergeometrische Verteilung
• Erwartungswert:
E(X) = n · M/N
• Varianz
Var(X) = n · M/N · (N-M)/N · (N-n)/(n-1)
• Approximation durch Binomialverteilung:
– Wenn N, M, N-M groß und n klein, Parameter
der Binomialverteilung: θ = M/N
– Faustregel: Approximation, wenn n/N < 0,05
49
Poissonverteilung
• Verteilung seltener Ereignisse
• Große Zahl von Versuchen n,
Wahrscheinlichkeit θ für Auftreten eines
Ereignisses sehr klein
• Wahrscheinlichkeitsfunktion:
 μ x e-μ

f P (x;μ)=  x! für x=0,1,...
0sonst

50
Poissonverteilung
• Erwartungswert: E(X) = μ
• Varianz: Var(X) = μ
• Approximation der Binomialverteilung
durch die Poissonverteilung:
– n groß und θ klein, Parameter μ = n·θ
– Faustregel: n > 10 und θ < 0,05.
• Approximation der Hypergeometrischen Vt.
– M/N = θ klein, N im Vergleich zu n groß,
Parameter μ = n · M/N
– Faustregel: M/N < 0,05 und n/N < 0,05
51
Poissonverteilung
• Bsp. Wahrscheinlichkeit bei einer Prüfung
von n=2000 Buchungen genau 3 (=x)
Fehlbuchungen zu finden, Anteil der
Fehlbuchungen: θ=0,001.
• Poissonverteilung: μ = n·θ = 2
μ x e-μ 23e-2
W(X=x)=
=
=0,1804
x!
3!
52
Gleichverteilung
• Diskrete Zufallsvariable:
• Jede der k möglichen Ausprägungen hat
gleiche Wahrscheinlichkeit
P(X=xi) = 1/k
(i=1,…,k)
• Bsp. Wahrscheinlichkeitsverteilung der
Augenzahl eines idealen Würfels:
P(X=xi) = 1/6
(i=1,…,6)
53
Gleichverteilung
• Stetige Zufallsvariable:
• Realisationen der stetigen Zufallsvariablen
X liegen im Intervall [a;b]
• Dichtefunktion:
 1
für a  x  b

f G (x;a,b)=  b-a
 0
sonst
• P(x  X  x+Δx) = 1/(b-a) · Δx
54
Gleichverteilung
Stetige Gleichverteilung
0,2
P(xXx+Δx) =
1 /(b -a ) · Δ x
f(x;a,b)
1/(b-a)
0
0
a
x
x+Δx
14
b
x
55
Gleichverteilung
• Verteilungsfunktion (Integration der Dichte)
für x<a
 0
 x-a

FG (x;a,b)= 
für a  x  b
 b-a
für x>b
 1
56
Gleichverteilung
Stetige Gleichverteilung
1,2
1
F(x;a,b)
0,8
0,6
0,4
0,2
0
0
a
14
b
x
57
Gleichverteilung
• Erwartungswert: E(X) = (a+b)/2
• Varianz: Var(X) = (b-a)² / 12
• Bsp. Wegzeit ist gleichverteilt im Intervall
[30;40]. Ges. Wahrscheinlichkeit zw. 32 und
35 Min. zu benötigen.
P(32  X  35) = 1/(b-a) · Δx
= 1/(40-30) · (35-32) = 0,3
Durchschnittlich benötigte Zeit: E(X) = 35
58
Normalverteilung
• Wichtigste theoretische Verteilung:
• Normalverteilung:
–
–
–
–
–
–
–
stetige Verteilung
symmetrische Dichtefunktion
S-förmige Verteilungsfunktion
Erwartungswert: E(X) = µ
Varianz: Var(X) = σ²
Maximum der Dichte bei x=µ
Wendepunkte bei x=µσ
59
Normalverteilungen
• Normalverteilung:
• Dichtefunktion (für -∞<x<+∞ und σ>0) :
1
f n (x; μ, σ ) 
2
2π 2
e
1  x μ 
 

2 σ 
2
• Verteilungsfunktion:
x
Fn (x; μ, σ ) 
2


1
2 2
e
1  v μ 
 

2 σ 
2
dv
60
Normalverteilung
• Normalverteilungen mit unterschiedlichen
Parametern
Normalverteilung
0,45
0,4
0,35
0,3
f(x)
0,25
0,2
0,15
0,1
0,05
0
-6
-4
-2
0
2
4
6
x
N(4,3)
N(0,1)
8
10
12
61
N(2,2)
Normalverteilung
• Verteilungsfunktion
Verteilungsfunktion Normalverteilung
1
0,9
0,8
0,7
F(x)
0,6
0,5
0,4
0,3
0,2
0,1
0
-4
-3
µ-3σ
-2
µ-2σ
-1
0
1
µ-σ
µ
x
µ+σ
2
µ+2σ
3
µ+3σ
4
62
Normalverteilung
• Standardnormalverteilung:
– Erwartungswert µ = 0
– Varianz σ² = 1
• Dichtefunktion:
f n (z;0,1) 
1
2π
e
1
 z2
2
63
Normalverteilung
• Standardnormalverteilung
Standardnormalverteilung
0,5
99,73%
0,45
95,45%
68,27%
0,4
0,35
f(z)
0,3
WP
0,25
WP
0,2
0,15
0,1
0,05
0
-4
-3
-2
-1
0
z
1
2
3
64
4
Normalverteilung
• Approximation durch Normalverteilung:
Mit wachsendem n nähern sich viele
theoretische Vt. der Normalverteilung
• Empirische Verteilungen lassen sich
ebenfalls oft durch die N-Vt. annähern.
65
Normalverteilung
• Reproduktionseigenschaft (od. Additivitätseigenschaft) der Normal-Vt.
• Additionstheorem der Normalverteilung:
– Die Summe (X) von n unabhängig normalverteilten
Zufallvariablen X1,…,Xn ist ebenfalls normalverteilt.
X = X1 + … + Xn
– Der Erwartungswert von X ist die Summe der einzelnen
Erwartungswerte μ1,…,μn
E(X) = μ = μ1 + … + μn
– Die Varianz von X ist die Summe der einzelnen
Varianzen σ1²,…σn²
Var(X) = σ² = σ1² + … + σn²
66
Herunterladen