statistik_08_03_05

Werbung
STATISIK
LV Nr.: 1375
SS 2005
8. März 2005
1
Zweidimensionale Merkmale
• Frage: Wie lässt sich der Zusammenhang
bzw. die Abhängigkeit zw. zwei Merkmalen
messen?
– Wie stark ist der Zusammenhang bzw. die
Abhängigkeit?
Antwort durch Korrelationsrechnung.
– Lässt sich der Zusammenhang in einer
bestimmten Form darstellen?
Antwort durch Regressionsrechnung.
2
Zweidimensionale Merkmale
• n Untersuchungseinheiten, 2 Merkmale X
und Y, Ausprägungen des Merkmals X
a1,…,al und Ausprägungen des Merkmals Y
b1,…,bm.
• 2-dimensionales Merkmal (X,Y) mit
Ausprägungen (aj,bk), mit absoluten
Häufigkeiten hjk und relativen Häufigkeiten
fjk=1/hjk
3
Kontingenztafel
• Häufigkeitsverteilung von (X,Y) wird durch
Kontingenztafel dargestellt.
• Absolute Randhäufigkeiten (von aj für j=1,…,l
m
l
und bk für k=1,...,m):
h j   h jk
k 1
h k   h jk
j1
• Relative Randhäufigkeiten (von aj für j=1,…,l und
m
l
bk für k=1,…,m):
f j   f jk
k 1
f k   h jk
j1
• Randhäufigkeiten ergeben die Häufigkeitsverteilung des Merkmals X bzw.Y
(Randverteilung).
4
Kontingenztafel
• Absolute Häufigkeiten
X
Y b1
…
bm
Σ
…
h1m
h1.
:
:
a1
h11
:
:
al
hl1
…
hlm
hl.
Σ
h.1
…
h.m
h..=n
5
Kontingenztafel
• Relative Häufigkeiten
X
Y b1
…
bm
Σ
a1
f11
…
f1m
f1.
:
:
:
:
al
fl1
…
flm
fl.
Σ
f.1
…
f.m
f..=1
6
Kontingenztafel
Es gilt:
• Relative Randhäufigkeit = 1 / n · absolute
Randhäufigkeit
1
1
f j  h j und f k  h k
n
n
• Summe der absoluten Randhäufigkeiten = n
l
m
 h
j1 k 1
jk
l
m
j1
k 1
l
m
j1
k 1
  h j  h k  n
• Summe der relativen Randhäufigkeiten = 1
l
m
 f
j1 k 1
jk
  f j  fk  1
7
Korrelationskoeffizient
• Bravais-Pearson Korrelationskoeffizient rXY
• 2-dimensionales metrisch skaliertes
Merkmal (X,Y) mit Ausprägungen (aj,bk)
und Häufigkeiten hjk für j=1,…,l und
k=1,…,m.
• Maß für den Zusammenhang zw. X und Y:
l
rXY 
m
 (a
j1 k 1
j
n
 a)(b k  b)h jk
 l
 m

2
  (a j  a) h j   (b k  b) 2 h k 



 j1
 k 1

 (x
i 1
i
 x)(y i  y)
n
 n

2 
  (x i  x)   (y i  y) 2 
 i 1
 i 1

8
Korrelationskoeffizient
• rXY liegt immer im Intervall [-1,1]
• Extremfälle:
-1 negativer linearer Zusammenhang
rXY = 0 kein linearer Zusammenhang
1 positiver linearer Zusammenhang
• Interpretation:
– rXY < 0 d.h. große Werte von X treten mit kleinen
Werten von Y auf
– rXY > 0 d.h. große Werte von X treten mit großen
Werten von Y auf
9
Korrelationskoeffizient
• Probleme:
• Scheinkorrelation: X und Y hängen von einem
dritten Merkmal Z ab
– Bsp. Gefahr eines Waldbrandes (X) und schlechter
Kornertrag (Y) hängen von der Stärke der
Sonneneinstrahlung (Z) ab.
• Nonsenskorrelation: sachlogischer
Zusammenhang zw. X und Y
– Bsp. Korrelation zw. Anzahl der Störche und der
Anzahl der Geburten in einem Land
• Nichtlinearer Zusammenhang: rXY misst nur einen
linearer Zusammenhang
10
Korrelation
Korrelationskoeffizient = 0
Korrelationskoeffizient = 1
9
8
8
7
7
6
6
5
5
Y
Y
9
4
4
3
3
2
2
1
1
0
0
0
2
4
6
8
10
12
14
16
0
2
4
6
X
8
10
12
14
16
12
14
16
X
Korrelationskoeffizient = 0
Korrelationskoeffizient = - 1
18
8
16
7
14
6
12
5
10
Y
Y
9
4
8
3
6
2
4
1
2
0
0
0
2
4
6
8
X
10
12
14
16
0
2
4
6
8
10
X
11
Korrelation
Korrelationskoeffizient = - 0,58
Korrelationskoeffizient = 0,8
8
9
7
8
7
6
6
5
Y
Y
5
4
4
3
3
2
2
1
1
0
0
0
2
4
6
8
X
10
12
14
16
0
2
4
6
8
10
12
14
16
X
12
Korrelation
• Fechnersche Korrelationskoeffizient (2
metrisch skalierte Merkmale X und Y): rF
• Basiert auf Vorzeichen der transformierten
Paare (x i  x, yi  y)
1 x* und y* gleiches Vorzeichen od. beide 0
vi = ½ genau einer der Werte x* bzw. y* = 0
0 sonst
n
V  v i
i 1
13
Korrelation
• Fechnersche Korrelationskoeffizient:
2V  n
rF 
n
• Werte im Intervalle [-1,1]
• +1 nicht nur bei positivem linearen
Zusammenhang, sonder auch wenn gilt:
(x i  x und yi  y) oder (x i  x und yi  y)
14
Korrelation
• Rangkorrelationen für ordinal skalierte Merkmale:
• Verwendung von Rangzahlen: Merkmal Z,
Ausprägungen z1,…,zn, der Größe nach ordnen
(von der größten zur kleinsten) z(1),…,z(n) und
nummerieren.
• Rangzahl: R(z(i)) = i für i=1,…,n
• Tritt ein Ausprägung mehrmals auf, dann Rang =
arithm. Mittel der Ränge, die sie einnehmen.
– Bsp: z(1)=8, z(2)=5, z(3)=5, z(4)=2,
Ränge: R(z(1))=1, R(z(2))=2,5, R(z(3))=2,5, R(z(4))=4
15
Korrelation
• Spearmansche Rangkorrelationskoeffizient rS
• Entspricht dem Bravais-Pearson Koeffizienten der
Rangzahlen
n
rS 
 (R(x )  R(x))(R(y
i 1
i
i
)  R(y))
n
 n
2 
2
  (R(x i )  R(x))   (R(y i )  R(y)) 
 i 1
 i 1

• Wert +1 schon bei monoton wachsenden
Beobachtungen, d.h. es gilt für alle (xi,yi), (xj,yj):
mit xi < xj ist auch yi < yj
16
Korrelation
• Yulesche Assoziationskoeffizient für eine
Vierfeldertafel
• (X,Y) nominal skaliert
• Häufigkeitsverteilung von (X,Y)
A XY
h11h 22  h12h 21 f11f 22  f12f 21


h11h 22  h12h 21 f11f 22  f12f 21
• Es gilt:
-1 ≤ A ≤ +1; falls ein h =0, so gilt: |A |=1; Vorzeichen nur
in Verbindung Vierfeldertafel interpretierbar
XY
ij
XY
17
Wahrscheinlichkeitsrechung
• Betrachte Ereignisse die nicht
deterministisch (vorherbestimmbar) sind,
Ereignisse mit Zufallscharakter.
18
Wahrscheinlichkeitsrechung
Grundbegriffe:
• Zufallsexperiment:
– Vorgang nach einer bestimmten Vorschrift
ausgeführt, beliebig oft wiederholbar, Ergebnis
hängt vom Zufall ab, bei mehrmaligen
Durchführung des Experiments beeinflussen
die Ergebnisse einander nicht – unabhängig
voneinander. (z.B. Münzwurf, Werfen eines
Würfels, …)
19
Wahrscheinlichkeitsrechung
• Elementarereignisse (Realisationen)
– Zufallsexperiment: Reihe aller möglichen
elementarer Ereignisse {e },…,{e }
1
n
• Ereignisraum S:
– Menge der Elementarereignisse S={e ,…,e }
1
n
• Ereignis:
– Jede beliebige Teilmenge des Ereignisraumes
(setzt sich aus einem od. mehreren
Elementarereignissen zusammen)
20
Wahrscheinlichkeitsrechung
• Vereinigung
– Vereinigung von 2 Ereignissen A und B: AUB Menge
aller Elementarereignisse, die zu A oder B gehören
• Durchschnitt
– Durchschnitt von 2 Ereignissen A und B: A∩B Menge
aller Elementarereignisse, die zu A und B gehören
• Disjunkte Ereignisse
– 2 Ereignisse A und B schließen einander aus, A∩B=Ø
(Ø unmögliches Ereignis)
• Komplementärereignis A
– Menge aller Elementarereignisse des Ereignisraumes S,
die nicht in Ereignis A enthalten sind
21
Wahrscheinlichkeitsrechung
• Wahrscheinlichkeit ist ein Maß zur
Quantifizierung der Sicherheit bzw.
Unsicherheit des Eintretens eines
bestimmten Ereignisses im Rahmen eines
Zufallsexperiments.
22
Wahrscheinlichkeitsrechung
• Klassischer Wahrscheinlichkeitsbegriff:
Zahl der günstigen Fälle
W(A) 
Zahl aller gleichmögl ichen Fälle
• Bsp. Urne mit 10 Kugeln (8 rot, 2 schwarz)
– Gesucht: Wahrscheinlichkeit, dass eine zufällig
gezogene Kugel rot ist (Ereignis A)
– Ereignisraum 10 mögl. Elementarereignisse, 8
günstige Fälle
– W(A) = 8 / 10 = 0,8
23
Wahrscheinlichkeitsrechung
• Statistischer Wahrscheinlichkeitsbegriff:
• Grenzwert der relativen Häufigkeiten des
Auftretens von A
h n (A)
W(A)  lim f n (A)  lim
n 
n 
n
24
Wahrscheinlichkeitsrechung
• Subjektiver Wahrscheinlichkeitsbegriff:
• Ereignissen werden „Wettchancen“
zugeordnet. Quote für A ist a:b, dann ergibt
sich die Wahrscheinlichkeiten
a
b
W(A) 
und W(A) 
ab
ab
25
Wahrscheinlichkeitsrechung
• Axiomatischer Wahrscheinlichkeitsbegriff:
• Definition von mathematischen
Eigenschaften
1. 0 ≤ W(A) ≤ 1
2. W(S) = 1
3. A und B disjunkt: W(A U B) = W(A) + A(B)
26
Zufallsvariable
• Zufallsvariable: Variable deren Wert vom
Zufall abhängt (z.B. X, Y, Z)
– Bsp. Zufallsexperiment: 2-maliges Werfen einer
Münze. Frage: Wie oft erscheint „Zahl“?
Mögliche Werte: 0, 1, 2. Variable „Anzahl
Zahl“ hängt vom Zufall ab – Zufallsvariable.
• Realisation (Ausprägung): Wert, den eine
Zufallsvariable X annimmt (z.B. x, y, z).
– Bsp. 2-maliges Werfen einer Münze, ZV X
„Anzahl Zahl“, Ausprägungen: x1=0, x2=1,
x3=2.
27
Zufallsvariable
• Zufallsvariable: Funktion, die jedem
Elementarereignis eine bestimmt reelle Zahl
zuordnet, z.B. X(ej)=xi
• Definitionsbereich einer ZV: Ereignisraum
S des zugrundeliegenden
Zufallsexperiments.
• Wertebereich einer ZV: Menge der reellen
Zahlen.
28
Zufallsvariable
• Diskrete Zufallsvariable: ZV mit endlich
vielen oder abzählbar unendlich vielen
Ausprägungen
• Stetige Zufallsvariable: können (zumindest
in einem bestimmten Bereich der reellen
Zahlen) jeden beliebigen Zahlenwert
annehmen.
29
Wahrscheinlichkeit
• Diskrete Zufallsvariable:
• Wahrscheinlichkeit, mit der eine diskrete
ZV X eine spezielle Ausprägung xi
annimmt, W(X=xi): Summe der
Wahrscheinlichkeiten derjenigen
Elementarereignisse ej, denen Ausprägung
xi zugeordnet ist:
W(X  x i ) 
 W(e )
X(e j )  x i
j
30
Wahrscheinlichkeitsfunktion
• Wahrscheinlichkeitsfunktion einer diskreten
ZV: Funktion f(xi), die für jede Ausprägung
der ZV (unterschiedliche Ausprägungen xi
einer ZV X) die Wahrscheinlichkeit ihres
Auftretens angibt: f(xi) = W(X=xi)
• Eigenschaften:
– f(xi) ≥ 0
– Σi f(xi) = 1
i=1,2,…
31
Verteilungsfunktion
• Verteilungsfunktion einer diskreten ZV:
Funktion F(x), die die Wahrscheinlichkeit
dafür angibt, dass die ZV X höchstens den
Wert x annimmt. F(x) = W(X ≤ x)
• Es gilt:
F(x)  W(X  x)   f(x i )
xi x
• Treppenfunktion
32
Verteilungsfunktion
• Verteilungsfunktion einer stetigen ZV (kann
in einem bestimmten Intervall jeden
beliebigen Wert annehmen): Funktion F(x),
die die Wahrscheinlichkeit dafür angibt,
dass die ZV X höchstens den Wert x
annimmt. F(x) = W(X ≤ x)
• Stetige Funktion
33
Verteilungsfunktion
• Eigenschaften einer stetigen Vt-Funktion:
1. 0 ≤ F(x) ≤ 1
2. F(x) ist monoton wachsend (d.h. für x1 < x2
gilt F(x1) ≤ F(x2)
3. lim x→-∞ F(x) = 0
4. lim x→∞ F(x) = 1
5. F(x) ist überall stetig
34
Wahrscheinlichkeitsdichte
• Wahrscheinlichkeitsdichte (Dichtefunktion)
f(x) einer stetigen ZV: Ableitung der
Verteilungsfunktion.
• Es gilt:
F´(x)  f(x)
x
F(x)   f(v)dv

35
Wahrscheinlichkeitsdichte
• Eigenschaften:
1. f(x) ≥ 0

2.  f(x)dx  1

b
3. W(a  X  b)   f(x)dx
a
4. W(X=x) = 0
5. W(a ≤ X ≤ b) = W(a < X < b)
6. W(X ≤ a) = F(a)
W(a ≤ X ≤ b) = F(b) – F(a)
W(X ≤ b) = F(b)
36
Parameter
• Charakterisierung der Wahrscheinlichkeitsverteilung von Zufallsvariablen durch
Parameter (Maßzahlen)
• Erwartungswert E(X) = Lageparameter
(Entspricht dem arithm. Mittel)
• Varianz Var(X) = Streuungsparameter
37
Erwartungswert
• Diskrete ZV:
E(X)   x i W(X  x i )  x i f(x i )
i
i
• Stetige ZV:

E(X) 
 x  f(x)dx

38
Varianz
• Diskrete ZV:
Var(X)   x i  E(X)  f(x i )
2
i
• Stetige ZV:

Var(X) 
 x  E(X)  f(x)dx
2

• Standardabweichung: σ X 
Var(X)
39
Standardisierung
• Lineare Transformation: Y = a + bX
• Spezialfall Standardisierung:
a = – E(X) / σX
b = 1 / σX
• Standardisierte Variable Z:
X  E(X)
Z
σX
• Es gilt: E(Z) = 0 und Var(Z) = 1
40
Theoretische Verteilungen
• Diskrete Verteilungen
–
–
–
–
Binomialverteilung
Hypergeometrische Verteilung
Poissonverteilung
...
• Stetige Verteilungen
–
–
–
–
–
–
–
Gleichverteilung
Exponentialverteilung
Normalverteilung
Chi-Quadrat Verteilung
t-Verteilung (Studentverteilung)
F-Verteilung
...
41
Theoretische Verteilungen
• Wichtigste theoretische Verteilung:
• Normalverteilung:
–
–
–
–
–
–
–
stetige Verteilung
symmetrische Dichtefunktion
S-förmige Verteilungsfunktion
Erwartungswert: E(X) = µ
Varianz: Var(X) = σ²
Maximum der Dichte bei x=µ
Wendepunkte bei x=µσ
42
Normalverteilungen
• Normalverteilung:
• Dichtefunktion (für -∞<x<+∞ und σ>0) :
1
f n (x; μ, σ ) 
2
2π 2
e
1  x μ 
 

2 σ 
2
• Verteilungsfunktion:
x
Fn (x; μ, σ ) 
2


1
2 2
e
1  v μ 
 

2 σ 
2
dv
43
Normalverteilung
• Normalverteilungen mit unterschiedlichen
Parametern
44
Normalverteilung
• Verteilungsfunktion
45
Normalverteilung
• Standardnormalverteilung:
– Erwartungswert µ = 0
– Varianz σ² = 1
• Dichtefunktion:
f n (z;0,1) 
1
2π
e
1
 z2
2
46
Normalverteilung
• Standardnormalverteilung
47
Herunterladen