Einführung in die Statistik mit Beispielen aus der Biologie

Werbung
Einführung in die Statistik
mit Beispielen aus der Biologie
Thomas Fabbro
“The aim of computing is insight, not numbers.”
Zu meiner Person
Ausbildung
I
I
I
I
Momentan
I
I
Studium der Biologie (Uni Basel)
Masterarbeit in Pflanzenökologie (Uni Basel)
Doktorarbeit in Quantitativer Genetik (Uni
Fribourg)
Nachdiplom in Statistik (Uni Neuchâtel)
Statistiker an der Clinical Trial Unit
(Universitätsspital Basel)
Mitglied der Ethikkommission beider Basel
(EKBB)
Zur Vorlesung
Struktur Über zwei Semester, eine Stunde Vorlesung, zwei
Stunden Übungen am Computer
Unterlagen Sie erhalten ein Handout mit den wichtigsten
Abbildungen und einem Glossar. Machen Sie sich
Notizen!
Prüfung Am Ende der beiden Semester
Was mir wichtig ist für die Vorlesung
Fragen Immer, sobald etwas nicht ganz klar ist.
Vokabular Es ist wichtig, dass wir ein gemeinsames Vokabular
finden und dieses präzise anwenden, daher gibt es ein
Glossar.
Selbstverständlich gilt der zweite Punkt nicht, wenn
es um den ersten geht!
Was ist Statistik?
Die Statistik als Disziplin (“statistics”) beschäftigt sich mit dem
Sammeln, Organisieren, Analysieren, Interpretieren und
Präsentieren von Daten (nach Dodge, Cox und Commenges 2006).
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Wieso brauchen wir eigentlich Statistik?
Arten von Variablen
Diese Einteilung basiert auf der Klasseneinteilung von R.
Arten von Variablen
Messbare und Zählbare Variablen
numeric für kontinuierlich Variablen, alle Zwischenschritte
sind möglich
Diese Einteilung basiert auf der Klasseneinteilung von R.
Arten von Variablen
Messbare und Zählbare Variablen
numeric für kontinuierlich Variablen, alle Zwischenschritte
sind möglich
integer für Ganze Zahlen
Diese Einteilung basiert auf der Klasseneinteilung von R.
Arten von Variablen
Messbare und Zählbare Variablen
numeric für kontinuierlich Variablen, alle Zwischenschritte
sind möglich
integer für Ganze Zahlen
Kategorielle Variablen
Diese Einteilung basiert auf der Klasseneinteilung von R.
Arten von Variablen
Messbare und Zählbare Variablen
numeric für kontinuierlich Variablen, alle Zwischenschritte
sind möglich
integer für Ganze Zahlen
Kategorielle Variablen
factor für Kategorien (z. B. “Fabaceae”, “Rosaceae”,
“Apiaceae”).
Diese Einteilung basiert auf der Klasseneinteilung von R.
Arten von Variablen
Messbare und Zählbare Variablen
numeric für kontinuierlich Variablen, alle Zwischenschritte
sind möglich
integer für Ganze Zahlen
Kategorielle Variablen
factor für Kategorien (z. B. “Fabaceae”, “Rosaceae”,
“Apiaceae”).
logical Eine Variable die nur die Werte TRUE oder FALSE
annehmen kann (z. B. “männlich”, “weiblich”).
Diese Einteilung basiert auf der Klasseneinteilung von R.
Beispiele in R
> weight <- c(0.001, 100, 3200000, 1000, 2.56, 0.001,
+
0.01)
> legs <- as.integer(c(0, 0, 4, 0, 0, 8, 6))
> kingdom <- factor(c("animal", "fungi", "animal",
+
"animal", "plant", "animal", "animal"))
> animal <- c(TRUE, FALSE, TRUE, TRUE, FALSE, TRUE,
+
TRUE)
Es gibt zwei Arten wie man Variablen beschreiben kann:
I
Kenngrössen
I
graphischen Darstellungen
Charakteristika kontinuierlicher Variablen
Charakteristika kontinuierlicher Variablen
Lage
Charakteristika kontinuierlicher Variablen
Lage
Streuung
Charakteristika kontinuierlicher Variablen
Lage
Streuung
Form
Charakteristika kontinuierlicher Variablen
Lage
Streuung
Form
Häufung (”cluster”) Werte treten in Klumpen auf.
Charakteristika kontinuierlicher Variablen
Lage
Streuung
Form
Häufung (”cluster”) Werte treten in Klumpen auf.
Körnung (”granularity”) Nur bestimmte Werte treten auf.
Beispiele
Beispiele
gemessene Werte
Beispiele
0
1
2
3
4
gemessene Werte
5
6
Beispiele
−1.0
−0.5
0.0
0.5
1.0
gemessene Werte
1.5
2.0
Beispiele
140
150
160
170
gemessene Werte
180
190
Beispiele
140
150
160
170
gemessene Werte
180
190
Boxplot
Boxplot
0
1
2
3
4
gemessene Werte
5
6
Boxplot
Boxplot
0
1
2
3
4
gemessene Werte
5
6
Boxplot
Boxplot
0
1
2
3
4
gemessene Werte
5
6
Boxplot
Boxplot
0
1
2
3
4
gemessene Werte
5
6
Boxplot
Boxplot
●
0
1
2
3
4
gemessene Werte
5
6
Boxplot
Drawing the box:
Find the median. Then find the median of the data
values whose ranks are less than or equal to the rank of
the median. This will be a data value or it will be half
way between two data values.
Drawing the whiskers:
The maximum length of each whisker is 1.5 times the
interquartile range (IQR). To draw the whisker above the
3rd quartile, draw it to the largest data value that is less
than or equal to the value that is 1.5 IQRs above the 3rd
quartile. Any data value larger than that should be
marked as an outlier.
Der Boxplot wurde von Tukey eingeführt. Heute gibt es viel
verschiedene Formen. Es ist daher gut, wenn man immer angibt
wie man den Boxplot konstruiert hat.
Histogramm
Histogramm
0
1
2
3
4
gemessene Werte
5
6
Histogramm
2
1
0
Anzahl
3
4
Histogramm
0
1
2
3
4
gemessene Werte
5
6
Histogramm
0.0 0.1 0.2 0.3 0.4
Dichte
Histogramm
0
1
2
3
4
gemessene Werte
5
6
Histogramm
Um ein Histogramm zeichnen zu könnten muss man folgende zwei
Punkte festlegen:
I
Kästchenbreite bzw. die Anzahl der Kästchen (Kästchen:
“bin”)
I
Startpunkt
Auch für dieselben Werte sieht nicht jedes Histogramm gleich aus!
Histogramm
Anzahl Kästchen: 4
0.00
0.00
0.05
0.10
frequency
0.10
0.05
frequency
0.15
0.15
Anzahl Kästchen: 2
0
2
4
6
8
10
12
0
2
4
6
8
10
12
Anzahl Kästchen: 16
0.20
0.15
frequency
0.10
0.10
0.00
0.05
0.05
0.00
frequency
0.15
0.25
0.20
0.30
Anzahl Kästchen: 8
0
2
4
6
8
10
12
0
2
4
6
8
10
12
Histogramm
Startpunkt: −0.6
0.15
Density
0.00
0.00
0.05
0.10
0.10
0.05
Density
0.15
0.20
0.20
Startpunkt: 0
2
4
6
8
10
12
0
2
4
6
8
10
x
x
Startpunkt: −1.2
Startpunkt: −1.8
12
0.10
Density
0.05
0.10
0.00
0.05
0.00
Density
0.15
0.15
0.20
0
0
2
4
6
8
10
12
−2
0
2
4
6
8
10
12
Empirische Dichte
Empirische Dichte
0
1
2
3
4
gemessene Werte
5
6
Empirische Dichte
0.0 0.1 0.2 0.3 0.4
Dichte
Histogramm
0
1
2
3
4
gemessene Werte
5
6
Empirische Dichte
0.0 0.1 0.2 0.3 0.4
Dichte
"uniform kernel"
0
1
2
3
4
gemessene Werte
5
6
Empirische Dichte
0.0 0.1 0.2 0.3 0.4
Dichte
"gaussian kernel"
0
1
2
3
4
gemessene Werte
5
6
Wahrscheinlichkeitsverteilung
Wahrscheinlichkeitsverteilung
n
1X
x̄ =
xi
n
i=1
Wahrscheinlichkeitsverteilung
µ
n
1X
x̄ =
xi
n
i=1
Kenngrössen für kontinuierliche Variablen
Kenngrössen für kontinuierliche Variablen
Lage Mittelwert, Median, Modus
Kenngrössen für kontinuierliche Variablen
Lage Mittelwert, Median, Modus
Streuung Spannweite, Quartilsabstand, Varianz
Kenngrössen für kontinuierliche Variablen
Lage Mittelwert, Median, Modus
Streuung Spannweite, Quartilsabstand, Varianz
Form Schiefe: z. B. rechtsschief = linkssteil, linksschief =
rechtssteil
Wölbung: steilgipflig, flachgipflig
weitere Begriffe: symmetrisch, unimodal, bimodal,
multimodal
Wahrscheinlichkeitsverteilung
Wahrscheinlichkeitsverteilung
0.25
Dichte
0.20
0.15
0.10
0.05
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsverteilung
0.25
Dichte
0.20
0.15
0.10
0.05
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsverteilung
0.25
Dichte
0.20
0.15
0.10
0.05
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsverteilung
0.25
Dichte
0.20
0.15
0.10
0.05
0.1
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsverteilung
0.25
Dichte
0.20
6.25
0.15
0.10
0.05
0.1
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsverteilung
0.25
Dichte
0.20
6.25
0.15
0.10
0.05
0.1
0.04
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsverteilung
0.25
χ2df=3
Dichte
0.20
6.25
0.15
0.10
0.05
0.1
0.04
0.00
0
1
2
3
4
5
x
6
7
8
9
Wahrscheinlichkeitsdichte
Dichte
0.4
0.3
0.2
0.1
−2
−1
0
x
1
2
Wahrscheinlichkeitsdichte
Dichte
0.4
0.3
0.2
0.1
−2
−1
0
x
1
2
Wahrscheinlichkeitsdichte
N (µ = 0, σ 2 = 1)
Dichte
0.4
0.3
0.2
0.1
−2
−1
0
x
1
2
Wahrscheinlichkeitsdichte
N (µ = 0, σ 2 = 1)
Dichte
0.4
1.64
0.3
0.2
0.1
0.05
−2
−1
0
x
1
2
Wahrscheinlichkeitsdichte
N (µ = 0, σ 2 = 1)
Dichte
0.4
0.3
−2
−1
0.2
0.1
0.136
−2
−1
0
x
1
2
Wahrscheinlichkeitsdichte
N (µ = 0, σ 2 = 1)
Dichte
0.4
1.96
0.3
0.2
0.1
0.025
−2
−1
0
x
1
2
Quantile-Quantile-Diagramm
Theoretische Quantile
(der Normalverteilung)
●
●
1
●
●
●
0
●
●
●
−1
●
●
0
1
2
3
4
5
Empirische Quantile
entstprechen den
geordneten Beobachtungen
6
2
2
2
1
●
●
●
0
●
●
●
−1
●
●
Theoretische Quantile
●
Theoretische Quantile
●
1
●
●
●
0
●
●
●
−1
●
●
−2
2
4
6
2
4
0
Theoretische Quantile
Theoretische Quantile
●
●
●
●
●
●
●
●
●
0
●
●
●
−1
●
−2
●
●
●
0
●
●
●
−1
●
●
−2
6
−2
0
Empirische Quantile
2
4
6
0
Empirische Quantile
2
2
●
●
0
●
●
●
●
●
1
●
●
●
0
●
●
●
−1
●
●
●
●
●
4
Empirische Quantile
6
●
0
●
●
●
−1
●
●
−2
2
●
1
●
−2
6
2
Theoretische Quantile
●
4
●
Theoretische Quantile
●
1
2
Empirische Quantile
●
Theoretische Quantile
●
●
1
●
4
6
2
●
1
●
2
4
●
●
0
2
Empirische Quantile
2
0
●
6
●
●
1
−1
●
−1
Empirische Quantile
2
0
●
●
−2
0
Empirische Quantile
−1
●
●
●
0
●
−2
0
●
1
●
Theoretische Quantile
Theoretische Quantile
●
●
−2
0
2
4
Empirische Quantile
6
0
2
4
Empirische Quantile
6
skewed to the right
density
normal quantiles
bimodal
density
normal quantiles
platykurtic
density
normal quantiles
density
normal quantiles
normal
density
normal quantiles
density
normal quantiles
Verteilungsformen und Q-Q-Diagramme
leptokurtic
skewed to the left
Verteilung
Verteilung
0.08
Dichte
0.06
0.04
0.02
●●
0.00
150
●●● ●●●●●●● ●●●●● ●● ● ● ● ●
●●
●●
160
170
Körpergrösse (Frauen)
●
180
Verteilung
0.08
Dichte
0.06
0.04
0.02
0.00
●●
● ● ●●
150
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●●●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●●
●●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
● ●●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●●
●
●●●
●
●●
160
170
Körpergrösse (Frauen)
180
●
● ●● ●
Verteilung
0.08
Dichte
0.06
0.04
0.02
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
● ●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●●●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●0.00
●
●
●
●
●
●
●●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
150
160
170
Körpergrösse (Frauen)
180
●
Verteilung
0.08
Dichte
0.06
0.04
0.02
0.00
150
160
170
Körpergrösse bei Frauen
180
Verteilung
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (170.51 + 169.43 + 166.39 + 167.03 + 161.82 + 146.94 + 159.71 + 172.03 + 179.61 + 173.50 + 166.13 +
165.84 + 166.80 + 164.00 + 163.41 + 167.31 + 162.77 + 154.04 + 164.12 + 160.24 + 177.58 + 167.00 +
156.56 + 157.31 + 159.93 + 155.82 + 177.30 + 167.03 + 165.68 + 165.40)/30 = 165.04
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
●
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 1
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (170.32 + 161.08 + 163.92 + 160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 +
169.07 + 173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 +
169.77 + 162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34)/30 = 165.88
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
●
162
164
●
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 2
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (168.92 + 155.95 + 164.68 + 164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 +
165.54 + 169.46 + 165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 +
150.60 + 163.78 + 156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31)/30 = 165.69
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
●
162
164
●●
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 3
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (161.08 + 163.92 + 160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 +
173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 +
162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66)/30 = 165.79
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
●
162
164
●●●
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 4
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (155.95 + 164.68 + 164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 +
169.46 + 165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 +
163.78 + 156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31 + 161.72)/30 = 165.45
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
● ● ●●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 5
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (163.92 + 160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 +
159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 +
176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66 + 165.22)/30 = 165.93
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
● ● ●●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 6
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (164.68 + 164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 + 169.46 +
165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 + 163.78 +
156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31 + 161.72 + 166.49)/30 = 165.80
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
● ● ●●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 7
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 +
163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 +
165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66 + 165.22 + 172.84)/30 = 166.23
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●●
● ● ●●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 8
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 + 169.46 + 165.35 +
160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 + 163.78 + 156.60 +
158.21 + 167.96 + 172.43 + 161.32 + 177.31 + 161.72 + 166.49 + 176.63)/30 = 166.20
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●●
●
● ● ●●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 9
172
Verteilung eines Mittelwertes
. . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert
berechnen . . .
x̄ = (163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 + 163.22 +
163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 + 165.70 +
169.62 + 162.61 + 164.31 + 153.34 + 167.66 + 165.22 + 172.84 + 163.21)/30 = 166.32
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●●
●●
● ● ●●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 10
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
●
162
164
●●●
●
●●●
●●
●●
● ●
●
166
●●
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 20
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
162
●●
● ●●●
●●
●●
●
●●●
● ●●●●
●●
●● ●
●
164
166
●
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 30
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●●●
0.0
162
164
●●●●●
●
●●
●●
●●●
●●●
●●
●
●●
●●
●●
●●
●●
●
166
●
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 40
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●●
●
●●●
●
●●
●●
●●
●●● ●●●●
●●
●●
●
●●●
●
●●
●●
●●
●●
●
●
●
0.0
162
164
166
● ●
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 50
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●●
●●●●
●
●
●●●
● ●● ● ●
●
●
●●
●●
●
●●●●
●
●●
●●
●
●●●
●
●
●●
●
●
●●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 60
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●●
●●●●
●
●●●
●● ●●● ● ●
●
●●
●●
●
●
●
●●●●●
●
●●
●
●●
●
●●●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 70
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●●
●●●●
●
●●●
●● ●●● ● ●
●
●●
●●
●
●
●
●●●●●
●
●●
●
●
●●
●
●●●
●
●●
●
●
●
●
●●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 80
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●●●●
●●●
●
●
●●
●● ●●● ● ●
●●
●●
●
●
●
●
●●●●●
●
●●
●
●●
●
●●●
●
●●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 90
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●●●●
●●●
●
●
●●
●● ●●● ● ●
●
●●
●●
●
●
●
●
●
●●
●●●●●
●
●●
●
●●
●
●●
●●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 100
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●●●●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●● ●●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 200
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
● ●●
●
●
●
●
●
●
●
●●●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 300
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●●
●●
●
●
●
●
●
●
●
●
●
●
●
●● ● ●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 400
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●●
●●
●
●
●
●● ●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 500
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●● ●
●
●●
●
●
●
●●
●●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●● ●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 600
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●
●●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●● ●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 700
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●● ●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 800
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●● ●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 900
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●●
●●
●
●●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●● ●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 30−Körpergrössen (Frauen)
Anzahl Mittelwerte: 1000
172
Verteilung eines Mittelwertes
. . . und nun 1000 Mittelwerte einer Stichprobe von n = 300 . . .
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●●
●
●
●
●
●
●
●
●
●
●●
●●
●●
●●
●●
●
●●
●
●
●●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
●●
●
●
●
●●
●
●
●
●
●●
●
●●
●
●
●
●●
●●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●●
●
●
●
●
●
●
0.0
162
164
166
168
170
x von 300−Körpergrössen (Frauen)
172
Verteilung eines Mittelwertes
1.0
Dichte
0.8
0.6
0.4
0.2
0.0
162
164
166
168
170
172
x von 30 bzw. 300−Körpergrössen bei Frauen
Verteilung einer Statistik
Verteilung einer Statistik
Dichte
Mittelwert
P
x̄ = n1 ni=1 xi
x
Verteilung einer Statistik
s2 =
Varianz
Pn
2
i=1 (xi − x̄)
1
n−1
Dichte
Dichte
Mittelwert
P
x̄ = n1 ni=1 xi
x
s2
Verteilung einer Statistik
s2 =
Varianz
Pn
2
i=1 (xi − x̄)
1
n−1
Dichte
Dichte
Mittelwert
P
x̄ = n1 ni=1 xi
x
I
Jede Statistik folgt einer “eigenen” Verteilung
s2
Verteilung einer Statistik
s2 =
Varianz
Pn
2
i=1 (xi − x̄)
1
n−1
Dichte
Dichte
Mittelwert
P
x̄ = n1 ni=1 xi
x
s2
I
Jede Statistik folgt einer “eigenen” Verteilung
I
Die Streuung ist von der Grösse, n, der Stichprobe abhängig
Verteilung einer Statistik
s2 =
Varianz
Pn
2
i=1 (xi − x̄)
1
n−1
Dichte
Dichte
Mittelwert
P
x̄ = n1 ni=1 xi
x
s2
I
Jede Statistik folgt einer “eigenen” Verteilung
I
Die Streuung ist von der Grösse, n, der Stichprobe abhängig
I
Die Form der Verteilung ist von der Grösse der Stichprobe
unabhängig
Der Zentrale Grenzwertsatz
Der Zentrale Grenzwertsatz
1.0
Dichte
0.8
0.6
0.4
0.2
2
4
6
8
Mittelwerte aus 1 Messwerten
10
Der Zentrale Grenzwertsatz
1.0
Dichte
0.8
0.6
0.4
0.2
2
4
6
8
Mittelwerte aus 5 Messwerten
10
Der Zentrale Grenzwertsatz
1.0
Dichte
0.8
0.6
0.4
0.2
2
4
6
8
Mittelwerte aus 25 Messwerten
10
Der Zentrale Grenzwertsatz
1.0
Dichte
0.8
0.6
0.4
0.2
2
4
6
8
Mittelwerte aus 50 Messwerten
10
Der Zentrale Grenzwertsatz
Die Verteilung des Mittelwertes aus n-Messwerten nähert
sich für wachsende n immer mehr einer Normalverteilung
und dies unabhängig von der Verteilung aus welcher die
Messwerte gezogen wurden.
Vertrauensintervall
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
● ●●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
● ● ●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x (n = 30) Mittlere Körpergrösse
172
Vertrauensintervall
1.0
Dichte
0.8
0.6
0.4
0.2
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
● ● ●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
● ●●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0.0
162
164
166
168
170
x (n = 30) Mittlere Körpergrösse
172
Vertrauensintervall
Jetzt starten wir wie im richtigen Leben mit einer einzelnen
Stichprobe:
x1 = 166.1, x2 = 178.8, x3 = 169.5, x4 = 165.9, x5 = 172.1, x6 =
177.3, x7 = 165.2, x8 = 164.3, x9 = 175.6, x10 = 173.7, x11 =
171.8, x12 = 172.2, x13 = 172.6, x14 = 162.6, x15 = 168.6, x16 =
172, x17 = 161.3, x18 = 169.7, x19 = 160, x20 = 170.1, x21 =
165.1, x22 = 172.9, x23 = 168.1, x24 = 167.5, x25 = 180.1, x26 =
172.2, x27 = 157.8, x28 = 177.2, x29 = 167.4, x30 = 174.6
Vertrauensintervall
Zwei Wege:
Vertrauensintervall
Zwei Wege:
I
Wir können eine Annahme Treffen über die
Wahrscheinlichkeitsverteilung aus welcher wir die Stichprobe
gezogen haben. Dann könnten wir beliebig oft eine Stichprobe
der selben Grösse ziehen, den Mittelwert berechnen und so die
Verteilung der Mittelwerte ermitteln.
Vertrauensintervall
Zwei Wege:
I
Wir können eine Annahme Treffen über die
Wahrscheinlichkeitsverteilung aus welcher wir die Stichprobe
gezogen haben. Dann könnten wir beliebig oft eine Stichprobe
der selben Grösse ziehen, den Mittelwert berechnen und so die
Verteilung der Mittelwerte ermitteln.
I
Wir können den Zentralen Grenzwertsatz anwenden. Dazu
müssten wir aber die beiden Parameter der Normalverteilung
unseres Mittelwertes besser kennen, namentlich den
Mittelwert und die Varianz.
Vertrauensintervall: Die Lage
Mangels besserer Informationen wählen wir den Mittelwert unserer
Stichprobe (x̄) als Erwartungswert für die Mittelwerte, x̄¯.
Vertrauensintervall: Die Streuung
Der Standardfehler ist die Standardabweichung einer Statistik.
Meistens spricht man vom Standardfehler und meint damit die
Standardabweichung des Mittelwertes, welche folgendermassen
berechnet wird:
sx
sx̄ = √
n
Vertrauensintervall
Mit diesen Angaben können wir nun aus unserer Stichprobe die
Verteilung des Mittelwertes veranschaulichen.
Dichte
0.3
0.2
0.1
0.0
164
166
168
170
172
x (n = 30) Mittlere Körpergrösse
Die mittlere Körpergrösse beträgt 169.7, 95%-Vertrauensintervall:
[167.8; 171.7].
Vertrauensintervall
Mit diesen Angaben können wir nun aus unserer Stichprobe die
Verteilung des Mittelwertes veranschaulichen.
Dichte
0.3
0.2
0.1
0.0
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
● ● ●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●●
●● ●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
164
166
168
170
172
x (n = 30) Mittlere Körpergrösse
Die mittlere Körpergrösse beträgt 169.7, 95%-Vertrauensintervall:
[167.8; 171.7].
Vertrauensintervall
Die Formel für das 1 − α-Vertrauensintervall für den Mittelwert
lautet:
s
s
x̄ − z(1−α/2) √ ; x̄ + z(1−α/2) √ .
n
n
Mit zα bezeichnen wir das α-Quantil einer
Standardnormalverteilung, N (µ = 0, σ 2 = 1). Wichtig ist
besonders der Wert z(1−α/2) = 1.96.
Zum Merken:
Das 95%-Vertrauensintervall umfasst den Mittelwert
plus/minus zwei mal den Standardfehler.
Zusammenhänge
Gibt es einen Zusammenhang . . .
ein
Feuerzeug
mit sich
tragen
Lungenkrebs
Aspekte von Zusammenhängen
I
Stärke
I
Folgerichtigkeit
I
Spezifität
I
Zeitlichkeit
I
Biologischer Gradient
I
Plausibilität
I
Stimmigkeit
I
Experiment
I
Analogie
Austin Bradford Hill, The Environment and Disease: Association or Causation? Proceedings of the Royal
Society of Medicine, 58 (1965), 295-300.
Zufällige und systematische Fehler
Zufällige und systematische Fehler
Zufälliger Fehler
Zufällige und systematische Fehler
Zufälliger Fehler
Systematischer Fehler, Bias
Zufällige und systematische Fehler
Zufälliger Fehler
Systematischer Fehler, Bias
Diese beiden Fehler treten in Kombination auf, zwei Beispiele:
Systematischer Fehler (Bias): Definition
“Any process at any stage of inference which tends to produce
results or conclusions that differ systematically from the truth.”
Nach Murphy, The Logic of Medicine, Baltimore: John Hopkins University Press, 1976 aus Sackett, Bias
in Analytic Research, Journal of Chronic Disease, 1979.
Wann kann ein systematischer Fehler auftreten?
I
Literatursuche
I
Festlegen und Auswählen der Studienpopulation
I
Durchführen der experimentellen Intervention (“Exposure”)
I
Messen von “Exposure” und “Outcome”
I
Analysieren der Daten
I
Interpretieren der Analyse
I
Publizieren der Resultate
Basierend auf dieser Einteilung hat Sackett einen Katalog von 35
systematischen Fehlern erstellt.
Sackett, Bias in Analytic Research, Journal of Chronic Disease, 1979.
Design
Design
Design
Zusammenhänge
Raucher
sein
ein
Feuerzeug
mit sich
tragen
Lungenkrebs
Bias-Einteilung nach Struktur
Confounding Bias Common causes of exposure and outcome.
(“Exposure” und “Outcome” haben eine
gemeinsame Ursache.)
z.B. Hernán and Robins, A Structural Approach to Selection Bias, Epidemiology, 2004.
Bias-Einteilung nach Struktur
Confounding Bias Common causes of exposure and outcome.
(“Exposure” und “Outcome” haben eine
gemeinsame Ursache.)
Selection Bias Conditioning on commen effects of exposure
and outcome.
(Ein gemeinsamer Effekt von “Exposure” und
“Outcome” wird berücksichtigt.)
z.B. Hernán and Robins, A Structural Approach to Selection Bias, Epidemiology, 2004.
Bias-Einteilung nach Struktur
Confounding Bias Common causes of exposure and outcome.
(“Exposure” und “Outcome” haben eine
gemeinsame Ursache.)
Selection Bias Conditioning on commen effects of exposure
and outcome.
(Ein gemeinsamer Effekt von “Exposure” und
“Outcome” wird berücksichtigt.)
Information Bias Systematisch fehlerhafte Information über
“Exposure”, “Outcome” oder andere Variabeln
welche für die Studie herangezogen werden.
z.B. Hernán and Robins, A Structural Approach to Selection Bias, Epidemiology, 2004.
Confounding Bias
gemeinsame
Ursache
"Outcome"
"Exposure"
I
Anpassen des Studientypen: Zufällige “Exposure”-Zuweisung
erlaubt es, “Confounding” durch bekannte und unbekannte
Variablen zu verhindern.
I
Anpassen der Datenanalyse: Nur mit Fachwissen ist es
möglich, “Confounder” zu identifizieren, zu messen und mit
gewissen Annahmen in der Analyse zu berücksichtigen.
Selection Bias
Tod vor
der Geburt
Folsäure
Herzmissbildung
Selection Bias
gemeinsamer Effekt
"berücksichtigt"
"Outcome"
I
"Exposure"
Kann auch in experimentellen Studien mit zufälliger
“Exposure”-Zuweisung vorkommen (z.B. durch fehlende
Messwerte, “loss to follow-up”).
Information Bias
Systematisch fehlerhafte Information über “Exposure”, “Outcome”
oder andere Variabeln welche für die Studie herangezogen werden.
I
Definition ist unabhängig von der kausalen Struktur.
I
Wenn es sich um eine kategoriale Messgrösse handelt, spricht
man auch von “Misclassification Bias”.
I
Verschiedene Formen können unterschiedlich eingeteilt werden
(z.B. “differential / non-differential”, “Exposure / Outcome /
Covariate Misclassification”).
Hypothesen
Wissenschaftler formulieren gestützt auf Beobachtungen und viel
Fachwissen Hypothesen.
Beispiel:
Hypothese: Alle Schwäne sind weiss.
Falsifikationismus
August Weismann, 1868 meinte, es
lässt sich eine wissenschaftliche Hypothese zwar niemals
erweisen, wohl aber, wenn sie falsch ist, widerlegen, und
es fragt sich deshalb, ob nicht Thatsachen beigebracht
werden können, welche mit einer der beiden Hypothesen
in unauflöslichem Widerspruch stehen und somit dieselbe
zu Fall bringen.
Falsifikationismus
August Weismann, 1868 meinte, es
lässt sich eine wissenschaftliche Hypothese zwar niemals
erweisen, wohl aber, wenn sie falsch ist, widerlegen, und
es fragt sich deshalb, ob nicht Thatsachen beigebracht
werden können, welche mit einer der beiden Hypothesen
in unauflöslichem Widerspruch stehen und somit dieselbe
zu Fall bringen.
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 wahr
H0 akzeptieren
H0 verwerfen
HA wahr
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 wahr
kein Feuer
H0 akzeptieren
H0 verwerfen
HA wahr
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 wahr
kein Feuer
H0 akzeptieren
H0 verwerfen
HA wahr
Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 wahr
kein Feuer
H0 akzeptieren kein Alarm
H0 verwerfen
HA wahr
Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 wahr
kein Feuer
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
HA wahr
Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
H0 wahr
kein Feuer
HA wahr
Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
H0 wahr
kein Feuer
Typ I Fehler, α
HA wahr
Feuer
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
H0 wahr
kein Feuer
(1 − α)
Typ I Fehler, α
HA wahr
Feuer
1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch
wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm
selten)
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
H0 wahr
kein Feuer
(1 − α)
Typ I Fehler, α
HA wahr
Feuer
1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch
wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm
selten)
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
H0 wahr
kein Feuer
(1 − α)
Typ I Fehler, α
HA wahr
Feuer
Typ II Fehler, β
1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch
wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm
selten)
Hypothesen Test: Analogie zu anderen Testverfahren
Nullhypothese H0 : Kein Feuer
Kein Alarm: H0 akzeptieren
Alternativhypothese HA : Feuer
Alarm: H0 verwerfen, HA akzeptieren
H0 akzeptieren kein Alarm
H0 verwerfen Alarm
H0 wahr
kein Feuer
(1 − α)
Typ I Fehler, α
HA wahr
Feuer
Typ II Fehler, β
(1 − β)
1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch
wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm
selten)
1 − β: Power: misst Wahrscheinlichkeit, dass Feuer auch Alarm
auslöst
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
H0
H0
akzeptieren
verwerfen
H0 wahr
(1-α)
Typ I Fehler, α
HA wahr
Typ II Fehler, β
(1-β)
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
H0
H0
akzeptieren
verwerfen
H0 wahr
(1-α)
Typ I Fehler, α
Konventionen des statistischen Testens:
HA wahr
Typ II Fehler, β
(1-β)
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
H0
H0
akzeptieren
verwerfen
H0 wahr
(1-α)
Typ I Fehler, α
Konventionen des statistischen Testens:
I
HA wahr
Typ II Fehler, β
(1-β)
Wir lehnen die Nullhypothese ab, wenn ein bestimmte
“extreme” Statistik beobachtet wird.
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
H0
H0
akzeptieren
verwerfen
H0 wahr
(1-α)
Typ I Fehler, α
Konventionen des statistischen Testens:
HA wahr
Typ II Fehler, β
(1-β)
I
Wir lehnen die Nullhypothese ab, wenn ein bestimmte
“extreme” Statistik beobachtet wird.
I
Wir bezeichnen etwas als “extrem”, wenn es mit einer
Wahrscheinlichkeit von < 5 % auftritt
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
H0
H0
akzeptieren
verwerfen
H0 wahr
(1-α)
Typ I Fehler, α
Konventionen des statistischen Testens:
HA wahr
Typ II Fehler, β
(1-β)
I
Wir lehnen die Nullhypothese ab, wenn ein bestimmte
“extreme” Statistik beobachtet wird.
I
Wir bezeichnen etwas als “extrem”, wenn es mit einer
Wahrscheinlichkeit von < 5 % auftritt (α < 0.05).
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
Dichte
0.03
0.02
0.01
0.00
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
Dichte
0.03
0.02
0.01
0.00
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
Würfelbeispiel
Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen
mit einem 20-seitigen Würfel.
Alternativhypothese Die Maschine zeigt nicht den Mittelwert von
4 Würfen mit einem 20-seitigen Würfel.
Dichte
0.03
0.02
0.01
0.00
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure”
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome”
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome” Körperlänge
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome” Körperlänge
Nullhypothese Es gibt keinen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome” Körperlänge
Nullhypothese Es gibt keinen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
H0 : µ♀ − µ♂ = 0
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome” Körperlänge
Nullhypothese Es gibt keinen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
H0 : µ♀ − µ♂ = 0
Alternativhypothese Es gibt einen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome” Körperlänge
Nullhypothese Es gibt keinen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
H0 : µ♀ − µ♂ = 0
Alternativhypothese Es gibt einen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
HA : µ♀ − µ♂ = δ
Gibt es einen Zusammenhang
zwichen dem Geschlecht und der Körperlänge des Dreistachligen
Stichlings in der Bodenseeregion.
“Exposure” Geschlecht
“Outcome” Körperlänge
Nullhypothese Es gibt keinen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
H0 : µ♀ − µ♂ = 0
Alternativhypothese Es gibt einen Unterschied in der Körperlänge
zwischen männlichen und weiblichen Fischen.
HA : µ♀ − µ♂ = δ
Teststatistik Differenz in der Körperlänge zwischen männlichen
und weiblichen Fischen. x̄♀ − x̄♂
Hypothesentesten
Dichte
Hypothesentesten
xweibl. − xmännl.
Dichte
Hypothesentesten
xweibl. − xmännl.
Hypothesentesten
Dichte
H0 : µweibl. − µmännl. = 0
xweibl. − xmännl.
Hypothesentesten
Dichte
H0 : µweibl. − µmännl. = 0
−10
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
Dichte
kritischer Wert
−10
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
Dichte
kritischer Wert
α 2
−10
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
α 2
−10
α 2
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
α 2
−10
α 2
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
α 2
−10
α 2
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
α 2
"P−Wert"/ 2
−10
α 2
"P−Wert"/ 2
−5
0
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
H1 : µweibl. − µmännl. = δ
α 2
"P−Wert"/ 2
−10
α 2
"P−Wert"/ 2
−5
0
δ
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
H1 : µweibl. − µmännl. = δ
α 2
"P−Wert"/ 2
−10
α 2
"P−Wert"/ 2
−5
0
δ
5
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
H1 : µweibl. − µmännl. = δ
β
α 2
"P−Wert"/ 2
−10
α 2
"P−Wert"/ 2
−5
0
δ
5
xweibl. − xmännl.
10
15
20
Dichte
Hypothesentesten
−10
−5
0
5
xweibl. − xmännl.
10
15
20
Dichte
Hypothesentesten
α 2
−10
−5
0
α 2
5
xweibl. − xmännl.
10
15
20
Dichte
Hypothesentesten
α 2
−10
−5
0
α 2
5
1−α
xweibl. − xmännl.
10
15
20
Hypothesentesten
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
H1 : µweibl. − µmännl. = δ
β
α 2
"P−Wert"/ 2
−10
α 2
−5
0
α 2
"P−Wert"/ 2
δ
5
1−α
xweibl. − xmännl.
10
α 2
15
20
Alternative Szenarien
Alternative Szenarien
Szenario 1:
Grössere Stichprobe und daher weniger Streuung.
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Alternative Szenarien
Alternative Szenarien
Szenario 1 (Forts.):
Bei genügend grossen Stichproben könnte man das
Signifikanzniveau senken, ohne wesentlich an Power zu verlieren.
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Alternative Szenarien
Alternative Szenarien
Szenario 2:
Wenn der Unterschied zwischen den beiden Gruppen genügend
gross ist, können relativ kleine Stichprobengrössen ausreichen, um
einen signifikanten Unterschied zu zeigen.
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Dichte
Alternative Szenarien
x0 − x1
Signifikant, oder nicht?
Ein statistischer Test soll helfen zu entscheiden, ob die Daten mit
der Nullhypothese im Einklang stehen oder nicht. Wie viele andere
Tests liefert eine statistischer Test in erster Linie eine “ja/nein”
Antwort und dazu braucht es ein Signifikanzniveau, α, welches die
kritische Grenze darstellt.
Signifikant, oder nicht?
Der “P-Wert” ist ein verfeinertes Mass ob ein Test signifikant ist
oder nicht. Leider birgt der “P-Wert” einige Probleme:
Interpretation Der “P-Wert” wird sehr häufig falsch interpretiert.
Auch die Bezeichnung “P”, welche meist für
Wahrscheinlichkeiten verwendet wird, ist trügerisch,
da sich die Wahrscheinlichkeit nur auf das
hypothetische Wiederholen des Experimentes bzw.
der Untersuchung bezieht.
Vereinheitlichung Für jeden statistischen Test kann man einen
“P-Wert” berechnen. Jeder statistische Test besteht
jedoch aus einer Nullhypothese und einer Teststatistik
und die Wahl dieses Paares beeinflusst den “P-Wert”.
Es besteht also die Gefahr, dass man dieser Zahl
mehr Beachtung schenkt, als sie es wert ist und sie
allzu sorgenlos ohne weitere Angaben nutzt.
Signifikant, oder nicht?
Ein Mittelweg zwischen “ja/nein” und dem “P-Wert”: Die
Sternchen-Konvention
Interpretation
Notation
P > 0.05
nicht signifikant
(n.s.)
0.05 ≥ P > 0.01
schwach signifikant
*
0.01 ≥ P > 0.001 stark signifikant
**
0.001 ≥ P
sehr stark signifikant ***
Relevant, oder nicht?
I
Wie gross muss ein Unterschied sein, dass er in einem
statistischen Test signifikant wird?
Relevant, oder nicht?
I
Wie gross muss ein Unterschied sein, dass er in einem
statistischen Test signifikant wird?
I
Was bedeutet es, wenn bei einem geplanten Experiment der
“P-Wert” sehr stark signifikant wird (P ≤ 0.001).
Relevant, oder nicht?
I
Wie gross muss ein Unterschied sein, dass er in einem
statistischen Test signifikant wird?
I
Was bedeutet es, wenn bei einem geplanten Experiment der
“P-Wert” sehr stark signifikant wird (P ≤ 0.001).
I
Was bedeutet es, wenn bei einem geplanten Experiment ein
statistischer Test nicht signifikant wird (P > 0.05).
Relevant, oder nicht?
I
Wie gross muss ein Unterschied sein, dass er in einem
statistischen Test signifikant wird?
I
Was bedeutet es, wenn bei einem geplanten Experiment der
“P-Wert” sehr stark signifikant wird (P ≤ 0.001).
I
Was bedeutet es, wenn bei einem geplanten Experiment ein
statistischer Test nicht signifikant wird (P > 0.05).
Es ist unerlässlich das Resultat einer Untersuchung über die
Schätzer zu interpretieren! Die alleinige Aussage, dass ein
Testresultat signifikant ist erlaubt es nicht dieses zu interpretieren.
Genauso kann man nicht sagen, dass ein Unterschied der in einer
Untersuchung nicht signifikant wurde nicht relevant sei.
“The abscence of evidence is no evidence for abscence.”
Carl Sagan
Ein- oder zweiseitig Testen?
Um den kritischen Wert zu finden für das Verwerfen der
Nullhypothese haben wir an beiden Enden der Verteilung jeweils
eine Fläche von α/2 abgetrennt. Es stellt sich natürlich die Frage,
wieso wir nicht einfach α auf einer Seite abtrennen, da wir ja
sowieso erwarten, dass der Effekt in die bekannte Richtung geht.
Sollen wir also ein- oder zweiseitig testen?
Ein- oder zweiseitig Testen?
Um den kritischen Wert zu finden für das Verwerfen der
Nullhypothese haben wir an beiden Enden der Verteilung jeweils
eine Fläche von α/2 abgetrennt. Es stellt sich natürlich die Frage,
wieso wir nicht einfach α auf einer Seite abtrennen, da wir ja
sowieso erwarten, dass der Effekt in die bekannte Richtung geht.
Sollen wir also ein- oder zweiseitig testen?
Ganz einfach - zweiseitig! Weil wir ja nicht sicher sind, dass der
Effekt in diese Richtung geht. Einseitig Testen darf man nur, wenn
der Effekt aus z.B. physikalischen Gründen nur in eine Richtung
gehen kann.
Lage-Vergleich zwischen zwei Stichproben
Ein pragmatischer Ansatz:
I
Immer den Rangsummentest von Wilcoxon verwenden.
Nullhyothese H0 : Yg ,i F(i.i.d.)
Die Verteilung F kann eine beliebige Verteilung sein,
aber alle Messwerte Yg ,i müssen aus der selben
Verteilung sein und unabhängig voneinander.
Alternativhypothese HA : Yg =1,i F1 , Yg =2,i F2 wobei
F2 (x) = F1 (x − δ) und δ 6= 0
Teststatistik Die Teststatistik W wird wie folgt berechnet:
Rg ,i =
Rang (Yg ,i |Yg =1,i=1 . . . Yg =1,i=n1 , Yg =2,i=1 . . . Yg =2,i=n2 )
P 1
Ug =1 = i=n
i=1 Rg =1,i
der grössere der beiden Werte
Wa = n1 n2 + n2 (n22 +1) − Ug =1 und Wb = n1 n2 − Ug =1
Gibt es einen Unterschied zwischen weiblichen und
männlichen Stichlingen?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
sex
f
f
f
f
m
m
f
f
m
m
m
m
f
m
m
bodySize
88.22
90.95
78.63
81.85
69.47
87.33
75.06
78.64
65.63
75.91
82.8
80.14
84.18
74.68
70.59
rank
29
30
16
22
3
28
10
17
1
13
23
21
26
9
5
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
sex
m
m
m
m
m
m
m
f
f
f
f
f
f
f
f
bodySize
75.55
78.04
73.82
70.57
69.38
74.55
79.62
75.89
79.3
74.14
83.92
80.07
77.64
86.51
83.28
rank
11
15
6
4
2
8
19
12
18
7
25
20
14
27
24
Gibt es einen Unterschied zwischen weiblichen und
männlichen Stichlingen?
Dichte
0.015
0.010
0.005
0.000
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0
50
100
150
200
W
Wahrscheinlichkeitsdichte der Wilcoxon-Statistik
(n1 = n2 = 15) unter der Nullhypothese
Gibt es einen Unterschied zwischen weiblichen und
männlichen Stichlingen?
> wilcox.test(bodySize ~ sex, data = stickleback,
+
conf.int = TRUE)
Wilcoxon rank sum test
data: bodySize by sex
W = 177, p-value = 0.006568
alternative hypothesis: true location shift is not equal to 0
95 percent confidence interval:
1.73 9.92
sample estimates:
difference in location
5.88
Gibt es einen Unterschied zwischen weiblichen und
männlichen Stichlingen?
> wilcox.test(bodySize ~ sex, data = stickleback,
+
conf.int = TRUE)
Wilcoxon rank sum test
data: bodySize by sex
W = 177, p-value = 0.006568
alternative hypothesis: true location shift is not equal to 0
95 percent confidence interval:
1.73 9.92
sample estimates:
difference in location
5.88
I
Der Schätzer “difference in location” entspricht dem Median
der Differenzen zwischen allen möglichen Wertepaaren die
man zwischen den beiden Gruppen bilden kann.
Vergleich der Power zwischen Wilcoxon und T-Test
Wilcoxon Test
t Test
50
50
N=47
●
45
Total sample size
25
0.8
0.8
30
●
40
5
0
35
N=44
0.9
40
0.9
r=
we
5
Po
0.8
.95
0
0.9
r=
we
Po
.85
Total sample size
45
35
30
25
θ=1
θ=1
20
20
0.6
0.8
1.0
Delta, δ
1.2
1.4
0.6
0.8
1.0
1.2
1.4
Delta, δ
Für diese Abbildungen habe ich Messwerte aus einer
Normalverteilung N (µ = 0, σ = 1) bzw. N (µ = δ, σ = 1) gezogen
und mit den beiden Tests verglichen.
Multiples Testen
H0 : µweibl. − µmännl. = 0
kritischer Wert
Dichte
kritischer Wert
α 2
−10
α 2
−5
0
5
xweibl. − xmännl.
10
15
20
Multiples Testen
H0 ist richtig. Was ist die Wahrscheinlichkeit, dass wir H0
verwerfen?
Anzahl Wenn H0 wahr ist verwerfen wir H0
Tests
fälschlicherweise mit folgenden
(k)
Wahrscheinlichkeiten
nie
mindestens einmal
Multiples Testen
Anzahl Wenn H0 wahr ist verwerfen wir H0
Tests
fälschlicherweise mit folgenden
(k)
Wahrscheinlichkeiten
nie
mindestens einmal
1
0.95
0.05
Multiples Testen
Anzahl Wenn H0 wahr ist verwerfen wir H0
Tests
fälschlicherweise mit folgenden
(k)
Wahrscheinlichkeiten
nie
mindestens einmal
1
0.95
0.05
2
0.9025
0.0975
Multiples Testen
Anzahl Wenn H0 wahr ist verwerfen wir H0
Tests
fälschlicherweise mit folgenden
(k)
Wahrscheinlichkeiten
nie
mindestens einmal
1
0.95
0.05
2
0.9025
0.0975
3
0.8574
0.1426
4
0.8145
0.1855
k
(1 − α0)k
1 − (1 − α0)k
Multiples Testen
Anzahl Wenn H0 wahr ist verwerfen wir H0
Tests
fälschlicherweise mit folgenden
(k)
Wahrscheinlichkeiten
nie
mindestens einmal
1
0.95
0.05
2
0.9025
0.0975
3
0.8574
0.1426
4
0.8145
0.1855
k
(1 − α0)k
1 − (1 − α0)k
Die Dunn-Šidák Methode erlaubt das Signifikanzniveau der
einzelnen Tests (α0) so anzupassen, dass die Fehlerrate für eine
ganze Familie von Testen auf dem Niveau von α gehalten werden
kann.
α = 1 − (1 − α0)k
α0 = 1 − (1 − α)1/k
Multiples Testen
Anzahl Wenn H0 wahr ist verwerfen wir H0
Tests
fälschlicherweise mit folgenden
(k)
Wahrscheinlichkeiten
α0
nie
mindestens einmal
1
0.95
0.05
0.05
2
0.9025
0.0975
0.0253
0.8574
0.1426
0.017
3
4
0.8145
0.1855
0.0127
k
(1 − α0)k
1 − (1 − α0)k
Die Dunn-Šidák Methode erlaubt das Signifikanzniveau der
einzelnen Tests (α0) so anzupassen, dass die Fehlerrate für eine
ganze Familie von Testen auf dem Niveau von α gehalten werden
kann.
α = 1 − (1 − α0)k
α0 = 1 − (1 − α)1/k
Lage-Vergleich zwischen mehrerer Stichproben
Auch um die Lage von mehr als zwei Stichproben zu testen gibt es
einen empfehlenswerten Test basierend auf den Rängen der
Messwerte, den Kruskal-Wallis-Test. Er tested ob die Lage aller
Stichproben gleich ist (Nullhypothese).
> library(asuR)
> data(pea)
> kruskal.test(length ~ trt, data = pea)
Kruskal-Wallis rank sum test
data: length by trt
Kruskal-Wallis chi-squared = 38.4368, df = 4, p-value
= 9.105e-08
Wir möchten uns jedoch hier auch die parametrische Form etwas
genauer anschauen weil diese die Grundlage ist für das Verständnis
der meisten Formen des “Modellierens”. Die Methode welche es
erlaubt Lageparameter (im speziellen Fall Mittelwerte) aus
mehreren Stichproben zu vergleichen nennt man Varianzanalyse
oder kurz ANOVA (für “analysis of variance”).
Formulieren eines linearen Modells
Einweg-ANOVA:
E[yij ]
yij
=
∼
µi
indep. N (µi , σ 2 )
mit 1, . . . , i Kategorien, jede mit 1, . . . , j Untersuchungseinheiten.
Das tolle an dieser Formulierung ist, dass sie uns erlaubt den
Erwartungswert der Kategorien und die Streuung der Messwerte
separat zu beschreiben.
Eine ANOVA Session mit R
>
>
>
>
+
>
+
>
>
>
>
library(asuR)
data(pea)
bwplot(~length | trt, layout = c(1, 5), data = pea)
trtSS <- sum(10 * (tapply(pea$length, pea$trt,
mean) - mean(pea$length))^2)
resSS <- sum((pea$length - rep(tapply(pea$length,
pea$trt, mean), each = 10))^2)
totSS <- sum((pea$length - mean(pea$length))^2)
model <- lm(length ~ trt, data = pea)
summary.aov(model)
summary(model)
Wahrscheinlichkeitsdichte der F Statistik
Dichte
0.6
0.4
0.2
0.0
0
2
4
6
8
10
F4, 45
Wahrscheinlichkeitsdichte der F Statistik
(df1 = 4, df2 = 45) unter der Nullhypothese
Formulieren eines linearen Modells
Einweg-ANOVA:
E[yij ]
=
µi
yij
∼
indep. N (µi , σ 2 )
Formulieren eines linearen Modells
Einweg-ANOVA: am konkreten Beispiel
E[yij ]
yij
=
=
∼
µi
β0 + β1 x1 + β2 x2 + β3 x3 + β4 x4
indep. N (µi , σ 2 )
mit den Kategorien i = 1, 2, 3, 4, 5, jede mit den
Untersuchungseinheiten j = 1, . . . , 10.
Kontraste
Wenn man die Lage von mehr als zwei Stichproben beschreiben
möchte, ist man meist nicht nur an der Nullhypothese die besagt
dass alle Lageparameter gleich sind (H0 : µ1 = µ2 = . . . = µk )
interessiert.
Kontraste
Wenn man die Lage von mehr als zwei Stichproben beschreiben
möchte, ist man meist nicht nur an der Nullhypothese die besagt
dass alle Lageparameter gleich sind (H0 : µ1 = µ2 = . . . = µk )
interessiert.
Oft möchte man auch einzelne Lageparameter oder
Linearkombinationen von Lageparametern vergleichen, man nennt
diese Vergleiche Kontraste, einige Beispiele:
I
H0 : µ1 − µ2 = 0 und H0 : µ1 − µ3 = 0 und H0 : µ2 − µ3 = 0
Alle paarweisen Vergleiche.
I
H0 : µ1 − 12 (µ2 + µ3 ) = 0, oder besser geschrieben
H0 : 1µ1 − 12 µ2 − 21 µ3 = 0 zum Testen ob der Mittelwert in der
Gruppe 1 sich vom Mittel der Gruppen 2 und 3 unterscheidet.
Kontraste
Wenn man die Nullhypothese (die Lage aller Stichproben ist
identisch) verwerfen konnte, dann kann man weitere Kontraste
untersuchen und testen. Allerdings darf man nicht beliebige und
auch nicht beliebig viele Kontraste untersuchen. Die Regeln sind:
I
Immer nur k − 1 Kontraste können getestet werden, wenn
man k Stichproben untersucht.
I
Die Kontraste müssen orthogonal zueinander stehen, d.h. das
Produkt der Koeffizienten muss sich zu Null aufsummieren.
Ein Beispiel mit zwei Kontrasten:
1µ1 − 21 µ2 − 21 µ3 = 0
0µ1 − 1 µ2 + 1 µ3 = 0
(1 × 0) + (− 12 × −1) + (− 12 × +1) = 0
Eine ANOVA Session mit R
>
+
+
+
+
>
>
>
>
contr <- rbind(`control-sugar` = c(1, -1/4, -1/4,
-1/4, -1/4), `pure-mixed` = c(0, 1/3, 1/3,
-1, 1/3), `monosaccharides-disaccharides` = c(0,
1/2, 1/2, 0, -1), `gluc-fruc` = c(0, 1, -1,
0, 0))
ortho(contr)
contrasts(pea$trt) <- mancontr(contr)
model <- lm(length ~ trt, data = pea)
summary(model)
Kontraste: Tukey’s HSD
Student (WS Gosset) hat die Verteilung der t-Statistik entdeckt
für zwei Stichproben welche sich nicht im Mittelwert
unterscheiden. Wenn es nun k-Stichproben gibt dann gibt es
k(k − 1)/2 paarweise Vergleiche mit einem zugehörigen t-Wert.
Tukey hat die Verteilung der grössten dieser t-Statistiken
beschrieben. Damit kann man alle paarweisen Vergleiche testen
und der Typ I Fehler wird nicht grösser als α. Man nennt die
Methode auch Tukey’s HSD (Honest Significant Difference).
>
>
>
>
>
m0 <- aov(length ~ trt, data = pea)
(t0 <- TukeyHSD(m0))
par.old <- par(mar = c(4, 6, 2, 2))
plot(t0, las = 1)
par(par.old)
Lineare Modelle
Einweg ANOVA:
E[yij ]
=
=
yij ∼
mit i Kategorien,
µi
β0 + β1 x1 + . . . + βi−1 xi−1
indep. N (µ + αi−1 , σ 2 )
jede mit j Untersuchungseinheiten.
Lineare Modelle
Einweg ANOVA:
E[yij ]
=
=
yij ∼
mit i Kategorien,
µi
β0 + β1 x1 + . . . + βi−1 xi−1
indep. N (µ + αi−1 , σ 2 )
jede mit j Untersuchungseinheiten.
Regression:
E[yij ] = µ(xi ) = α + βxi = β0 + β1 xi
yij ∼ indep. N (α + βxi , σ 2 )
mit j gemessenen Untersuchungseinheiten an i Punkten auf der
kontinuierlichen x-Achse.
Lineare Modelle
Regression:
E[yij ] = µ(xi ) = α + βxi = β0 + β1 xi
yij ∼ indep. N (α + βxi , σ 2 )
mit j gemessenen Untersuchungseinheiten an i Punkten auf der
kontinuierlichen x-Achse.
Regression
Es wurde der Gewichtsverlust von Tribolium confusum Larven nach
sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten
gemessen.
Regression
Es wurde der Gewichtsverlust von Tribolium confusum Larven nach
sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten
gemessen.
12
●
Gewichtsverlust, mg
10
●
●
●
8
6
4
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0
0
20
40
60
Relative Luftfeuchtigkeit
80
100
Regression
Es wurde der Gewichtsverlust von Tribolium confusum Larven nach
sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten
gemessen.
12
●
Gewichtsverlust, mg
10
●
●
●
8
6
4
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0
0
20
40
60
Relative Luftfeuchtigkeit
80
100
Regression
Es wurde der Gewichtsverlust von Tribolium confusum Larven nach
sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten
gemessen.
12
●
Gewichtsverlust, mg
10
●
●
●
8
6
4
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
2
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0
0
20
40
60
Relative Luftfeuchtigkeit
80
100
Regression
E[yij ]
yij
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
> summary(lm(weight.loss ~ humidity, data = tribolium))
Call:
lm(formula = weight.loss ~ humidity, data = tribolium)
Residuals:
Min
1Q
-5.1830 -1.4155
Median
0.4941
3Q
1.3464
Max
5.3518
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 8.202155
0.436580 18.787 < 2e-16 ***
humidity
-0.044845
0.007421 -6.043 4.7e-08 ***
--Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 2.028 on 79 degrees of freedom
Multiple R-squared: 0.3162, Adjusted R-squared: 0.3075
F-statistic: 36.52 on 1 and 79 DF, p-value: 4.697e-08
Regression
Hypothesen Hat die erklärende Variable (X ) einen linearen
Zusammenhang mit der Zielgrösse (Y ). Dazu testen
wir die Nullhypothese H0 : β = 0.
Vorhersage Ein Regressionsmodell erlaubt uns auch für eine
gegebene erklärende Variable (X ) eine Vorhersagen
für die Zielgrösse (Y ) zu machen. Die
Wahrscheinlichkeitsverteilung für die Vorhersage
lautet N (α̂ + β̂xi , σ̂ 2 ).
R 2 Schätzt wie stark der lineare Zusammenhang
zwischen der erklärenden Variable (X ) und der
Zielgrösse (Y ) ist. Der Wert liegt immer zwischen 0
und 1. Leider ist R 2 sehr stark von der gewählten
Spannweite der erklärenden Variablen abhängig und
kann somit nicht verwendet werden um Modelle von
verschiedenen Datensätzen zu vergleichen.
Voraussetzungen
Das Überprüfen der Voraussetzungen ist ein wesentlicher
Bestandteil einer Regressionsanalyse. Es geht einerseits darum die
Verletzungen aufzudecken und falsche Rückschlüsse zu vermeiden
andererseits aber auch darum ein besseres Modell zu finden.
Residuen
Die Streuung der Residuen ist konstant
Erwartungswert der Residuen ist null
I Residuen sind normalverteilt
* Residuen sind unabhängig voneinander
I
I
Hebelarm
I
Alle Messwerte haben denselben Einfluss
Streuung der Residuen
●
2
●
●
●
●
●
"Standartisierte" Residuen
●
1
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
−1
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
0
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
−2
●
●
●
●
4
5
6
7
8
"fitted values"
I
Der Erwartungswert der Residuen ist null
I
Die Streuung der Residuen ist konstant
Verteilung der Residuen
●
4
●
● ●
●●
●
●●
●
●
●●●
Residuen
2
●●●
●●●●●
●●●
●●
●●●●●
●
●●●
●●●●●
●
●
●
●●
●
●
●
0
●●
●●●
●
●●
●●
●●
●●●
●●●●●
●
●●
●
−2
●●
●●
−4
●
●
●
●
−2
−1
0
Theoretische Quantile
I
Residuen sind normalverteilt
1
2
Ausreisser
Es gibt zwei Arten von Ausreissern
Y – Ausreisser Messwerte welche weit entfernt vom
Erwartungswert liegen (grosse Residuen) aber einen
kleinen Hebelarm haben.
X – Ausreisser Messwerte welche einen sehr grossen Hebelarm
(“leverage”) haben. Der Hebelarm gibt an was für ein
Potenzial die einzelnen Werte haben das Modell zu
beeinflussen. Im Gegensatz zu Werten mit grossen
Residuen müssen Werte mit grossem Hebelarm nicht
zwingend problematisch sein.
Ausreisser: Potenzial-Residuen
Der Potenzial-Residuen-Plot zeigt welche Rolle einzelne Punkte im
“fitting” Prozess spielen.
●
●
●
●
Residuen
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●●
●
●
●●
●
●
●●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
Potenzial
I
Alle Messwerte haben denselben Einfluss
Ausreisser: Potenzial-Residuen-Diagramm
Interpretation des Potenzial-Residuen-Diagramm (nur als grobe
Faustregel):
I
Gibt es Punkte mit grossem Potenzial und grossen Residuen
(Quadrant oben links) ist alles in Ordnung.
I
Gibt es Punkte mit grossem Potenzial und kleinen Residuen
lohnt es diese genauer zu untersuchen, sie könnten (!) das
Modell stark verzerren.
I
Gibt es Punkte mit grossen Residuen aber kleinem Potenzial,
dann stimmt das Modell für diese Punkte nicht. Das kann am
Modell liegen oder an den Punkten
Graphical Excellence
Graphical excellence is that which gives to the viewer the greatest number of ideas in the shortest time with
the least ink in the smallest space.
Edward R Tufte
Menschliche Wahrnehmung von graphischen Elementen
Rang
1
2
3
4
5
6
7
8
Aspekt
Position entlang einer gemeinsamen Achse
Position auf identischen aber nicht ausgerichteten Achsen
Länge
Winkel
Steigung
Fläche
Volumen
Farbsättigung (schlecht sortierbar, gut diskriminierbar)
Cleveland 1985, Graphical Perception and Graphical Methods for Analyzing Scientific Data, Science, 229,
828-833.
Einige Ideen
I
Zeigen Sie die Messwerte (e.g. rug()), falls diese zu zahlreich
sind kann man auch eine zufällige Auswahl zeigen.
I
Lassen Sie den Betrachter über den Inhalt nachdenken statt
über die Methoden.
I
Zeigen Sie was im Zentrum der Untersuchung steht. Zeigen
Sie z.B. die Differenz zwischen zwei Behandlungen mit einem
Vertrauensintervall statt die Mittelwerte der einzelnen
Gruppen.
I
Ob der Nullpunkt auf der Achse abgebildet sein soll oder nicht
muss sorgfältig überdacht werden.
Mittelwert-Differenz Abbildung
●
Männchen
●
Weibchen
70
75
80
85
10
15
●
Differenz
0
5
Körpergrösse von Stichlingen im Bodensee
Fehlerbalken
Fehlerbalken (“error bars”) können Verschiedenes zeigen:
I
Standardabweichung der Daten
I
Standardabweichung einer Statistik (Standardfehler)
I
Vertrauensintervall
a
●●●●●●●●●●●●●●●●●●●●
b
●
●
●
●
●
data set
c
●
●
●
●
●
●●●●●●●●●●●●●●●●●●
d
● ● ● ●●
90
a
b
c
d
●●
● ● ● ● ●● ●● ●
●
●●
●
100
110
●
●
●
●
90
100
110
Alle vier Datensets haben gleich viele Beobachtungen, denselben
Mittelwert und dieselbe Standardabweichung.
Theoriefragen zu den bisherigen Inhalten
Theoriefragen zu den bisherigen Inhalten
I
Was ist der Vorteil der geschätzten empirischen Dichte
gegenüber einem Histogramm?
Theoriefragen zu den bisherigen Inhalten
I
Was ist der Vorteil der geschätzten empirischen Dichte
gegenüber einem Histogramm?
I
Erklären Sie den Begriff Vertrauensintervall.
Theoriefragen zu den bisherigen Inhalten
I
Was ist der Vorteil der geschätzten empirischen Dichte
gegenüber einem Histogramm?
I
Erklären Sie den Begriff Vertrauensintervall.
I
Was bedeutet der Begriff “Power” genau?
Theoriefragen zu den bisherigen Inhalten
I
Was ist der Vorteil der geschätzten empirischen Dichte
gegenüber einem Histogramm?
I
Erklären Sie den Begriff Vertrauensintervall.
I
Was bedeutet der Begriff “Power” genau?
I
Was für Angaben braucht es um das Resultat eines
statistischen Tests zu interpretieren?
Ein Beispiel: Sie haben getestet ob sich die Körpergrösse bei
Stichlingen hinsichtlich der Herkunft unterscheidet und dazu
je 100 Stichlinge aus zwei Zuflüssen gemessen. Der
Unterschied in der Lage ist sehr stark signifikant. Welche
Angaben fehlen noch?
Theoriefragen zu den bisherigen Inhalten
I
Was ist der Vorteil der geschätzten empirischen Dichte
gegenüber einem Histogramm?
I
Erklären Sie den Begriff Vertrauensintervall.
I
Was bedeutet der Begriff “Power” genau?
I
Was für Angaben braucht es um das Resultat eines
statistischen Tests zu interpretieren?
Ein Beispiel: Sie haben getestet ob sich die Körpergrösse bei
Stichlingen hinsichtlich der Herkunft unterscheidet und dazu
je 100 Stichlinge aus zwei Zuflüssen gemessen. Der
Unterschied in der Lage ist sehr stark signifikant. Welche
Angaben fehlen noch?
I
Sie möchten zeigen, dass die Stichlinge aus dem Obersee und
dem Untersee gleich gross sind. Wie gehen Sie vor?
Theoriefragen zu den bisherigen Inhalten
I
Was ist der Vorteil der geschätzten empirischen Dichte
gegenüber einem Histogramm?
I
Erklären Sie den Begriff Vertrauensintervall.
I
Was bedeutet der Begriff “Power” genau?
I
Was für Angaben braucht es um das Resultat eines
statistischen Tests zu interpretieren?
Ein Beispiel: Sie haben getestet ob sich die Körpergrösse bei
Stichlingen hinsichtlich der Herkunft unterscheidet und dazu
je 100 Stichlinge aus zwei Zuflüssen gemessen. Der
Unterschied in der Lage ist sehr stark signifikant. Welche
Angaben fehlen noch?
I
Sie möchten zeigen, dass die Stichlinge aus dem Obersee und
dem Untersee gleich gross sind. Wie gehen Sie vor?
I
Welchen Test verwenden Sie für das Testen ob sich zwei
Stichproben hinsichtlich der Lage unterscheiden?
Theoriefragen zu den bisherigen Inhalten
Theoriefragen zu den bisherigen Inhalten
I
Wie gross darf der P-Wert höchstens sein, damit ein Resultat
relevant ist?
Theoriefragen zu den bisherigen Inhalten
I
Wie gross darf der P-Wert höchstens sein, damit ein Resultat
relevant ist?
I
Was bedeutet beim statistischen Testen ein Typ I und II
Fehler?
Theoriefragen zu den bisherigen Inhalten
Theoriefragen zu den bisherigen Inhalten
I
Was sind die drei wichtigsten Charakteristika kontinuierlicher
Variablen?
Theoriefragen zu den bisherigen Inhalten
I
Was sind die drei wichtigsten Charakteristika kontinuierlicher
Variablen?
I
Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen
Variablen aufzeichnet, welche Grösse trägt man auf der
y-Achse auf und wie interpretiert man diese Grösse?
Theoriefragen zu den bisherigen Inhalten
I
Was sind die drei wichtigsten Charakteristika kontinuierlicher
Variablen?
I
Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen
Variablen aufzeichnet, welche Grösse trägt man auf der
y-Achse auf und wie interpretiert man diese Grösse?
I
Beschreiben Sie was “Standardfehler” bedeutet.
Theoriefragen zu den bisherigen Inhalten
I
Was sind die drei wichtigsten Charakteristika kontinuierlicher
Variablen?
I
Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen
Variablen aufzeichnet, welche Grösse trägt man auf der
y-Achse auf und wie interpretiert man diese Grösse?
I
Beschreiben Sie was “Standardfehler” bedeutet.
I
Welche beiden Voraussetzungen müssen erfüllt sein für ein
Confounding?
Theoriefragen zu den bisherigen Inhalten
I
Was sind die drei wichtigsten Charakteristika kontinuierlicher
Variablen?
I
Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen
Variablen aufzeichnet, welche Grösse trägt man auf der
y-Achse auf und wie interpretiert man diese Grösse?
I
Beschreiben Sie was “Standardfehler” bedeutet.
I
Welche beiden Voraussetzungen müssen erfüllt sein für ein
Confounding?
I
Was ist der Unterschied zwischen einer Beobachtungsstudie
und einer experimentellen Studie?
Multivariate Statistik
Multivariate Statistik
Werden an einer Untersuchungseinheit mehrere Variablen
gemessen, dann erhält man multivariate Daten.
Korrelation vs. Regression
Sowohl die Korrelation als auch die Regression untersuchen den
Zusammenhang zwischen zwei Variablen. Trotzdem unterscheiden
sie sich fundamental:
Korrelation untersucht den Zusammenhang zwischen zwei
“gleichberechtigten” Variablen (rY 1,Y 2 = rY 2,Y 1 ) und
ist ein rein beschreibendes Mass.
Regression untersucht den Einfluss von einer oder mehreren
“erklärenden” Variablen, Xi , auf eine “Zielvariable”, Y .
Die Regressionsgerade von X auf Y ist in der Regel
eine andere als von Y auf X . Eine Regression erlaubt
nicht nur eine Beschreibung des Zusammenhangs,
sondern auch eine Vorhersage für y − Werte wenn
man die entsprechenden x − Werte kennt.
Pearson Korrelation
Die Pearson Korrelation,
rY 1,Y 2 =
n
X
sy 1y 2
1
y 1i y 2i =
,
(n − 1)sy 1 sy 2
sy 1 sy 2
(1)
i=1
wobei sy 1 , sy 2 die Standardabweichung von y 1 und y 2 ist und sy 1y 2
die Kovarianz zwischen y 1 und y 2.
Die Pearson Korrelation liegt zwischen -1 und 1.
Die Pearson Korrelation misst “nur” den linearen Zusammenhang.
Achtung, auch ein sehr starker nicht linearer Zusammenhang kann
eine Pearson Korrelation rY 1,Y 2 = 0 haben!
Die Pearson Korrelation ist ganz und gar nicht robust und man
muss immer ein Auge darauf haben, ob es Werte gibt welche die
Korrelation stark beeinflussen (Scatterplot!).
Pearson Korrelation
> library(MASS)
> y1y2 <- mvrnorm(100, mu = c(0, 0), Sigma = matrix(c(1,
+
0.5, 0.5, 1), nrow = 2))
> cor(x = y1y2, method = "pearson")
[,1]
[,2]
[1,] 1.000000 0.531472
[2,] 0.531472 1.000000
Spearman Rangkorrelation
Die Spearman Rangkorrelation,
rY 1,Y 2 =
sRangY 1 ,RangY 2
,
sRangY 1 sRangY 2
(2)
misst im Gegensatz zur Pearson Korrelation nicht wie stark ein
“linearer”, sondern ein “monotoner” Zusammenhang zwischen den
Variablen Y 1 und Y 2 ist. Ein weiterer Vorteil der Spearman
Rangkorrelation ist auch, dass er äusserst robust ist.
> cor(x = y1y2, method = "spearman")
[,1]
[,2]
[1,] 1.0000000 0.5246205
[2,] 0.5246205 1.0000000
Interpretation einer Korrelation
Allgemein ist es schwierig Korrelationen zu interpretieren. Wichtig
zu beachten ist, dass ein gefundener Zusammenhang noch bei
weitem kein kausaler, ursächlicher Zusammenhang sein muss, auch
wenn der Zusammenhang sehr stark ist (siehe auch Design und
Bias).
Eine Korrelation ist ein Schätzer für einen Parameter - dazu
braucht es eine Population. Die Überlegung wie diese Population
definiert werden kann ist oft hilfreich bei der Interpretation.
Wozu verwendet man Regressionen
I
Studium der Zusammenhänge (um die Variation der
Zielvariable erklären zu können)
I
Vorhersage (um die Zielvariable möglichst genau vorhersagen
zu können)
I
Statistische Kontrolle (um die Zielvariable möglichst genau
einstellen zu können)
Multiple lineare Regression
Untersucht den Zusammenhang zwischen einer Zielgrösse und
mehreren erklärenden Variablen.
E[yijk ]
yijk
=
∼
µ(xi ) = β0 + β1 x1i + β2 x2j
indep. N (β0 + β1 x1i + β2 x2j , σ 2 )
Tribolium Beispiel
ANCOVA
Untersucht den Zusammenhang zwischen einer Zielgrösse und
mindestens einer kontinuierlichen und einer kategoriellen
erklärenden Variable.
E[yijk ]
yijk
=
∼
β0 + β1j + β2 xi
indep. N (β0 + β1j + β2 xi , σ 2 )
ANCOVA mit Interaktion
Wenn der Einfluss einer erklärenden Variable von einer weiteren
Variable abhängt, spricht von von einer Interaktion dieser beiden
Variablen.
Für eine ANCOVA würde das folgendermassen aussehen:
E[yijk ]
yijk
=
∼
β0 + β1j + β2 xi + β3 xi j
indep. N (β0 + β1j + β2 xi + β3 xi j, σ 2 )
Eine Übung:
Fitten Sie eine Regression um mit den Variablen “Grösse” und
“Geschlecht” das “Gewicht” zu erklären.
Grösse
150
165
180
Geschlecht
weiblich
männlich
männlich
Gewicht
50
55
65
Eine Übung:
Fitten Sie eine Regression um mit den Variablen “Grösse” und
“Geschlecht” das “Gewicht” zu erklären.
Grösse
150
165
180
170
Geschlecht
weiblich
männlich
männlich
weiblich
Gewicht
50
55
65
70
Zweiweg-ANOVA
E[yijk ]
yijk
=
∼
β0 + β1i + β2j
indep. N (β0 + β1i + β2j , σ 2 )
mit 1, . . . , i Kategorien im ersten Faktor und 1, . . . , j Kategorien
im zweiten Faktor, jeweils mit 1, . . . , k Untersuchungseinheit.
Zweiweg-ANOVA mit Interaktion
E[yijk ]
yijk
=
∼
β0 + β1i + β2j + β3ij
indep. N (β0 + β1i + β2j + β3ij , σ 2 )
Mit diesem Modell kann der Einfluss vom ersten Faktor auf den
Outcome abhängig vom zweiten Faktor modelliert werden.
90
Interaktions-Plot
50
60
70
G
g
40
Ertrag
80
Allel G
a
A
Allel A
Datentransformation
Warum transformieren wir?
I
Damit wir die geschätzten Werte besser interpretieren können
(Einheiten, Zentrieren, Skalieren).
I
Damit ein Zusammenhang linear wird
(und wir ihn mit den bekannten Methoden modellieren
können).
I
Damit die Residuen “normalverteilt” und die Variation
konstant wird
(und daher die Annahmen unserer Methoden nicht verletzt
werden).
Exkurs: Allometrie
Beziehung zwischen der Grösse und der Form, Anatomie,
Physiologie und auch des Verhaltens eines Organismus.
Die klassische Formel
y = ax b ,
wird in der logarithmischen Form zu
log y = log a + b log x.
In dieser Form können wir u.a. durch Anpassen eines linearen
Modells die Parameter schätzen. Wenn eine Skalierung isometrisch
ist erhalten wir eine Steigung von b = 1. Was für eine Steigung
erwarten wir bei einer isometrischen Skalierung, wenn y eine
Längenangabe ist und x ein Volumen (oder Gewicht) darstellt?
Exkurs: Allometrie
Beziehung zwischen der Grösse und der Form, Anatomie,
Physiologie und auch des Verhaltens eines Organismus.
Die klassische Formel
y = ax b ,
wird in der logarithmischen Form zu
log y = log a + b log x.
In dieser Form können wir u.a. durch Anpassen eines linearen
Modells die Parameter schätzen. Wenn eine Skalierung isometrisch
ist erhalten wir eine Steigung von b = 1. Was für eine Steigung
erwarten wir bei einer isometrischen Skalierung, wenn y eine
Längenangabe ist und x ein Volumen (oder Gewicht) darstellt?
Durch Umformen ergibt sich log l = ... + b log l 3 = ... + 3b log l
und daher eine Steigung von 3.
Linearität erreichen
y = ax b ,
wird zu log y = log a + b log x.
4
4
b>1
3
3
y
y
b=1
2
0<0<1
1
2
b < −1
1
0
0
1
2
x
3
4
b = −1
−1 < b < 0
0
0
1
2
x
3
4
Linearität erreichen
y = ae bx ,
wird durch logarithmieren log y = log a + bx.
1.0
b>0
50
b<0
0.8
0.6
30
y
y
40
0.4
20
10
0.2
0
0.0
0
1
2
x
3
4
0
1
2
x
3
4
Datentransformation: Logarithmieren
0.4
0.2
0.0
Dichte
0.6
"untransformiert"
0
2
4
6
gemessene Werte
8
10
Datentransformation: Logarithmieren
0.4
0.2
0.0
Dichte
0.6
"untransformiert"
0
2
4
6
8
10
gemessene Werte
0.4
0.2
0.0
Dichte
0.6
"log−transformiert"
−2
−1
0
1
log(gemessene Werte)
2
Datentransformation: Faustregeln
log(x)
log(x + 1)
log(10000x + 1)
x >1
x ≥0
1>x ≥0
√
qx
x+
für Zähldaten (Poisson)
1
2
√
arcsin x
1
1+x
2 ln 1−x
Potenztransformationen:
xn
√
x
ln(x)
√
1/ x
1/x
1/x n
falls mit Null
0 < x < 1, Prozente und Proportionen
−1 < x < 1, Regressionskoeffizienten
linksschief
schwach rechtsschief
...
...
...
starkt rechtsschief
Mosteller und Tukey’s bulging rule (Wölbungsregel)
Y
X
X
Y
Voraussetzungen
E[yij ]
yij
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
Voraussetzungen
E[yij ]
yij
I
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
Die Streuung der Residuen ist konstant
Voraussetzungen
E[yij ]
yij
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
I
Die Streuung der Residuen ist konstant
I
Erwartungswert der Residuen ist null
Voraussetzungen
E[yij ]
yij
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
I
Die Streuung der Residuen ist konstant
I
Erwartungswert der Residuen ist null
I
Residuen sind normalverteilt
Voraussetzungen
E[yij ]
yij
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
I
Die Streuung der Residuen ist konstant
I
Erwartungswert der Residuen ist null
I
Residuen sind normalverteilt
I
Alle Messwerte haben denselben Einfluss/Hebelarm.
Voraussetzungen
E[yij ]
yij
=
∼
µ(xi ) = α + βxi = β0 + β1 xi
indep. N (α + βxi , σ 2 )
I
Die Streuung der Residuen ist konstant
I
Erwartungswert der Residuen ist null
I
Residuen sind normalverteilt
I
Alle Messwerte haben denselben Einfluss/Hebelarm.
I
Residuen sind unabhängig voneinander
Körpergewicht (in kg)
Nicht unabhängige Residuen
120
120
●
110
110
●
100
90
90 ●
80
80 ●
GruppeA
Nicht unabhängige Residuen
> summary(lm(y ~ 1))$coefficients
(Intercept)
Estimate Std. Error t value
Pr(>|t|)
100
9.128709 10.95445 0.001628625
Körpergewicht (in kg)
Nicht unabhängige Residuen
120
120
●
110
110
●
●
122
●
107
100
90
90 ●
80
80 ●
●
92
●
79
GruppeA
Nicht unabhängige Residuen
> summary(lm(y2 ~ 1))$coefficients
(Intercept)
Estimate Std. Error t value
Pr(>|t|)
100
6.032649 16.57647 7.101236e-07
Nicht unabhängige Residuen
> library(geepack)
> summary(geeglm(y2 ~ 1, id = id, data = repData))$coefficients
(Intercept)
Estimate Std.err
Wald Pr(>|W|)
100 7.962804 157.7132
0
Was führt zu nicht unabhängigen Residuen?
Information in den Daten welche nicht im Modell berücksichtigt
wird.
I
Zeitliche Abhängigkeiten, z.B. Saisonalität
I
Räumliche Abhängigkeiten
I
Genetische Abhängigkeiten
I
...
Was sind die Folgen von nicht unabhängigen Residuen?
Die Varianz welche geschätzt wird und sich u.a. auf die
Standardfehler der Schätzer und die Signifikanztests überträgt ist
falsch.
Was gibt es für Lösungen
Es muss eine andere Form der Modellierung verwendet werden
welche es erlaubt die Struktur der Daten richtig zu berücksichtigen.
I
Mixed Effects Modelle
I
Generalized Estimating Equations (GEE)
I
...
Ein Beispiel
Sie nehmen auf zwei Feldern (“Field”) jeweils drei Bodenproben
(beschriftet mit “MeasurementID”) und bestimmen den
Stickstoffgehalt. Nun möchten Sie diese Daten analysieren.
> library(geepack)
> m.gee <- geeglm(Soilnitrogen ~ Field, id = MeasurementID,
+
data = na.omit(nitrogen))
Analyse von kategoriellen Daten
Analyse von kategoriellen Daten
I
Was für Arten von Variabeln kennen Sie?
Analyse von kategoriellen Daten
I
Was für Arten von Variabeln kennen Sie?
I
Welche Arten von kategoriellen Daten kennen Sie?
Die wichtigsten Verteilungen von kategoriellen Daten
I
Binomial Verteilung
I
Multinominal Verteilung
I
Poisson Verteilung
Binomial Verteilung
Wir gehen davon aus, dass es n unabhängige und
identische Ziehungen y1 , y2 , ..., yn gibt.
Jede Ziehung ist entweder yi = 0 oder 1 (Misserfolg
/ Erfolg, FALSE / TRUE, “kein Event” / “Event”).
Die Wahrscheinlichkeit, dass eine Ziehung ein Erfolg
ist, bezeichnen wir als π.
Die Summer der Ziehungen folgt einer Binomial
Verteilung.
Mittelwert nπ
Varianz nπ(1 − π)
Identisch bedeutet, dass die Wahrscheinlichkeit eines Erfolges
bei allen Ziehungen dieselbe ist.
Unabhängig bedeutet, dass die Ziehung nicht von anderen
Ziehungen abhängt.
Multinominale Verteilung
Wie die binomial Verteilung aber jede unabhängige und identische
Ziehung fällt in eine von c Kategorien.
Poisson Verteilung
●
●
●
●
0.10
●
●
●
●
●
●
●
●
●
●
0.00
Häufigkeit
0.20
Wenn die Anzahl der Ziehungen nicht festgelegt ist wie bei der
binominal Verteilung, dann folgt die Anzahl der Erfolge einer
Poisson Verteilung. Beispiel: Anzahl der tötlichen Verkehrsunfälle
in Italien an einem Tag.
Eine Besonderheit der Poisson Verteilung ist, dass die Varianz dem
Mittelwert entspricht. Wenn der Mittelwert gross ist, dann nähert
sich die Verteilung einer Normalverteilung.
Mittelwert = Varianz = µ
●
●
●
●
●
●
●
●
●
●
5
●
●
10
●
●
●
●
●
15
●
●
●
●
●
●
●
●
20
Overdispersal
Häufig beobachtet man Zähldaten deren Streuung grösser ist als
man aufgrund der Binomial oder Poisson Verteilung erwarten
würde. Dieses “Phänomen” nennt man Overdispersal. Es kommt
daher, dass die einzelnen Ziehungen nicht “identisch” sind, d.h. aus
unterschiedlichen Population mit unterschiedlichen
Erwartungswerten kommen. Streng genommen handelt es sich
dann gar nicht um eine Zufallsvariable, sondern um eine Mischung
aus Zufallsvariablen.
Kreuztabellen, “contingency tables”
Familie
Fabaceae
Rosaceae
Wuchsform
Kraut Busch Baum
218
76
294
56
76
132
6
28
34
280
180
460
Kreuztabellen, “contingency tables”
Familie
Fabaceae
Rosaceae
I
Wuchsform
Kraut Busch Baum
218
76
294
56
76
132
6
28
34
280
180
460
Beides (Familie und Wuchsform) sind Zielvariablen
(“response”, “outcome”) und nicht erklärende Variablen.
Kreuztabellen, “contingency tables”
Familie
Fabaceae
Rosaceae
I
I
Wuchsform
Kraut Busch Baum
218
76
294
56
76
132
6
28
34
280
180
460
Beides (Familie und Wuchsform) sind Zielvariablen
(“response”, “outcome”) und nicht erklärende Variablen.
Gibt es einen Zusammenhang zwischen Wuchsform und
Familie?
Kreuztabellen, “contingency tables”
Familie
Fabaceae
Rosaceae
I
I
I
Wuchsform
Kraut Busch Baum
218
76
294
56
76
132
6
28
34
280
180
460
Beides (Familie und Wuchsform) sind Zielvariablen
(“response”, “outcome”) und nicht erklärende Variablen.
Gibt es einen Zusammenhang zwischen Wuchsform und
Familie?
Der χ2 -Test oder der Fisher-Exakt-Test (nur für 2 x 2
Tabellen) testen die
Nullhypothese: Es gibt keinen Zusammenhang.
Kreuztabellen, “contingency tables”
Familie
Fabaceae
Rosaceae
I
I
I
I
Wuchsform
Kraut Busch Baum
218
76
294
56
76
132
6
28
34
280
180
460
Beides (Familie und Wuchsform) sind Zielvariablen
(“response”, “outcome”) und nicht erklärende Variablen.
Gibt es einen Zusammenhang zwischen Wuchsform und
Familie?
Der χ2 -Test oder der Fisher-Exakt-Test (nur für 2 x 2
Tabellen) testen die
Nullhypothese: Es gibt keinen Zusammenhang.
Viel wichtiger als der Test ist allerdings die Stärke des
Zusammenhangs.
Testen des Zusammenhangs
Pearson's Chi-squared test
data: table(plants$family, plants$type)
X-squared = 67.2916, df = 2, p-value = 2.442e-15
Testen des Zusammenhangs
Pearson's Chi-squared test
data: table(plants$family, plants$type)
X-squared = 67.2916, df = 2, p-value = 2.442e-15
I
Was sagt uns dieser Test?
Testen des Zusammenhangs
Pearson's Chi-squared test
data: table(plants$family, plants$type)
X-squared = 67.2916, df = 2, p-value = 2.442e-15
I
Was sagt uns dieser Test?
I
Was sagt uns dieser Test nicht?
Testen des Zusammenhangs
Familie
Kraut
Fabaceae
Rosaceae
218
76
294
Wuchsform
Busch
Baum
56
76
132
6
28
34
280
180
460
Testen des Zusammenhangs
I
Familie
Kraut
Fabaceae
Rosaceae
218
76
294
Wuchsform
Busch
Baum
56
76
132
6
28
34
280
180
460
Wir erwarten Fabaceae und Rosaceae mit einer Proportion
von 0.61 und 0.39.
Testen des Zusammenhangs
I
I
Familie
Kraut
Fabaceae
Rosaceae
218
76
294
Wuchsform
Busch
Baum
56
76
132
6
28
34
280
180
460
Wir erwarten Fabaceae und Rosaceae mit einer Proportion
von 0.61 und 0.39.
Wir erwarten die Wuchsform Kraut, Busch oder Baum mit
einer Proportion von 0.64, 0.29, 0.07.
Testen des Zusammenhangs
I
I
I
Familie
Kraut
Fabaceae
Rosaceae
218
76
294
Wuchsform
Busch
Baum
56
76
132
6
28
34
280
180
460
Wir erwarten Fabaceae und Rosaceae mit einer Proportion
von 0.61 und 0.39.
Wir erwarten die Wuchsform Kraut, Busch oder Baum mit
einer Proportion von 0.64, 0.29, 0.07.
Daraus können wir die Proportion für die einzelnen Zellen
berechnen (“Erwartungswerte”).
Testen des Zusammenhangs
Familie
Kraut
Wuchsform
Busch
Fabaceae
0.39
0.17
0.04
Rosaceae
0.25
0.11
0.03
Baum
Testen des Zusammenhangs
I
Familie
Kraut
Wuchsform
Busch
Fabaceae
0.39
(0.47)
0.17
(0.12)
0.04
(0.01)
Rosaceae
0.25
(0.17)
0.11
(0.17)
0.03
(0.06)
Baum
Um den Ursprung des Testresultates zu untersuchen
berechnen wir die “Erwartungswerte” für die einzelnen Zellen
und vergleichen diese mit den Beobachtungen; “Nomenklatur”
Erwartungswert (Beobachtete Werte) [Residuen].
Testen des Zusammenhangs
Familie
Kraut
Wuchsform
Busch
Fabaceae
0.39
(0.47)
[2.92]
0.25
(0.17)
[-3.64]
0.17
(0.12)
[-2.72]
0.11
(0.17)
[3.39]
Rosaceae
Baum
0.04
(0.01)
[-3.23]
0.03
(0.06)
[4.03]
I
Um den Ursprung des Testresultates zu untersuchen
berechnen wir die “Erwartungswerte” für die einzelnen Zellen
und vergleichen diese mit den Beobachtungen; “Nomenklatur”
Erwartungswert (Beobachtete Werte) [Residuen].
I
Um die Stärke des Zusammenhangs zu beschreiben zerlegen
wir die Tabelle in Teile.
Beschreibung von Zusammenhängen kategorieller Variablen
Daten aus einem Pestizidexperimet mit Helothis virescens, einem
Eulenfalter dessen Larven auf Tabakpflanzen leben.
Geschlecht
tot
männlich
weiblich
4
2
6
Überleben
lebend
16
18
34
20
20
40
I
Differenz zwischen zwei Proportionen, π1 − π2
I
Relative Risk, π1 /π2
I
Odds Ratio
Differenz zwischen zwei Proportionen, π1 − π2
Wird auch als “absolute risk difference” bezeichnet.
Wickler Beispiel: pmale − pfemale = 4/20 − 2/20 = 1/10
> prop.test(x = c(4, 2), n = c(20, 20))
2-sample test for equality of proportions with
continuity correction
data: c(4, 2) out of c(20, 20)
X-squared = 0.1961, df = 1, p-value = 0.6579
alternative hypothesis: two.sided
95 percent confidence interval:
-0.1691306 0.3691306
sample estimates:
prop 1 prop 2
0.2
0.1
I
Wertebereich: −1, . . . , 1
Relative Risk, π1 /π2
Es ist möglich, dass der Unterschied zwischen zwei Differenzen
anders zu interpretieren ist, wenn beide π klein oder gross sind, als
wenn beide nahe bei 0.5 sind.
Wickler Beispiel: pmale /pfemale = (4/20)/(2/20) = 2
Das 95% Vertrauensintervall dazu liegt bei [0.43; 7.47].
I
Wertebereich: 0, . . . , ∞
Odds Ratio
Für ein Ereignis mit der Wahrscheinlichkeit π sind die Odds
definiert als π/(1 − π), wie beim Wetten. Im Beispiel sind also die
Odds für die Männchen (4/20)/(16/20) = 0.25. Das bedeutet,
dass es für ein Männchen vier mal weniger wahrscheinlich ist zu
sterben, als zu überleben. Das Verhältnis
θ=
π1 /(1 − π1 )
π2 /(1 − π2 )
nennt man “odds ratio”.
Es beträgt in unserem Beispiel
((4/20)/(16/20))/((2/20)/(18/20)) = 2.25
I
Das Odds Ratio ändert nicht, wenn wir Zeilen und Spalten
vertauschen, d.h. wir müssen uns nicht auf eine Zielvariable
festlegen.
I
Wertebereich: 0, . . . , ∞
Struktur von glm’s (generalized linear model)
E[yij ]
yij
I
=
∼
β0 + β1 x1 + β2 x2 + . . . + βn xn
indep. N (β0 + β1 x1 + β2 x2 + . . . + βn xn , σ 2 )
Diese Form kennen wir von Regressionen und in fast
identischer Form kennen wir die Form auch von ANOVAs und
ANCOVAs.
Struktur von glm’s (generalized linear model)
E[yij ]
yij
I
I
=
∼
β0 + β1 x1 + β2 x2 + . . . + βn xn
indep. N (β0 + β1 x1 + β2 x2 + . . . + βn xn , σ 2 )
Diese Form kennen wir von Regressionen und in fast
identischer Form kennen wir die Form auch von ANOVAs und
ANCOVAs.
Das Anwendungsspektrum lässt sich jedoch stark erweitern,
wenn man zusätzliche Flexibilität einführt.
- andere Verteilungen
- eine Funktion welche den Zusammenhang zwischen dem
“linearen predictor” und dem Erwartungswert E[yij ] beschreibt.
E[yi ] = h(ηi )
Die Funktion h bezeichnen wir als “response function”. Häufig
wird jedoch die Umkehrfunktion h−1 = g beschrieben, welche
als “link function” oder einfach als “link” bezeichnet wird.
Struktur von glm’s (generalized linear model)
Für eine “gewöhnliche” Regression würde also
lauten:
ηi = β0 + β1 x1 + β2 x2 + . . . + βn xn
E[yi ] = h(ηi ) = ηi
yi ∼ indep. N (ηi , σ 2 )
die Beschreibung
“linear predictor”
“response function”
“Verteilungsannahme”
Logistische Regression
Ein glm welches sehr häufig verwendet wird ist die logistische
Regression.
ηi = β0 + β1 x1 + β2 x2 + . . . + βn xn
eη
E[yi ] = πi = h(ηi ) = 1+e
η
yi ∼ indep. B(πi )
I
Für den “linar predictor” ηi gilt das selbe wie bei einer
Regression bzw. ANOVA.
I
Als “link function” wählen wir die sogennante “logit” Funktion,
x
) (Der Name “logit” stammt von log
h−1 (x) = g (x) = log( 1−x
wie Logarithmus und Odds).
I
Als Verteilung wählt man eine Bernoulli Verteilung, B(πi ), mit
einem Parameter, der Wahrscheinlichkeit π des Ereignisses.
Logistische Regression, Interpretation der Koeffizienten
Wir betrachten einige Umformungen:
πi
= α + βxi
log 1−π
i
πi
= e α+βxi
1−πi
= e α e βxi
Wenn wir nun x um eins erhöhen, d.h. x ersetzten durch x + 1,
πi
= e α e β(xi +1)
1−πi
= e α e βxi e β
Daraus sehen wir, dass sich die Odds um den Faktor e β verändern,
wenn wir von x nach x + 1 gehen.
Logistische Regression mit kategoriellen Prädiktoren
Geschlecht
tot
männlich
weiblich
4
2
6
Überleben
lebend
16
18
34
20
20
40
Odds fürs Sterben der Männchen: om =
4/20
(1−4/20)
Odds fürs Sterben der Weibchen: of =
Odds Ratio: OR =
om
of
= 2.25
Daraus ergibt sich z.B. of OR = om
2/20
(1−2/20)
= 0.25.
= 0.111.
>
>
>
>
y <- cbind(dead = c(2, 4), alive = c(18, 16))
sex <- factor(c("female", "male"))
glm1 <- glm(y ~ sex, family = "binomial")
summary(glm1)$coefficients
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -2.1972246
0.745356 -2.9478861 0.003199549
sexmale
0.8109302
0.931695 0.8703816 0.384091875
>
>
>
>
y <- cbind(dead = c(2, 4), alive = c(18, 16))
sex <- factor(c("female", "male"))
glm1 <- glm(y ~ sex, family = "binomial")
summary(glm1)$coefficients
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -2.1972246
0.745356 -2.9478861 0.003199549
sexmale
0.8109302
0.931695 0.8703816 0.384091875
I
e α̂ = e −2.2 = 0.11 schätzt uns die Odds für die Weibchen mit
einem Standardfehler.
I
e β̂ = e 0.81 = 2.25 schätzt uns das Oddsratio, d.h. den Faktor
mit welchem wir die Odds der Weibchen multiplizieren müssen
um die Odds der Männchen zu erhalten. Auch das Oddsratio
wird mit einem Standardfehler geschätzt.
Logistische Regression mit kontinuierlichen Prädiktoren
Im selben Versuch mit Heliothis virescens wurden 6 verschiedene
Dosen des selben Wirkstoffes untersucht.
Dosis
1 2 4
Geschlecht
männlich
weiblich
1
0
4
2
9
6
8
16
32
13
10
18
12
20
16
Wir fokusieren uns zuerst mal nur auf die Männchen.
Logistische Regression mit kontinuierlichen Prädiktoren
Eine mögliche Forschungsfrage könnte lauten:
Nimmt die Sterblichkeit mit zunehmender Dosis signifikant zu?
Logistische Regression mit kontinuierlichen Prädiktoren
Eine mögliche Forschungsfrage könnte lauten:
Nimmt die Sterblichkeit mit zunehmender Dosis signifikant zu?
Da wir erwarten, dass sich das Oddsratio jeweils gleich verändert,
wenn wir die Dosis verdoppeln, werden wir den Logarithmus der
Dosis (mit der Basis 2) als Prädiktor verwenden.
>
>
>
+
>
library(asuR)
data(budworm)
glm2 <- glm(cbind(num.dead, num.alive) ~ log2(dose),
data = budworm[budworm$sex == "male", ], family = "binomial")
summary(glm2)$coefficients
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07
log2(dose)
1.258949 0.2120655 5.936607 2.909816e-09
> summary(glm2)$coefficients
Wahrscheinlichkeit zu Sterben
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07
log2(dose)
1.258949 0.2120655 5.936607 2.909816e-09
1 4
9
13
18
1
20
●
●
Inf
9
0.8
●
0.6
●
0.4
0.2
●
●
0
1.86
0.82
0.25
0.05
19 16
11
7
12 4
8
2
16
Dosis
0
32
> summary(glm2)$coefficients
Wahrscheinlichkeit zu Sterben
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07
log2(dose)
1.258949 0.2120655 5.936607 2.909816e-09
I
1 4
9
13
18
1
20
●
●
Inf
9
0.8
●
0.6
●
0.4
0.2
●
●
0
1.86
0.82
0.25
0.05
19 16
11
7
12 4
8
2
16
Dosis
0
32
e β = e 1.26 = 3.52 gibt an um welchen Faktor die Odds
zunehmen wenn wir die Dosis um den Faktor 2 erhöhen.
> summary(glm2)$coefficients
Wahrscheinlichkeit zu Sterben
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07
log2(dose)
1.258949 0.2120655 5.936607 2.909816e-09
1 4
9
13
18
1
20
●
●
Inf
9
0.8
●
0.6
1.86
●0.82
●
0.4
0.2
●
●
0
0.25
0.05
19 16
11
7
12 4
8
2
16
Dosis
0
32
I
e β = e 1.26 = 3.52 gibt an um welchen Faktor die Odds
zunehmen wenn wir die Dosis um den Faktor 2 erhöhen.
I
−α/β gibt uns die Dosis an wo die Hälfte der Tiere sterben.
Multivariate logistische Regression
Selbstverständlich würde es uns jetzt interessieren mit dem
Datensatz ein multivariates Modell zu rechnen. Damit könnten wir
die Sterblichkeit mit zwei Prädiktoren Dosis und Geschlecht
gleichzeitig erklären. Dadurch lässt sich u.a. die Frage beantworten
ob die Sterblichkeit unterschiedlich ist zwischen den Geschlechtern.
Multivariate logistische Regression
> glm3 <- glm(cbind(num.dead, num.alive) ~ log2(dose) +
+
sex, data = budworm, family = "binomial")
> summary(glm3)$coefficients
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -3.473155 0.4685202 -7.413032 1.234445e-13
log2(dose)
1.064214 0.1310775 8.118971 4.701542e-16
sexmale
1.100743 0.3558271 3.093478 1.978249e-03
Multivariate logistische Regression
> glm3 <- glm(cbind(num.dead, num.alive) ~ log2(dose) +
+
sex, data = budworm, family = "binomial")
> summary(glm3)$coefficients
Wahrscheinlichkeit zu Sterben
Estimate Std. Error
z value
Pr(>|z|)
(Intercept) -3.473155 0.4685202 -7.413032 1.234445e-13
log2(dose)
1.064214 0.1310775 8.118971 4.701542e-16
sexmale
1.100743 0.3558271 3.093478 1.978249e-03
1
1 4
0 2
9
6
13
10
18
12
20
16
●
●
0.8
●
●
0.6
●
●
●
0.4
●
0.2
female
male
●
●
●
0
●
19 16
20 18
11
14
7
10
12 4
8
2
8
16
Dosis
0
4
32
... mit Interaktion
Ganz analog zu einer ANCOVA können wir auch hier untersuchen,
ob die Zusahme der Sterbilichkeit mit steigender Dosis bei beiden
Geschlechtern gleich stark ist. Dazu fitten wir ein Modell mit einem
Interaktionsterm und testen ob dieser statistisch signifikant ist.
Multivariate logistische Regression
> glm4 <- glm(cbind(num.dead, num.alive) ~ log2(dose) *
+
sex, data = budworm, family = "binomial")
> round(summary(glm4)$coefficients, 3)
(Intercept)
log2(dose)
sexmale
log2(dose):sexmale
Estimate Std. Error z value Pr(>|z|)
-2.994
0.553 -5.416
0.000
0.906
0.167
5.422
0.000
0.175
0.778
0.225
0.822
0.353
0.270
1.307
0.191
Multivariate logistische Regression
> glm5 <- glm(cbind(num.dead, num.alive) ~ I(log2(dose) +
3) * sex, data = budworm, family = "binomial")
> round(summary(glm5)$coefficients, 3)
Estimate Std. Error z value
-0.275
0.231 -1.195
0.906
0.167
5.422
1.234
0.377
3.273
0.353
0.270
1.307
Pr(>|z|)
(Intercept)
0.232
I(log2(dose) - 3)
0.000
sexmale
0.001
I(log2(dose) - 3):sexmale
0.191
(Intercept)
I(log2(dose) - 3)
sexmale
I(log2(dose) - 3):sexmale
Multivariate logistische Regression
> glm6 <- glm(cbind(num.dead, num.alive) ~ I(log2(dose) +
3) + sex, data = budworm, family = "binomial")
> round(summary(glm6)$coefficients, 3)
(Intercept)
I(log2(dose) - 3)
sexmale
Estimate Std. Error z value Pr(>|z|)
-0.281
0.243 -1.154
0.249
1.064
0.131
8.119
0.000
1.101
0.356
3.093
0.002
Overdispersion
Wenn wir eine logistische Regression rechnen ist der sog.
“dispersion parameter” immer auf eins gesetzt. Das ist fast ein
bisschen so wie wenn wir in einer gewöhnlichen Regression den
Standardfehler, σ, auf eins setzten würden.
Um zu überprüfen, ob die beobachtete Variation grösser ist, als wir
unter idealen Bedingungen einer logistischen Regression annahmen,
können wir den “dispersion parameter” schätzten.
Dazu fitten wir ein quasibinomiales GLM.
I
Wir sehen wie der “dispersion parameter” geschätzt wird.
I
Wir sehen ob das Berücksichtigen des “dispersion parameters”
unsere Resultate qualitativ verändert.
Overdispersion
> glm6.quasi <- glm(cbind(num.dead, num.alive) ~
+
I(log2(dose) - 3) + sex, data = budworm, family = "quasibinomial")
> summary(glm6.quasi)
Call:
glm(formula = cbind(num.dead, num.alive) ~ I(log2(dose) - 3) +
sex, family = "quasibinomial", data = budworm)
Deviance Residuals:
Min
1Q
Median
-1.10540 -0.65343 -0.02225
3Q
0.48471
Max
1.42944
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept)
-0.2805
0.1867 -1.503 0.16714
I(log2(dose) - 3)
1.0642
0.1006 10.574 2.24e-06 ***
sexmale
1.1007
0.2732
4.029 0.00298 **
--Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for quasibinomial family taken to be 0.5895578)
Null deviance: 124.8756
Residual deviance:
6.7571
AIC: NA
on 11
on 9
degrees of freedom
degrees of freedom
Number of Fisher Scoring iterations: 4
GLM Familien
Verteilung
gaussian
binomial
Gamma
poisson
inverse.gaussian
mögliche Link-Funktion
identity
log
inverse
logit
probit
cauchit
log
cloglog
inverse
identity
log
log
identity
sqrt
1/mu^2
inverse
identity
log
(logistisch)
(normal)
complementary log-log
Hinweis: Modelle mit dem selben linearen Prädiktoren, η, aber mit
einer unterschiedlichen Link-Funktion, g , können nur informell
verglichen aber nicht “getestet” werden.
Mixed Effects Models
Eine Unterscheidung welche nur auf kategorielle Prädiktoren
zutrifft.
“Fixed Effects” Wenn es eine endliche Zahl an Kategorien (“levels”)
gibt denen wir einen Effekt zuordnen und wir an den
Effekten der einzelnen Kategorien interessiert sind.
Das Interesse liegt beim Schätzen der Mittelwerte.
“Random Effects” Wenn es unendlich viele Kategorien gibt aber
nur ein zufälliger Teil davon in unserer Stichprobe
gelandet ist und wir nicht an den Effekten der
einzelnen Kategorien interessiert sind. Das Interesse
liegt beim Schätzen der Varianz.
Oft ist es direkt aus der Fragestellung möglich zu unterscheiden ob
ein “Random Effect” oder ein “Fixed Effect” vorliegt.
Mixed Effects Models: Ein Beispiel
Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten
im Fach Mathe haben als Mädchen.
Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und
wissen zu jedem Schüler das Geschlecht, die Bezeichnung der
Schule und die Bezeichnung der Klasse.
Mixed Effects Models: Ein Beispiel
Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten
im Fach Mathe haben als Mädchen.
Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und
wissen zu jedem Schüler das Geschlecht, die Bezeichnung der
Schule und die Bezeichnung der Klasse.
Schulnote, y Response
Mixed Effects Models: Ein Beispiel
Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten
im Fach Mathe haben als Mädchen.
Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und
wissen zu jedem Schüler das Geschlecht, die Bezeichnung der
Schule und die Bezeichnung der Klasse.
Schulnote, y Response
Geschlecht, β Fixed Effect
Mixed Effects Models: Ein Beispiel
Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten
im Fach Mathe haben als Mädchen.
Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und
wissen zu jedem Schüler das Geschlecht, die Bezeichnung der
Schule und die Bezeichnung der Klasse.
Schulnote, y Response
Geschlecht, β Fixed Effect
Schule, s Random Effect
Mixed Effects Models: Ein Beispiel
Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten
im Fach Mathe haben als Mädchen.
Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und
wissen zu jedem Schüler das Geschlecht, die Bezeichnung der
Schule und die Bezeichnung der Klasse.
Schulnote, y Response
Geschlecht, β Fixed Effect
Schule, s Random Effect
Klasse, c Random Effect (genested in Schule)
Mixed Effects Models: Ein Beispiel
Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten
im Fach Mathe haben als Mädchen.
Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und
wissen zu jedem Schüler das Geschlecht, die Bezeichnung der
Schule und die Bezeichnung der Klasse.
Schulnote, y Response
Geschlecht, β Fixed Effect
Schule, s Random Effect
Klasse, c Random Effect (genested in Schule)
E[ytijk | si , cij ]
ytijk | si , cij
=
∼
µ + βt + si + cij
indep. N (µ + βt + si + cij ;
σs2 + σc2 + σ 2 )
Bootstrapping
Bootstrapping
n
1X
x̄ =
xi
n
i=1
Bootstrapping
µ
n
1X
x̄ =
xi
n
i=1
Bootstrapping
I
Name: “bootstrap” (Stiefelschlaufe), nach dem englischen
Spruch “pull oneself over a fence by one’s bootstraps”.
I
Eine Resamplingmethode zum bestimmen der Genauigkeit
eines Schätzers.
I
Eine sehr einfache Methode die oft auch gut funktioniert.
Leider gibt es keine Garantie dafür!
Bootstrapping
I
Es gibt viele verschiedene Arten wie wiederholt eine Stichprobe
gezogen werden kann. Ich möchte kurz auf das parametrische
und das nicht-parametrische Bootstrapping eingehen.
I
Das wiederholte Ziehen (“resampling”) führt immer dazu, dass
man neben dem Schätzer, t, für den Parameter, θ, sehr viele
weiter Bootstrap-Schätzer, t ∗ generiert. Die Anzahl der
Ziehungen bezeichnet man meist als R.
I
Aus diesen kann dann ein Vertrauensintervall berechnet
werden. Dazu gibt es verschiedene Möglichkeiten. Das sog.
“basic” Vertrauensintervall lautet
∗
∗
2t − t((R+1)(1−α/2))
, 2t − t((R+1)(α/2))
.
Parametrisches Bootstrapping
I
Aus der Stichprobe wird der Mittelwert x̄ und die Varianz σ 2
der Population geschätzt.
I
Mit diesen Angaben wird die Verteilung beschrieben N (x̄, σ 2 )
aus der dann wiederholt gezogen wird.
Das Parametrische Bootstrapping liefert oft bessere Resultate als
andere Verfahren.
Nichtparametrisches Bootstrapping
I
Das wiederholte Ziehen erfolgt direkt aus der Stichprobe.
Theoriefragen zu den bisherigen Inhalten
Theoriefragen zu den bisherigen Inhalten
I
Was misst die Pearson bzw. die Spearman Korrelation?
Theoriefragen zu den bisherigen Inhalten
I
Was misst die Pearson bzw. die Spearman Korrelation?
I
Wann verwendet man eine Korrelation, wann eine Regression?
Theoriefragen zu den bisherigen Inhalten
I
Was misst die Pearson bzw. die Spearman Korrelation?
I
Wann verwendet man eine Korrelation, wann eine Regression?
I
Dürfen die Messungen von verschiedenen Individuen in einer
Regression korreliert sein? Begründen Sie?
Theoriefragen zu den bisherigen Inhalten
I
Was misst die Pearson bzw. die Spearman Korrelation?
I
Wann verwendet man eine Korrelation, wann eine Regression?
I
Dürfen die Messungen von verschiedenen Individuen in einer
Regression korreliert sein? Begründen Sie?
I
Warum transformieren wir Daten?
Theoriefragen zu den bisherigen Inhalten
Theoriefragen zu den bisherigen Inhalten
I
Was bedeutet Overdispersal?
Theoriefragen zu den bisherigen Inhalten
I
Was bedeutet Overdispersal?
I
Wieso tritt bei der gewöhnlichen Regression nicht auch
Overdispersal auf?
Theoriefragen zu den bisherigen Inhalten
I
Was bedeutet Overdispersal?
I
Wieso tritt bei der gewöhnlichen Regression nicht auch
Overdispersal auf?
I
Was untersucht der χ2 -Test oder der Fisher-Exakt-Test?
Theoriefragen zu den bisherigen Inhalten
I
Was bedeutet Overdispersal?
I
Wieso tritt bei der gewöhnlichen Regression nicht auch
Overdispersal auf?
I
Was untersucht der χ2 -Test oder der Fisher-Exakt-Test?
I
Welches sind die drei häufigsten Arten wie man den
Zusammenhang zwischen Proportionen beschreibt?
Theoriefragen zu den bisherigen Inhalten
I
Was bedeutet Overdispersal?
I
Wieso tritt bei der gewöhnlichen Regression nicht auch
Overdispersal auf?
I
Was untersucht der χ2 -Test oder der Fisher-Exakt-Test?
I
Welches sind die drei häufigsten Arten wie man den
Zusammenhang zwischen Proportionen beschreibt?
I
Was ist ein Odds Ratio?
Theoriefragen zu den bisherigen Inhalten
Theoriefragen zu den bisherigen Inhalten
I
Nennen Sie die drei Aspekte die man verwenden kann um ein
GLM zu charakterisieren.
Theoriefragen zu den bisherigen Inhalten
I
Nennen Sie die drei Aspekte die man verwenden kann um ein
GLM zu charakterisieren.
I
Wie lautet die Linkfunktion einer logistischen Regression?
Theoriefragen zu den bisherigen Inhalten
I
Nennen Sie die drei Aspekte die man verwenden kann um ein
GLM zu charakterisieren.
I
Wie lautet die Linkfunktion einer logistischen Regression?
I
Wie gross ist der “dispersion parameter” in einem GLM?
Affiliation and copyright
Vielen Dank an Dr. Thomas Zumbrunn und Dr. Stefanie von Felten
von denen ich mehrere Ideen und Beispiele übernommen habe.
© Thomas Fabbro 2012
This work is licensed under the Creative Commons
Attribution-Noncommercial-Share Alike 2.5 Switzerland Licence.
To view a copy of this licence, visit
http://creativecommons.org/licenses/by-nc-sa/2.5/ch/
Herunterladen