Einführung in die Statistik mit Beispielen aus der Biologie Thomas Fabbro “The aim of computing is insight, not numbers.” Zu meiner Person Ausbildung I I I I Momentan I I Studium der Biologie (Uni Basel) Masterarbeit in Pflanzenökologie (Uni Basel) Doktorarbeit in Quantitativer Genetik (Uni Fribourg) Nachdiplom in Statistik (Uni Neuchâtel) Statistiker an der Clinical Trial Unit (Universitätsspital Basel) Mitglied der Ethikkommission beider Basel (EKBB) Zur Vorlesung Struktur Über zwei Semester, eine Stunde Vorlesung, zwei Stunden Übungen am Computer Unterlagen Sie erhalten ein Handout mit den wichtigsten Abbildungen und einem Glossar. Machen Sie sich Notizen! Prüfung Am Ende der beiden Semester Was mir wichtig ist für die Vorlesung Fragen Immer, sobald etwas nicht ganz klar ist. Vokabular Es ist wichtig, dass wir ein gemeinsames Vokabular finden und dieses präzise anwenden, daher gibt es ein Glossar. Selbstverständlich gilt der zweite Punkt nicht, wenn es um den ersten geht! Was ist Statistik? Die Statistik als Disziplin (“statistics”) beschäftigt sich mit dem Sammeln, Organisieren, Analysieren, Interpretieren und Präsentieren von Daten (nach Dodge, Cox und Commenges 2006). Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Wieso brauchen wir eigentlich Statistik? Arten von Variablen Diese Einteilung basiert auf der Klasseneinteilung von R. Arten von Variablen Messbare und Zählbare Variablen numeric für kontinuierlich Variablen, alle Zwischenschritte sind möglich Diese Einteilung basiert auf der Klasseneinteilung von R. Arten von Variablen Messbare und Zählbare Variablen numeric für kontinuierlich Variablen, alle Zwischenschritte sind möglich integer für Ganze Zahlen Diese Einteilung basiert auf der Klasseneinteilung von R. Arten von Variablen Messbare und Zählbare Variablen numeric für kontinuierlich Variablen, alle Zwischenschritte sind möglich integer für Ganze Zahlen Kategorielle Variablen Diese Einteilung basiert auf der Klasseneinteilung von R. Arten von Variablen Messbare und Zählbare Variablen numeric für kontinuierlich Variablen, alle Zwischenschritte sind möglich integer für Ganze Zahlen Kategorielle Variablen factor für Kategorien (z. B. “Fabaceae”, “Rosaceae”, “Apiaceae”). Diese Einteilung basiert auf der Klasseneinteilung von R. Arten von Variablen Messbare und Zählbare Variablen numeric für kontinuierlich Variablen, alle Zwischenschritte sind möglich integer für Ganze Zahlen Kategorielle Variablen factor für Kategorien (z. B. “Fabaceae”, “Rosaceae”, “Apiaceae”). logical Eine Variable die nur die Werte TRUE oder FALSE annehmen kann (z. B. “männlich”, “weiblich”). Diese Einteilung basiert auf der Klasseneinteilung von R. Beispiele in R > weight <- c(0.001, 100, 3200000, 1000, 2.56, 0.001, + 0.01) > legs <- as.integer(c(0, 0, 4, 0, 0, 8, 6)) > kingdom <- factor(c("animal", "fungi", "animal", + "animal", "plant", "animal", "animal")) > animal <- c(TRUE, FALSE, TRUE, TRUE, FALSE, TRUE, + TRUE) Es gibt zwei Arten wie man Variablen beschreiben kann: I Kenngrössen I graphischen Darstellungen Charakteristika kontinuierlicher Variablen Charakteristika kontinuierlicher Variablen Lage Charakteristika kontinuierlicher Variablen Lage Streuung Charakteristika kontinuierlicher Variablen Lage Streuung Form Charakteristika kontinuierlicher Variablen Lage Streuung Form Häufung (”cluster”) Werte treten in Klumpen auf. Charakteristika kontinuierlicher Variablen Lage Streuung Form Häufung (”cluster”) Werte treten in Klumpen auf. Körnung (”granularity”) Nur bestimmte Werte treten auf. Beispiele Beispiele gemessene Werte Beispiele 0 1 2 3 4 gemessene Werte 5 6 Beispiele −1.0 −0.5 0.0 0.5 1.0 gemessene Werte 1.5 2.0 Beispiele 140 150 160 170 gemessene Werte 180 190 Beispiele 140 150 160 170 gemessene Werte 180 190 Boxplot Boxplot 0 1 2 3 4 gemessene Werte 5 6 Boxplot Boxplot 0 1 2 3 4 gemessene Werte 5 6 Boxplot Boxplot 0 1 2 3 4 gemessene Werte 5 6 Boxplot Boxplot 0 1 2 3 4 gemessene Werte 5 6 Boxplot Boxplot ● 0 1 2 3 4 gemessene Werte 5 6 Boxplot Drawing the box: Find the median. Then find the median of the data values whose ranks are less than or equal to the rank of the median. This will be a data value or it will be half way between two data values. Drawing the whiskers: The maximum length of each whisker is 1.5 times the interquartile range (IQR). To draw the whisker above the 3rd quartile, draw it to the largest data value that is less than or equal to the value that is 1.5 IQRs above the 3rd quartile. Any data value larger than that should be marked as an outlier. Der Boxplot wurde von Tukey eingeführt. Heute gibt es viel verschiedene Formen. Es ist daher gut, wenn man immer angibt wie man den Boxplot konstruiert hat. Histogramm Histogramm 0 1 2 3 4 gemessene Werte 5 6 Histogramm 2 1 0 Anzahl 3 4 Histogramm 0 1 2 3 4 gemessene Werte 5 6 Histogramm 0.0 0.1 0.2 0.3 0.4 Dichte Histogramm 0 1 2 3 4 gemessene Werte 5 6 Histogramm Um ein Histogramm zeichnen zu könnten muss man folgende zwei Punkte festlegen: I Kästchenbreite bzw. die Anzahl der Kästchen (Kästchen: “bin”) I Startpunkt Auch für dieselben Werte sieht nicht jedes Histogramm gleich aus! Histogramm Anzahl Kästchen: 4 0.00 0.00 0.05 0.10 frequency 0.10 0.05 frequency 0.15 0.15 Anzahl Kästchen: 2 0 2 4 6 8 10 12 0 2 4 6 8 10 12 Anzahl Kästchen: 16 0.20 0.15 frequency 0.10 0.10 0.00 0.05 0.05 0.00 frequency 0.15 0.25 0.20 0.30 Anzahl Kästchen: 8 0 2 4 6 8 10 12 0 2 4 6 8 10 12 Histogramm Startpunkt: −0.6 0.15 Density 0.00 0.00 0.05 0.10 0.10 0.05 Density 0.15 0.20 0.20 Startpunkt: 0 2 4 6 8 10 12 0 2 4 6 8 10 x x Startpunkt: −1.2 Startpunkt: −1.8 12 0.10 Density 0.05 0.10 0.00 0.05 0.00 Density 0.15 0.15 0.20 0 0 2 4 6 8 10 12 −2 0 2 4 6 8 10 12 Empirische Dichte Empirische Dichte 0 1 2 3 4 gemessene Werte 5 6 Empirische Dichte 0.0 0.1 0.2 0.3 0.4 Dichte Histogramm 0 1 2 3 4 gemessene Werte 5 6 Empirische Dichte 0.0 0.1 0.2 0.3 0.4 Dichte "uniform kernel" 0 1 2 3 4 gemessene Werte 5 6 Empirische Dichte 0.0 0.1 0.2 0.3 0.4 Dichte "gaussian kernel" 0 1 2 3 4 gemessene Werte 5 6 Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsverteilung n 1X x̄ = xi n i=1 Wahrscheinlichkeitsverteilung µ n 1X x̄ = xi n i=1 Kenngrössen für kontinuierliche Variablen Kenngrössen für kontinuierliche Variablen Lage Mittelwert, Median, Modus Kenngrössen für kontinuierliche Variablen Lage Mittelwert, Median, Modus Streuung Spannweite, Quartilsabstand, Varianz Kenngrössen für kontinuierliche Variablen Lage Mittelwert, Median, Modus Streuung Spannweite, Quartilsabstand, Varianz Form Schiefe: z. B. rechtsschief = linkssteil, linksschief = rechtssteil Wölbung: steilgipflig, flachgipflig weitere Begriffe: symmetrisch, unimodal, bimodal, multimodal Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsverteilung 0.25 Dichte 0.20 0.15 0.10 0.05 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsverteilung 0.25 Dichte 0.20 0.15 0.10 0.05 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsverteilung 0.25 Dichte 0.20 0.15 0.10 0.05 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsverteilung 0.25 Dichte 0.20 0.15 0.10 0.05 0.1 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsverteilung 0.25 Dichte 0.20 6.25 0.15 0.10 0.05 0.1 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsverteilung 0.25 Dichte 0.20 6.25 0.15 0.10 0.05 0.1 0.04 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsverteilung 0.25 χ2df=3 Dichte 0.20 6.25 0.15 0.10 0.05 0.1 0.04 0.00 0 1 2 3 4 5 x 6 7 8 9 Wahrscheinlichkeitsdichte Dichte 0.4 0.3 0.2 0.1 −2 −1 0 x 1 2 Wahrscheinlichkeitsdichte Dichte 0.4 0.3 0.2 0.1 −2 −1 0 x 1 2 Wahrscheinlichkeitsdichte N (µ = 0, σ 2 = 1) Dichte 0.4 0.3 0.2 0.1 −2 −1 0 x 1 2 Wahrscheinlichkeitsdichte N (µ = 0, σ 2 = 1) Dichte 0.4 1.64 0.3 0.2 0.1 0.05 −2 −1 0 x 1 2 Wahrscheinlichkeitsdichte N (µ = 0, σ 2 = 1) Dichte 0.4 0.3 −2 −1 0.2 0.1 0.136 −2 −1 0 x 1 2 Wahrscheinlichkeitsdichte N (µ = 0, σ 2 = 1) Dichte 0.4 1.96 0.3 0.2 0.1 0.025 −2 −1 0 x 1 2 Quantile-Quantile-Diagramm Theoretische Quantile (der Normalverteilung) ● ● 1 ● ● ● 0 ● ● ● −1 ● ● 0 1 2 3 4 5 Empirische Quantile entstprechen den geordneten Beobachtungen 6 2 2 2 1 ● ● ● 0 ● ● ● −1 ● ● Theoretische Quantile ● Theoretische Quantile ● 1 ● ● ● 0 ● ● ● −1 ● ● −2 2 4 6 2 4 0 Theoretische Quantile Theoretische Quantile ● ● ● ● ● ● ● ● ● 0 ● ● ● −1 ● −2 ● ● ● 0 ● ● ● −1 ● ● −2 6 −2 0 Empirische Quantile 2 4 6 0 Empirische Quantile 2 2 ● ● 0 ● ● ● ● ● 1 ● ● ● 0 ● ● ● −1 ● ● ● ● ● 4 Empirische Quantile 6 ● 0 ● ● ● −1 ● ● −2 2 ● 1 ● −2 6 2 Theoretische Quantile ● 4 ● Theoretische Quantile ● 1 2 Empirische Quantile ● Theoretische Quantile ● ● 1 ● 4 6 2 ● 1 ● 2 4 ● ● 0 2 Empirische Quantile 2 0 ● 6 ● ● 1 −1 ● −1 Empirische Quantile 2 0 ● ● −2 0 Empirische Quantile −1 ● ● ● 0 ● −2 0 ● 1 ● Theoretische Quantile Theoretische Quantile ● ● −2 0 2 4 Empirische Quantile 6 0 2 4 Empirische Quantile 6 skewed to the right density normal quantiles bimodal density normal quantiles platykurtic density normal quantiles density normal quantiles normal density normal quantiles density normal quantiles Verteilungsformen und Q-Q-Diagramme leptokurtic skewed to the left Verteilung Verteilung 0.08 Dichte 0.06 0.04 0.02 ●● 0.00 150 ●●● ●●●●●●● ●●●●● ●● ● ● ● ● ●● ●● 160 170 Körpergrösse (Frauen) ● 180 Verteilung 0.08 Dichte 0.06 0.04 0.02 0.00 ●● ● ● ●● 150 ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ●● ● ●●● ● ●● 160 170 Körpergrösse (Frauen) 180 ● ● ●● ● Verteilung 0.08 Dichte 0.06 0.04 0.02 ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●0.00 ● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 150 160 170 Körpergrösse (Frauen) 180 ● Verteilung 0.08 Dichte 0.06 0.04 0.02 0.00 150 160 170 Körpergrösse bei Frauen 180 Verteilung Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (170.51 + 169.43 + 166.39 + 167.03 + 161.82 + 146.94 + 159.71 + 172.03 + 179.61 + 173.50 + 166.13 + 165.84 + 166.80 + 164.00 + 163.41 + 167.31 + 162.77 + 154.04 + 164.12 + 160.24 + 177.58 + 167.00 + 156.56 + 157.31 + 159.93 + 155.82 + 177.30 + 167.03 + 165.68 + 165.40)/30 = 165.04 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 ● 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 1 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (170.32 + 161.08 + 163.92 + 160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34)/30 = 165.88 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 ● 162 164 ● 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 2 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (168.92 + 155.95 + 164.68 + 164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 + 169.46 + 165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 + 163.78 + 156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31)/30 = 165.69 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 ● 162 164 ●● 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 3 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (161.08 + 163.92 + 160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66)/30 = 165.79 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 ● 162 164 ●●● 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 4 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (155.95 + 164.68 + 164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 + 169.46 + 165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 + 163.78 + 156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31 + 161.72)/30 = 165.45 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ●●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 5 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (163.92 + 160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66 + 165.22)/30 = 165.93 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ●●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 6 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (164.68 + 164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 + 169.46 + 165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 + 163.78 + 156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31 + 161.72 + 166.49)/30 = 165.80 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ●●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 7 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (160.56 + 163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66 + 165.22 + 172.84)/30 = 166.23 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ●● ● ● ●●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 8 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (164.12 + 167.95 + 169.16 + 155.00 + 159.73 + 175.91 + 171.55 + 169.37 + 165.54 + 169.46 + 165.35 + 160.61 + 160.40 + 166.36 + 170.87 + 160.43 + 173.53 + 172.43 + 175.08 + 150.60 + 163.78 + 156.60 + 158.21 + 167.96 + 172.43 + 161.32 + 177.31 + 161.72 + 166.49 + 176.63)/30 = 166.20 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ●● ● ● ● ●●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 9 172 Verteilung eines Mittelwertes . . . eine Stichprobe der Grösse n = 30 ziehen und den Mittelwert berechnen . . . x̄ = (163.15 + 163.01 + 165.10 + 165.41 + 167.16 + 164.24 + 162.90 + 169.07 + 173.85 + 159.01 + 163.22 + 163.69 + 163.28 + 177.60 + 171.40 + 163.10 + 173.51 + 166.82 + 169.77 + 162.75 + 176.92 + 165.70 + 169.62 + 162.61 + 164.31 + 153.34 + 167.66 + 165.22 + 172.84 + 163.21)/30 = 166.32 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ●● ●● ● ● ●●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 10 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 ● 162 164 ●●● ● ●●● ●● ●● ● ● ● 166 ●● 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 20 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 162 ●● ● ●●● ●● ●● ● ●●● ● ●●●● ●● ●● ● ● 164 166 ● 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 30 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ●●● 0.0 162 164 ●●●●● ● ●● ●● ●●● ●●● ●● ● ●● ●● ●● ●● ●● ● 166 ● 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 40 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ●● ● ●●● ● ●● ●● ●● ●●● ●●●● ●● ●● ● ●●● ● ●● ●● ●● ●● ● ● ● 0.0 162 164 166 ● ● 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 50 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ●● ●●●● ● ● ●●● ● ●● ● ● ● ● ●● ●● ● ●●●● ● ●● ●● ● ●●● ● ● ●● ● ● ●● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 60 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ●● ●●●● ● ●●● ●● ●●● ● ● ● ●● ●● ● ● ● ●●●●● ● ●● ● ●● ● ●●● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 70 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ●● ●●●● ● ●●● ●● ●●● ● ● ● ●● ●● ● ● ● ●●●●● ● ●● ● ● ●● ● ●●● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 80 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ●●●● ●●● ● ● ●● ●● ●●● ● ● ●● ●● ● ● ● ● ●●●●● ● ●● ● ●● ● ●●● ● ●● ● ●● ● ● ● ●● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 90 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ●●●● ●●● ● ● ●● ●● ●●● ● ● ● ●● ●● ● ● ● ● ● ●● ●●●●● ● ●● ● ●● ● ●● ●● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 100 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●●●●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 200 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 300 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 400 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ●● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 500 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 600 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 700 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 800 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 900 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ●● ●● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 30−Körpergrössen (Frauen) Anzahl Mittelwerte: 1000 172 Verteilung eines Mittelwertes . . . und nun 1000 Mittelwerte einer Stichprobe von n = 300 . . . Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ● ●● ●● ●● ●● ●● ● ●● ● ● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ●● ● ●● ● ● ● ●● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ● ● 0.0 162 164 166 168 170 x von 300−Körpergrössen (Frauen) 172 Verteilung eines Mittelwertes 1.0 Dichte 0.8 0.6 0.4 0.2 0.0 162 164 166 168 170 172 x von 30 bzw. 300−Körpergrössen bei Frauen Verteilung einer Statistik Verteilung einer Statistik Dichte Mittelwert P x̄ = n1 ni=1 xi x Verteilung einer Statistik s2 = Varianz Pn 2 i=1 (xi − x̄) 1 n−1 Dichte Dichte Mittelwert P x̄ = n1 ni=1 xi x s2 Verteilung einer Statistik s2 = Varianz Pn 2 i=1 (xi − x̄) 1 n−1 Dichte Dichte Mittelwert P x̄ = n1 ni=1 xi x I Jede Statistik folgt einer “eigenen” Verteilung s2 Verteilung einer Statistik s2 = Varianz Pn 2 i=1 (xi − x̄) 1 n−1 Dichte Dichte Mittelwert P x̄ = n1 ni=1 xi x s2 I Jede Statistik folgt einer “eigenen” Verteilung I Die Streuung ist von der Grösse, n, der Stichprobe abhängig Verteilung einer Statistik s2 = Varianz Pn 2 i=1 (xi − x̄) 1 n−1 Dichte Dichte Mittelwert P x̄ = n1 ni=1 xi x s2 I Jede Statistik folgt einer “eigenen” Verteilung I Die Streuung ist von der Grösse, n, der Stichprobe abhängig I Die Form der Verteilung ist von der Grösse der Stichprobe unabhängig Der Zentrale Grenzwertsatz Der Zentrale Grenzwertsatz 1.0 Dichte 0.8 0.6 0.4 0.2 2 4 6 8 Mittelwerte aus 1 Messwerten 10 Der Zentrale Grenzwertsatz 1.0 Dichte 0.8 0.6 0.4 0.2 2 4 6 8 Mittelwerte aus 5 Messwerten 10 Der Zentrale Grenzwertsatz 1.0 Dichte 0.8 0.6 0.4 0.2 2 4 6 8 Mittelwerte aus 25 Messwerten 10 Der Zentrale Grenzwertsatz 1.0 Dichte 0.8 0.6 0.4 0.2 2 4 6 8 Mittelwerte aus 50 Messwerten 10 Der Zentrale Grenzwertsatz Die Verteilung des Mittelwertes aus n-Messwerten nähert sich für wachsende n immer mehr einer Normalverteilung und dies unabhängig von der Verteilung aus welcher die Messwerte gezogen wurden. Vertrauensintervall 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x (n = 30) Mittlere Körpergrösse 172 Vertrauensintervall 1.0 Dichte 0.8 0.6 0.4 0.2 ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.0 162 164 166 168 170 x (n = 30) Mittlere Körpergrösse 172 Vertrauensintervall Jetzt starten wir wie im richtigen Leben mit einer einzelnen Stichprobe: x1 = 166.1, x2 = 178.8, x3 = 169.5, x4 = 165.9, x5 = 172.1, x6 = 177.3, x7 = 165.2, x8 = 164.3, x9 = 175.6, x10 = 173.7, x11 = 171.8, x12 = 172.2, x13 = 172.6, x14 = 162.6, x15 = 168.6, x16 = 172, x17 = 161.3, x18 = 169.7, x19 = 160, x20 = 170.1, x21 = 165.1, x22 = 172.9, x23 = 168.1, x24 = 167.5, x25 = 180.1, x26 = 172.2, x27 = 157.8, x28 = 177.2, x29 = 167.4, x30 = 174.6 Vertrauensintervall Zwei Wege: Vertrauensintervall Zwei Wege: I Wir können eine Annahme Treffen über die Wahrscheinlichkeitsverteilung aus welcher wir die Stichprobe gezogen haben. Dann könnten wir beliebig oft eine Stichprobe der selben Grösse ziehen, den Mittelwert berechnen und so die Verteilung der Mittelwerte ermitteln. Vertrauensintervall Zwei Wege: I Wir können eine Annahme Treffen über die Wahrscheinlichkeitsverteilung aus welcher wir die Stichprobe gezogen haben. Dann könnten wir beliebig oft eine Stichprobe der selben Grösse ziehen, den Mittelwert berechnen und so die Verteilung der Mittelwerte ermitteln. I Wir können den Zentralen Grenzwertsatz anwenden. Dazu müssten wir aber die beiden Parameter der Normalverteilung unseres Mittelwertes besser kennen, namentlich den Mittelwert und die Varianz. Vertrauensintervall: Die Lage Mangels besserer Informationen wählen wir den Mittelwert unserer Stichprobe (x̄) als Erwartungswert für die Mittelwerte, x̄¯. Vertrauensintervall: Die Streuung Der Standardfehler ist die Standardabweichung einer Statistik. Meistens spricht man vom Standardfehler und meint damit die Standardabweichung des Mittelwertes, welche folgendermassen berechnet wird: sx sx̄ = √ n Vertrauensintervall Mit diesen Angaben können wir nun aus unserer Stichprobe die Verteilung des Mittelwertes veranschaulichen. Dichte 0.3 0.2 0.1 0.0 164 166 168 170 172 x (n = 30) Mittlere Körpergrösse Die mittlere Körpergrösse beträgt 169.7, 95%-Vertrauensintervall: [167.8; 171.7]. Vertrauensintervall Mit diesen Angaben können wir nun aus unserer Stichprobe die Verteilung des Mittelwertes veranschaulichen. Dichte 0.3 0.2 0.1 0.0 ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ●● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● 164 166 168 170 172 x (n = 30) Mittlere Körpergrösse Die mittlere Körpergrösse beträgt 169.7, 95%-Vertrauensintervall: [167.8; 171.7]. Vertrauensintervall Die Formel für das 1 − α-Vertrauensintervall für den Mittelwert lautet: s s x̄ − z(1−α/2) √ ; x̄ + z(1−α/2) √ . n n Mit zα bezeichnen wir das α-Quantil einer Standardnormalverteilung, N (µ = 0, σ 2 = 1). Wichtig ist besonders der Wert z(1−α/2) = 1.96. Zum Merken: Das 95%-Vertrauensintervall umfasst den Mittelwert plus/minus zwei mal den Standardfehler. Zusammenhänge Gibt es einen Zusammenhang . . . ein Feuerzeug mit sich tragen Lungenkrebs Aspekte von Zusammenhängen I Stärke I Folgerichtigkeit I Spezifität I Zeitlichkeit I Biologischer Gradient I Plausibilität I Stimmigkeit I Experiment I Analogie Austin Bradford Hill, The Environment and Disease: Association or Causation? Proceedings of the Royal Society of Medicine, 58 (1965), 295-300. Zufällige und systematische Fehler Zufällige und systematische Fehler Zufälliger Fehler Zufällige und systematische Fehler Zufälliger Fehler Systematischer Fehler, Bias Zufällige und systematische Fehler Zufälliger Fehler Systematischer Fehler, Bias Diese beiden Fehler treten in Kombination auf, zwei Beispiele: Systematischer Fehler (Bias): Definition “Any process at any stage of inference which tends to produce results or conclusions that differ systematically from the truth.” Nach Murphy, The Logic of Medicine, Baltimore: John Hopkins University Press, 1976 aus Sackett, Bias in Analytic Research, Journal of Chronic Disease, 1979. Wann kann ein systematischer Fehler auftreten? I Literatursuche I Festlegen und Auswählen der Studienpopulation I Durchführen der experimentellen Intervention (“Exposure”) I Messen von “Exposure” und “Outcome” I Analysieren der Daten I Interpretieren der Analyse I Publizieren der Resultate Basierend auf dieser Einteilung hat Sackett einen Katalog von 35 systematischen Fehlern erstellt. Sackett, Bias in Analytic Research, Journal of Chronic Disease, 1979. Design Design Design Zusammenhänge Raucher sein ein Feuerzeug mit sich tragen Lungenkrebs Bias-Einteilung nach Struktur Confounding Bias Common causes of exposure and outcome. (“Exposure” und “Outcome” haben eine gemeinsame Ursache.) z.B. Hernán and Robins, A Structural Approach to Selection Bias, Epidemiology, 2004. Bias-Einteilung nach Struktur Confounding Bias Common causes of exposure and outcome. (“Exposure” und “Outcome” haben eine gemeinsame Ursache.) Selection Bias Conditioning on commen effects of exposure and outcome. (Ein gemeinsamer Effekt von “Exposure” und “Outcome” wird berücksichtigt.) z.B. Hernán and Robins, A Structural Approach to Selection Bias, Epidemiology, 2004. Bias-Einteilung nach Struktur Confounding Bias Common causes of exposure and outcome. (“Exposure” und “Outcome” haben eine gemeinsame Ursache.) Selection Bias Conditioning on commen effects of exposure and outcome. (Ein gemeinsamer Effekt von “Exposure” und “Outcome” wird berücksichtigt.) Information Bias Systematisch fehlerhafte Information über “Exposure”, “Outcome” oder andere Variabeln welche für die Studie herangezogen werden. z.B. Hernán and Robins, A Structural Approach to Selection Bias, Epidemiology, 2004. Confounding Bias gemeinsame Ursache "Outcome" "Exposure" I Anpassen des Studientypen: Zufällige “Exposure”-Zuweisung erlaubt es, “Confounding” durch bekannte und unbekannte Variablen zu verhindern. I Anpassen der Datenanalyse: Nur mit Fachwissen ist es möglich, “Confounder” zu identifizieren, zu messen und mit gewissen Annahmen in der Analyse zu berücksichtigen. Selection Bias Tod vor der Geburt Folsäure Herzmissbildung Selection Bias gemeinsamer Effekt "berücksichtigt" "Outcome" I "Exposure" Kann auch in experimentellen Studien mit zufälliger “Exposure”-Zuweisung vorkommen (z.B. durch fehlende Messwerte, “loss to follow-up”). Information Bias Systematisch fehlerhafte Information über “Exposure”, “Outcome” oder andere Variabeln welche für die Studie herangezogen werden. I Definition ist unabhängig von der kausalen Struktur. I Wenn es sich um eine kategoriale Messgrösse handelt, spricht man auch von “Misclassification Bias”. I Verschiedene Formen können unterschiedlich eingeteilt werden (z.B. “differential / non-differential”, “Exposure / Outcome / Covariate Misclassification”). Hypothesen Wissenschaftler formulieren gestützt auf Beobachtungen und viel Fachwissen Hypothesen. Beispiel: Hypothese: Alle Schwäne sind weiss. Falsifikationismus August Weismann, 1868 meinte, es lässt sich eine wissenschaftliche Hypothese zwar niemals erweisen, wohl aber, wenn sie falsch ist, widerlegen, und es fragt sich deshalb, ob nicht Thatsachen beigebracht werden können, welche mit einer der beiden Hypothesen in unauflöslichem Widerspruch stehen und somit dieselbe zu Fall bringen. Falsifikationismus August Weismann, 1868 meinte, es lässt sich eine wissenschaftliche Hypothese zwar niemals erweisen, wohl aber, wenn sie falsch ist, widerlegen, und es fragt sich deshalb, ob nicht Thatsachen beigebracht werden können, welche mit einer der beiden Hypothesen in unauflöslichem Widerspruch stehen und somit dieselbe zu Fall bringen. Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 wahr H0 akzeptieren H0 verwerfen HA wahr Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 wahr kein Feuer H0 akzeptieren H0 verwerfen HA wahr Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 wahr kein Feuer H0 akzeptieren H0 verwerfen HA wahr Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 wahr kein Feuer H0 akzeptieren kein Alarm H0 verwerfen HA wahr Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 wahr kein Feuer H0 akzeptieren kein Alarm H0 verwerfen Alarm HA wahr Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 akzeptieren kein Alarm H0 verwerfen Alarm H0 wahr kein Feuer HA wahr Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 akzeptieren kein Alarm H0 verwerfen Alarm H0 wahr kein Feuer Typ I Fehler, α HA wahr Feuer Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 akzeptieren kein Alarm H0 verwerfen Alarm H0 wahr kein Feuer (1 − α) Typ I Fehler, α HA wahr Feuer 1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm selten) Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 akzeptieren kein Alarm H0 verwerfen Alarm H0 wahr kein Feuer (1 − α) Typ I Fehler, α HA wahr Feuer 1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm selten) Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 akzeptieren kein Alarm H0 verwerfen Alarm H0 wahr kein Feuer (1 − α) Typ I Fehler, α HA wahr Feuer Typ II Fehler, β 1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm selten) Hypothesen Test: Analogie zu anderen Testverfahren Nullhypothese H0 : Kein Feuer Kein Alarm: H0 akzeptieren Alternativhypothese HA : Feuer Alarm: H0 verwerfen, HA akzeptieren H0 akzeptieren kein Alarm H0 verwerfen Alarm H0 wahr kein Feuer (1 − α) Typ I Fehler, α HA wahr Feuer Typ II Fehler, β (1 − β) 1 − α: Vertrauensniveau, misst Vertrauen, dass kein Alarm auch wirklich kein Feuer bedeutet (hohes Vertrauen: falscher Alarm selten) 1 − β: Power: misst Wahrscheinlichkeit, dass Feuer auch Alarm auslöst Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. H0 H0 akzeptieren verwerfen H0 wahr (1-α) Typ I Fehler, α HA wahr Typ II Fehler, β (1-β) Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. H0 H0 akzeptieren verwerfen H0 wahr (1-α) Typ I Fehler, α Konventionen des statistischen Testens: HA wahr Typ II Fehler, β (1-β) Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. H0 H0 akzeptieren verwerfen H0 wahr (1-α) Typ I Fehler, α Konventionen des statistischen Testens: I HA wahr Typ II Fehler, β (1-β) Wir lehnen die Nullhypothese ab, wenn ein bestimmte “extreme” Statistik beobachtet wird. Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. H0 H0 akzeptieren verwerfen H0 wahr (1-α) Typ I Fehler, α Konventionen des statistischen Testens: HA wahr Typ II Fehler, β (1-β) I Wir lehnen die Nullhypothese ab, wenn ein bestimmte “extreme” Statistik beobachtet wird. I Wir bezeichnen etwas als “extrem”, wenn es mit einer Wahrscheinlichkeit von < 5 % auftritt Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. H0 H0 akzeptieren verwerfen H0 wahr (1-α) Typ I Fehler, α Konventionen des statistischen Testens: HA wahr Typ II Fehler, β (1-β) I Wir lehnen die Nullhypothese ab, wenn ein bestimmte “extreme” Statistik beobachtet wird. I Wir bezeichnen etwas als “extrem”, wenn es mit einer Wahrscheinlichkeit von < 5 % auftritt (α < 0.05). Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Dichte 0.03 0.02 0.01 0.00 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Dichte 0.03 0.02 0.01 0.00 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Würfelbeispiel Nullhypothese Die Maschine zeigt den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Alternativhypothese Die Maschine zeigt nicht den Mittelwert von 4 Würfen mit einem 20-seitigen Würfel. Dichte 0.03 0.02 0.01 0.00 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Körperlänge Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Körperlänge Nullhypothese Es gibt keinen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Körperlänge Nullhypothese Es gibt keinen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. H0 : µ♀ − µ♂ = 0 Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Körperlänge Nullhypothese Es gibt keinen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. H0 : µ♀ − µ♂ = 0 Alternativhypothese Es gibt einen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Körperlänge Nullhypothese Es gibt keinen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. H0 : µ♀ − µ♂ = 0 Alternativhypothese Es gibt einen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. HA : µ♀ − µ♂ = δ Gibt es einen Zusammenhang zwichen dem Geschlecht und der Körperlänge des Dreistachligen Stichlings in der Bodenseeregion. “Exposure” Geschlecht “Outcome” Körperlänge Nullhypothese Es gibt keinen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. H0 : µ♀ − µ♂ = 0 Alternativhypothese Es gibt einen Unterschied in der Körperlänge zwischen männlichen und weiblichen Fischen. HA : µ♀ − µ♂ = δ Teststatistik Differenz in der Körperlänge zwischen männlichen und weiblichen Fischen. x̄♀ − x̄♂ Hypothesentesten Dichte Hypothesentesten xweibl. − xmännl. Dichte Hypothesentesten xweibl. − xmännl. Hypothesentesten Dichte H0 : µweibl. − µmännl. = 0 xweibl. − xmännl. Hypothesentesten Dichte H0 : µweibl. − µmännl. = 0 −10 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 Dichte kritischer Wert −10 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 Dichte kritischer Wert α 2 −10 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert α 2 −10 α 2 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert α 2 −10 α 2 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert α 2 −10 α 2 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert α 2 "P−Wert"/ 2 −10 α 2 "P−Wert"/ 2 −5 0 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert H1 : µweibl. − µmännl. = δ α 2 "P−Wert"/ 2 −10 α 2 "P−Wert"/ 2 −5 0 δ 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert H1 : µweibl. − µmännl. = δ α 2 "P−Wert"/ 2 −10 α 2 "P−Wert"/ 2 −5 0 δ 5 xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert H1 : µweibl. − µmännl. = δ β α 2 "P−Wert"/ 2 −10 α 2 "P−Wert"/ 2 −5 0 δ 5 xweibl. − xmännl. 10 15 20 Dichte Hypothesentesten −10 −5 0 5 xweibl. − xmännl. 10 15 20 Dichte Hypothesentesten α 2 −10 −5 0 α 2 5 xweibl. − xmännl. 10 15 20 Dichte Hypothesentesten α 2 −10 −5 0 α 2 5 1−α xweibl. − xmännl. 10 15 20 Hypothesentesten H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert H1 : µweibl. − µmännl. = δ β α 2 "P−Wert"/ 2 −10 α 2 −5 0 α 2 "P−Wert"/ 2 δ 5 1−α xweibl. − xmännl. 10 α 2 15 20 Alternative Szenarien Alternative Szenarien Szenario 1: Grössere Stichprobe und daher weniger Streuung. Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Alternative Szenarien Alternative Szenarien Szenario 1 (Forts.): Bei genügend grossen Stichproben könnte man das Signifikanzniveau senken, ohne wesentlich an Power zu verlieren. Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Alternative Szenarien Alternative Szenarien Szenario 2: Wenn der Unterschied zwischen den beiden Gruppen genügend gross ist, können relativ kleine Stichprobengrössen ausreichen, um einen signifikanten Unterschied zu zeigen. Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Dichte Alternative Szenarien x0 − x1 Signifikant, oder nicht? Ein statistischer Test soll helfen zu entscheiden, ob die Daten mit der Nullhypothese im Einklang stehen oder nicht. Wie viele andere Tests liefert eine statistischer Test in erster Linie eine “ja/nein” Antwort und dazu braucht es ein Signifikanzniveau, α, welches die kritische Grenze darstellt. Signifikant, oder nicht? Der “P-Wert” ist ein verfeinertes Mass ob ein Test signifikant ist oder nicht. Leider birgt der “P-Wert” einige Probleme: Interpretation Der “P-Wert” wird sehr häufig falsch interpretiert. Auch die Bezeichnung “P”, welche meist für Wahrscheinlichkeiten verwendet wird, ist trügerisch, da sich die Wahrscheinlichkeit nur auf das hypothetische Wiederholen des Experimentes bzw. der Untersuchung bezieht. Vereinheitlichung Für jeden statistischen Test kann man einen “P-Wert” berechnen. Jeder statistische Test besteht jedoch aus einer Nullhypothese und einer Teststatistik und die Wahl dieses Paares beeinflusst den “P-Wert”. Es besteht also die Gefahr, dass man dieser Zahl mehr Beachtung schenkt, als sie es wert ist und sie allzu sorgenlos ohne weitere Angaben nutzt. Signifikant, oder nicht? Ein Mittelweg zwischen “ja/nein” und dem “P-Wert”: Die Sternchen-Konvention Interpretation Notation P > 0.05 nicht signifikant (n.s.) 0.05 ≥ P > 0.01 schwach signifikant * 0.01 ≥ P > 0.001 stark signifikant ** 0.001 ≥ P sehr stark signifikant *** Relevant, oder nicht? I Wie gross muss ein Unterschied sein, dass er in einem statistischen Test signifikant wird? Relevant, oder nicht? I Wie gross muss ein Unterschied sein, dass er in einem statistischen Test signifikant wird? I Was bedeutet es, wenn bei einem geplanten Experiment der “P-Wert” sehr stark signifikant wird (P ≤ 0.001). Relevant, oder nicht? I Wie gross muss ein Unterschied sein, dass er in einem statistischen Test signifikant wird? I Was bedeutet es, wenn bei einem geplanten Experiment der “P-Wert” sehr stark signifikant wird (P ≤ 0.001). I Was bedeutet es, wenn bei einem geplanten Experiment ein statistischer Test nicht signifikant wird (P > 0.05). Relevant, oder nicht? I Wie gross muss ein Unterschied sein, dass er in einem statistischen Test signifikant wird? I Was bedeutet es, wenn bei einem geplanten Experiment der “P-Wert” sehr stark signifikant wird (P ≤ 0.001). I Was bedeutet es, wenn bei einem geplanten Experiment ein statistischer Test nicht signifikant wird (P > 0.05). Es ist unerlässlich das Resultat einer Untersuchung über die Schätzer zu interpretieren! Die alleinige Aussage, dass ein Testresultat signifikant ist erlaubt es nicht dieses zu interpretieren. Genauso kann man nicht sagen, dass ein Unterschied der in einer Untersuchung nicht signifikant wurde nicht relevant sei. “The abscence of evidence is no evidence for abscence.” Carl Sagan Ein- oder zweiseitig Testen? Um den kritischen Wert zu finden für das Verwerfen der Nullhypothese haben wir an beiden Enden der Verteilung jeweils eine Fläche von α/2 abgetrennt. Es stellt sich natürlich die Frage, wieso wir nicht einfach α auf einer Seite abtrennen, da wir ja sowieso erwarten, dass der Effekt in die bekannte Richtung geht. Sollen wir also ein- oder zweiseitig testen? Ein- oder zweiseitig Testen? Um den kritischen Wert zu finden für das Verwerfen der Nullhypothese haben wir an beiden Enden der Verteilung jeweils eine Fläche von α/2 abgetrennt. Es stellt sich natürlich die Frage, wieso wir nicht einfach α auf einer Seite abtrennen, da wir ja sowieso erwarten, dass der Effekt in die bekannte Richtung geht. Sollen wir also ein- oder zweiseitig testen? Ganz einfach - zweiseitig! Weil wir ja nicht sicher sind, dass der Effekt in diese Richtung geht. Einseitig Testen darf man nur, wenn der Effekt aus z.B. physikalischen Gründen nur in eine Richtung gehen kann. Lage-Vergleich zwischen zwei Stichproben Ein pragmatischer Ansatz: I Immer den Rangsummentest von Wilcoxon verwenden. Nullhyothese H0 : Yg ,i F(i.i.d.) Die Verteilung F kann eine beliebige Verteilung sein, aber alle Messwerte Yg ,i müssen aus der selben Verteilung sein und unabhängig voneinander. Alternativhypothese HA : Yg =1,i F1 , Yg =2,i F2 wobei F2 (x) = F1 (x − δ) und δ 6= 0 Teststatistik Die Teststatistik W wird wie folgt berechnet: Rg ,i = Rang (Yg ,i |Yg =1,i=1 . . . Yg =1,i=n1 , Yg =2,i=1 . . . Yg =2,i=n2 ) P 1 Ug =1 = i=n i=1 Rg =1,i der grössere der beiden Werte Wa = n1 n2 + n2 (n22 +1) − Ug =1 und Wb = n1 n2 − Ug =1 Gibt es einen Unterschied zwischen weiblichen und männlichen Stichlingen? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 sex f f f f m m f f m m m m f m m bodySize 88.22 90.95 78.63 81.85 69.47 87.33 75.06 78.64 65.63 75.91 82.8 80.14 84.18 74.68 70.59 rank 29 30 16 22 3 28 10 17 1 13 23 21 26 9 5 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 sex m m m m m m m f f f f f f f f bodySize 75.55 78.04 73.82 70.57 69.38 74.55 79.62 75.89 79.3 74.14 83.92 80.07 77.64 86.51 83.28 rank 11 15 6 4 2 8 19 12 18 7 25 20 14 27 24 Gibt es einen Unterschied zwischen weiblichen und männlichen Stichlingen? Dichte 0.015 0.010 0.005 0.000 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 50 100 150 200 W Wahrscheinlichkeitsdichte der Wilcoxon-Statistik (n1 = n2 = 15) unter der Nullhypothese Gibt es einen Unterschied zwischen weiblichen und männlichen Stichlingen? > wilcox.test(bodySize ~ sex, data = stickleback, + conf.int = TRUE) Wilcoxon rank sum test data: bodySize by sex W = 177, p-value = 0.006568 alternative hypothesis: true location shift is not equal to 0 95 percent confidence interval: 1.73 9.92 sample estimates: difference in location 5.88 Gibt es einen Unterschied zwischen weiblichen und männlichen Stichlingen? > wilcox.test(bodySize ~ sex, data = stickleback, + conf.int = TRUE) Wilcoxon rank sum test data: bodySize by sex W = 177, p-value = 0.006568 alternative hypothesis: true location shift is not equal to 0 95 percent confidence interval: 1.73 9.92 sample estimates: difference in location 5.88 I Der Schätzer “difference in location” entspricht dem Median der Differenzen zwischen allen möglichen Wertepaaren die man zwischen den beiden Gruppen bilden kann. Vergleich der Power zwischen Wilcoxon und T-Test Wilcoxon Test t Test 50 50 N=47 ● 45 Total sample size 25 0.8 0.8 30 ● 40 5 0 35 N=44 0.9 40 0.9 r= we 5 Po 0.8 .95 0 0.9 r= we Po .85 Total sample size 45 35 30 25 θ=1 θ=1 20 20 0.6 0.8 1.0 Delta, δ 1.2 1.4 0.6 0.8 1.0 1.2 1.4 Delta, δ Für diese Abbildungen habe ich Messwerte aus einer Normalverteilung N (µ = 0, σ = 1) bzw. N (µ = δ, σ = 1) gezogen und mit den beiden Tests verglichen. Multiples Testen H0 : µweibl. − µmännl. = 0 kritischer Wert Dichte kritischer Wert α 2 −10 α 2 −5 0 5 xweibl. − xmännl. 10 15 20 Multiples Testen H0 ist richtig. Was ist die Wahrscheinlichkeit, dass wir H0 verwerfen? Anzahl Wenn H0 wahr ist verwerfen wir H0 Tests fälschlicherweise mit folgenden (k) Wahrscheinlichkeiten nie mindestens einmal Multiples Testen Anzahl Wenn H0 wahr ist verwerfen wir H0 Tests fälschlicherweise mit folgenden (k) Wahrscheinlichkeiten nie mindestens einmal 1 0.95 0.05 Multiples Testen Anzahl Wenn H0 wahr ist verwerfen wir H0 Tests fälschlicherweise mit folgenden (k) Wahrscheinlichkeiten nie mindestens einmal 1 0.95 0.05 2 0.9025 0.0975 Multiples Testen Anzahl Wenn H0 wahr ist verwerfen wir H0 Tests fälschlicherweise mit folgenden (k) Wahrscheinlichkeiten nie mindestens einmal 1 0.95 0.05 2 0.9025 0.0975 3 0.8574 0.1426 4 0.8145 0.1855 k (1 − α0)k 1 − (1 − α0)k Multiples Testen Anzahl Wenn H0 wahr ist verwerfen wir H0 Tests fälschlicherweise mit folgenden (k) Wahrscheinlichkeiten nie mindestens einmal 1 0.95 0.05 2 0.9025 0.0975 3 0.8574 0.1426 4 0.8145 0.1855 k (1 − α0)k 1 − (1 − α0)k Die Dunn-Šidák Methode erlaubt das Signifikanzniveau der einzelnen Tests (α0) so anzupassen, dass die Fehlerrate für eine ganze Familie von Testen auf dem Niveau von α gehalten werden kann. α = 1 − (1 − α0)k α0 = 1 − (1 − α)1/k Multiples Testen Anzahl Wenn H0 wahr ist verwerfen wir H0 Tests fälschlicherweise mit folgenden (k) Wahrscheinlichkeiten α0 nie mindestens einmal 1 0.95 0.05 0.05 2 0.9025 0.0975 0.0253 0.8574 0.1426 0.017 3 4 0.8145 0.1855 0.0127 k (1 − α0)k 1 − (1 − α0)k Die Dunn-Šidák Methode erlaubt das Signifikanzniveau der einzelnen Tests (α0) so anzupassen, dass die Fehlerrate für eine ganze Familie von Testen auf dem Niveau von α gehalten werden kann. α = 1 − (1 − α0)k α0 = 1 − (1 − α)1/k Lage-Vergleich zwischen mehrerer Stichproben Auch um die Lage von mehr als zwei Stichproben zu testen gibt es einen empfehlenswerten Test basierend auf den Rängen der Messwerte, den Kruskal-Wallis-Test. Er tested ob die Lage aller Stichproben gleich ist (Nullhypothese). > library(asuR) > data(pea) > kruskal.test(length ~ trt, data = pea) Kruskal-Wallis rank sum test data: length by trt Kruskal-Wallis chi-squared = 38.4368, df = 4, p-value = 9.105e-08 Wir möchten uns jedoch hier auch die parametrische Form etwas genauer anschauen weil diese die Grundlage ist für das Verständnis der meisten Formen des “Modellierens”. Die Methode welche es erlaubt Lageparameter (im speziellen Fall Mittelwerte) aus mehreren Stichproben zu vergleichen nennt man Varianzanalyse oder kurz ANOVA (für “analysis of variance”). Formulieren eines linearen Modells Einweg-ANOVA: E[yij ] yij = ∼ µi indep. N (µi , σ 2 ) mit 1, . . . , i Kategorien, jede mit 1, . . . , j Untersuchungseinheiten. Das tolle an dieser Formulierung ist, dass sie uns erlaubt den Erwartungswert der Kategorien und die Streuung der Messwerte separat zu beschreiben. Eine ANOVA Session mit R > > > > + > + > > > > library(asuR) data(pea) bwplot(~length | trt, layout = c(1, 5), data = pea) trtSS <- sum(10 * (tapply(pea$length, pea$trt, mean) - mean(pea$length))^2) resSS <- sum((pea$length - rep(tapply(pea$length, pea$trt, mean), each = 10))^2) totSS <- sum((pea$length - mean(pea$length))^2) model <- lm(length ~ trt, data = pea) summary.aov(model) summary(model) Wahrscheinlichkeitsdichte der F Statistik Dichte 0.6 0.4 0.2 0.0 0 2 4 6 8 10 F4, 45 Wahrscheinlichkeitsdichte der F Statistik (df1 = 4, df2 = 45) unter der Nullhypothese Formulieren eines linearen Modells Einweg-ANOVA: E[yij ] = µi yij ∼ indep. N (µi , σ 2 ) Formulieren eines linearen Modells Einweg-ANOVA: am konkreten Beispiel E[yij ] yij = = ∼ µi β0 + β1 x1 + β2 x2 + β3 x3 + β4 x4 indep. N (µi , σ 2 ) mit den Kategorien i = 1, 2, 3, 4, 5, jede mit den Untersuchungseinheiten j = 1, . . . , 10. Kontraste Wenn man die Lage von mehr als zwei Stichproben beschreiben möchte, ist man meist nicht nur an der Nullhypothese die besagt dass alle Lageparameter gleich sind (H0 : µ1 = µ2 = . . . = µk ) interessiert. Kontraste Wenn man die Lage von mehr als zwei Stichproben beschreiben möchte, ist man meist nicht nur an der Nullhypothese die besagt dass alle Lageparameter gleich sind (H0 : µ1 = µ2 = . . . = µk ) interessiert. Oft möchte man auch einzelne Lageparameter oder Linearkombinationen von Lageparametern vergleichen, man nennt diese Vergleiche Kontraste, einige Beispiele: I H0 : µ1 − µ2 = 0 und H0 : µ1 − µ3 = 0 und H0 : µ2 − µ3 = 0 Alle paarweisen Vergleiche. I H0 : µ1 − 12 (µ2 + µ3 ) = 0, oder besser geschrieben H0 : 1µ1 − 12 µ2 − 21 µ3 = 0 zum Testen ob der Mittelwert in der Gruppe 1 sich vom Mittel der Gruppen 2 und 3 unterscheidet. Kontraste Wenn man die Nullhypothese (die Lage aller Stichproben ist identisch) verwerfen konnte, dann kann man weitere Kontraste untersuchen und testen. Allerdings darf man nicht beliebige und auch nicht beliebig viele Kontraste untersuchen. Die Regeln sind: I Immer nur k − 1 Kontraste können getestet werden, wenn man k Stichproben untersucht. I Die Kontraste müssen orthogonal zueinander stehen, d.h. das Produkt der Koeffizienten muss sich zu Null aufsummieren. Ein Beispiel mit zwei Kontrasten: 1µ1 − 21 µ2 − 21 µ3 = 0 0µ1 − 1 µ2 + 1 µ3 = 0 (1 × 0) + (− 12 × −1) + (− 12 × +1) = 0 Eine ANOVA Session mit R > + + + + > > > > contr <- rbind(`control-sugar` = c(1, -1/4, -1/4, -1/4, -1/4), `pure-mixed` = c(0, 1/3, 1/3, -1, 1/3), `monosaccharides-disaccharides` = c(0, 1/2, 1/2, 0, -1), `gluc-fruc` = c(0, 1, -1, 0, 0)) ortho(contr) contrasts(pea$trt) <- mancontr(contr) model <- lm(length ~ trt, data = pea) summary(model) Kontraste: Tukey’s HSD Student (WS Gosset) hat die Verteilung der t-Statistik entdeckt für zwei Stichproben welche sich nicht im Mittelwert unterscheiden. Wenn es nun k-Stichproben gibt dann gibt es k(k − 1)/2 paarweise Vergleiche mit einem zugehörigen t-Wert. Tukey hat die Verteilung der grössten dieser t-Statistiken beschrieben. Damit kann man alle paarweisen Vergleiche testen und der Typ I Fehler wird nicht grösser als α. Man nennt die Methode auch Tukey’s HSD (Honest Significant Difference). > > > > > m0 <- aov(length ~ trt, data = pea) (t0 <- TukeyHSD(m0)) par.old <- par(mar = c(4, 6, 2, 2)) plot(t0, las = 1) par(par.old) Lineare Modelle Einweg ANOVA: E[yij ] = = yij ∼ mit i Kategorien, µi β0 + β1 x1 + . . . + βi−1 xi−1 indep. N (µ + αi−1 , σ 2 ) jede mit j Untersuchungseinheiten. Lineare Modelle Einweg ANOVA: E[yij ] = = yij ∼ mit i Kategorien, µi β0 + β1 x1 + . . . + βi−1 xi−1 indep. N (µ + αi−1 , σ 2 ) jede mit j Untersuchungseinheiten. Regression: E[yij ] = µ(xi ) = α + βxi = β0 + β1 xi yij ∼ indep. N (α + βxi , σ 2 ) mit j gemessenen Untersuchungseinheiten an i Punkten auf der kontinuierlichen x-Achse. Lineare Modelle Regression: E[yij ] = µ(xi ) = α + βxi = β0 + β1 xi yij ∼ indep. N (α + βxi , σ 2 ) mit j gemessenen Untersuchungseinheiten an i Punkten auf der kontinuierlichen x-Achse. Regression Es wurde der Gewichtsverlust von Tribolium confusum Larven nach sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten gemessen. Regression Es wurde der Gewichtsverlust von Tribolium confusum Larven nach sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten gemessen. 12 ● Gewichtsverlust, mg 10 ● ● ● 8 6 4 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 0 20 40 60 Relative Luftfeuchtigkeit 80 100 Regression Es wurde der Gewichtsverlust von Tribolium confusum Larven nach sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten gemessen. 12 ● Gewichtsverlust, mg 10 ● ● ● 8 6 4 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 0 20 40 60 Relative Luftfeuchtigkeit 80 100 Regression Es wurde der Gewichtsverlust von Tribolium confusum Larven nach sechs Tagen ohne Futter bei verschiedenen Luftfeuchtigkeiten gemessen. 12 ● Gewichtsverlust, mg 10 ● ● ● 8 6 4 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 0 20 40 60 Relative Luftfeuchtigkeit 80 100 Regression E[yij ] yij = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) > summary(lm(weight.loss ~ humidity, data = tribolium)) Call: lm(formula = weight.loss ~ humidity, data = tribolium) Residuals: Min 1Q -5.1830 -1.4155 Median 0.4941 3Q 1.3464 Max 5.3518 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 8.202155 0.436580 18.787 < 2e-16 *** humidity -0.044845 0.007421 -6.043 4.7e-08 *** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 2.028 on 79 degrees of freedom Multiple R-squared: 0.3162, Adjusted R-squared: 0.3075 F-statistic: 36.52 on 1 and 79 DF, p-value: 4.697e-08 Regression Hypothesen Hat die erklärende Variable (X ) einen linearen Zusammenhang mit der Zielgrösse (Y ). Dazu testen wir die Nullhypothese H0 : β = 0. Vorhersage Ein Regressionsmodell erlaubt uns auch für eine gegebene erklärende Variable (X ) eine Vorhersagen für die Zielgrösse (Y ) zu machen. Die Wahrscheinlichkeitsverteilung für die Vorhersage lautet N (α̂ + β̂xi , σ̂ 2 ). R 2 Schätzt wie stark der lineare Zusammenhang zwischen der erklärenden Variable (X ) und der Zielgrösse (Y ) ist. Der Wert liegt immer zwischen 0 und 1. Leider ist R 2 sehr stark von der gewählten Spannweite der erklärenden Variablen abhängig und kann somit nicht verwendet werden um Modelle von verschiedenen Datensätzen zu vergleichen. Voraussetzungen Das Überprüfen der Voraussetzungen ist ein wesentlicher Bestandteil einer Regressionsanalyse. Es geht einerseits darum die Verletzungen aufzudecken und falsche Rückschlüsse zu vermeiden andererseits aber auch darum ein besseres Modell zu finden. Residuen Die Streuung der Residuen ist konstant Erwartungswert der Residuen ist null I Residuen sind normalverteilt * Residuen sind unabhängig voneinander I I Hebelarm I Alle Messwerte haben denselben Einfluss Streuung der Residuen ● 2 ● ● ● ● ● "Standartisierte" Residuen ● 1 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● −1 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● −2 ● ● ● ● 4 5 6 7 8 "fitted values" I Der Erwartungswert der Residuen ist null I Die Streuung der Residuen ist konstant Verteilung der Residuen ● 4 ● ● ● ●● ● ●● ● ● ●●● Residuen 2 ●●● ●●●●● ●●● ●● ●●●●● ● ●●● ●●●●● ● ● ● ●● ● ● ● 0 ●● ●●● ● ●● ●● ●● ●●● ●●●●● ● ●● ● −2 ●● ●● −4 ● ● ● ● −2 −1 0 Theoretische Quantile I Residuen sind normalverteilt 1 2 Ausreisser Es gibt zwei Arten von Ausreissern Y – Ausreisser Messwerte welche weit entfernt vom Erwartungswert liegen (grosse Residuen) aber einen kleinen Hebelarm haben. X – Ausreisser Messwerte welche einen sehr grossen Hebelarm (“leverage”) haben. Der Hebelarm gibt an was für ein Potenzial die einzelnen Werte haben das Modell zu beeinflussen. Im Gegensatz zu Werten mit grossen Residuen müssen Werte mit grossem Hebelarm nicht zwingend problematisch sein. Ausreisser: Potenzial-Residuen Der Potenzial-Residuen-Plot zeigt welche Rolle einzelne Punkte im “fitting” Prozess spielen. ● ● ● ● Residuen ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Potenzial I Alle Messwerte haben denselben Einfluss Ausreisser: Potenzial-Residuen-Diagramm Interpretation des Potenzial-Residuen-Diagramm (nur als grobe Faustregel): I Gibt es Punkte mit grossem Potenzial und grossen Residuen (Quadrant oben links) ist alles in Ordnung. I Gibt es Punkte mit grossem Potenzial und kleinen Residuen lohnt es diese genauer zu untersuchen, sie könnten (!) das Modell stark verzerren. I Gibt es Punkte mit grossen Residuen aber kleinem Potenzial, dann stimmt das Modell für diese Punkte nicht. Das kann am Modell liegen oder an den Punkten Graphical Excellence Graphical excellence is that which gives to the viewer the greatest number of ideas in the shortest time with the least ink in the smallest space. Edward R Tufte Menschliche Wahrnehmung von graphischen Elementen Rang 1 2 3 4 5 6 7 8 Aspekt Position entlang einer gemeinsamen Achse Position auf identischen aber nicht ausgerichteten Achsen Länge Winkel Steigung Fläche Volumen Farbsättigung (schlecht sortierbar, gut diskriminierbar) Cleveland 1985, Graphical Perception and Graphical Methods for Analyzing Scientific Data, Science, 229, 828-833. Einige Ideen I Zeigen Sie die Messwerte (e.g. rug()), falls diese zu zahlreich sind kann man auch eine zufällige Auswahl zeigen. I Lassen Sie den Betrachter über den Inhalt nachdenken statt über die Methoden. I Zeigen Sie was im Zentrum der Untersuchung steht. Zeigen Sie z.B. die Differenz zwischen zwei Behandlungen mit einem Vertrauensintervall statt die Mittelwerte der einzelnen Gruppen. I Ob der Nullpunkt auf der Achse abgebildet sein soll oder nicht muss sorgfältig überdacht werden. Mittelwert-Differenz Abbildung ● Männchen ● Weibchen 70 75 80 85 10 15 ● Differenz 0 5 Körpergrösse von Stichlingen im Bodensee Fehlerbalken Fehlerbalken (“error bars”) können Verschiedenes zeigen: I Standardabweichung der Daten I Standardabweichung einer Statistik (Standardfehler) I Vertrauensintervall a ●●●●●●●●●●●●●●●●●●●● b ● ● ● ● ● data set c ● ● ● ● ● ●●●●●●●●●●●●●●●●●● d ● ● ● ●● 90 a b c d ●● ● ● ● ● ●● ●● ● ● ●● ● 100 110 ● ● ● ● 90 100 110 Alle vier Datensets haben gleich viele Beobachtungen, denselben Mittelwert und dieselbe Standardabweichung. Theoriefragen zu den bisherigen Inhalten Theoriefragen zu den bisherigen Inhalten I Was ist der Vorteil der geschätzten empirischen Dichte gegenüber einem Histogramm? Theoriefragen zu den bisherigen Inhalten I Was ist der Vorteil der geschätzten empirischen Dichte gegenüber einem Histogramm? I Erklären Sie den Begriff Vertrauensintervall. Theoriefragen zu den bisherigen Inhalten I Was ist der Vorteil der geschätzten empirischen Dichte gegenüber einem Histogramm? I Erklären Sie den Begriff Vertrauensintervall. I Was bedeutet der Begriff “Power” genau? Theoriefragen zu den bisherigen Inhalten I Was ist der Vorteil der geschätzten empirischen Dichte gegenüber einem Histogramm? I Erklären Sie den Begriff Vertrauensintervall. I Was bedeutet der Begriff “Power” genau? I Was für Angaben braucht es um das Resultat eines statistischen Tests zu interpretieren? Ein Beispiel: Sie haben getestet ob sich die Körpergrösse bei Stichlingen hinsichtlich der Herkunft unterscheidet und dazu je 100 Stichlinge aus zwei Zuflüssen gemessen. Der Unterschied in der Lage ist sehr stark signifikant. Welche Angaben fehlen noch? Theoriefragen zu den bisherigen Inhalten I Was ist der Vorteil der geschätzten empirischen Dichte gegenüber einem Histogramm? I Erklären Sie den Begriff Vertrauensintervall. I Was bedeutet der Begriff “Power” genau? I Was für Angaben braucht es um das Resultat eines statistischen Tests zu interpretieren? Ein Beispiel: Sie haben getestet ob sich die Körpergrösse bei Stichlingen hinsichtlich der Herkunft unterscheidet und dazu je 100 Stichlinge aus zwei Zuflüssen gemessen. Der Unterschied in der Lage ist sehr stark signifikant. Welche Angaben fehlen noch? I Sie möchten zeigen, dass die Stichlinge aus dem Obersee und dem Untersee gleich gross sind. Wie gehen Sie vor? Theoriefragen zu den bisherigen Inhalten I Was ist der Vorteil der geschätzten empirischen Dichte gegenüber einem Histogramm? I Erklären Sie den Begriff Vertrauensintervall. I Was bedeutet der Begriff “Power” genau? I Was für Angaben braucht es um das Resultat eines statistischen Tests zu interpretieren? Ein Beispiel: Sie haben getestet ob sich die Körpergrösse bei Stichlingen hinsichtlich der Herkunft unterscheidet und dazu je 100 Stichlinge aus zwei Zuflüssen gemessen. Der Unterschied in der Lage ist sehr stark signifikant. Welche Angaben fehlen noch? I Sie möchten zeigen, dass die Stichlinge aus dem Obersee und dem Untersee gleich gross sind. Wie gehen Sie vor? I Welchen Test verwenden Sie für das Testen ob sich zwei Stichproben hinsichtlich der Lage unterscheiden? Theoriefragen zu den bisherigen Inhalten Theoriefragen zu den bisherigen Inhalten I Wie gross darf der P-Wert höchstens sein, damit ein Resultat relevant ist? Theoriefragen zu den bisherigen Inhalten I Wie gross darf der P-Wert höchstens sein, damit ein Resultat relevant ist? I Was bedeutet beim statistischen Testen ein Typ I und II Fehler? Theoriefragen zu den bisherigen Inhalten Theoriefragen zu den bisherigen Inhalten I Was sind die drei wichtigsten Charakteristika kontinuierlicher Variablen? Theoriefragen zu den bisherigen Inhalten I Was sind die drei wichtigsten Charakteristika kontinuierlicher Variablen? I Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen Variablen aufzeichnet, welche Grösse trägt man auf der y-Achse auf und wie interpretiert man diese Grösse? Theoriefragen zu den bisherigen Inhalten I Was sind die drei wichtigsten Charakteristika kontinuierlicher Variablen? I Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen Variablen aufzeichnet, welche Grösse trägt man auf der y-Achse auf und wie interpretiert man diese Grösse? I Beschreiben Sie was “Standardfehler” bedeutet. Theoriefragen zu den bisherigen Inhalten I Was sind die drei wichtigsten Charakteristika kontinuierlicher Variablen? I Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen Variablen aufzeichnet, welche Grösse trägt man auf der y-Achse auf und wie interpretiert man diese Grösse? I Beschreiben Sie was “Standardfehler” bedeutet. I Welche beiden Voraussetzungen müssen erfüllt sein für ein Confounding? Theoriefragen zu den bisherigen Inhalten I Was sind die drei wichtigsten Charakteristika kontinuierlicher Variablen? I Wenn man die Wahrscheinlichkeitsdichte einer kontinuierlichen Variablen aufzeichnet, welche Grösse trägt man auf der y-Achse auf und wie interpretiert man diese Grösse? I Beschreiben Sie was “Standardfehler” bedeutet. I Welche beiden Voraussetzungen müssen erfüllt sein für ein Confounding? I Was ist der Unterschied zwischen einer Beobachtungsstudie und einer experimentellen Studie? Multivariate Statistik Multivariate Statistik Werden an einer Untersuchungseinheit mehrere Variablen gemessen, dann erhält man multivariate Daten. Korrelation vs. Regression Sowohl die Korrelation als auch die Regression untersuchen den Zusammenhang zwischen zwei Variablen. Trotzdem unterscheiden sie sich fundamental: Korrelation untersucht den Zusammenhang zwischen zwei “gleichberechtigten” Variablen (rY 1,Y 2 = rY 2,Y 1 ) und ist ein rein beschreibendes Mass. Regression untersucht den Einfluss von einer oder mehreren “erklärenden” Variablen, Xi , auf eine “Zielvariable”, Y . Die Regressionsgerade von X auf Y ist in der Regel eine andere als von Y auf X . Eine Regression erlaubt nicht nur eine Beschreibung des Zusammenhangs, sondern auch eine Vorhersage für y − Werte wenn man die entsprechenden x − Werte kennt. Pearson Korrelation Die Pearson Korrelation, rY 1,Y 2 = n X sy 1y 2 1 y 1i y 2i = , (n − 1)sy 1 sy 2 sy 1 sy 2 (1) i=1 wobei sy 1 , sy 2 die Standardabweichung von y 1 und y 2 ist und sy 1y 2 die Kovarianz zwischen y 1 und y 2. Die Pearson Korrelation liegt zwischen -1 und 1. Die Pearson Korrelation misst “nur” den linearen Zusammenhang. Achtung, auch ein sehr starker nicht linearer Zusammenhang kann eine Pearson Korrelation rY 1,Y 2 = 0 haben! Die Pearson Korrelation ist ganz und gar nicht robust und man muss immer ein Auge darauf haben, ob es Werte gibt welche die Korrelation stark beeinflussen (Scatterplot!). Pearson Korrelation > library(MASS) > y1y2 <- mvrnorm(100, mu = c(0, 0), Sigma = matrix(c(1, + 0.5, 0.5, 1), nrow = 2)) > cor(x = y1y2, method = "pearson") [,1] [,2] [1,] 1.000000 0.531472 [2,] 0.531472 1.000000 Spearman Rangkorrelation Die Spearman Rangkorrelation, rY 1,Y 2 = sRangY 1 ,RangY 2 , sRangY 1 sRangY 2 (2) misst im Gegensatz zur Pearson Korrelation nicht wie stark ein “linearer”, sondern ein “monotoner” Zusammenhang zwischen den Variablen Y 1 und Y 2 ist. Ein weiterer Vorteil der Spearman Rangkorrelation ist auch, dass er äusserst robust ist. > cor(x = y1y2, method = "spearman") [,1] [,2] [1,] 1.0000000 0.5246205 [2,] 0.5246205 1.0000000 Interpretation einer Korrelation Allgemein ist es schwierig Korrelationen zu interpretieren. Wichtig zu beachten ist, dass ein gefundener Zusammenhang noch bei weitem kein kausaler, ursächlicher Zusammenhang sein muss, auch wenn der Zusammenhang sehr stark ist (siehe auch Design und Bias). Eine Korrelation ist ein Schätzer für einen Parameter - dazu braucht es eine Population. Die Überlegung wie diese Population definiert werden kann ist oft hilfreich bei der Interpretation. Wozu verwendet man Regressionen I Studium der Zusammenhänge (um die Variation der Zielvariable erklären zu können) I Vorhersage (um die Zielvariable möglichst genau vorhersagen zu können) I Statistische Kontrolle (um die Zielvariable möglichst genau einstellen zu können) Multiple lineare Regression Untersucht den Zusammenhang zwischen einer Zielgrösse und mehreren erklärenden Variablen. E[yijk ] yijk = ∼ µ(xi ) = β0 + β1 x1i + β2 x2j indep. N (β0 + β1 x1i + β2 x2j , σ 2 ) Tribolium Beispiel ANCOVA Untersucht den Zusammenhang zwischen einer Zielgrösse und mindestens einer kontinuierlichen und einer kategoriellen erklärenden Variable. E[yijk ] yijk = ∼ β0 + β1j + β2 xi indep. N (β0 + β1j + β2 xi , σ 2 ) ANCOVA mit Interaktion Wenn der Einfluss einer erklärenden Variable von einer weiteren Variable abhängt, spricht von von einer Interaktion dieser beiden Variablen. Für eine ANCOVA würde das folgendermassen aussehen: E[yijk ] yijk = ∼ β0 + β1j + β2 xi + β3 xi j indep. N (β0 + β1j + β2 xi + β3 xi j, σ 2 ) Eine Übung: Fitten Sie eine Regression um mit den Variablen “Grösse” und “Geschlecht” das “Gewicht” zu erklären. Grösse 150 165 180 Geschlecht weiblich männlich männlich Gewicht 50 55 65 Eine Übung: Fitten Sie eine Regression um mit den Variablen “Grösse” und “Geschlecht” das “Gewicht” zu erklären. Grösse 150 165 180 170 Geschlecht weiblich männlich männlich weiblich Gewicht 50 55 65 70 Zweiweg-ANOVA E[yijk ] yijk = ∼ β0 + β1i + β2j indep. N (β0 + β1i + β2j , σ 2 ) mit 1, . . . , i Kategorien im ersten Faktor und 1, . . . , j Kategorien im zweiten Faktor, jeweils mit 1, . . . , k Untersuchungseinheit. Zweiweg-ANOVA mit Interaktion E[yijk ] yijk = ∼ β0 + β1i + β2j + β3ij indep. N (β0 + β1i + β2j + β3ij , σ 2 ) Mit diesem Modell kann der Einfluss vom ersten Faktor auf den Outcome abhängig vom zweiten Faktor modelliert werden. 90 Interaktions-Plot 50 60 70 G g 40 Ertrag 80 Allel G a A Allel A Datentransformation Warum transformieren wir? I Damit wir die geschätzten Werte besser interpretieren können (Einheiten, Zentrieren, Skalieren). I Damit ein Zusammenhang linear wird (und wir ihn mit den bekannten Methoden modellieren können). I Damit die Residuen “normalverteilt” und die Variation konstant wird (und daher die Annahmen unserer Methoden nicht verletzt werden). Exkurs: Allometrie Beziehung zwischen der Grösse und der Form, Anatomie, Physiologie und auch des Verhaltens eines Organismus. Die klassische Formel y = ax b , wird in der logarithmischen Form zu log y = log a + b log x. In dieser Form können wir u.a. durch Anpassen eines linearen Modells die Parameter schätzen. Wenn eine Skalierung isometrisch ist erhalten wir eine Steigung von b = 1. Was für eine Steigung erwarten wir bei einer isometrischen Skalierung, wenn y eine Längenangabe ist und x ein Volumen (oder Gewicht) darstellt? Exkurs: Allometrie Beziehung zwischen der Grösse und der Form, Anatomie, Physiologie und auch des Verhaltens eines Organismus. Die klassische Formel y = ax b , wird in der logarithmischen Form zu log y = log a + b log x. In dieser Form können wir u.a. durch Anpassen eines linearen Modells die Parameter schätzen. Wenn eine Skalierung isometrisch ist erhalten wir eine Steigung von b = 1. Was für eine Steigung erwarten wir bei einer isometrischen Skalierung, wenn y eine Längenangabe ist und x ein Volumen (oder Gewicht) darstellt? Durch Umformen ergibt sich log l = ... + b log l 3 = ... + 3b log l und daher eine Steigung von 3. Linearität erreichen y = ax b , wird zu log y = log a + b log x. 4 4 b>1 3 3 y y b=1 2 0<0<1 1 2 b < −1 1 0 0 1 2 x 3 4 b = −1 −1 < b < 0 0 0 1 2 x 3 4 Linearität erreichen y = ae bx , wird durch logarithmieren log y = log a + bx. 1.0 b>0 50 b<0 0.8 0.6 30 y y 40 0.4 20 10 0.2 0 0.0 0 1 2 x 3 4 0 1 2 x 3 4 Datentransformation: Logarithmieren 0.4 0.2 0.0 Dichte 0.6 "untransformiert" 0 2 4 6 gemessene Werte 8 10 Datentransformation: Logarithmieren 0.4 0.2 0.0 Dichte 0.6 "untransformiert" 0 2 4 6 8 10 gemessene Werte 0.4 0.2 0.0 Dichte 0.6 "log−transformiert" −2 −1 0 1 log(gemessene Werte) 2 Datentransformation: Faustregeln log(x) log(x + 1) log(10000x + 1) x >1 x ≥0 1>x ≥0 √ qx x+ für Zähldaten (Poisson) 1 2 √ arcsin x 1 1+x 2 ln 1−x Potenztransformationen: xn √ x ln(x) √ 1/ x 1/x 1/x n falls mit Null 0 < x < 1, Prozente und Proportionen −1 < x < 1, Regressionskoeffizienten linksschief schwach rechtsschief ... ... ... starkt rechtsschief Mosteller und Tukey’s bulging rule (Wölbungsregel) Y X X Y Voraussetzungen E[yij ] yij = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) Voraussetzungen E[yij ] yij I = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) Die Streuung der Residuen ist konstant Voraussetzungen E[yij ] yij = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) I Die Streuung der Residuen ist konstant I Erwartungswert der Residuen ist null Voraussetzungen E[yij ] yij = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) I Die Streuung der Residuen ist konstant I Erwartungswert der Residuen ist null I Residuen sind normalverteilt Voraussetzungen E[yij ] yij = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) I Die Streuung der Residuen ist konstant I Erwartungswert der Residuen ist null I Residuen sind normalverteilt I Alle Messwerte haben denselben Einfluss/Hebelarm. Voraussetzungen E[yij ] yij = ∼ µ(xi ) = α + βxi = β0 + β1 xi indep. N (α + βxi , σ 2 ) I Die Streuung der Residuen ist konstant I Erwartungswert der Residuen ist null I Residuen sind normalverteilt I Alle Messwerte haben denselben Einfluss/Hebelarm. I Residuen sind unabhängig voneinander Körpergewicht (in kg) Nicht unabhängige Residuen 120 120 ● 110 110 ● 100 90 90 ● 80 80 ● GruppeA Nicht unabhängige Residuen > summary(lm(y ~ 1))$coefficients (Intercept) Estimate Std. Error t value Pr(>|t|) 100 9.128709 10.95445 0.001628625 Körpergewicht (in kg) Nicht unabhängige Residuen 120 120 ● 110 110 ● ● 122 ● 107 100 90 90 ● 80 80 ● ● 92 ● 79 GruppeA Nicht unabhängige Residuen > summary(lm(y2 ~ 1))$coefficients (Intercept) Estimate Std. Error t value Pr(>|t|) 100 6.032649 16.57647 7.101236e-07 Nicht unabhängige Residuen > library(geepack) > summary(geeglm(y2 ~ 1, id = id, data = repData))$coefficients (Intercept) Estimate Std.err Wald Pr(>|W|) 100 7.962804 157.7132 0 Was führt zu nicht unabhängigen Residuen? Information in den Daten welche nicht im Modell berücksichtigt wird. I Zeitliche Abhängigkeiten, z.B. Saisonalität I Räumliche Abhängigkeiten I Genetische Abhängigkeiten I ... Was sind die Folgen von nicht unabhängigen Residuen? Die Varianz welche geschätzt wird und sich u.a. auf die Standardfehler der Schätzer und die Signifikanztests überträgt ist falsch. Was gibt es für Lösungen Es muss eine andere Form der Modellierung verwendet werden welche es erlaubt die Struktur der Daten richtig zu berücksichtigen. I Mixed Effects Modelle I Generalized Estimating Equations (GEE) I ... Ein Beispiel Sie nehmen auf zwei Feldern (“Field”) jeweils drei Bodenproben (beschriftet mit “MeasurementID”) und bestimmen den Stickstoffgehalt. Nun möchten Sie diese Daten analysieren. > library(geepack) > m.gee <- geeglm(Soilnitrogen ~ Field, id = MeasurementID, + data = na.omit(nitrogen)) Analyse von kategoriellen Daten Analyse von kategoriellen Daten I Was für Arten von Variabeln kennen Sie? Analyse von kategoriellen Daten I Was für Arten von Variabeln kennen Sie? I Welche Arten von kategoriellen Daten kennen Sie? Die wichtigsten Verteilungen von kategoriellen Daten I Binomial Verteilung I Multinominal Verteilung I Poisson Verteilung Binomial Verteilung Wir gehen davon aus, dass es n unabhängige und identische Ziehungen y1 , y2 , ..., yn gibt. Jede Ziehung ist entweder yi = 0 oder 1 (Misserfolg / Erfolg, FALSE / TRUE, “kein Event” / “Event”). Die Wahrscheinlichkeit, dass eine Ziehung ein Erfolg ist, bezeichnen wir als π. Die Summer der Ziehungen folgt einer Binomial Verteilung. Mittelwert nπ Varianz nπ(1 − π) Identisch bedeutet, dass die Wahrscheinlichkeit eines Erfolges bei allen Ziehungen dieselbe ist. Unabhängig bedeutet, dass die Ziehung nicht von anderen Ziehungen abhängt. Multinominale Verteilung Wie die binomial Verteilung aber jede unabhängige und identische Ziehung fällt in eine von c Kategorien. Poisson Verteilung ● ● ● ● 0.10 ● ● ● ● ● ● ● ● ● ● 0.00 Häufigkeit 0.20 Wenn die Anzahl der Ziehungen nicht festgelegt ist wie bei der binominal Verteilung, dann folgt die Anzahl der Erfolge einer Poisson Verteilung. Beispiel: Anzahl der tötlichen Verkehrsunfälle in Italien an einem Tag. Eine Besonderheit der Poisson Verteilung ist, dass die Varianz dem Mittelwert entspricht. Wenn der Mittelwert gross ist, dann nähert sich die Verteilung einer Normalverteilung. Mittelwert = Varianz = µ ● ● ● ● ● ● ● ● ● ● 5 ● ● 10 ● ● ● ● ● 15 ● ● ● ● ● ● ● ● 20 Overdispersal Häufig beobachtet man Zähldaten deren Streuung grösser ist als man aufgrund der Binomial oder Poisson Verteilung erwarten würde. Dieses “Phänomen” nennt man Overdispersal. Es kommt daher, dass die einzelnen Ziehungen nicht “identisch” sind, d.h. aus unterschiedlichen Population mit unterschiedlichen Erwartungswerten kommen. Streng genommen handelt es sich dann gar nicht um eine Zufallsvariable, sondern um eine Mischung aus Zufallsvariablen. Kreuztabellen, “contingency tables” Familie Fabaceae Rosaceae Wuchsform Kraut Busch Baum 218 76 294 56 76 132 6 28 34 280 180 460 Kreuztabellen, “contingency tables” Familie Fabaceae Rosaceae I Wuchsform Kraut Busch Baum 218 76 294 56 76 132 6 28 34 280 180 460 Beides (Familie und Wuchsform) sind Zielvariablen (“response”, “outcome”) und nicht erklärende Variablen. Kreuztabellen, “contingency tables” Familie Fabaceae Rosaceae I I Wuchsform Kraut Busch Baum 218 76 294 56 76 132 6 28 34 280 180 460 Beides (Familie und Wuchsform) sind Zielvariablen (“response”, “outcome”) und nicht erklärende Variablen. Gibt es einen Zusammenhang zwischen Wuchsform und Familie? Kreuztabellen, “contingency tables” Familie Fabaceae Rosaceae I I I Wuchsform Kraut Busch Baum 218 76 294 56 76 132 6 28 34 280 180 460 Beides (Familie und Wuchsform) sind Zielvariablen (“response”, “outcome”) und nicht erklärende Variablen. Gibt es einen Zusammenhang zwischen Wuchsform und Familie? Der χ2 -Test oder der Fisher-Exakt-Test (nur für 2 x 2 Tabellen) testen die Nullhypothese: Es gibt keinen Zusammenhang. Kreuztabellen, “contingency tables” Familie Fabaceae Rosaceae I I I I Wuchsform Kraut Busch Baum 218 76 294 56 76 132 6 28 34 280 180 460 Beides (Familie und Wuchsform) sind Zielvariablen (“response”, “outcome”) und nicht erklärende Variablen. Gibt es einen Zusammenhang zwischen Wuchsform und Familie? Der χ2 -Test oder der Fisher-Exakt-Test (nur für 2 x 2 Tabellen) testen die Nullhypothese: Es gibt keinen Zusammenhang. Viel wichtiger als der Test ist allerdings die Stärke des Zusammenhangs. Testen des Zusammenhangs Pearson's Chi-squared test data: table(plants$family, plants$type) X-squared = 67.2916, df = 2, p-value = 2.442e-15 Testen des Zusammenhangs Pearson's Chi-squared test data: table(plants$family, plants$type) X-squared = 67.2916, df = 2, p-value = 2.442e-15 I Was sagt uns dieser Test? Testen des Zusammenhangs Pearson's Chi-squared test data: table(plants$family, plants$type) X-squared = 67.2916, df = 2, p-value = 2.442e-15 I Was sagt uns dieser Test? I Was sagt uns dieser Test nicht? Testen des Zusammenhangs Familie Kraut Fabaceae Rosaceae 218 76 294 Wuchsform Busch Baum 56 76 132 6 28 34 280 180 460 Testen des Zusammenhangs I Familie Kraut Fabaceae Rosaceae 218 76 294 Wuchsform Busch Baum 56 76 132 6 28 34 280 180 460 Wir erwarten Fabaceae und Rosaceae mit einer Proportion von 0.61 und 0.39. Testen des Zusammenhangs I I Familie Kraut Fabaceae Rosaceae 218 76 294 Wuchsform Busch Baum 56 76 132 6 28 34 280 180 460 Wir erwarten Fabaceae und Rosaceae mit einer Proportion von 0.61 und 0.39. Wir erwarten die Wuchsform Kraut, Busch oder Baum mit einer Proportion von 0.64, 0.29, 0.07. Testen des Zusammenhangs I I I Familie Kraut Fabaceae Rosaceae 218 76 294 Wuchsform Busch Baum 56 76 132 6 28 34 280 180 460 Wir erwarten Fabaceae und Rosaceae mit einer Proportion von 0.61 und 0.39. Wir erwarten die Wuchsform Kraut, Busch oder Baum mit einer Proportion von 0.64, 0.29, 0.07. Daraus können wir die Proportion für die einzelnen Zellen berechnen (“Erwartungswerte”). Testen des Zusammenhangs Familie Kraut Wuchsform Busch Fabaceae 0.39 0.17 0.04 Rosaceae 0.25 0.11 0.03 Baum Testen des Zusammenhangs I Familie Kraut Wuchsform Busch Fabaceae 0.39 (0.47) 0.17 (0.12) 0.04 (0.01) Rosaceae 0.25 (0.17) 0.11 (0.17) 0.03 (0.06) Baum Um den Ursprung des Testresultates zu untersuchen berechnen wir die “Erwartungswerte” für die einzelnen Zellen und vergleichen diese mit den Beobachtungen; “Nomenklatur” Erwartungswert (Beobachtete Werte) [Residuen]. Testen des Zusammenhangs Familie Kraut Wuchsform Busch Fabaceae 0.39 (0.47) [2.92] 0.25 (0.17) [-3.64] 0.17 (0.12) [-2.72] 0.11 (0.17) [3.39] Rosaceae Baum 0.04 (0.01) [-3.23] 0.03 (0.06) [4.03] I Um den Ursprung des Testresultates zu untersuchen berechnen wir die “Erwartungswerte” für die einzelnen Zellen und vergleichen diese mit den Beobachtungen; “Nomenklatur” Erwartungswert (Beobachtete Werte) [Residuen]. I Um die Stärke des Zusammenhangs zu beschreiben zerlegen wir die Tabelle in Teile. Beschreibung von Zusammenhängen kategorieller Variablen Daten aus einem Pestizidexperimet mit Helothis virescens, einem Eulenfalter dessen Larven auf Tabakpflanzen leben. Geschlecht tot männlich weiblich 4 2 6 Überleben lebend 16 18 34 20 20 40 I Differenz zwischen zwei Proportionen, π1 − π2 I Relative Risk, π1 /π2 I Odds Ratio Differenz zwischen zwei Proportionen, π1 − π2 Wird auch als “absolute risk difference” bezeichnet. Wickler Beispiel: pmale − pfemale = 4/20 − 2/20 = 1/10 > prop.test(x = c(4, 2), n = c(20, 20)) 2-sample test for equality of proportions with continuity correction data: c(4, 2) out of c(20, 20) X-squared = 0.1961, df = 1, p-value = 0.6579 alternative hypothesis: two.sided 95 percent confidence interval: -0.1691306 0.3691306 sample estimates: prop 1 prop 2 0.2 0.1 I Wertebereich: −1, . . . , 1 Relative Risk, π1 /π2 Es ist möglich, dass der Unterschied zwischen zwei Differenzen anders zu interpretieren ist, wenn beide π klein oder gross sind, als wenn beide nahe bei 0.5 sind. Wickler Beispiel: pmale /pfemale = (4/20)/(2/20) = 2 Das 95% Vertrauensintervall dazu liegt bei [0.43; 7.47]. I Wertebereich: 0, . . . , ∞ Odds Ratio Für ein Ereignis mit der Wahrscheinlichkeit π sind die Odds definiert als π/(1 − π), wie beim Wetten. Im Beispiel sind also die Odds für die Männchen (4/20)/(16/20) = 0.25. Das bedeutet, dass es für ein Männchen vier mal weniger wahrscheinlich ist zu sterben, als zu überleben. Das Verhältnis θ= π1 /(1 − π1 ) π2 /(1 − π2 ) nennt man “odds ratio”. Es beträgt in unserem Beispiel ((4/20)/(16/20))/((2/20)/(18/20)) = 2.25 I Das Odds Ratio ändert nicht, wenn wir Zeilen und Spalten vertauschen, d.h. wir müssen uns nicht auf eine Zielvariable festlegen. I Wertebereich: 0, . . . , ∞ Struktur von glm’s (generalized linear model) E[yij ] yij I = ∼ β0 + β1 x1 + β2 x2 + . . . + βn xn indep. N (β0 + β1 x1 + β2 x2 + . . . + βn xn , σ 2 ) Diese Form kennen wir von Regressionen und in fast identischer Form kennen wir die Form auch von ANOVAs und ANCOVAs. Struktur von glm’s (generalized linear model) E[yij ] yij I I = ∼ β0 + β1 x1 + β2 x2 + . . . + βn xn indep. N (β0 + β1 x1 + β2 x2 + . . . + βn xn , σ 2 ) Diese Form kennen wir von Regressionen und in fast identischer Form kennen wir die Form auch von ANOVAs und ANCOVAs. Das Anwendungsspektrum lässt sich jedoch stark erweitern, wenn man zusätzliche Flexibilität einführt. - andere Verteilungen - eine Funktion welche den Zusammenhang zwischen dem “linearen predictor” und dem Erwartungswert E[yij ] beschreibt. E[yi ] = h(ηi ) Die Funktion h bezeichnen wir als “response function”. Häufig wird jedoch die Umkehrfunktion h−1 = g beschrieben, welche als “link function” oder einfach als “link” bezeichnet wird. Struktur von glm’s (generalized linear model) Für eine “gewöhnliche” Regression würde also lauten: ηi = β0 + β1 x1 + β2 x2 + . . . + βn xn E[yi ] = h(ηi ) = ηi yi ∼ indep. N (ηi , σ 2 ) die Beschreibung “linear predictor” “response function” “Verteilungsannahme” Logistische Regression Ein glm welches sehr häufig verwendet wird ist die logistische Regression. ηi = β0 + β1 x1 + β2 x2 + . . . + βn xn eη E[yi ] = πi = h(ηi ) = 1+e η yi ∼ indep. B(πi ) I Für den “linar predictor” ηi gilt das selbe wie bei einer Regression bzw. ANOVA. I Als “link function” wählen wir die sogennante “logit” Funktion, x ) (Der Name “logit” stammt von log h−1 (x) = g (x) = log( 1−x wie Logarithmus und Odds). I Als Verteilung wählt man eine Bernoulli Verteilung, B(πi ), mit einem Parameter, der Wahrscheinlichkeit π des Ereignisses. Logistische Regression, Interpretation der Koeffizienten Wir betrachten einige Umformungen: πi = α + βxi log 1−π i πi = e α+βxi 1−πi = e α e βxi Wenn wir nun x um eins erhöhen, d.h. x ersetzten durch x + 1, πi = e α e β(xi +1) 1−πi = e α e βxi e β Daraus sehen wir, dass sich die Odds um den Faktor e β verändern, wenn wir von x nach x + 1 gehen. Logistische Regression mit kategoriellen Prädiktoren Geschlecht tot männlich weiblich 4 2 6 Überleben lebend 16 18 34 20 20 40 Odds fürs Sterben der Männchen: om = 4/20 (1−4/20) Odds fürs Sterben der Weibchen: of = Odds Ratio: OR = om of = 2.25 Daraus ergibt sich z.B. of OR = om 2/20 (1−2/20) = 0.25. = 0.111. > > > > y <- cbind(dead = c(2, 4), alive = c(18, 16)) sex <- factor(c("female", "male")) glm1 <- glm(y ~ sex, family = "binomial") summary(glm1)$coefficients Estimate Std. Error z value Pr(>|z|) (Intercept) -2.1972246 0.745356 -2.9478861 0.003199549 sexmale 0.8109302 0.931695 0.8703816 0.384091875 > > > > y <- cbind(dead = c(2, 4), alive = c(18, 16)) sex <- factor(c("female", "male")) glm1 <- glm(y ~ sex, family = "binomial") summary(glm1)$coefficients Estimate Std. Error z value Pr(>|z|) (Intercept) -2.1972246 0.745356 -2.9478861 0.003199549 sexmale 0.8109302 0.931695 0.8703816 0.384091875 I e α̂ = e −2.2 = 0.11 schätzt uns die Odds für die Weibchen mit einem Standardfehler. I e β̂ = e 0.81 = 2.25 schätzt uns das Oddsratio, d.h. den Faktor mit welchem wir die Odds der Weibchen multiplizieren müssen um die Odds der Männchen zu erhalten. Auch das Oddsratio wird mit einem Standardfehler geschätzt. Logistische Regression mit kontinuierlichen Prädiktoren Im selben Versuch mit Heliothis virescens wurden 6 verschiedene Dosen des selben Wirkstoffes untersucht. Dosis 1 2 4 Geschlecht männlich weiblich 1 0 4 2 9 6 8 16 32 13 10 18 12 20 16 Wir fokusieren uns zuerst mal nur auf die Männchen. Logistische Regression mit kontinuierlichen Prädiktoren Eine mögliche Forschungsfrage könnte lauten: Nimmt die Sterblichkeit mit zunehmender Dosis signifikant zu? Logistische Regression mit kontinuierlichen Prädiktoren Eine mögliche Forschungsfrage könnte lauten: Nimmt die Sterblichkeit mit zunehmender Dosis signifikant zu? Da wir erwarten, dass sich das Oddsratio jeweils gleich verändert, wenn wir die Dosis verdoppeln, werden wir den Logarithmus der Dosis (mit der Basis 2) als Prädiktor verwenden. > > > + > library(asuR) data(budworm) glm2 <- glm(cbind(num.dead, num.alive) ~ log2(dose), data = budworm[budworm$sex == "male", ], family = "binomial") summary(glm2)$coefficients Estimate Std. Error z value Pr(>|z|) (Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07 log2(dose) 1.258949 0.2120655 5.936607 2.909816e-09 > summary(glm2)$coefficients Wahrscheinlichkeit zu Sterben Estimate Std. Error z value Pr(>|z|) (Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07 log2(dose) 1.258949 0.2120655 5.936607 2.909816e-09 1 4 9 13 18 1 20 ● ● Inf 9 0.8 ● 0.6 ● 0.4 0.2 ● ● 0 1.86 0.82 0.25 0.05 19 16 11 7 12 4 8 2 16 Dosis 0 32 > summary(glm2)$coefficients Wahrscheinlichkeit zu Sterben Estimate Std. Error z value Pr(>|z|) (Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07 log2(dose) 1.258949 0.2120655 5.936607 2.909816e-09 I 1 4 9 13 18 1 20 ● ● Inf 9 0.8 ● 0.6 ● 0.4 0.2 ● ● 0 1.86 0.82 0.25 0.05 19 16 11 7 12 4 8 2 16 Dosis 0 32 e β = e 1.26 = 3.52 gibt an um welchen Faktor die Odds zunehmen wenn wir die Dosis um den Faktor 2 erhöhen. > summary(glm2)$coefficients Wahrscheinlichkeit zu Sterben Estimate Std. Error z value Pr(>|z|) (Intercept) -2.818555 0.5479868 -5.143472 2.697066e-07 log2(dose) 1.258949 0.2120655 5.936607 2.909816e-09 1 4 9 13 18 1 20 ● ● Inf 9 0.8 ● 0.6 1.86 ●0.82 ● 0.4 0.2 ● ● 0 0.25 0.05 19 16 11 7 12 4 8 2 16 Dosis 0 32 I e β = e 1.26 = 3.52 gibt an um welchen Faktor die Odds zunehmen wenn wir die Dosis um den Faktor 2 erhöhen. I −α/β gibt uns die Dosis an wo die Hälfte der Tiere sterben. Multivariate logistische Regression Selbstverständlich würde es uns jetzt interessieren mit dem Datensatz ein multivariates Modell zu rechnen. Damit könnten wir die Sterblichkeit mit zwei Prädiktoren Dosis und Geschlecht gleichzeitig erklären. Dadurch lässt sich u.a. die Frage beantworten ob die Sterblichkeit unterschiedlich ist zwischen den Geschlechtern. Multivariate logistische Regression > glm3 <- glm(cbind(num.dead, num.alive) ~ log2(dose) + + sex, data = budworm, family = "binomial") > summary(glm3)$coefficients Estimate Std. Error z value Pr(>|z|) (Intercept) -3.473155 0.4685202 -7.413032 1.234445e-13 log2(dose) 1.064214 0.1310775 8.118971 4.701542e-16 sexmale 1.100743 0.3558271 3.093478 1.978249e-03 Multivariate logistische Regression > glm3 <- glm(cbind(num.dead, num.alive) ~ log2(dose) + + sex, data = budworm, family = "binomial") > summary(glm3)$coefficients Wahrscheinlichkeit zu Sterben Estimate Std. Error z value Pr(>|z|) (Intercept) -3.473155 0.4685202 -7.413032 1.234445e-13 log2(dose) 1.064214 0.1310775 8.118971 4.701542e-16 sexmale 1.100743 0.3558271 3.093478 1.978249e-03 1 1 4 0 2 9 6 13 10 18 12 20 16 ● ● 0.8 ● ● 0.6 ● ● ● 0.4 ● 0.2 female male ● ● ● 0 ● 19 16 20 18 11 14 7 10 12 4 8 2 8 16 Dosis 0 4 32 ... mit Interaktion Ganz analog zu einer ANCOVA können wir auch hier untersuchen, ob die Zusahme der Sterbilichkeit mit steigender Dosis bei beiden Geschlechtern gleich stark ist. Dazu fitten wir ein Modell mit einem Interaktionsterm und testen ob dieser statistisch signifikant ist. Multivariate logistische Regression > glm4 <- glm(cbind(num.dead, num.alive) ~ log2(dose) * + sex, data = budworm, family = "binomial") > round(summary(glm4)$coefficients, 3) (Intercept) log2(dose) sexmale log2(dose):sexmale Estimate Std. Error z value Pr(>|z|) -2.994 0.553 -5.416 0.000 0.906 0.167 5.422 0.000 0.175 0.778 0.225 0.822 0.353 0.270 1.307 0.191 Multivariate logistische Regression > glm5 <- glm(cbind(num.dead, num.alive) ~ I(log2(dose) + 3) * sex, data = budworm, family = "binomial") > round(summary(glm5)$coefficients, 3) Estimate Std. Error z value -0.275 0.231 -1.195 0.906 0.167 5.422 1.234 0.377 3.273 0.353 0.270 1.307 Pr(>|z|) (Intercept) 0.232 I(log2(dose) - 3) 0.000 sexmale 0.001 I(log2(dose) - 3):sexmale 0.191 (Intercept) I(log2(dose) - 3) sexmale I(log2(dose) - 3):sexmale Multivariate logistische Regression > glm6 <- glm(cbind(num.dead, num.alive) ~ I(log2(dose) + 3) + sex, data = budworm, family = "binomial") > round(summary(glm6)$coefficients, 3) (Intercept) I(log2(dose) - 3) sexmale Estimate Std. Error z value Pr(>|z|) -0.281 0.243 -1.154 0.249 1.064 0.131 8.119 0.000 1.101 0.356 3.093 0.002 Overdispersion Wenn wir eine logistische Regression rechnen ist der sog. “dispersion parameter” immer auf eins gesetzt. Das ist fast ein bisschen so wie wenn wir in einer gewöhnlichen Regression den Standardfehler, σ, auf eins setzten würden. Um zu überprüfen, ob die beobachtete Variation grösser ist, als wir unter idealen Bedingungen einer logistischen Regression annahmen, können wir den “dispersion parameter” schätzten. Dazu fitten wir ein quasibinomiales GLM. I Wir sehen wie der “dispersion parameter” geschätzt wird. I Wir sehen ob das Berücksichtigen des “dispersion parameters” unsere Resultate qualitativ verändert. Overdispersion > glm6.quasi <- glm(cbind(num.dead, num.alive) ~ + I(log2(dose) - 3) + sex, data = budworm, family = "quasibinomial") > summary(glm6.quasi) Call: glm(formula = cbind(num.dead, num.alive) ~ I(log2(dose) - 3) + sex, family = "quasibinomial", data = budworm) Deviance Residuals: Min 1Q Median -1.10540 -0.65343 -0.02225 3Q 0.48471 Max 1.42944 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -0.2805 0.1867 -1.503 0.16714 I(log2(dose) - 3) 1.0642 0.1006 10.574 2.24e-06 *** sexmale 1.1007 0.2732 4.029 0.00298 ** --Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 (Dispersion parameter for quasibinomial family taken to be 0.5895578) Null deviance: 124.8756 Residual deviance: 6.7571 AIC: NA on 11 on 9 degrees of freedom degrees of freedom Number of Fisher Scoring iterations: 4 GLM Familien Verteilung gaussian binomial Gamma poisson inverse.gaussian mögliche Link-Funktion identity log inverse logit probit cauchit log cloglog inverse identity log log identity sqrt 1/mu^2 inverse identity log (logistisch) (normal) complementary log-log Hinweis: Modelle mit dem selben linearen Prädiktoren, η, aber mit einer unterschiedlichen Link-Funktion, g , können nur informell verglichen aber nicht “getestet” werden. Mixed Effects Models Eine Unterscheidung welche nur auf kategorielle Prädiktoren zutrifft. “Fixed Effects” Wenn es eine endliche Zahl an Kategorien (“levels”) gibt denen wir einen Effekt zuordnen und wir an den Effekten der einzelnen Kategorien interessiert sind. Das Interesse liegt beim Schätzen der Mittelwerte. “Random Effects” Wenn es unendlich viele Kategorien gibt aber nur ein zufälliger Teil davon in unserer Stichprobe gelandet ist und wir nicht an den Effekten der einzelnen Kategorien interessiert sind. Das Interesse liegt beim Schätzen der Varianz. Oft ist es direkt aus der Fragestellung möglich zu unterscheiden ob ein “Random Effect” oder ein “Fixed Effect” vorliegt. Mixed Effects Models: Ein Beispiel Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten im Fach Mathe haben als Mädchen. Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und wissen zu jedem Schüler das Geschlecht, die Bezeichnung der Schule und die Bezeichnung der Klasse. Mixed Effects Models: Ein Beispiel Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten im Fach Mathe haben als Mädchen. Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und wissen zu jedem Schüler das Geschlecht, die Bezeichnung der Schule und die Bezeichnung der Klasse. Schulnote, y Response Mixed Effects Models: Ein Beispiel Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten im Fach Mathe haben als Mädchen. Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und wissen zu jedem Schüler das Geschlecht, die Bezeichnung der Schule und die Bezeichnung der Klasse. Schulnote, y Response Geschlecht, β Fixed Effect Mixed Effects Models: Ein Beispiel Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten im Fach Mathe haben als Mädchen. Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und wissen zu jedem Schüler das Geschlecht, die Bezeichnung der Schule und die Bezeichnung der Klasse. Schulnote, y Response Geschlecht, β Fixed Effect Schule, s Random Effect Mixed Effects Models: Ein Beispiel Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten im Fach Mathe haben als Mädchen. Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und wissen zu jedem Schüler das Geschlecht, die Bezeichnung der Schule und die Bezeichnung der Klasse. Schulnote, y Response Geschlecht, β Fixed Effect Schule, s Random Effect Klasse, c Random Effect (genested in Schule) Mixed Effects Models: Ein Beispiel Sie möchten wissen, ob Knaben (5. Schuljahr) bessere Schulnoten im Fach Mathe haben als Mädchen. Dazu haben Sie die Schulnoten eines ganzen Bezirkes erhalten und wissen zu jedem Schüler das Geschlecht, die Bezeichnung der Schule und die Bezeichnung der Klasse. Schulnote, y Response Geschlecht, β Fixed Effect Schule, s Random Effect Klasse, c Random Effect (genested in Schule) E[ytijk | si , cij ] ytijk | si , cij = ∼ µ + βt + si + cij indep. N (µ + βt + si + cij ; σs2 + σc2 + σ 2 ) Bootstrapping Bootstrapping n 1X x̄ = xi n i=1 Bootstrapping µ n 1X x̄ = xi n i=1 Bootstrapping I Name: “bootstrap” (Stiefelschlaufe), nach dem englischen Spruch “pull oneself over a fence by one’s bootstraps”. I Eine Resamplingmethode zum bestimmen der Genauigkeit eines Schätzers. I Eine sehr einfache Methode die oft auch gut funktioniert. Leider gibt es keine Garantie dafür! Bootstrapping I Es gibt viele verschiedene Arten wie wiederholt eine Stichprobe gezogen werden kann. Ich möchte kurz auf das parametrische und das nicht-parametrische Bootstrapping eingehen. I Das wiederholte Ziehen (“resampling”) führt immer dazu, dass man neben dem Schätzer, t, für den Parameter, θ, sehr viele weiter Bootstrap-Schätzer, t ∗ generiert. Die Anzahl der Ziehungen bezeichnet man meist als R. I Aus diesen kann dann ein Vertrauensintervall berechnet werden. Dazu gibt es verschiedene Möglichkeiten. Das sog. “basic” Vertrauensintervall lautet ∗ ∗ 2t − t((R+1)(1−α/2)) , 2t − t((R+1)(α/2)) . Parametrisches Bootstrapping I Aus der Stichprobe wird der Mittelwert x̄ und die Varianz σ 2 der Population geschätzt. I Mit diesen Angaben wird die Verteilung beschrieben N (x̄, σ 2 ) aus der dann wiederholt gezogen wird. Das Parametrische Bootstrapping liefert oft bessere Resultate als andere Verfahren. Nichtparametrisches Bootstrapping I Das wiederholte Ziehen erfolgt direkt aus der Stichprobe. Theoriefragen zu den bisherigen Inhalten Theoriefragen zu den bisherigen Inhalten I Was misst die Pearson bzw. die Spearman Korrelation? Theoriefragen zu den bisherigen Inhalten I Was misst die Pearson bzw. die Spearman Korrelation? I Wann verwendet man eine Korrelation, wann eine Regression? Theoriefragen zu den bisherigen Inhalten I Was misst die Pearson bzw. die Spearman Korrelation? I Wann verwendet man eine Korrelation, wann eine Regression? I Dürfen die Messungen von verschiedenen Individuen in einer Regression korreliert sein? Begründen Sie? Theoriefragen zu den bisherigen Inhalten I Was misst die Pearson bzw. die Spearman Korrelation? I Wann verwendet man eine Korrelation, wann eine Regression? I Dürfen die Messungen von verschiedenen Individuen in einer Regression korreliert sein? Begründen Sie? I Warum transformieren wir Daten? Theoriefragen zu den bisherigen Inhalten Theoriefragen zu den bisherigen Inhalten I Was bedeutet Overdispersal? Theoriefragen zu den bisherigen Inhalten I Was bedeutet Overdispersal? I Wieso tritt bei der gewöhnlichen Regression nicht auch Overdispersal auf? Theoriefragen zu den bisherigen Inhalten I Was bedeutet Overdispersal? I Wieso tritt bei der gewöhnlichen Regression nicht auch Overdispersal auf? I Was untersucht der χ2 -Test oder der Fisher-Exakt-Test? Theoriefragen zu den bisherigen Inhalten I Was bedeutet Overdispersal? I Wieso tritt bei der gewöhnlichen Regression nicht auch Overdispersal auf? I Was untersucht der χ2 -Test oder der Fisher-Exakt-Test? I Welches sind die drei häufigsten Arten wie man den Zusammenhang zwischen Proportionen beschreibt? Theoriefragen zu den bisherigen Inhalten I Was bedeutet Overdispersal? I Wieso tritt bei der gewöhnlichen Regression nicht auch Overdispersal auf? I Was untersucht der χ2 -Test oder der Fisher-Exakt-Test? I Welches sind die drei häufigsten Arten wie man den Zusammenhang zwischen Proportionen beschreibt? I Was ist ein Odds Ratio? Theoriefragen zu den bisherigen Inhalten Theoriefragen zu den bisherigen Inhalten I Nennen Sie die drei Aspekte die man verwenden kann um ein GLM zu charakterisieren. Theoriefragen zu den bisherigen Inhalten I Nennen Sie die drei Aspekte die man verwenden kann um ein GLM zu charakterisieren. I Wie lautet die Linkfunktion einer logistischen Regression? Theoriefragen zu den bisherigen Inhalten I Nennen Sie die drei Aspekte die man verwenden kann um ein GLM zu charakterisieren. I Wie lautet die Linkfunktion einer logistischen Regression? I Wie gross ist der “dispersion parameter” in einem GLM? Affiliation and copyright Vielen Dank an Dr. Thomas Zumbrunn und Dr. Stefanie von Felten von denen ich mehrere Ideen und Beispiele übernommen habe. © Thomas Fabbro 2012 This work is licensed under the Creative Commons Attribution-Noncommercial-Share Alike 2.5 Switzerland Licence. To view a copy of this licence, visit http://creativecommons.org/licenses/by-nc-sa/2.5/ch/