Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests werden im Modell Voraussetzungen über die Verteilung des interessierenden Merkmals in der Grundgesamtheit gemacht (z.B. Normalverteilung) und Hypothesen über Parameter dieser Verteilung getestet. Bei nichtparametrischen Tests wird dagegen keine spezielle Verteilung vorausgesetzt (aber ggf. Voraussetzungen wie: stetige Verteilung). 1 Nichtparametrische Tests – sind i.a. weniger mächtig als parametrische, d.h. Unterschiede (Abweichungen von der Nullhypothese) werden seltener aufgedeckt (H0 wird seltener abgelehnt), – erfordern jedoch schwächere Voraussetzungen im Modell (bei Ablehnung H0 von ist eine Aussage über die Population zuverlässiger). 2 Nach der Anzahl der Stichproben: eine Stichprobe: Einstichprobenproblem zwei Stichproben: Zweistichprobenproblem k Stichproben: Mehrstichprobenproblem (k ≥ 2) Nach der Art der Erhebung der Stichproben: abhängige (gepaarte [paired samle], verbundene) Stichproben unabhängige [independent] Stichproben 3 Abhängige (gepaarte, verbundene) Stichproben: An jedem Objekt (Probanden) werden mehrere Merkmale untersucht. Damit betrachten wir 2 (oder mehr) Zufallsvariablen über der gleichen Grundgesamtheit gemeinsam. (X1 , Y1 ), . . . , (Xn , Yn ) zwei verbundene Stichproben vom Umfang n Beispiele: – Blutdruck von PatientInnen vor und nach der Behandlung mit einem Medikament – Einkommen einer Person in den Jahren 2003, 2004, 2005 – Bildung und Einkommen einer Person 4 Unabhängige Stichproben: An jedem Objekt (Probanden) wird nur ein Merkmal untersucht. Untersucht werden verschiedene, disjunkte (sich nicht überschneidende) Gruppen von Probanden (z.B. zwei Gruppen mit n1 und n2 Mitgliedern) aus verschiedenen Schichten der Grundgesamtheit (Subpopulationen). Gesamte Stichprobe mit Stichprobenumfang n1 + n2 : (X1 , . . . , Xn1 , Y1 , . . . , Yn2 ) Geschichtete Stichproben: 1. Schicht mit Stichprobenumfang n1 : (X1 , . . . , Xn1 ) 2. Schicht mit Stichprobenumfang n2 : (Y1 , . . . , Yn2 ) Die beiden geschichteten Stichproben sind unabhängig. 5 Beispiele: – Blutdruck von PatientInnen aus zwei unterschiedlich behandelten Gruppen mit unterschiedlichen Personen – Einkommen von Männern, Einkommen von Frauen 6 Einstichprobenprobleme Einfacher t–Test (t–Test bei einer Stichprobe) siehe Einführungsbeispiel [t-test, Student´s test ] Binomialtest (Test einer Wahrscheinlichkeit) [testing about a population proportion] Anliegen: Sei A ein zufälliges Ereignis mit unbekannter Wahrscheinlichkeit P (A) = ϑ, ϑ ∈ [0, 1]. Überprüfung einer Hypothese über diese Wahrscheinlichkeit ϑ anhand von n unabhängigen Versuchen und der daraus ermittelten absoluten Häufigkeit des Eintretens von A. 7 Die mathematische Stichprobe (X1 , X2 , . . . , Xn ) beschreibt, in welchen der n Versuche das Ereignis A eingetreten ist (Bernoulli–Schema): Xi = 1, falls A im i–ten Versuch eintritt 0, falls A im i–ten Versuch nicht eintritt 8 Hypothesen: H0 : ϑ = ϑ0 HA : ϑ 6= ϑ0 (1) HA : ϑ < ϑ0 (2) HA : ϑ > ϑ0 (3) Testgröße: T = n X Xi i=1 (absolute Häufigkeit des Eintretens von A) Unter H0 ist T binomialverteilt mit den Parametern n und ϑ0 . 9 p–Wert: p= X P (T = k) bei (1) k∈{0,...,n} mit P (T =k)≤P (T =t) p = P (T ≤ t) = t X P (T = k) bei (2) P (T = k) bei (3) k=0 p = P (T ≥ t) = n X k=t Entscheidungsregel: Ablehnung von H0 , falls p ≤ α. 10 SPSS berechnet bei Anwendung des Binomialtest die Überschreitungswahrscheinlichkeit für die zweiseitige Alternativhypothese (1) nur im Spezialfall ϑ0 = 1/2. In diesem Fall ergeben sich auf Grund der Symmetrie der Verteilung die p–Werte für die einseitigen Alternativen durch halbieren des p–Wertes für die zweiseitige Alternative. Für ϑ0 6= 1/2 gibt SPSS nur die p–Werte für eine der einseitigen Alternativen aus, und zwar – im Fall t/n < ϑ0 für die Alternative (2) und – im Fall t/n > ϑ0 für die Alternative (3). 11 Für große n (n > 30) werden die Überschreitungswahrscheinlichkeiten nicht exakt mit Hilfe der Binomialverteilung berechnet, sondern näherungsweise mit Hilfe der Normalverteilung (Zentraler Grenzwertsatz). 12 Beispiel: Im Beispiel Verkehrsmittel (n = 100) wurde 53 mal PKW als Verkehrsmittel angegeben. Also ist t = 53. Beim Test der Nullhypothese H0 : ϑ = ϑ0 = 0.4 gegen die Alternativhypothese HA : ϑ > ϑ0 = 0.4 errechnet SPSS (nach (3)) die Überschreitungswahrscheinlichkeit P100 p = P (T ≥ 53) = k=53 P (T = k) = 0.006. Bei einem gewählten Signifikanzniveau von α = 0.05 wird die Nullhypothese also abgelehnt. Bemerkung: Für dieses Beispiel hatten wir für den Anteil in der Grundgesamtheit das Konfidenzintervall [0.432, 0.628] zum Konfidenzniveau 0.95 = 1 − 0.05 berechnet. 13 χ2 –Anpassungstest [goodness of fit test] Anliegen: Nichtparametrischer Test zum Überprüfen der (parametrischen) Modellannahme, dass eine gegebene konkrete Stichprobe (x1 , x2 , . . . , xn ) aus einer Grundgesamtheit mit einer bestimmten Verteilung FX = F0 stammt. Dabei bezeichnet FX die Verteilung des interessierenden Merkmales X in der Grundgesamtheit. Der Test wird z.B. auch zum Prüfen von Voraussetzungen für andere (parametrische) Tests verwendet. Hypothesen: H0 : FX = F0 HA : FX 6= F0 14 Vorgehen: Falls keine kategorialen Daten vorliegen, zunächst Klasseneinteilung für die Daten in k Klassen (vgl. Histogramme) Ki = (ai , ai+1 ] pi = P0 (X ∈ Ki ) = F0 (ai+1 ) − F0 (ai ) Hi : absolute Klassenhäufigkeit Dann ist npi die theoretische, unter der Nullhypothese erwartete Häufigkeit und Hi die beobachtete Häufigkeit der i–ten Klasse. 15 Testgröße: T = k X (Hi − npi )2 npi i=1 Unter H0 ist T asymptotisch, d.h. näherungsweise für hinreichend große Stichproben, χ2 –verteilt mit k − 1 Freiheitsgraden. Enthält F0 noch r unbekannte Parameter (z.B. Normalverteilung r = 2: falls Erwartungswert µ und Varianz σ 2 unbekannt), so sind diese aus der Stichprobe, basierend auf der Klasseneinteilung, zu schätzen. Die χ2 –Verteilung besitzt dann k − r − 1 Freiheitsgrade. 16 p–Wert: p = P (T ≥ t) Entscheidungsregel: Ablehnung von H0 , falls p ≤ α. 17 Achtung: – Beim Testen von Modellannahmen will man eigentlich H0 annehmen, dann bleibt der i.a. unbekannte Fehler 2. Art. – Mit genügend großen Datenmengen sollte jede Modellannahme widerlegbar sein. – Man sollte also zunächst gute Gründe für die Modellannahme haben und will sich mit dem Test lediglich vor Fehlinterpretationen schützen. 18 Bemerkungen: – Für die Asymptotik, also für eine gute Näherung durch die χ2 –Verteilung, Klasseneinteilung so, dass npi ≥ 5 gilt; also ggf. Klassen zusammenfassen, Randklassen beachten. – SPSS bietet auch die Möglichkeit, exakte Überschreitungswahrscheinlichkeiten zu berechnen. – Klasseneinteilung willkürlich, Möglichkeit zur Manipulation (vgl. Histogramme) – Für sehr große n fast immer Ablehnung von H0 . 19 Kolmogorov–Smirnov–Test Anliegen: wie beim χ2 –Anpassungstest Voraussetzungen: Verteilungsfunktion FX von X – ist stetig und – unter H0 vollständig bekannt (keine Parameter zu schätzen) Hypothesen: H0 : FX = F0 HA : FX 6= F0 20 Testgröße: T = sup |Fn (x) − F0 (x) | x∈R (größte Abweichung der empirischen Verteilungsfunktion Fn von F0 ) Unter H0 ist T Kolmogorov–verteilt mit n Freiheitsgraden. p–Wert: p = P (T ≥ t) Entscheidungsregel: Ablehnung von H0 , falls p ≤ α. 21 Bemerkungen: – Test ist von Hand praktisch nicht durchführbar → Computer. – Sind Parameter zu schätzen → Korrektur der p–Werte (z.B: Lilliefors–Test für Test auf Normalverteilung) – Für den Test auf Normalverteilung existieren bessere spezielle Tests (z.B. Shapiro–Wilk–Test) 22