zf-statistik

Werbung
STATISTIK
Qualitative Merkmale: Beschreiben Zugehörigkeit zu bestimmter Kategorie (Geschlecht, Wohnort..)
Quantitative Merkmale: beschreiben Ausprägung auf bestimmtem Kontinuum (Alter, Ängstlichkeit..)
Manifeste Merkmale: können direkt beobachtet/gemessen werden (Körpergröße, Anzahl Geschwister)
Latente Merkmale: sind nur indirekt zu erfassen (Ängstlichkeit..)
Manifest qualitativ: Geschlecht, Wohnort, Postleitzahl, Schulabschluss
Manifest quantitativ: Alter, Gewicht, Reaktionszeiten
Latent qualitativ: Persönlichkeitstypus (z.B. Choleriker), psych.Störungen
Latent quantitativ: Intelligenzquotient, Persönlichkeitseigenschaften auf Skala (z.B. Extraversion)
Diskrete Variablen: Anzahl der möglichen Werte ist abzählbar (Nominal- und Ordinalskala)
Kontinuierliche Variablen (od. „stetige“): Die möglichen Werte liegen auf einem Kontinuum (Int./Verh.)
Dichotom: Nur zwei Variablen, z.B. 1 und 2, z.B. auf Nominalskala.
Verschiedene Skalenniveaus und ihre Annahmen + mögliche Aussagen
Nominal: Exklusivität (Untersch. Merkmalsausprägungen werden untschl. Zahlen zugeordnet), Exhaustivität (es
wird jeder beobachteten Merkmalsausprägung eine Zahl zugeordnet), homomorphe Abbildung.
Mögliche Aussagen: Gleichheit / Verschiedenheit eines Merkmals
Ordinal: Exklusivität, Exhaustivität, +Rangreihe (die zugeordneten Zahlen repräsentieren eine Rangreihe der
Merkmalsausprägung (größer – kleiner). Mögl.Auss.: vorheriges + größer-kleiner Relationen
Intervall: Exklusivität, Exhaustivität, Rangreihe, +Intervalle=Abstände (gleichgroße Intervalle zwischen
Zahlenwerten der Variable stehen für gleichgroße Abstände der Merkmalsausprägung). Mögl.Auss.: vorheriges +
Größe von Unterschieden zwischen Merkmalen
Verhältnis: Exklusivität, Exhaustivität, Rangreihe, Intervalle=Abstände, +definierter Nullpunkt (Nullpunkt der
Skala entspricht wirklichem Nullpunkt). Mögl. Auss.: vorheriges + Verhältnis von Merkmalsausprägungen
Erlaubte Transformationen der Skalenniveaus (damit Skalenniveau erhalten bleibt)
Nominal: Alle eineindeutigen Transformationen, also Zuordnung einer Zahl zu einer anderen Zahl, egal wie
Ordinal: Alle monotonen Transformationen, z.B. x², 2x, log(x), x+3
Intervall: Alle linearen Transformationen, z.B. 2x+5
Verhältnis: Alle multiplikativen Transformationen, z.B. 3x
Bsp., welche Variablen auf welcher Skala dargestellt werden
Nominal: Studienfach, Wohnort, Geschlecht, Lieblingsfarbe, Musikgeschmack, psychische Störungen
Ordinal: Art des Schulabschlusses, Härte von Gesteinsarten,
Intervall: IQ, Persönlichkeitsmerkmale, Temperatur in Celsius und Fahrenheit
Verhältnis: Alter, Reaktionszeit, Länge, Anzahl, Temperatur in Kelvin
Aggregation von Werten von mehrstufigem Fragebogen
es geht von -2 bis 2. Man zählt die Zahlen der versch. Antworten zusammen und teilt sie durch die Anzahl der
Antworten. Das Ergebnis ist der aggregierte Wert.
Auch wenn das eine Ordinalskala war, kann ein Intervallskalenniveau erreicht werden, indem man ganz viele
psychologische Merkmale erfasst. (Diese kann man dann auf Intervall darstellen)
Darstellungsmöglichkeiten von Daten
Häufigkeiten (Urliste, SPSS, Kategorisierung), Maße der zentralen Tendenz, Maße der Dispersion
Was gilt für die Bildung von Kategorien?
Disjunkt (keine Überlappung), direkt benachbart (keine Lücken), offene Kat. a. d. Rändern erlaubt, alle
geschlossenen Kategorien sind gleich breit, in der Regel nicht mehr als 20 Kategorien.
Maße der zentralen Tendenz: Auskunft über Mitte der Verteilung
Modalwert/Modus: häufigster vorkommender Wert, für alle Skalentypen, vorallem bei Nominal sinnvoll
Median: trennt geordnete Reihe der Messwerte in obere und untere 50%, mind. ordinalskalierte Daten
Mittelwerte: Summe aller Messwerte geteilt durch Anzahl N. Für mind. intervallskalierte Daten
Maße der zentralen Tendenz lassen auch Rückschlüsse auf Verteilungsform zu! (Rechtssteil/linkssteil/symmetr.)
Maße der Dispersion: Auskunft über „Variabilität“ einer Verteilung
Range: Spannweite oder Variationsbreite. Für kontinuierliche: Max-Min. Für diskrete: Max-Min+1
Nachteile: Geringe Aussagekraft über Verteilung, hohe Empfindlichkeit gegenüber Ausreißern
Quartile: geordnete Liste in jeweils 25% einteilen. Q2 entspricht dem Md. Von Q1-Q3: 50%
(Interquartilsabstand). Voraussetzung: Ordinalskalenniveau!
Varianz: hier geht mit ein, wie weit jede individuelle Merkmalsausprägung vom Mittelwert entfernt ist. Durch
Quadrierung werden größere Abw. stark berücksichtigt. Freiheitsgrade N-1 bei der Varianzschätzung: Heißt,
dass alle Werte außer einem beliebig gewählt werden können. Voraussetzung f. Varianz: Intervallskalenniveau!
Standardabweichung: Wegen schwerer Interpretierbarkeit der Varianz: Wurzel.
Schiefe: linkssteil oder rechtssteil, wird mit zentralem Moment 3. Ordnung berechnet. a3<0: rechtssteil, a3=0:
symmetrisch, a3>0: linkssteil
Exzess(=Kurtosis): mit zentr.Mom. 4.Ordnung berechnet. a4<3:breitgipflig, a4=3:symmetr., a4>3:schmalgipflig
Grafische Darstellung von Daten
Balkendiagramm: gut für diskrete Var. geeignet, für Mittelwert darstellen
Histogramm: Häufigkeiten für alle Werte, es werden Kategorien gebildet, gut für kontinuierliche Var.
Stem-and-lead-plot: exakte Werte aller Probanden
Boxplot: Median, IQA, Range, Ausreißer- und Extremwerte
Scatter-Plot: Zwei Variablen in Bez. zueinander, jeder Wert ist als Punkt dargestellt
Relativer Anteil der günstigen Fälle an allen möglichen Ereignissen (Laplace)
p(A)=n(A) / N (gesamt). Wenn man also gegeben hat, wieviele weiße Murmeln es gibt und wieviele Murmeln
insgesamt, kann man die WS angeben, mit der zufällig eine weiße gezogen wird.
Gesetz der großen Zahl: Bei sehr häufiger Durchführung wird (relative Häufigkeit-)Schätzung immer genauer
Bedingte Wahrscheinlichkeit
p(A/B)=p(A^B) / p(B). WS von A unter Bed. B errechnet sich aus WS für A geschnitten B (WS, dass A und B
gleichzeitig eintreten) geteilt durch WS, dass B eintritt.
Stochastische Unabhängigkeit
p(A)=p(A/B)=p(A/B-). WS für A ist gleich der WS für A unter Bed. B, gleich WS für A unter Bed. „nicht B“
Theorem von Bayes
p(A/B)=p(A) x p(B/A) / p(B) u.a.r.
Wahrscheinlichkeitsverteilungen
Diskrete: Gibt für jeden Wert einer diskreten Variable die Auftretens-WS an.
Stetige: ergibt sich, wenn für eine kontinuierliche Variable unendliche kleine Kategoriebreiten verwendet werden
Fläche unter der Kurve repräsentiert Anteile der Population in best. Wertebereich (WS-Dichteverteilung)
Wichtigste stetige WS-Verteilung: Normalverteilung (von Gauß entdeckt).
Die Normalverteilung
-glockenförmiger Verlauf
-symmetrisch (a3=0)
-normaler Exzess (a4=3)
-Definiert durch: Mw. Gibt die Position des „Gipfels“ an, Streuung/Std.abw. gibt die Breite der Verteilung an.
Standardnormalverteilung: Normalverteilung mit Mw.=0 und Streuung=1. Jede normalverteilte Variable kann
in eine Stand.norm.vert. transformiert werden: z-Transformation (heißt auch „Standardisierung“).
Der z-Wert entspricht der Abw. vom Mw. in „Std.abw.-Einheiten“. Z-Tabelle zur Std.norm.vert. gibt an, wie
groß die Fläche die Fläche unter der Kurve links von einem z-Wert ist. Und man kann Prozentränge ablesen.
-68% aller Werte liegen zwischen s=-1 und s=+1 (von z=-1,64 bis z=+1,64)
-ca. 95% aller Werte liegen zwischen s=-2 und s=+2 (von z=-1,96 bis z=+1,96)
-ca. 2,14% der Werte liegen links von s=-2 oder rechts von s=+2
-ca. 0,13% liegen links von s=-3 / rechts von s=+3
Bsp. IQ: ist immer so skaliert, dass er Mw. von 100 und Streuung von 15 hat.
Stichprobengröße und Variabilität der Stichprobenkennwerte
Bei größeren Stichproben geringere Variabilität! (Wenn 10x 2 Personen ziehen und zum Vergleich 10x 20
Personen ziehen: Stichprobenkennwerteverteilung von 20 Personen hat geringere Varianz. Dies gilt für alle
Stichprobenkennwerte, nicht nur Mw. Auch Streuung, Schiefe,…).
Große Stichproben liefern bessere Schätzer!
Zentraler Grenzwertsatz
Wenn man oft genug Stichprobe zieht, ist die Verteilung des (interessierenden) Kennwerts aus allen diesen
Stichrproben irgendwann normalverteilt! Wenn die Population normalverteilt ist, ist auch die Stichprobenkennwerteverteilung bei geringem N schon normalverteilt.
Bei unendlich vielen Stichproben entspricht übrigens der Kennwert der Stichpr.vert. dem in der Population.
Standardfehler
Der Standardfehler eines Kennwerts ist die Std.abw. der Verteilung dieses Kennwerts aus vielen Stichproben. Er
gibt an, wie nah ein empirischer Stichprobenkennwert am wahren Populationskennwert liegt.
Kann direkt aus einer Stichprobe berechnet werden, also ohne dass man mehrere Stichproben erheben muss.
Interpretation des Standardfehlers und Konfidenzintervalle
Standardfehler ist ja Std.abw. der Stichpr.kennw.vert., und da diese normalverteilt ist (ab N>30), kann WS
berechnet werden, dass der Kennwert in einem bestimmten Intervall liegt. Man geht also von Standardnormalverteilungskurve aus und nimmt z-Werte, um den WS-Bereich festzulegen.
Mit p=.68 ist der Kennwert einer Stichpr.kennw.vert. höchstens einen Std.fehler vom Stichpr.kennw. entfernt
Der interessierende Kennwert der Stichpr.kennw.vert. ist ja unbekannt, deshalb wird Intervall um den
Stichprobenmittelwert. angegeben, in dem dieser Kennwert mit einer best. WS liegt:
95%-Intervall für den Mw.: p(Mw.-1,96 mal Std.fehler des Mw. < µ < Mw. + 1,96 mal Std.fehler des Mw
Dieser Mittelwert der Stichpr.kennw.vert. entspricht dem Populationsmittelwert!
Vorgang des Hypothesentestens
-Die Nullhypothese besagt, dass kein Unterschied zwischen zwei Populationen (bzw. zw. den 2 Merkmalen)
-Die Alternativhypothese besagt, dass ein Unterschied besteht (bei gerichteter: bestimmter Unterschied)
-Die Verteilung der relevanten Kennwerte (meistens Mw. von etw.) muss klar sein (Normalverteilung? σ? µ?)
-Entscheidungskriterium (kritischer t-Wert) wird festgelegt: wie klein muss Wert sein, damit unterdurchschntl.?)
-Empirischer Wert (durch Test ermittelt) wird mit kritischem Wert verglichen.
-Fehler: alpha-Fehler (1.Art): man entsch. sich falsch für H1, beta-Fehler (2.Art): man entsch. s. falsch für H0.
-das alpha-Niveau gibt an, wie „unws. H0 sein muss“, damit H1 angenommen wird. Meistens: α=.05! Das
Ergebnis ist also signifikant, wenn p < .05! Mit WS von α wird also H1 fälschlicherweise angenommen.
Voraussetzungen für den t-Test für unabhängige Stichproben
Intervallskalenniveau, Normalverteilung der Population (KS-Test), Varianzhomogenität (Levene-Test),
Unabhängigkeit der Stichproben. Wenn Normalverteilungsvoraussetzung verletzt, ist das vorallem bei kleinem N
problematisch! Dann sollte ein nonparametrischer Test verwendet werden, z.B. u-Test
Wenn die Varianzhomogenität verletzt ist, müssen die Freiheitsgrade korrigiert werden, denn eine Verteilung ist
flacher, wenn Varianz nicht gleich, d.h., die WS stimmt nicht mehr! 5%-Niveau bei flacher weiter rechts!
Voraussetzungen für den t-Test für abhängige Stichproben
Abhängige Stichproben (Parallelisierung/Matching), Intervallskalenniveau, Normalverteilung. Gemeinsame
Varianz ist sowieso gegeben
Voraussetzungen für den t-Test für eine Stichprobe
Normalverteilung, Intervallskalenniveau, + ZUFALLSSTICHPROBE!
Effektgröße/Effektstärke
Gibt an, wie bedeutungsvoll ein Unterschied ist. Wächst mit größeren Unterschieden zwischen den
experimentellen Bedingungen und kleinerer Streuung innerhalb der Bedingungen. Diff. d.Pop.Mw.durch:Varianz
Empirischer Effekt wächst:
…mit größerem Abstand der Mittelwerte
…mit kleinerer Streuung
…mit größerem N (=kleinere Streuung)
Konventionen: d≥2: kleiner Effekt, d≥0,5: mittlerer Effekt, d≥0,8: großer Effekt
Der Varianzquotient φ² gibt das Verhältnis systematischer zu unsystematischer Varianz an. Er wächst:
…mit größerer systematischer Varianz
…mit kleinerer Fehlervarianz
Wenn man weiß, welche Effektgröße zu erwarten ist, kann man den β-Fehler festlegen. (?)
Teststärke (Power)
= 1-β. WS, einen bestehenden Unterschied nachzuweisen (also WS, H1 anzunehmen, wenn H1 gilt).
Power vergrößern:
β-Fehler reduzieren (=größerer α-Fehler, also „höheres α-Niveau“)
einseitig testen, da sich so das α-Niveau erhöht
Streuung reduzieren, da dann geringere Überlappung, und dadurch wiederum geringere WS für Fehler
Stichprobe vergrößern, da bei größerem N geringere Streuung
Effektstärke vergrößern (also kleinere Streuung, größeres N, vorallem aber: größere Abst. d. Mw.): weil bei
größerem Abstand der Mw. die Überlappung geringer ist, dadurch geringere WS für Fehler
Abhängige Stichproben verwenden, da sich so die Fehlervarianz reduziert – weniger Überlappung der Vert.
Teststärkeres Verfahren auswählen: parametrische Tests haben größere Effizienz (weil Info besser ausgenutzt),
dadurch größere Teststärke, kleinerer β-Fehler
Festlegen des Fehlerniveaus (traditionelles Vorgehen):
α-Niveau wird festgelegt, aber β-Fehler nicht explizit. Ergibt sich eben aus dem ersteren. Man weiß dabei nie
genau, wie groß zweiterer denn genau ist. Sowohl H0 als auch H1 können gelten.. Problem mit Falsifizierbarkeit
der Hypothesen (H1 kann nicht falsifiziert werden. Bei Beibehaltung von H0 kann nicht gefolgert werden, dass
H1 NICHT gilt. Nur wenn H0 abgelehnt wird, kann gesagt werden, dass H1 mit bestimmter Fehler-WS α gilt
Wenn man bei diesem Vorgehen β-Fehler reduzieren will, wählt man α-Niveau von 20%. Blöd!
Stichprobenumfangsplanung
Man legt β-Fehler, α-Fehler und Teststärke fest. Dadurch alle Ergebnisse interpretierbar. Wenn H0 verworfen
wird, kann H1 mit bekannter FehlerWS α angenommen werden; wenn H0 NICHT verworfen wird, wird die H1
mit bestimmter FehlerWS β abgelehnt. Da außerdem Teststärke bekannt: Unters. mit geringer Teststärke verm.
Bsp.1: UV: Geschlecht, AV: Lesefähigkeit. Förderprogramm? Leider knappe Kassen. Deshalb: nur bei
bedeutsamem Unterschied finanziert.mindestens mittlerer Effekt (>.5), geringes Alpha-Niveau (1%), hohes
Beta-Niveau, da nicht tragisch(20%)
Bsp.2: Nebenwirkungen von Medikament. UV: Placebo vs. geringe Dosis vs. hohe Dosis. AV: Nebenwirkungen.
Auch kleinste Nebenwirkung soll aufgedeckt werden, deshalb: kleiner Effekt gesucht.
Vermeiden, dass Nebenwirkung nicht entdeckt wird: geringes Beta-Niveau = hohe Teststärke erwünscht (z.B. bei
1% festlegen). Weniger tragisch, wenn fälschlicherweise Unterschied gefunden, also Alpha-Niveau z.B. 10%
wenn zu geringe Power: H1 wird mit zu geringer WS angenommen, wenn sie in Population gilt
zu hohe Power: H0 wird mit hoher WS verworfen, auch wenn Abw. von H0 sehr klein (d.h. praktisch unbed.)
Ziel: Für eine interessierende Effektgröße eine vernünftige Power finden, d.h. möglichst ausgeglichene und
geringe FehlerWS Alpha und Beta.
A-priori-Teststärkeanalyse
Wieviele VP brauche ich?
Festlegen von: Effektgröße, Alpha-Niveau, Teststärke
Berechnung von: benötigter Stichprobengröße
Post-hoc-Teststärkenanalyse
Wie groß war Power bei Untersuchung?
Festlegen von: Effektgröße, Alpha-Niveau, Stichprobengröße
Berechnung von: Teststärke
Bsp.: Wenn Schlussfolgerung eines Tests, dass z.B. Amnestiker in direkten Tests benachteiligt sind, nicht
dagegen in indirekten Tests, dann stellt sich Frage, ob zweiter Teil gerechtfertigt. Wenn man jetzt die Teststärke
berechnet, kommt raus, dass die Power (1-β) bei kleinem Effekt (d=.2) .09 war, bei mittlerem .19 und bei großem
.33! Das bedeutet: sogar bei großem Effekt wurde die H0 mit einer FehlerWS von 67% angenommen.
Kompromiss-Teststärkenanalyse
Wie groß sind Alpha-Niveau und Power bei einer bestimmten Stichprobengröße?
Festlegen von: Effektgröße, Stichprobengröße, Verhältnis Beta/Alpha
Berechnung von: Alpha und Teststärke. Anw. bei begrenzter Stichprobengröße (z.B. wenig Patienten, zu teuer..)
Ein Beispiel für jeweilige Verwendung der Teststärkenanalysen
AV: Anzahlder Lernversuche von Ratten bis zum fehlerfreien Durchlaufen eines Labyrinths. Hypothese: Ratten
mit vorheriger Explorationsmöglichkeit brauchen weniger Lernversuche.
Erwartet wird ein mittelstarker Effekt d=.5, getestet wird auf Signifikanzniveau α=.05, t-Test.
-Wie groß ist die Power?  Post-hoc-Poweranalyse. Erg.: Power .59, also sehr gering.
-Wie groß müsste die Stichprobe sein, um einen Effekt d=.5 mit einer Power von .95 aufzudecken?  A-prioriPoweranalyse. Erg.: N=176. Es sind aber nur 120 Ratten verfügbar.
-Wie groß müssen Alpha und Beta gewählt werden, damit beide FehlerWS gleich sind?  KompromissPoweranalyse
Warum Produkt-Moment-Korrelation? Warum reicht Kovarianz nicht?
Kovarianz ist unstandardisiertes Maß, d.h. sie hängt von der Skalierung der beteiligten Variablen ab. Daher nicht
direkt interpretierbar und vergleichbar! Standardisierte Kovarianz ist der Korrelationskoeffizient. Von -1 bis 1
Unterschied d und r? Sind beides Effektgrößen!
r bezeichnet Effektgröße eines Zusammenhangs, d bezeichnet Effektgröße eines Unterschieds.
Determinationskoeffizient
Ist die quadrierte Korrelation. Beschreibt den relativen Anteil der gemeinsamen Varianz von zwei Merkmalen.
Probleme des Korrelationskoeffizienten
ist nicht intervallskaliert, deshalb:
1.Mittelwert zweier Korrelationen ist nicht als das arithmetische Mittel berechenbar
2.Differenzen (Abstände bzw. Intervalle) zwischen Korrelationskoeffizienten sind nicht interpretierbar
LÖSUNG: Transformation der Korrelationskoeff. in annähernd intervallskalierte Werte: Fishers Z-Werte.
Sind: annähernd intervallskaliert, annähernd normalverteilt. Berechnen oder in Tabelle nachschlagen.
Mittelwert von Korr.koeff.
Man berechnet den Fishers Z-Wert für einzelne Korr., bildet dann das (gew.) Mittel, dann: Rücktransformation
Unterschiede zwischen Korrelationen
Berechnung Fishers Z für einzelne Korr., Berechnung eines z-Werts, Vergleich mit krit. z-Wert (aus
Std.norm.vert.-Tabelle). Wenn z(emp)>z(krit), dann liegt signifikanter Unterschied zw. r1 und r2 vor.
Prüfen einer spezifischen Hypothese
z.B. „Korr. in Population hat genau den Wert rho“.
(1) Berechnung von Fishers Z für die empirische und die erwartete Korrelation
(2) Berechnung eines z-Werts: Z - Z(rho) geteilt durch Std.abw von Z
(3)Vergleich mit einem kritischen Wert aus der Std.norm.vert.-Tabelle. Bei z(emp)>z(krit): Signifikanter
Unterschied zwischen r und rho.
Weitere Korrelationskoeffizienten
Intervall+Ordinal: Spearmans Rangkorrelation
Ordinal+Ordinal: Spearmans Rangkorrelation
natürlich dichotom (z.B. Geschlecht), also Nominal +Intervall: punktbiseriale Korrelation
natürlich dichotom, also Nominal +Ordinal: biseriale Rangkorrelation
polytom (z.B. Parteien), also Nominal +Ordinal: Cramers Index
polytom + künstlich dichotom (z.B. deutsch: ja/nein) (also: Nominal+Nominal): Cramers Index
polytom + natürlich dichotom (Nominal+Nominal): Cramers Index
polytom + polytom (Nominal+Nominal): Cramers Index
Lineare Regression
Ziel: Vorhersage einer Variablen y durch eine Variable x. Nur möglich, wenn Korrelation der beiden.
Vorherzusagende Variable: Kriteriumsvariable
Zu Vorhersage verw. Var.: Prädiktorvariable
Residuum: Vorhersagefehler (ei). Bezeichnet die Abw. der vorhergesagten (geschätzen) y-Werte von den
tatsächlichen y-Werten. ei = vorhergesagter y-Wert minus tatsächlicher y-Wert.
Methode der kleinsten Quadrate
a und b (die beiden Parameter, die die Regr.gl. definieren. a=Achsenabschnitt, b=Regr.gewicht.) werden so
gewählt, dass der quadrierte Vorhersagefehler über alle Probanden minimal ist. Für die Ermittlung der
Regressionsgleichung wird die Differenz der tatsächlichen von den vorhergesagten y-Werten also quadriert.
Vorteile:
-Abweichungswerte immer positiv
-große Abweichungen werden stärker berücksichtigt als kleine Abweichungen
Güte der Vorhersage
Das Residuum bezeichnet die Qualität. Der „wahre Wert“ der Variable y setzt sich also aus dem vorhergesagten
Wert und einem Residuum zusammen. (Tatsächl. Wert = vorhergesagter Wert + Residuum)
Standardschätzfehler
…ist die Standardabweichung der Residuen! Gibt die Streuung der y-Werte um die Regressionsgleichung an.
Gibt also an, wie stark die wahren y-Werte von den vorhergesagten y-Werten (der Geraden) abweichen.
Je größer die Streuung des Kriteriums (s Index y), desto größer der Fehler
Je größer die Streuung des Prädiktors, desto kleiner der Fehler. (je größerer Bereich, in dem x-Werte, desto
besser kann man schätzen, also desto kleiner der Fehler)
Je größer die Korrelation zwischen Prädiktor und Kriterium, desto kleiner ist der Fehler.
Fehler ist klein, wenn ein Kriterium mit geringer Varianz hoch mit eine Prädiktor mit großer Varianz korreliert!
Kreuzvalidierung
Frage der Generalisierbarkeit (externe Validität) einer Regressionsgleichung, also ob auch für alle Personen
gültig, die ursprünglich nicht zur Stichprobe gehörten. Für die Kreuzvalidierung wird deshalb an zwei
Stichproben die Gültigkeit der Regressionsgleichung für eine andere Stichprobe überprüft.
Vorgang:
(1) Berechnung der Regressionsgleichung R1 anhand Stichprobe S1 und Ber. von R2 anhand S2
(2) Anwendung von R1 auf S2, Anwendung von R2 auf S1
(3) Vergleich der vorhergesagten Kriteriumswerte mit den wahren Kriteriumswerten in S2, u.a.r.
Einengung der Streubreite
Nötig, denn je geringer die Streuung der Merkmale, desto schwächer ist ihr Zusammenhang und manchmal ist in
bestimmtem Bereich nicht zu erkennen, was für eine Regressionsgerade. Deshalb: Wertebereich von x
einschränken! (Schaubild „in die Breite ziehen“). Dann wird klarer, was für ein Zusammenhang.
Herunterladen