Mittelwert, Varianz, Standartabweichung

Werbung
www.skriptenforum.net/psychologie
1
www.skriptenforum.net
Ein herzliches Willkommens-QUAK! Du hältst ein Skriptum der Seite www.skriptenforum.net in der
Hand.
Was ist das SKRIPTENFORUM:
Das "Skriptenforum" ist ein unabhängiger, gemeinnütziger Verein, der den Aufbau einer Sammlung
und die Propagierung von frei zugänglichem Wissen zum Ziel hat.
Was ist OPEN KNOWLEDGE:



Open Knowledge - Dokumente sind FREI und KOSTENLOS für jedermann verfügbar und sind
nicht an das NUTZUNGSRECHT eines einzelnen gebunden.
Die Dokumente werden KOLLEKTIV ENTWICKELT UND GEWARTET und von der Open
Knowledge - Gemeinde und einem jeweiligen Verantwortlichen LAUFEND ÜBERARBEITET.
Das ZIEL ist es, nicht mehrere mittelmäßige Einzeldokumente zu haben, sondern das Beste aus
jedem in EINEM QUALITATIV HOCHWERTIGEN Dokument zusammenzufassen!
Das Open Knowledge - Konzept ist am Skriptenforumprojekt entwickelt worden, ist aber natürlich
nicht auf dieses beschränkt!
Kann ich mitmachen?
Ja, natürlich!! Je mehr mitmachen, umso mehr Erfolg hat das Projekt! Schau auf
www.skriptenforum.net, dort findest du die nötigen Informationen, um entweder als Administrator
mitzuarbeiten, oder uns ein Dokument zukommen zu lassen.
Wo erfahre ich mehr über das Projekt?
Alle Informationen zum Projekt und zum Verein sind auf unserer Seite www.skriptenforum.net zu
finden.
Info zu diesem Skriptum
Verantwortlicher: [email protected]
Nachdem du dieses Skriptum durchgeackert hast, gib doch bitte eine Bewertung dazu ab unter:
http://www.skriptenforum.net/index.php3?art=2&richt=2&ab=1&fach=9&norm=212
Dieses Schriftstück ist ein "Open Knowledge - Schriftstück" und unterliegt den "Nutzungsbedingungen für Open
Knowledge - Schriftstücke" des Vereins "Skriptenforum".
Nachzulesen sind diese auf der Seite des Vereins "Skriptenforum" unter
http://www.skriptenforum.net/index.php3?id=regeln
im Internetz.
Das Nutzungsrecht an diesem Schriftstück liegt beim Verein "Skriptenforum".
www.skriptenforum.net/psychologie
2
Mittelwert, Varianz, Standartabweichung
Mittelwert: sollte dann berechnet werden, wenn ein repräsentatives, zusammenfassendes Maß für die
Stichprobe gesucht wird, ein Lagemaß, um zu wissen, wie hoch „im Durchschnitt“ die Werte der
Stichprobe sind.
Varianz: (Standartabweichung) dient dazu anzugeben, wie weit die Werte der Stichprobe um den
Mittelwert streuen. Sie sind Streuungsmasse.
Beide Kennwerte setzen intervallskalierte und normalverteilte Daten voraus.
Das arithmetische Mittel (Mittelwert) = Summe der Messwerte der Stichprobe dividiert durch den
Stichprobenumfang.
Mittelwert nur dann typisch, wenn sich die Werte innerhalb der Stichproben nicht allzu sehr
unterscheiden. Dies würde dann durch ein Streuungsmaß ausgedrückt werden.
Stichprobenvarianz: Streuung der Punkte um den Mittelwert. Der Grund warum nicht der Mittelwert
der Abweichungen als Streuungsmaß verwendet wird ist, da das Ergebnis stets gleich 0 wäre. Die
Varianz ist ein quadratisches Streuungsmaß, oft benötigt man ein lineares = Standartabweichung.
Verschiebungssatz für Varianzen (=Steinerscher VS) erlaubt eine vereinfachte und dennoch genaue
Berechnung der Varianz: Die Stichprobenvarianz ist gleich dem Mittelwert der Messwertquadrate
minus dem Quadrat des Mittelwerts der Messwerte.
Messwerteklassen: große Anzahl verschiedener Messwerte werden zusammengefasst und in einer
Häufigkeitstabelle übersichtlich dargestellt.
Es wird ein Klassenmittelpunkt und die untere sowie die obere Klassengrenze erstellt.
Das Ergebnis der Zusammenfassung sind vergröberte Messwerte. Zur Berechnung von Mittelwert
und Varianz kann man nun zur Rechenvereinfachung die sog. Lineartransformation anwenden: es
werden transformierte (zum Beispiel alle Werte durch die selbe Zahl dividieren) Messwerte
verwendet.
Mittelwert und Varianz werden nun für die transformierten Werte errechnet, nur dass wir das
Ergebnis anschließend wieder retransformieren.
Man sollte vor dem losrechnen die Messwerte zuerst durch eine Lineartransformation vereinfachen,
dadurch wird die Kontrolle der Richtigkeit erleichtert.
Wendet man auf X eine Lineartransformation an (X -> X*), wird der Mittelwert durch dieselbe
Lineartransformation in Mittelwert* übergeführt.
Der Mittelwert unterliegt derselben Lineartransformation wie die Variable.
Wendet man eine Lineartransformation auf X an, wirkt sich die additive Konstante der
Transformation nicht auf die Varianz aus; diese verändert sich jedoch proportional zum Quadrat der
multiplikativen Konstanten! -> Varianz ist invariant gegenüber Translationen.
Wendet man eine Lineartransformation auf X an, wirkt sich die additive Konstante der
Transformation nicht auf die Standartabweichung aus; diese verändert sich jedoch proportional zum
Betrag der multiplikativen Konstanten.
Eigenschaften des Mittelwerts: Liegt in der Mitte der Stichprobe. Kann auch als Schwerpunkt der
den Messwerten entsprechenden Massepunkte verstanden werden. Die Summe der Abweichungen
der Messwerte xi vom Stichprobenmittelwert ist gleich Null.
Die Quadratsumme der Abweichungen der Messwerte xi vom Stichprobenmittelwert ist ein
Minimum.
Der Mittelwert einer Summe ist gleich der Summe der Mittelwerte.
Standartmesswerte: gibt die Stellung einer Person relativ zu einer Gruppe an. Standardisierte
Variable ist eine Transformation einer Variablen. Standardisierte Variablen haben Mittelwert 0 und
Standartabweichung 1!
Lineartransformation
Bestimmte lineare Transformation aller Werte eines Datensatzes zum Zwecke der Vereinfachung
oder der Standardisierung.
Standardisierung
www.skriptenforum.net/psychologie
3
Spezielle Lineartransformation, die es ermöglicht Werte aus Datensätzen mit unterschiedlichem
Mittelwert und unterschiedlicher Varianz direkt vergleichen zu können oder von einem Wert in
einem Datensatz den genau entsprechenden Wert im anderen Datensatz zu errechnen
Xi vor der Standardisierung kleiner als Mittelwert – Messwert ti negativ
Xi vor der Standardisierung größer als Mittelwert – Messwert ti positiv
Werte liegen zwischen –3 und +3
Regression
Mit Hilfe der Regression ist es möglich ausgehend von einem Wert eines Datensatzes den
dazugehörigen Wert eines anderen Datensatzes zu schätzen, so es einen (linearen) Zusammenhang
zwischen den Datensätzen gibt,
Will man einen y-Wert schätzen: Regression von y auf x
Will man einen x-Wert schätzen: Regression von x auf y
Die Wissenschaft befasst sich nicht nur mit einer Variablen allein, sondern will die wechselseitigen
Beziehungen mehrerer Variablen untereinander untersuchen.
Lineare Regression: Aus vielen, in ein Koordinatensystem eingetragenen Werten ergibt sich ein
Punkteschwarm. Dieser lässt die Art des statistischen Zusammenhangs zwischen 2 Variablen
erkennen.
Um zu einer statistischen Maßzahl zu kommen müssen wir vorher die Abhängigkeit durch eine
lineare Funktion zu approximieren. Regressionsgerade verbindet 2 Variablen (Residuen = kleinste
Differenz zwischen Wert und dessen linearer Funktion)
Regressionsgerade geht durch jenen Punkt, welcher die Mittelwerte von X und Y zu Koordinaten hat.
Dieser Punkt S wird auch als Schwerpunkt des Punkteschwarms bezeichnet. Mittelwert X ist der
Schwerpunkt der Projektionen der Punkte der X-Achse und Mittelwert Y umgekehrt (Projektionen
auf die Y-Achse).
Zur Festlegung der Geraden benötigt man einen Anstiegskoeffizienten b(yx). Die Konstante b(xy)
nennt man Regressionskoeffizienten von Y auf X, der Zähler ist die Kovarianz von X und Y und
wird cov(X,Y) oder c(xy) geschrieben.
Kovarianz ist symmetrisch in X und Y, verändert sich beim Vertauschen von Y und X nicht!
Die Kovarianz ist gleich dem Mittelwert der Messwerteprodukte xiyi minus dem Produkt der
entsprechenden Mittelwerte.
Hätten wir X als Funktion von Y dargestellt wäre der Anstieg der Regressionsgeraden anders
gewesen, wir hätten dann die Regressionsgerade von X auf Y erhalten. Die Kovarianz wäre gleich
geblieben.
Der Regressionskoeffizient von X auf Y hat den gleichen Zähler wie b(yx), aber verschiedene
Nenner.
b(xy) ist aber nicht der Anstieg der Regressionsgeraden im (X,Y)-Koordinatensystem sondern der im
(Y,X)-System!
Es gibt also zwei verschiedene Regressionsgeraden, beide gehen durch den Schwerpunkt des
Punkteschwarms, Verschiedenheit der beiden Regressionsgeraden hat ihre Ursache, dass in der
Ableitung der Regressionsgeraden jeweils eine der beiden Variablen als fehlerfrei angesehen wird,
die andere als Zufallsfehler überlagert betrachtet wird.
Residuen = zufällige Messfehler.
Die Kovarianz ist ein Maß für den Grad der gemeinsamen Variation der beiden Variablen X und Y,
d.h. sie drückt aus, wie sich eine Veränderung von X in Bezug auf Y statistisch auswirkt und
umgekehrt.
c(xy) ist dann groß und positiv, wenn große positive Abweichungen xi – Mittelwert X mit ebenfalls
großen positiven Abweichungen yi – Mittelwert Y gemeinsam auftreten und daher ein positives
Produkt ergeben. Und wenn große negative Abweichungen xi – Mittelwert X mit ebenfalls großen
Abweichungen yi – Mittelwert Y zusammentreffen und somit wieder zu einem positiven Produkt
multipliziert werden = positiver Zusammenhang
www.skriptenforum.net/psychologie
4
Kovarianz ist ähnlich der Varianz ein Dispersations- (= Streuungs-)maß: die Varianz das mittlere
Abweichungsquadrat, die Kovarianz das mittlere Abweichungsprodukt! Wesentlicher Unterschied
zwischen Varianz und Kovarianz: erstere ist stets positiv, letztere kann positive und negative Werte
annehmen, wenn nämlich überdurchschnittliche Werte von x, also positive Abweichungen xi –
Mittelwert x, zumeist mit unterdurchschnittlichen Werten in y, also negative Abweichungen yi –
Mittelwert y, gepaart auftreten, dann erhält man eine negative Kovarianz = negativer
Zusammenhang!
Die Kovarianz einer Variablen X mit sich selber ist gleich der Varianz dieser Variablen.
Produktmomentkorrelation
Quantifiziert den Zusammenhang zwischen 2 intervallskalierten und normalverteilten Variablen;
unter der Annahme, dass ein linearer Zusammenhang zwischen den beiden Variablen x und y besteht
Korrelation bringt zum Ausdruck, wie stark der lineare Zusammenhang zwischen den korrelierten
Variablen x und y ist und in welche Richtung er geht.
Korrelation rxy nimmt Werte zwischen –1 und +1 an. Je näher die Korrelation bei +1 oder -1 ist,
umso größer ist der Zusammenhang zwischen den korrelierten Variablen x und y. Je näher die
Korrelation an 0 herankommt, umso geringer ist der Zusammenhang
Um die Korrelation zu interpretieren hilft das Bestimmtheitsmaß B.
Offensichtlich drückt die Kovarianz und damit auch der Anstieg beider Regressionsgeraden den Grad
des statistischen Zusammenhanges zwischen den beiden Variablen aus. Da die Kovarianz nicht
aufgrund ihrer numerischen Größe interpretierbar ist führt man eine Maßzahl für ihre Stärke des
linearen Zusammenhanges von X und Y ein: Größe r = Produktmomenkorrelation
Sie ist das geometrische Mittel der beiden Regressionskoeffizienten. Positive (negative) Kovarianz
bedeutet positive (negative) Korrelation
Eigenschaften von Korrelation und Regression: r(xy)= standardisierte Kovarianz, weißt gewisse
Invarianzeigenschaften auf: die additiven Konstanten wirken sich nicht auf die Kovarianz aus, die
multiplikativen Konstanten vergrößern/ verkleinern die Kovarianz proportional.
Wird eine der beiden Variablen X oder Y linear transformiert, wirkt sich die additive Konstante auf
die Kovarianz nicht aus, dieser verändert sich aber proportional zum multiplikativen Faktor der
Transformation. Wenn der multiplikative Faktor der Lineartransformation negativ ist, ändert die
Kovarianz ihr Vorzeichen! Sind beide Faktoren negativ bleibt das Vorzeichen der Kovarianz gleich!
Unter Lineartransformationen ist der Betrag der Korrelation r(xy) der Variablen X und Y invariant.
Sie ändern jedoch ihr Vorzeichen genau dann, wenn eine Lineartransformation positiv und die andere
negativ ist. All diese Ergebnisse gelten auch dann, wenn nur eine der beiden Variablen linear
transformiert wird, dann ist nämlich die zweite Transformation die Identitätstransformation.
Größe der Korrelation: Sind die Variablen X und Y exakt linear abhängig, dann ist die Korrelation
r(xy) dem Betrag nach gleich 1. Weisen die beiden Variablen keinen Zusammenhang auf, dann ist
die Kovarianz und damit auch die Korrelation annähernd gleich 0.
Die Produktmomentkorrelation ist ihrem Betrage nach kleiner oder gleich 1. Welche Korrelationen
sind als hoch, mittel oder niedrig anzusehen? Man bestimmt das Bestimmtheitsmaß B und
interpretiert es als Verhältnis der sogenannten erklärten Varianz zur Gesamtvarianz. Das
Bestimmtheitsmaß ist gleich dem Quadrat der Produktmomentkorrelation. Das Quadrat der
Produktmomentkorrelation r² kann demnach als Anteil der Varianz Y, der durch X erklärt wird
verstanden werden.
Die Varianz einer Summe: Für Mittelwerte galt die einfache Beziehung: Mittelwert der Summe ist
gleich Summe der Mittelwerte, für Varianzen ist dies etwas komplizierter. Die Varianz einer Summe
zweier Variablen ist gleich der Summe der beiden Varianzen plus der zweifachen Kovarianz der
beiden Variablen. Wenn r(xy)= cov(X,Y)= 0, gilt: sind zwei Variablen unkorreliert, dann ist die
Varianz der Summe gleich der Summe der Varianzen der beiden Variablen.
www.skriptenforum.net/psychologie
5
Standardisierte Variablen: im Falle standardisierter Variablen sind Kovarianz, Regressionskoeffizient
und Korrelation gleich dem mittleren Messwerteprodukt.
Korrelation, Kausalität, partielle Korrelation: nicht-lineare Beziehungen können nicht adäquat
dargestellt werden. Ein vorhandener funktionaler (=fehlerfreier) Zusammenhang zwischen X und Y
durch lineare Regression und Produktmomentkorrelation kann nicht beschrieben werden und daher
kann aus dem Vorliegen einer Korrelation r(xy) ungleich 0 nicht auf einen kausalen Zusammenhang
geschlossen werden. Lediglich eine 3. Variable Z bewirkt einen statistischen Zusammenhang =
Scheinkorrelation.
Um solche Korrelationen adäquater interpretieren zu können ist es wichtig den Einfluß der dritten
Variablen auszuschalten. Dies geschieht mittels der partiellen Korrelation r(xy.z).
Partielle Korrelation rxy.z
Sie quantifiziert den Zusammenhang zwischen den Variablen x und y unter Ausschluss der Variable
z. die partielle Korrelation hilft Scheinkorrelationen zwischen x und y aufzudecken.
Vorraussetzung ist, dass zwischen den intervallskalierten und normalverteilten Variablen x,y und z
paarweise eine Produktmomentkorrelation gerechnet wurde.
Die partielle Korrelation r(xy.z) muß nicht immer kleiner als r(xy) sein, sie kann auch größer als die
unbedingte Korrelation r(xy) ausfallen.
Vierfelderkorrelation ro
Quantifiziert den Zusammenhang zwischen zwei dichotomen Variablen
Ist ro positiv, ist das Kreuzprodukt ad-bc positiv. Nur möglich, wenn a mal d kleiner gleich b mal c
ist!
Ist ro negativ, ist das Kreuzprodukt ad-bc negativ. Nur möglich, wenn a mal d größer gleich b mal c
ist!
Die Produktmomentkorrelation ist für stetige Variablen X und Y gedacht, Psychologie interessiert
sich aber auch für binäre (= dichotome) Variablen z.B. Reaktionen auf Items mit nur zwei
Reaktionskategorien (ja/nein). Rohwert = Anzahl der richtigen Antworten im Test wird erhoben, jede
richtige Antwort zählt einen Punkt und jede Falsche Null Punkte. Somit ist jedem Item eine binäre
Variable X zugeordnet ( 0 oder 1). Die Vierfelderkorrelation ist ein Sonderfall der
Produktmomentkorrelation. Struktur der Formel ist leicht: Der Zähler ist die Determinante oder das
Kreuzprodukt der Vierfeldertafel, der Nenner die Wurzel aus dem Produkt aller vier Randsummen.
Punktbiseriale Korrelation rpb
Quantifiziert den Zusammenhang zwischen einer intervallskalierten und normalverteilten Variable y
und einer dichotomen Variable x.
Skalentypen
Balkenwaage erlaubt drei Arten von Relationen: a ist gleichschwer wie b oder a ist schwerer als b
oder b ist schwerer als a. Diese Relationen sind binär (zweistellig), weil sie eine Beziehung zwischen
zwei Objekten ausdrücken. Es ist auch noch möglich, zwei Objekte, a und b, auf dieselbe
Waagschale zu legen und ihr gemeinsames Gewicht mit jenem eines dritten Objekts zu vergleichen.
Die Konstruktion einer Gewichtsskala bedeutet, dass nun jedem Objekt eine positive Zahl der
Skalenwert (=Messwert) zugewiesen wird.
Verschiedene Skalentypen:
Rationalskala: Man geht von einer Menge von Objekten und ihren Relationen aus. Nun sollen den
Objekten Zahlen derart zugeordnet werden, dass den empirischen Relationen bestimmte numerische
Relationen umkehrbar eindeutig entsprechen.
Intervallskalen (Temperaturskala): Die Messwerte drücken die zu messende Eigenschaft aus, wobei
gleich große Differenzen von Messwerten (= Messwertintervalle) in einem schon vor und
unabhängig vom Messvorgang wohldefinierten Sinne empirisch äquivalent sind.
www.skriptenforum.net/psychologie
6
Rangskala: alle Skalen welche eindeutig bis auf streng monotone Transformationen sind.
Nominalskala: wenn qualitativ verschiedene Gegebenheiten (Objekte, Eigenschaften,..) mithilfe von
Zahlen bezeichnet oder verschlüsselt werden. Es handelt sich lediglich um eine willkürliche
Bennennung, es besteht keinerlei empirische Relation.
Statistische Maßzahlen für Rangdaten
Median Md und Quartilabstand Q3-Q1
Mit dem Md und dem Quartilabstand lässt sich eine Stichprobe beschreiben. Der Median dient als
repräsentatives Lagemaß, vergleichbar dem Mittelwert.
Der Quartilabstand dient als Streuungsmaß, vergleichbar mit der Standartabweichung.
Beide Kengrößen sind dann zu rechnen, wenn Mittelwert und Varianz nicht gerechnet werden
dürfen, weil entweder das Intervallskalenniveau oder die Normalverteilung nicht gegeben ist.
Werden meist nur für Daten auf Rangniveau verwendet.
Wenn Daten nur Rangskalenniveau aufweisen, oder wenn Zweifel an der Intervalleigenschaft
besteht, ist es nicht sinnvoll die statistischen Methoden aus den Kapiteln 3-5 anzuwenden. Liegen
Messwerte auf der Rangskala, können beliebig hohe Zahlen genommen werden die eventuell die
Zahlenreihe nicht mehr intervallskaliert und Mittelwert und Standartabweichung sind nicht mehr
sinnvoll interpretierbar. Ebenso wird die Produktmomentkorrelation r(xy) unvorhersehbar verändert.
Daher brauchen wir andere Kennwerte:
Der Median: Jener Messwert, welcher in der Mitte der größenmäßig geordneten Messwerte einer
Stichprobe (oder Verteilung) steht. Anwendung des Medians: wird statt dem Mittelwert verwendet
wenn die Intervallskaleneigenschaft der Skala nicht gesichert ist oder die Verteilung der Messwerte
stark schief ist, oder am unteren oder oberen Ende der Verteilung offene Messwertklassen vorhanden
sind. Wenn die Verteilung symmetrisch ist stimmen Mittelwert und Median überein
Der Quartilabstand: Q1 ist das untere Quartil, d.h. oberhalb vom ¾ der Stichprobe. Q3 ist das obere
Quartil, d.h. oberhalb von welchem ¼ der Stichprobe liegt, und Q2 ist sinngemäß der Median.
Spearman’s Rangkorrelation: Wenn die Variablen X,Y nicht mindestens Intervallskalenniveau
aufweisen stellen sich für die Korrelationsrechnung analoge Probleme wie für Mittelwert und
Varianz. Dann ist ein alternatives Korrelationsmaß erforderlich. Die Beurteiler stimmen nur
näherungsweise in ihrem Urteil überein = Rangkorrelation nach Spearman.
Rangkorrelation
Quantifiziert den Zusammenhang zwischen zwei rangskalierten Variablen
Inferenzstatistische Methoden:
Wahrscheinlichkeitsrechnung
Strebt die relative Häufigkeit rn(A) eines Ereignisses A in einer Folge von Experimenten unter
gleichen Bedingungen bei n gegen Unendlich einem Grenzwert zu, heißt dieser „Wahrscheinlichkeit
von A“, P(A). Eine Münze sei als fair bezeichnet, wenn für jeden Wurf gilt: P(A)=P(K)= ½ .
Regeln der Wahrscheinlichkeitsrechung:
1. Regel: Für jedes Ereignis A gilt stets 0 ist größer gleich P(A) ist größer gleich 1. Jede
Wahrscheinlichkeit liegt in einem abgeschlossenem Intervall [0;1]. Unter dem Ereignis A v
B (A oder B) wird jenes Ereignis verstanden, welches genau dann eintritt, wenn mindestens
eines der beiden Ereignisse A oder B eintritt. Das Ereignis A v B tritt in drei unterscheidbaren
Fällen ein: a) A ist eingetreten, B jedoch nicht, b) B ist eingetreten, A jedoch nicht und c)
sowohl A als auch B sind eingetreten.
Unter dem Ereignis A ^ B (A und B) wird jenes Ereignis verstanden, welches genau dann
eintritt, wenn sowohl A als auch B eintreten.
2. Regel: P(A v B)= P(A) + P(B) – P(A^B). Diese Regel verknüpft also die
Wahrscheinlichkeiten der zusammengesetzten Ereignisse A v B und A ^ B. Häufigkeit, mit
der A v B auftritt, setzt sich aus allen Fällen zusammen in denen 1) A auftritt, oder 2) B
www.skriptenforum.net/psychologie
7
auftritt oder 3) A und B aufgetreten sind, aber auch in Fällen in denen sowohl unter 1) als
auch unter 2) gezählt wurden, sodass ihre Anzahl einmal subtrahiert werden muss. Zwei
Ereignisse A und B heißen einander ausschließend, wenn sie niemals gemeinsam auftreten,
d.h. wenn f(A^B) stets gleich 0 ist.
3. Regel: für einander ausschließende Ereignisse A und B gilt P(A v B)= P(A) + P(B), die
Additionsregel der Wahrscheinlichkeitsrechnung. Unter dem komplementären Ereignis von
A, mit „-A“ bezeichnet, versteht man jenes Ereignis, welches genau dann eintritt, wenn A
nicht eintritt.
4. Regel: P(A) + P(-A) = 1 Jenes Ereignis, welches unter gegebenen Bedingungen stets eintritt
heißt das sichere Ereignis.
5. Für das sichere Ereignis gilt: P(S) = 1 Wenn S das sichere Ereignis ist, muss es stets eintreten,
also f(S) = n, daher r(S) = 1 und folglich P(S) = 1. die Umkehrung gilt aber nicht! P (-A) = 0!
6. Für ein unmögliches Ereignis U gilt P(U) = 0. Jene Ereignisse, welche unter gegebenen
Bedingungen niemals eintreten können.
Die bedingte Wahrscheinlichkeit: zwei Ereignisse A und B, die insofern voneinander abhängen, als
das Eintreten von A die Wahrscheinlichkeit von B beeinflusst. Frage: Wie wahrscheinlich ist das
Eintreten von B unter der Bedingung, dass A eingetreten ist. Die bedingte Wahrscheinlichkeit kann
nun dazu benützt werden, die statistische Abhängigkeit oder Unabhängigkeit zu erfassen.
Unabhängig ist ein Ereignis dann, wenn das Eintreten des einen Ereignisses keinen Einfluss auf das
Eintreten des anderen Ereignisses hat. Das Ereignis B heißt unabhängig vom Ereignis A, wenn P(B)
= P(B/A) gilt. Multiplikationsregel der Wahrscheinlichkeiten, gilt auch umgekehrt: P(A^B) =
P(A)P(B). Zwei Ereignisse sind genau dann unabhängig, wenn die Multiplikationsregel gilt. Die
Unabhängigkeit von A und B mit 0< P(A)<1 und 0<P(B)<1 bedeutet, dass auch folgende Paare von
Ereignissen unabhängig sind: -A und B, A und –B, -A und –B.
Binomialtest
Prüft, ob sich zwei Häufigkeiten, unter gewissen Bedingungen (Ho), signifikant voneinander
unterscheiden. Es gibt zwei Methoden zur Berechnung, die herkömmliche und die
Normalverteilungsapproximation (z-Approximation)
Tritt ein Ereignis A in einer Folge unabhängiger Experimente oder Beobachtungen jeweils mit
Wahrscheinlichkeit P(A)=p ein, dann ist die Anzahl K dieser Ereignisse A in einer zufällig
herausgegriffenen Folge von n-Experimenten binominalverteilt. Die Binominalverteilung ist genau
dann symmetrisch wenn p = q = ½ ist.
Die BV ist durch zwei Konstanten charakterisiert, n und p. kennen wir n und p, dann kennen wir die
BV. Kann auch durch Mittelwert und Varianz charakterisiert werden. Wir erhalten den
Erwartungswert (= Mittelwert der BV, wenn wir jede mögliche Ausprägung mit der entsprechenden
Wahrscheinlichkeit multiplizieren und die Summe dieser Produkte bilden. Die Binominalverteilung
B(n,p) ist eindeutig durch Mittelwert phi=np und Varianz omega²=npq charakterisiert.
Herunterladen