GM3: Mathematik/Biostatistik (Teil 2) 0 Motivation Teil 1

Werbung
GM3: Mathematik/Biostatistik (Teil 2)
0 Motivation
Teil 1: Deterministische Prozesse
Bei gleicher (Versuchs-) Anordnung wird das Ergebnis reproduziert
Teil 2: Stochastische Prozesse
Zufallsexperiment: bei gleicher (Versuchs-) Anordnung wird das Ergebnis nicht automatisch
reproduziert. Das Ergebnis kann nicht mit Sicherheit vorhergesagt werden.
Beispiele
−→ Wahrscheinlichkeitstheorie
Statistik: man möchte gerne Charakteristiken für eine ”Population” bekommen aber sehr oft
hat man nur eine Stichprobe.
Stichprobe −→ Experimente −→ Daten x1 , . . . , xn (z.B. Zahlen). Man versucht aus dieser Stichprobe Charakteristiken für die ganze Population zu folgern.
Keine perfekte Information −→ Wahrscheinlichkeiten
x1 , . . . , xn eine Realisation von X1 , . . . , XN Zufallsvariablen.
Ein Hauptziel der Vorlesung: (Mathematische) Tests durchführen zu können, z.B. kann man
anhand der Daten sagen, dass ,mit 95 % Wahrscheinlichkeit, eine Therapie wirksam ist?
Warum ist es wichtig? Die Entscheidungen können wesentliche Folgen haben und es ist wicht,
die Wahrscheinlichkeit einen Fehler zu machen, quantifizieren zu können.
1. Wahrscheinlichkeitsraum
Modell für ein Zufallsexperiment.
Def: Die Menge aller (theoretischen) möglichen Ergebnisse eines Zufallsexperiments heißt der
Ergebnisraum Ω. Ein Element ω ∈ Ω heißt Elementarereignis.
Eine “passende” Teilmenge A ⊆ Ω nennt man Ereignis. Bem: jede denkbare Teilmenge wird
für uns “passend” sein. Deswegen lassen wir “passend” weg.
Ω heißt das sichere Ereignis, die leere Menge ∅ das unmögliche Ereignis.
Zwei Ereignisse A, B ⊆ M heißen disjunkt, falls A und B kein gemeinsames Element enthalten.
Ac = Ω\A = {ω ∈ Ω|ω ∈
/ A} heißt das Gegenereignis von A
A ∩ B = {ω ∈ Ω|ω ∈ A und ω ∈ B}
A und B disjunkt ⇐⇒ A ∩ B = ∅
A ∪ B = {ω ∈ Ω|ω ∈ A oder ω ∈ B}
A ⊆ B : Jedes Element von A ist auch Element von B.
Beispiele
Gesucht ist eine Funktion, die die Zufälligkeit beschreibt
P : A −→ P (A).
P (A) gibt an, wie wahrscheinlich das Eintreten vom Ereignis A ist. Sie soll (u.a.) die folgenden
Eigenschaften besitzen:
Eigenschaften:
• P (Ω) = 1
• P (A) ∈ [0, 1] ∀ A
• P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅
• Allgemeiner
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Weitere Eigenschaften:
• Ist A ⊂ B, so gilt P (A) ≤ P (B)
• P (Ac ) = 1 − P (A)
• Ist A = {ω
P1 , ω2 . . . ωn } so ist
P (A) = nj=1 P ({ωj }) .
Beispiele
Def: Ein Wahrscheinlichkeitsraum ist die Kombination von einem Ergebnisraum Ω, von der
Menge aller Ereignisse und von einer Wahrscheinlichkeitsfunktion P
In der Praxis kann man für P eine bekannte Funktion annehmen oder man wiederholt das
Experiment n-mal. Dann, für großes n, ist die relative Häufigkeit für A ”typischerweise” nah
von P (A). (”Gesetz der großen Zahlen”)
Def: Ist hn (A) die Anzahl der Stichproben, in denen A eintritt, so nennt man rn (A) :=
die relative Häufigkeit für A.
Beispiele
hn (A)
n
Bedingte Wahrscheinlichkeit
Def: Sind A, B Ereignisse mit P (B) > 0, so heißt P (A|B) =
lichkeit für A unter der Bedingung B.
P (A∩B)
P (B)
die bedingte Wahrschein-
Beispiele
Satz der totalen Wahrscheinlichkeit:
Sei B1 , B2 , . . . , Bm eine Zerlegung von Ω, d.h. ∪i Bi = Ω und Bi ∩ Bj = ∅ für i 6= j mit
P (Bi ) > 0 ∀i . Dann gilt
m
X
P (A) =
P (Bj ) · P (A|Bj )
j=1
Satz von Bayes: Sei B1 , B2 . . . Bm eine Zerlegung von Ω und P (A) > 0.
Dann
P (Bi ) · P (A|Bi )
P (Bi |A) = Pm
j=1 P (Bj ) · P (A|Bj )
Beispiele
Unabhängigkeit:
Def: Zwei Ereignisse A, B heißen unabhängig, wenn
P (A ∩ B) = P (A) · P (B) gilt.
Satz: Ist P (B) > 0, so sind A und B genau dann unabhängig, wenn P (A) = P (A|B).
Beweis
Dies bedeutet, dass B keinen Einfluss auf die Wahrscheinlichkeit von A hat.
Beispiele
Noch einige Bemerkungen am Ende vom Kapitel 1.
Bem. 1: Ein sogenanntes Laplace Experiment ist ein Zufallsexperiment s.d. es endlich viele
Elementarereignisse gibt und alle Elementarereignisse gleichwahrscheinlich sind.
Beispiel
Bem. 2: Ω muss nicht endlich sein. Ω kann auch z.B. ein Intervall sein (z.B. Längemessungen,
...) und dann P ({ω}) = 0.
2. Verteilungen
Zufallsvariable
Häufig wird anstatt des Ergebnisses ω ∈ Ω eines Zufallsexperiments eine zugeordnete Zahl
X(w) ∈ R angegeben oder man interessiert sich nicht für alle Einzelheiten des Ergebnisses vom
Experiment sondern nur für was Bestimmtes.
Beispiele
Def.: Sei Ω ein Wahrscheinlichkeitsraum mit Wahrscheinlichkeitsfunktion P. Eine Funktion
X : Ω → R : ω → X(ω) heißt Zufallssvariable.
Def.: Sei A0 eine (”passende”) Teilmenge von R. Dann ist PX (A0 ), definiert als
PX (A0 ) = P (X ∈ A0 ) = P (A0 ) = P ({ω : X(ω) ∈ A0 }),
die sogenannte Verteilung von X.
Def.: Die Verteilungsfunktion von X ist definiert als: FX : R → [0, 1] : x → P (X ≤ x).
Sie ist monoton steigend.
Beispiele
Diskrete Zufallsvariablen:
X kann z.B. nur endlich viele Werte annehmen, d.h. mögliche Werte für X : x1 , . . . , xn ∈ R.
Dann spricht man von einer diskreten Zufallsvariable.
Def.: X ist gleichverteilt (im diskreten Fall), falls
P (X = xi ) =
1
∀ i = 1, . . . , n
n
Beispiel
Oft in der Biologie interessiert man sich für die Anzahl der “Erfolge” bei n unabhängigen
gleichgeführten Versuchen.
Beispiele
Dann ist die Binomialverteilung eine passende Verteilung.
Def.: X ist binomialverteilt B(n, p), n ∈ N∗ , p ∈ [0, 1], falls die möglichen Werte für X 0, 1, . . . , n
sind und
n i
P (X = i) =
p (1 − p)n−i i = 0, . . . , n
i
Beispiel
Bem: p ist die Erfolgswahrscheinlichkeit
pro Versuch.
P
n i
n−i
Bem: P (X ∈ A) = i∈A i p (1 − p)
Stetige Zufallsvariablen
X kann auch stetig sein, z.B. die möglichen Werte für X : (a, b) (oder [a, b]), wobei a, b ∈
R ∪ {−∞} ∪ {+∞}. Dann ist P (X = x) = 0 ∀ x ∈ (a, b).
Wie kann man P (X ∈ A) berechnen?
Def.: Eine Dichte f für eine stetige
R x Zufallsvariable X ist eine nicht-negative Funktion f : R →
+
R0 s.d. FX (x) = P (X ≤ x) = −∞ f (y)dy
Beispiel
Ra
→ P (X ∈ (a1 , a2 )) = a12 f (x)dx
Die folgende Verteilung spielt eine sehr wichtige Rolle und is oft ein braucbares Modell für die
Messung einer Größe, deren aktueller Wert von einer Vielzahl von Einflüssen bestimmt wird,
unter denen keiner dominiert.
Def: X ist Normalverteilt N (µ, σ 2 ), µ ∈ R, σ 2 > 0, wenn die möglichen Werte in R sind und
f (x) = √
1 x−µ 2
1
e− 2 ( σ )
2πσ
−∞<x<∞
Beispiel
Def: X ist standardnormalverteilt, falls µ = 0 und σ 2 = 1 sind (N (0, 1))
Für die Standardnormalverteilung sind die Werte für die Verteilungsfunktion tabuliert.
Tabelle - Beispiele
Was macht man für allgemeine N (µ, σ 2 )?
standardnormalverteilt.
Satz: Sei X N (µ, σ 2 ) verteilt, dann ist X−µ
σ
Beispiele
Eine andere Verteilung spielt auch eine wichtige Rolle, z.B. für die Lebensdauer von Atomen,
..., nämlich die Exponentialverteilung
Def.: X ist exponentialverteilt Exp(λ), λ > 0, falls die möglichen Werte in [0, +∞) sind und
f (x) = λ e−λx 0 ≤ x < +∞ (f (x) = 0, x < 0)
Erwartungswert - Varianz - Standardabweichung
Def.: Erwartungswert, Varianz, Standardabweichung (diskrete Zufallsvariable)
Sei X eine Zufallsvariable auf dem Ergebnisraum Ω mit der Verteilung P und den Werten
b1 , b2 , . . . , bn .
Sei pj = P (X = bj ) für j =
P1, . . . , n.
Die Zahlen µ := E(X) = nj=1 pj · bj
P
σ 2 (X) = var(X) := nj=1 pj · (bj − µ)2
p
und
σ(X) := var(X)
heißen Erwartungswert, Varianz und Standardabweichung von X.
Def.: Erwartungswert, Varianz, Standardabweichung (stetige ZV)
Sei X eine Zufallsvariable auf dem Ergebnisraum Ω
mit der Verteilung P und mit der Dichte f (x)
Z
+∞
x · f (x) dx
µ := E(X) =
−∞
Z +∞
var(X) :=
(x − µ)2 · f (x) dx
p−∞
und σ(X) :=
var(X)
Der Erwartungswert ist jener Wert, der sich (in der Regel) bei oftmaligem Wiederholen des
zugrunde liegenden Experiments als Mittelwert der Ergebnisse ergibt.
Die Varianz und die Standardabweichungen sind Maße, die beschreiben, wie sehr eine Zufallsvariable ”streut”. (Streuungsmaße - Maße für die Abweichung einer Zufallsvariable X von ihrem
Erwartungswert E(X)).
Beispiele
Eigenschaften:
Erwartungswert der Summe von n Zufallsvariablen
E(
n
X
Xj ) =
j=1
n
X
E(Xj )
j=1
Lineare Transformation
Für die lineare Transformation Y = k X + d, k, d ∈ R gilt E(Y ) = k E(X) + d (insbesondere
auch E(cX) = cE(X), c ∈ R) .
Beispiele
Verschiebungssatz
var(X) = E((X − EX)2 ) = E(X 2 ) − (E(X))2
Lineare Transformation. Für Y = k X + d
var(Y ) = k 2 var(X)
Beispiele
Für ”unabhängige Zufallsvariablen” kann man zusätzliche Eigenschaften kriegen.
Def.: Sei Ω ein Ergebnisraum und P eine Wahrscheinlichkeitsfunktion. Die Zufallsvariablen
X1 , . . . , Xn Ω → R heißen unabhängig, falls
P (X1 ≤ w1 ; X2 ≤ w2 . . . Xn ≤ wn ) = P (x1 ≤ w1 )·P (X2 ≤ w2 ) · · · P (Xn ≤ wn ) ∀ w1 , w2 . . . wn ∈ R.
Eigenschaften für unabhängige Zufallsvariablen
Seien X und Y unabhängig. Dann ist E(X · Y ) = E(X) · E(Y )
var(X + Y ) = var(X) + var(Y )
Beispiele
Seien X1 , X2 . . . Xn unabhängig
P verteilt, mit der gleichen Verteilung PX (u.a. EXi = µ ∀i, var
(Xi ) = σ 2 ∀i). Sei X n = n1 ni=1 Xi der Stichprobenmittelwert.
Dann ist E(X n ) = µ und var(X n ) =
σ2
.
n
Seien X N (µ1 , σ12 ) verteilt und Y N (µ2 , σ22 ) verteilt und X, Y unabhängig, dann ist X + Y
N (µ1 + µ2 , σ12 + σ22 ) verteilt.
Die Normalverteilung spielt eine zentrale Rolle in der Wahrscheinlichkeitstheorie:
Zentraler Grenzwertsatz: Seien X1 , X2 . . . , Xn unabhängige Zufallsvariablen mit der gleichen
Verteilung, n groß (d.h. n ≥ 30), dann hat man unter generellen Bedingungen
√ Xn − µ
P( n
≤ x) ≈ P (Z ≤ x), wobei Z N (0, 1) vert.
σ
P
Korollar (Satz von Moivre-Laplace): Sei X Bin(n, p) verteilt, dann ist X = ni=1 Xi , wobei Xi
unabh. Bin(1, p) verteilt sind und, für großes n (d.h. np ≥ 5 und n(1 − p) ≥ 5)
X − np
P (p
≤ x) ≈ P (Z ≤ x)
np(1 − p)
wobei Z N (0, 1) verteilt ist.
Bem: Sei XB(n, p) verteilt, dann ist E(X) = np und var(X) = np(1 − p).
3. Schätzer
Ab jetzt arbeitet man mit Daten x1 . . . xn (Stichprobe der Länge n) und man versucht Informationen über die gesamte ”Population” zu folgern.
Statistisches Modell 1: Die Daten x1 . . . xn sind Realisationen von unabhängig, identisch verteilten (u.i.v.) Zufallsvariablen X1 . . . Xn (EX1 = µ, var(X1 ) = σ 2 ).
P
• Schätzer für µ : X n = n1 ni=1 Xi
2
EX n = µ, varX n = σn ↓ 0 für n → +∞
P (limn→+∞ X n = µ) = 1 (Gesetz der großen Zahlen)
X n ist ein guter Schätzer
xn ist eine Schätzung.
Vorsicht: Ein guter Schätzer kann eine schlechte Schätzung liefern.
• Schätzer für h(µ) : h(X n )
• Schätzer für σ 2 : s2n =
1
n−1
Pn
i=1 (Xi
− X n )2
E s2n = σ 2
Nur mit Hilfe von Schätzern für µ und σ 2 kann man nicht sehr viel folgern.
Statistisches Modell 2: x1 . . . xn Realisationen von u.i.v. Zufallsvariablen X1 . . . Xn mit Verteilung Pθ bekannt bis auf den (die) Parameter θ ∈ Θ ⊆ Rd .
Problem: θ schätzen aus den Daten X1 . . . Xn
θ̂n = T (X1 . . . Xn ) ∈ Θ Schätzer
θ̂n = T (x1 . . . xn ) Schätzung
Es gibt sehr viel mögliche Schätzer. Gute Schätzer sollten einen kleinen Mittleren Quadratischen
Fehler haben: MQF(θ̂n = E(θ̂n − θ)2 = var(θ̂n ) + (E(θ̂n ) − θ)2 (Insb. sollte MQF(θ̂n ) ↓ 0 für
n ↑ +∞)
Es gibt allgemeine Verfahren, die typischerweise ”gute” Schätzer konstruieren.
Für uns:
P
• x1 . . . xn Real. von u.i.v. X1 . . . Xn B(1, p) d.h. X = i Xi B(n, p)
Schätzer für p : p̂ = X n (Äquivalent p̂ = Xn ).
• x1 . . . xn Real. von X1 . . . Xn u.i.v. N (µ, σ 2 )
Schätzer für µ : X n
σ 2 : s2n
P
(Manchmal auch σ̂ 2 = n1 (Xi − X n )2 benutzt)
• x1 . . . xn Real. von X1 . . . Xn u.i.v. Exp(λ)
Schätzer für λ : λ̂ = X1n
Wenn man Schätzungen für den (die) unbekannten Parameter hat, kann man die Techniken
von den ersten Kapiteln benutzen.
Beispiele
4. Konfidenzintervalle
Wie präzise ist unsere punktweise Schätzung?
Man wird die folgende Notion brauchen:
Def.: Sei X eine stetige Zufallsvariable. Dann ist das β-Quantil (0 < β < 1) von X definiert als
die Zahl qβ so, dass P (X ≤ qβ ) = β
Jetzt ein paar Beispiele von Konfidenzintervallen
Bsp: X1 . . . Xn u.i.v. N (µ, σ 2 ), σ 2 bekannt.
Schätzer für µ : X n .
Mit Hilfe von X n möchte man gerne ein Konfidenzintervall (KI) finden, so dass P (µ ∈ I) = 1−α
mit α (0 < α < 1 ) z.B. = 0, 05 oder 0,01.Sei I = [I1 , I2 ], die Endpunkte von I, I1 und I2 , sind
Funktionen von X n .
Konstruktion: Zuerst weiss man, dass Xσ/n√−µ
standardormalverteilt (N (0, 1)) ist.
n
α
Sei q1− α2 das (1− 2 )-Quantil von der Standardnormalverteilung: das heißt P (Z ≤ q1− α2 )) = 1− α2 ,
wobei Z Standardnormalverteilt ist.
Xn − µ
√ ≤ q1− α2 ) = 1 − α
σ/ n
σ
σ
P (X n − q1− α2 √ ≤ µ ≤ X n + q1− α2 √ ) = 1 − α
n
n
P (−q1− α2 ≤
(1 − α)KI:
σ
σ
[X n − q1− α2 √ , X n + q1− α2 √ ].
n
n
Mit (1 − α) Wahrscheinlichkeit ist µ = E Xi (fest aber unbekannt) in diesem KI. Für jede
Stichprobe wird das KI anders sein, aber ,grob, für (100 · (1 − α)) Prozent der Stichproben wird
µ im Intervall sein.
Bsp.: X1 . . . Xn u.i.v. N (µ, σ 2 ) σ 2 unbekannt.
X n −µ
√ ist tn−1 verteilt (Symmetrische Verteilung um 0, mehr Gewicht in den Tails als die Norsn / n
malverteilung).
Sei tn−1,1− α2 das (1 − α2 )-Quantil von tn−1 .
sn
sn
−→ (1 − α) − KI : [X n − tn−1,1− α2 √ , X n + tn−1,1− α2 √ ].
n
n
P
Bsp.: X1 . . . Xn u.i.v. Bin(1,p), → X = ni=1 Xi Bin(n,p)
p̂ = Xn = X n
approximatives (1 − α) KI für p, falls n groß n ≥ 30) ist?
X −p
qn
approx. N (0, 1) vert.
p(1−p)
n
approx (1 − α) KI für p, falls n groß ist:
r
r
p̂(1 − p̂)
p̂(1 − p̂)
[p̂ − q1− α2
, p̂ + q1− α2
].
n
n
Bsp.: X1 . . . Xn u.i.v. µ, σ 2 unbekannt, n groß (n ≥ 30).
Sei tn−1,1− α2 das (1 − α2 )-Quantil von tn−1 .
sn
sn
−→ approximatives(1 − α) − KI : [X n − tn−1,1− α2 √ , X n + tn−1,1− α2 √ ].
n
n
[T1 , T2 ] sei ein (1 − α)-Konfidenzintervall für den unbekannten Verteilungsparameter µ (Fälle i), ii) und iv)) bzw. p (Fall iii))
q1−α/2 = (1 − α2 )-Quantil der N (0, 1)-Verteilung
tν,1−α/2 = (1 − α2 )-Quantil der tν -Verteilung
i) X1 , . . . , Xn unabhängig, N (µ, σ 2 )-verteilt, σ 2 bekannt
[T1 , T2 ] = X̄n ±
√σ
n
q1−α/2
ii) X1 , . . . , Xn unabhängig, N (µ, σ 2 )-verteilt, σ 2 unbekannt
Pn
1
2
[T1 , T2 ] = X̄n ± √snn tn−1,1−α/2 , s2n = n−1
j=1 (Xj − X̄n )
iii) X B(n, p)-verteilt, n groß (n ≥ 30),
q
[T1 , T2 ] ≈ p̂ ± p̂(1−p̂)
q1−α/2 , p̂ = Xn
n
iv) X1 , . . . , Xn unabhängig, identisch verteilt mit EXj = µ, n groß (n ≥
30),
[T1 , T2 ] ≈ X̄n ±
sn
√
t
n n−1,1−α/2
5. Statistische Entscheidungsverfahren
Fall 1: X1 . . . Xn u.i.v. N (µ, σ 2 ) σ 2 bekannt
*Beispiel 1a: H0 : µ = µ0 gegen H1 : µ 6= µ0
*Beispiel 1b: H0 : µ = µ0 gegen H1 : µ > µ0
(µ0 eine feste Zahl)
Schätzer für µ : X n
Verteilung:
X n√
−µ
N (0, 1)
σ/ n
verteilt.
Beispiel 1a: H0 akzeptieren, falls |X n − µ0 | ≤ c
H1 akzeptieren, falls |X n − µ0 | > c
oder
√ 0 | ≤ c∗
H0 akzeptieren, falls | Xσ/n −µ
n
√ 0 | > c∗
H1 akzeptieren, falls | Xσ/n −µ
n
Wie wählt man c oder c∗ ?
Beispiel 1b: H0 akzeptieren, falls X n ≤ µ0 + c
H1 akzeptieren, falls X n > µ0 + c
Man möchte gerne P (Fehler 1. Art) und P (Fehler 2. Art) minimieren. Aber wenn P (Fehler 1.
Art) kleiner wird (d.h. z.B. in Beispiel 1a, c wird größer), dann steigt P (Fehler 2. Art).
Was macht man?
Wir geben eine obere Schranke α, das sogenannte Signifikanzniveau oder Niveau, vor, so dass
P (Fehler 1. Art) ≤ α (α oft = 0, 05, 0, 01 oder 0, 001)
(Bem: allgemeiner, das Supremum über alle Elemente von H0 von P(Fehler 1. Art) soll gleich
α sein)
→ H0 und H1 unterschiedlich behandelt
H0 : Null Hypothese
H1 : Alternative
Wenn man H0 verwirft ist mit großer Wahrscheinlichkeit ((1 − α))H0 tatsächlich falsch.
Wenn man H0 ”akzeptiert”, weiss man nicht, ob H0 tatsächlich richtig ist: P (Fehler 2. Art)
wird nicht festgelegt (kann aber manchmal berechnet werden) → anstatt H0 ”akzeptieren” ist
es besser zu schreiben: H0 nicht ablehnen (zum Niveau α)
Was soll man als H0 /H1 nehmen?
– Die beiden Typen von Fehlentscheidungen haben oft unterschiedlich gravierende Folgen. Dann
möchte man natürlich besonders die Wahrscheinlichkeit für den schwerwiegenderen Fehler klein
halten, z.B. H0 : Pers. krank gegen H1 : Pers. gesund.
– Man hat eine Vermutung → Die Vermutung soll in H1 . (Man rechnet sich Chancen H0 mit
großer Wahrscheinlichkeit verwerfen zu können).
Was man “zeigen” möchte soll in H1 .
Was man verwerfen möchte soll in H0 .
– Die Irrtumswahrscheinlichkeit für eine Fehlerart lässt sich leicht ausrechnen → Fehler 1. Art
z.B. H0 : µ = µ0 einfacher als H0 : µ 6= µ0 .
→ Zurück zum Beispiel: X1 . . . Xn u.i.v., N (µ, σ 2 ) σ 2 bekannt
H0 : µ = µ0 gegen H1 : µ 6= µ0
Man wählt ein Niveau α (z.B. α = 0, 05 oder α = 0, 01).
Man bestimmt eine Schranke cα :
√ 0 | ≤ cα
H0 nicht ablehnen, falls | Xσ/n −µ
n
√ 0 | > cα
H0 ablehnen, falls | Xσ/n −µ
n
√ 0 | > cα ) soll = α sein
und angenommen H0 ist richtig, P (| Xσ/n −µ
n
→ cα = (1 − α2 )- Quantil von N (0, 1)
√ 0 | ≤ q1− α
H0 nicht ablehnen, falls | Xσ/n −µ
n
2
√ 0 | > q1− α
H0 ablehnen, falls | Xσ/n −µ
n
2
Gauß-Test zum Niveau α
Modell: X1 , . . . , Xn u.i.v. N (µ, σ 2 ), σ 2 bekannt
√
Teststatistik: Z = n X̄nσ−µ0 , qβ = β-Quantil von
(0, 1)
Hypothese
H0 : µ = µ0
oder µ ≤ µ0
H0 : µ = µ0
oder µ ≥ µ0
H0 : µ = µ0
Alternative
H1 : µ > µ0
H0 verwerfen, wenn
Z > q1−α
H1 : µ < µ0
Z < qα
H1 : µ 6= µ0
|Z| > q1−α/2
Fall 2: X1 . . . Xn u.i.v. N (µ, σ 2 ) σ 2 unbekannt. Schätzer für µ : X n
Verteilung unterH0 :
X n − µ0
√
sn / n
tn−1 verteilt
t-Test zum Niveau α
Modell: X1 , . . . , Xn u.i.v. N (µ, σ 2 ), σ 2 unbekannt
√
0
Teststatistik: t(X1 , . . . , Xn ) = n X̄ns−µ
, tn−1, β = β-Quantil
n
von tn−1
Hypothese
H0 : µ = µ0
oder µ ≤ µ0
H0 : µ = µ0
oder µ ≥ µ0
H0 : µ = µ0
Alternative
H1 : µ > µ0
H0 verwerfen, wenn
t(X1 , . . . , Xn ) > tn−1,
1−α
H1 : µ < µ0
t(X1 , . . . , Xn ) < tn−1,
α
H1 : µ 6= µ0
|t(X1 , . . . , Xn )| > tn−1,
1−α/2
Fall 3: Vorher/Nachher Studie
gepaarte Beobachtungen xy11 , . . . xynn
Man betrachtet die Differenzen D1 = Y1 − X1 , . . . , Dn = Yn − Xn
Annahme D1 . . . Dn u.i.v. N (µ, σ 2 )
H0 : µ = 0 (Keine Differenz zwischen nachher und vorher) gegen z.B. H1 : µ > 0, H1 : µ < 0
oder µ 6= 0
→ t-Test (oder Gauß-Test, falls σ 2 bekannt).
Fall 4: Man vergleicht die Mittelwerte von zwei voneinander unabhängigen Stichproben (Zwei
unabh. Populationen)
→ Zwei-Stichproben t-Test
Modell: Die Daten x1 . . . xn , y1 . . . ym sind Real. von unabhängigen Zufallsvariablen X1 . . . Xn , Y1 . . . Ym .
Dabei sind X1 . . . Xn N (µ1 , σ 2 ) und Y1 . . . Ym N (µ2 , σ 2 ), σ 2 unbekannt.
Vorsicht: Annahme: σ 2 ist gleich für beide Populationen!
Sei
(n − 1)s2n,X + (m − 1)s2m,Y
2
sn,m =
n+m−2
Zwei-Stichproben-t-Test zum Niveau α
Modell: X1 , . . . , Xn u.i.v. N (µ1 , σ 2 ) und unabhängig davon Y1 , . . . , Ym
u.i.v. N (µ2 , σ 2 ), σ 2 unbekannt.
Teststatistik: t(X1 , . . . , Xn , Y1 , . . . , Ym ) =
X̄n√
−Ȳm
1
1
+m
sn,m n
tn+m−2,β = β-Quantil von tn+m−2
Hypothese
H0 : µ1 = µ2
oder µ1 ≤ µ2
H0 : µ1 = µ2
oder µ1 ≥ µ2
H0 : µ1 = µ2
Alternative
H1 : µ1 > µ2
H1 : µ1 < µ2
H1 : µ1 6= µ2
H0 verwerfen, wenn
t(X1 , . . . , Xn , Y1 , . . . , Ym ) > tn+m−2,
1−α
t(X1 , . . . , Xn , Y1 , . . . , Ym ) < tn+m−2,
|t(X1 , . . . , Xn , Y1 , . . . , Ym )| > tn+m−2,
α
1−α/2
Fall 5: Approximativer Binomialtest für die Erfolgswahrscheinlichkeit p zum Niveau α
X sei Bin(n, p)-vert, n groß, 0 << p << 1
→ √X−np ≈ N (0, 1) vert.
np(1−p)
Approximativer Binomialtest für die Erfolgswahrscheinlichkeit p zum Niveau α
Modell: X sei Bin(n, p)-verteilt.
Bedingung,um den Approx. Binomialtest benutzen zu dürfen:
np0 ≥ 5 und n(1 − p0 ) ≥ 5.
Teststatistik: X ◦ = √ X−np0
np0 (1−p0 )
Hypothese
H0 : p = p0
oder p ≤ p0
H0 : p = p0
oder p ≥ p0
H0 : p = p0
,
qβ = β-Quantil von (0, 1)
Alternative H0 verwerfen, wenn
H1 : p > p0 X ◦ > q1−α
H1 : p < p0
X ◦ < qα = −q1−α
H1 : p 6= p0
|X ◦ | > q1− α2
Herunterladen