Formelsammlung - stephan

Werbung
Wahrscheinlichkeit und Statistik
Wintersemester 2000/2001
Zusammenfassung von Michael Herms
Hinweis:
Diese Zusammenfassung ersetzt keinesfalls die Mitschrift in der Vorlesung, noch das Studium von Fachliteratur
und Scripten. Die Zusammenfassung versteht sich lediglich als roter Faden durch die Lehrveranstaltung.
Besonderen Dank möchte ich an dieser Stelle meinen Kommilitonen Tim Friese und Stefan Doktor zukommen
lassen, die mich fachlich und schreibtechnisch stark bei der Erstellung dieses Script unterstützt haben.
Teil 1
Wahrscheinlichkeitstheorie
Zeichenerklärung I
Ω.............. sicheres Ereignis
∅ ............ unmögliches Ereignis
A .............. Ereignis (allg.: große lat. Zeichen)
P............... Wahrscheinlichkeitsmaß
ZG............ Zufallsgröße
Wk ........... Wahrscheinlichkeit
X( ω )....... ω wird ein reeller Wert zugeordnet
x............... Realisierung : X( ω )=x
ω ............ Elementarereignis
ϑ ............ Erfolgs-Wk. (griech.: Theta)
Erwartungswert
∞
∑ g(x ) p
i
σ 2 ... ... Standardabweichung
k ........... ... Anzahl der Erfolge
r............ ... Zahl der Wiederholungen
B(r, ϑ ). ... Notation für Binomialverteilung
N( µ ,σ 2 )... Notation für Normalverteilung
Kovarianz
Cov ( X , Y ) = E (( X − EX )(Y − EY ))
= EXY − EXEY
diskret
Y=aX+b Æ EY=aEX+b
Y=g(X) Æ EY =
µ ........ ... Erwartungswert (griech.: My)
σ 2 ....... ... Varianz (griech.: Sigma)
i
i =1
Schiefe
kontinuierlich
EZ = µ = ∫ xdP Z ( x )
= ∫ xp( x ) dx, p(x )...Dichte
(
)
E ( X − EX )
Schiefe=
=
σ3
3
∑ (x − µ ) p
∑ (x − µ ) p )
3
(
i
i
i
i
positiv = rechtsschief, negativ = linksschief
E ( Z + Y ) = EZ + EY
EZY = EZ * EY (nur bei unabhängig)
Exzess
Varianz
diskret
Varianz =
∑ (x
i
− EX ) pi = σ
2
i
2
4
)
Normalverteilung und zeigt sonst, ob stärker (>0)
oder schwächer (<0) als NV gewölbt.
Modalwert
Modalwert = argument max f ( xi ) ???
kontinuierlich
Wert in dem die Wk-fkt. für xi maximal ist.
Im kontinuierlichen, der Wert x, für den die
Dichtefunktion maximal ist.
VarZ=
σ 2 = ∫ ( x − µ ) 2 dP Z ( x)
= ∫ ( x − µ ) 2 p ( x) dx
Rechenregeln (Script Seite 53)
Var ( Z + Y )= VarZ + VarX (bei stetig)
+ 2( E ( XY ) − EXEY ) (nur bei unstetig)
Var (aZ ) = a 2Var ( z )
i
E (X − EX )
Exzess=
− 3 … ist 0 (null) bei
σ4
ªStandardabweichung =
σ2
VarX = EX 2 − ( EX ) 2 = E(X - EX) 2
3
2
Rechenregeln (Script Seite 52)
(
i
i
Korellationskoeffizient
Cov ( X , Y )
ρ ( X ,Y ) =
σ Xσ Y
Median
Der Median halbiert die Wahrscheinlichkeitsmasse, so
dass links und rechts des Medians die Wk = ½ (für
diskrete Verteilungen : Wk ≥ 1/2) ist.
Relative Häufigkeit (Script Seite 8)
diskret
ha ( A) =
k
=> k Erfolge bei n Versuchen
n
Klassische Wahrscheinlichkeit (Script Seite 8-10)
diskret
Ω als Grundraum mit endlich vielen Elementen oder abzählbar unendlich vielen Elementen.
Es gilt Gleichwahrscheinlichkeit.
Anzahl der Elemente in A Anzahl der für A günstigen Fälle
=
Anzahl der Elemente in Ω
Anzahl aller Fälle
Anzahl der Elemente von A ∩ B Anzahl der für A und B günstigen Fälle
P( A / B) =
=
Anzahl der Elemente von A
Anzahl der für B günstigen Fälle
P( A) =
Diskrete Gleichverteilung
P ( X = xi ) =
1
, i = 1...m
m
1 m
EX = ∑ xi
m i =1
VarX =
1 m
∑ ( xi − EX ) 2
m i =1
kontinuierlich(stetige) (Script Seite 55)
Identisch verteilt auf dem Intervall [a,b]
Verteilungsfunktion:
0, x ≤ a

x − a
F (x ) = 
, für x ∈ [a, b ]
b
a
−

1, x ≥ b

Dichte:
 1
, für x ∈ [a, b]
f (x ) =  b − a

0 , sonst
für xi = i
m +1
2
m2 −1
VarX =
12
EX =
Binomialverteilung
0,25
Teta=0,5
0,2
Teta=0,2
Teta=0,8
Wk
0,15
0,1
0,05
0
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17 18 19 20
Zahl der Erfolge (k), bei r=20
Binomialverteilung
diskret
Bernoulli-Experiment mit r-facher Wiederholung. Jedes Experiment hat genau zwei mögliche
Ergebnisse: 1 – 0
ϑ
... Erfolgs-Wk
k
... Anzahl der Erfolge
B(r, ϑ ) ... Notation für Binomialverteilung
0
ω i =  , Ω i = {0,1} und Ω = {ω | (ω1 ,...,ω r )}= {0,1}r . Hier ist ϑ = P (1) unabhängig von i. Es gilt:
1
P(ω ) = ϑ k (1 − ϑ ) r −k , falls genau k-mal 1 in ω ist.
r
P(ε k ) =  ϑ k (1 − ϑ ) r −k für A= ε k = {ω : ∑ω i = k }
k 
Z ~ B ( r , ϑ ), g.d.w. Z ist die Summe von unabhängigen ZGs Z1,...,Zr mit Zi~B(1, ϑ ):
r
Z=
∑Z
i
.
i =1
Erwartungswert : EX = rϑ
Varianz
: VarX = rϑ (1 − ϑ )
Schiefe
Für B(1,
: Schiefe =
1 − 2ϑ
; ist symmetrisch für ϑ = 1 2
rϑ (1 − ϑ )
ϑ ) gilt P(ε k ) = ϑ k (1 − ϑ ) r − k
Geometrische Verteilung
0,6
0,5
Teta=0,1
Teta=0,3
Teta=0,5
Wk
0,4
0,3
0,2
0,1
0
1
2
3
4
5
6
7
8
9
k - Einzelversuche
10
11
12
Geometrische Verteilung
diskret
Zur Qualitätskontrolle, um festzustellen, bei welchem Versuch k der erste Defekt festgestellt wird.
Pϑ ( k ) = ϑ (1 − ϑ ) k −1 ... jede Ziehung ist ein Bernoulli-Experiment
1
Erwartungswert : EX =
ϑ
1−ϑ
Varianz
: VarX =
ϑ2
2 −ϑ
Schiefe
: Schiefe =
; ist immer rechtsschief
1−ϑ
13
Normalverteilung
0,45
my=1 und
sigma=1
my=1 und
sigma=2
my=0 und
sigma^2=1
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05
Normalverteilung(Script Seite 56)
Kontinuierlich/stetig
Die Kurve der Normalverteilung ist auch bekannt als Gaussche Glockenkurve (siehe 10DM).
−
1
f : R − > R mit f ( x; µ ;σ ) =
e
2π σ
2
N (µ ,σ )
1
+
2
Erwartungswert : EX =
( x −µ )2
2σ 2
µ
σ2
Varianz
: VarX =
Dichte
: hat im Punkt
Wendepunkt
: bei
µ ihr Maximum, der Wert der Dichte ist
µ ±σ
1
σ 2π
.
StandardisierteNV: N(0,1) (Script Seite 58)
µ = 0 und σ 2 = 1
Umrechnung auf die Standartnormalverteilung Φ(u)
 x−µ 
P(X ≤ x ) = Φ
 = Φ (u )
 σ 
Φ(− u ) = 1 − Φ (u )
P(X > x ) = 1 − P(X ≤ x )
x=
Φ −1 (P(X ≤ x ))* σ Φ −1 (1 − P(X > x ))* σ
=
µ
µ
Berechnet die Anzahl der nötigen Versuche um mindestens eine WK von P(X≤x) zu haben.
8
5,
2
5,
6
4,
4
4
3,
8
2,
2
2,
6
1,
1
-2
-1
,4
-0
,8
-0
,2
0,
4
-5
-4
,4
-3
,8
-3
,2
-2
,6
0
Poissonverteilung
0,25
Lambda=3
0,2
Lambda=6
Wk-funktion
Lambda=9
0,15
0,1
0,05
0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
k-maliges Auftreten des Ereignis
Poissonverteilung(Script Seite 45)
diskret
Ist für natürliche Ereignisse, die viele Versuche brauchen und eine geringe Trefferquote aufweisen.
nϑ → λ so gilt für n → ∞ : Pn (k ) →
Erwartungswert : EX = λ
Varianz
: VarX = λ
Schiefe
: Schiefe =
Modalwert
: liegt bei
λk − λ
e ... hierbei ist k die Häufigkeit des Eintretens des Ereignisses.
k!
1
λ
[λ ] ; ist λ
ganzzahlig Æ Modalwert zusätzlich bei
λ -1
Die Null-Eins-Verteilung(Script Seite 39)
diskret
ϑ ∈ (0,1)
P ( X = 1) = ϑ und P ( X = 0) = 1 − ϑ
Erwartungswert : ϑ
Varianz
: ϑ (1- ϑ )
Ist auch die Zweipunktverteilung, wenn es zwei Werte ungleich 0,1 annimmt.
Exponentialverteilung(Script Seite 60)
Stetig
Lebensdauerverteilung oder Wartezeitverteilung
1
exp(−t / λ )
λ
EZ = λ ; EZ 2 = λ2
f λ (t ) =
EZ 3 = 3λEZ 2
VarZ = λ2 = EZ 2 − ( EZ ) 2
t
1
Fλ (t ) = ∫ exp(−u / λ ) = 1 − exp(−t / λ )
λ
0
Dichte :=
E ( Z − EZ )3
σ3
;
σ 3 = λ3
E(Z-EZ)3=(Z- λ )3 //An dieser stelle lasse ich das E vorne erst mal weg...taucht untern wieder auf.
=(Z2-2Z λ + λ 2)(Z- λ )
=Z3-2Z2 λ +Z λ 2-Z2 λ +2Z λ 2- λ 3
=Z3-3Z2 λ +3Z λ 2- λ 3
=Z3-3Z2 λ +3Z λ 2- λ 3
3
E(Z-EZ) =EZ3-3EZ2 λ +3EZ λ 2-E λ 3
=3 λ EZ2=3 λ 3
EZ3
2
3EZ λ =3 λ 3
3EZ λ 2 =3 λ 3
Eλ 3
=λ 3
E(Z-EZ)3=3 λ 3-3 λ 3+3 λ 3- λ 3 = 2 λ 3
Î Die Dichte ist immer 2.
Chi - Quadrat- Verteilung
T Verteilung
F Verteilung / Fischerverteilung
(Siehe Script: alle Seite 63 / 64)
Die bedingte Wahrscheinlichkeit
k k n P( A ∩ B)
=
=
... P ( A | B ) * P ( B ) = P ( A ∩ B )
m mn
P( B)
Multiplikationssatz: P ( A ∩ B ) = P ( A | B ) P ( B ) = P ( B | A) P ( A)
P( A | B) =
Unabhängigkeit: Wenn sich die Wk für A nicht ändert, nur weil B eintritt, so sind die Ereignisse unabhängig.
P ( A ∩ B ) = P ( A) P ( B )
Die Unabhängigkeit ist ein symmetrischer Begriff. Es sind auch A und B unabhängig:
P ( A ∩ B ) = P ( B \ A ∩ B ) = P ( B ) − P ( A ∩ B ) = P ( B )(1 − P ( A)) = P ( A) P ( B )
Rechnen mit der bedingten Wahrscheinlichkeit
Formel der totalen Wk:
Bayessche Formel:
n
n
j =1
j =1
P( A) = ∑ P( B j )P( A | B j ) bei A ⊆ B j , P(Bj)>0.
P( B j | A) =
P ( AB j )
P( A)
=
P( B j ) P( A | B j )
n
∑ P( B ) P( A | B )
k
solange P(A)>0 gilt. (Script S.25)
k
k =1
Die Verteilungsfunktion(Script Seite 31)
F(x)=P(X ≤ x):=P({ ω : X (ω ) ≤ x}) … Verteilungsfunktion F von X
damit ist die Wahrscheinlichkeit für beliebige halboffene Intervalle (a,b] berechenbar.
P(X ∈ (a,b])=F(b)-F(a)
Die Verteilungsfunktion ist monoton nicht fallend. Für diskrete ZGs ist F stückweise konstant.
Stetige Zufallsvariable
Zusammenhang mit Verteilungsfunktion besteht: ist die kontinuierliche Variante. Die Verteilungsfunktion ist
stetig.
Verteilung mit Dichten
Dichten bewerten die Punkte aus R. Aus der Dichte ist die Verteilungsfunktion bestimmt. Der wesentliche
Unterschied zwischen diskreten und stetigen ZGs ist, dass bei diskreten ZG einzelne Punkte eine positive Wk
haben können, bei stetigen ZG ist die Wk für jeden Punkt gleich Null.
Die Chebyshev-Ungleichung(Script Seite 64)
Mit Erwartungswert und Varianz Wissen über die Verteilung erhalten, ohne gesamte Wk-Verteilung der
Zufallsvariablen Z zu kennen.
σ2
σ2
P(| Z − µ |≥ ε ) ≤ 2 bzw. P(| Z − µ |< ε ) > 1 − 2 für beliebiges ε >0
ε
ε
Grenzwertsätze(Script Seite 68)
Zur Berechnung von Wahrscheinlichkeiten braucht man gut begründete Approximationen.
Bsp.1:
Yi ~ B(1,ϑ )
Dann gilt : EYi = ϑ , VarYi = ϑ (1 − ϑ )
n
n
Wir setzen : Sn = ∑ Yi ⇒ P(Sn = k ) =  ϑ k (1 − ϑ ) n − k = bn ,ϑ (k )
i =1
k 
Das sind die Werte der Binomialverteilung B(n, ϑ ).
Anwendung dieser Verteilung auf das Problem: Wie wahrscheinlich ist es, bei 80 Würfen einer Münze k=40 mal
Kopf zu haben?
 80  − 80
 2 ... Somit ist nicht einmal die Größenordnung bekannt.
 40 
Zentraler Grenzwertsatz (ZGWS) für unabhängige, identisch verteilte
Zufallsgrößen
Y1 , Y2 ,... mit EYi = µ , VarYi = σ 2 < ∞ , unabhängig.
ªstandardisierte Summe: Vn =
S n − nµ
σ n
mit S n =
n
∑Y
i
:
P(Vn ≤ x) → Φ ( x) für N → ∞ ,
i =1
wobei Φ die Verteilungsfunktion der N(0,1)-Verteilung ist.
Bsp.2:
n=80 ist so groß, dass ZGWS auf Y1,...,Y80 angewendet werden kann. Dann ist nach ZGWS die Verteilung S80
approximativ N(80 ϑ ,80 ϑ (1- ϑ )) verteilt, und das für ϑ =1/2, d.h.
 S − 80ϑ 
 = P(V80 ≤ x ) ≈ Φ ( x) ⇒
P 80

ϑ
ϑ
80
(
1
)
−


(
P (S
)
P S80 ≤ 80ϑ + x 80 ϑ (1 − ϑ ) ≈ Φ ( x) ⇒
80
)
≤ 40 + x 20 ≈ Φ( x)
Die beiden Ergebnisse S80=40 und 39<S80<=40 sind identisch mit der oberen Gleichung Î
1 

P( S80 = 40) ≈ Φ(0) − Φ −
 = 0.08847
20 

Eine Approximation der Verteilungsfunktion
Binomialverteilung: P(Sn = k ) ≈
φ mit der Gauß-Dichte ergibt:
 (k − nϑ ) 2 
1

exp −
−
ϑ
ϑ
n
2
(
1
)
2π nϑ (1 − ϑ )


Gesetz der großen Zahlen
Verhalten des arithmet. Mittels für große n
{Yn} ist eine Folge von ZGs
Yn =
1 n
∑ Yi ist das arithm.Mittel aller Yi und gilt wenn nur nach dem Gesetz der großen Zahlen.
n i =1
Teil II
Statistik
Zeichenerklärung I
µ ........ ... Erwartungswert (griech.:My)
σ 2 ....... ... Varianz (griech.:Sigma)
Ω.............. sicheres Ereignis
∅ ............ unmögliches Ereignis
A .............. Ereignis (allg.: große lat. Zeichen)
P............... Wahrscheinlichkeitsmaß
ZG............ Zufallsgröße
Wk ........... Wahrscheinlichkeit
X( ω )....... ω wird ein reeller Wert zugeordnet
x............... Realisierung : X( ω )=x
ω ............ Elementarereignis
ϑ ............ Erfolgs-Wk (griech.:Theta)
σ 2 ... ... Standardabweichung
k ........... ... Anzahl der Erfolge
r............ ... Zahl der Wiederholungen
B(r, ϑ ). ... Notation für Binomialverteilung
N( µ ,σ 2 )... Notation für Normalverteilung
Zeichenerklärung II
Yn =
Vn =
1 n
∑ Yi ...arithmetisch Mittel alle Yi.
n i =1
S n − nµ
σ n
n
....??? (beides aus...
S n = ∑ Yi .....??? Gesetz der großen Zahlen)
i =1
y1,...,yn ...........Realisierungen : Yi( ω )=yi
Y1,...,Yn ..........zufällige Variablen, Stichprobe vom Umfang n (wenn unabhängig und identisch verteilt)
FZ .....................Verteilungsfunktion einer Zufallsgröße Z
PZ.....................Verteilung in der Grundgesamtheit von Z
℘.....................statistisches Modell => Menge von Möglichen Verteilungen => Parameter wie
Erwartungswert und Varianz sind unbekannt
PZ ∈ ℘ ...........eine Klasse von möglichen Verteilungen
T ......................Schätzer, Schätzfunktion
T(Y).................Schätzvariable
T(y)..................Schätzung, Schätzwert
Eϑ T (Y ) .........Approximation für den Parameter „Erwartungswert“ der Schätzfunktion
γ (ϑ ) ...............Schätzfunktion von ϑ ≈ T ( y ) | γ =
1
λ
(nach Script S.46) / der zu schätzende Wert
EYi ...................Erwartungswert der einzelnen Stichprobe (unbekannt)
ε .....................ist eine Umgebung mit möglichst kleinem ε
sn2 (Y ) .............Stichprobenvarianz
Θ ....................Parameterraum
{Tn} .................Menge von Folgen
χ ....................Stichprobenquadrat
Ausdrücke mit ^ sind (Ab-)Schätzungen, während das ~ über einem Zeichen nur der Unterscheidung dient.
Beispiel 7.1
Aus der laufenden Produktion werden zufällig und unabhängig voneinander n Federn genommen. Bei jeder
Feder wird festgestellt: 0 – defekt oder 1 – in Ordnung.
Es entstehen Werte y1,...,yn mit
0
yi =  .
1
ªyi=Yi( ω ) für unabhängige Yi~B(1,p)
ªY n =
1 n
∑ Yi ist nahe an p
n i =1
Schätzverfahren(Script Seite 75)
Erwartungstreue
Ein Schätzer T heißt erwartungstreu für
γ , falls Eϑ T (Y ) = γ (ϑ )
Konsistenz
Schätzfolge T1,T2,... heißt für γ (schwach) konsistent, falls für jedes
(
)
lim Pϑ Tn (y(n ) ) − γ (ϑ ) > ε = 0
n →∞
∀ϑ ∈ Θ
ε >0 und alle ϑ ∈ Θ
gilt:
Stichprobenmittel
EYi= µ und VarYi= σ
2
(beide sind unbekannt) ; aus der Wahrscheinlichkeit : EY =
∞
∑ g(x ) p
i
i =1
n
Y n = 1n (Y1 + Y2 + ... + Yn ) ⇔ T ( y1 ,..., y n ) = ∑ yi
i =1
⇒ EY n = ( EY1 + EY2 + ... + EYn ) = ( µ + µ + ... + µ )
1
n
1
n
⇒ Eϑ T (Y ) = EY n = µ = γ (ϑ )
Das Stichprobenmittel ist ein erwartungstreuer Schätzer für
Tschebyshev
Aus der Wahrscheinlichkeitsrechnung : VarY =
∑ (x
i
VarY n =
µ.
− EX ) pi = σ 2
2
i
σ2
1
1
2
(
)
σ
VarY
VarY
VarY
n
...
+
+
+
=
=
1
2
n
n2
n2
n
Das Stichprobenmittel ist mit wachsendem n ein konsistenter Schätzer für
Für ein beliebig kleines ε strebt
(
)
(
)
µ.
σ2
(Tschebyshev)
nε 2
Mit beliebig großer Wahrscheinlichkeit liegt Y n beliebig nahe an µ (für genügend großes n).
P µ − ε < Y n < µ + ε →n 1, da P Y n − µ < ε > 1 −
i
Stichprobenvarianz
sn2 (Y ) ist die Stichprobenvarianz
2
2
2
1
sn2 (Y ) =
Y1 − Y n + Y2 − Y n + ... + Yn − Y n
n −1
2
2
2
1
Esn2 (Y ) =
E Y1 − Y n + E Y2 − Y n + ... + E (Yi − µ ) − Y n − µ + ... + E Yn − Y n
n −1
2
2
σ2 σ2
n −1
2
+
=σ2
.
wobei E Yi − Y n = E (Yi − µ ) − Y n − µ = σ − 2
n
n
n
Esn2 (Y ) = σ 2
[(
(
) (
[(
)
)
[
)
(
)
(
)]
Stichprobenkovarianz
1 n
Tn 3 ( y ) =
∑ yi1 − y n1 yi 2 − y n 2
n − 1 i =1
((
(
)(
)]
[
(
))
Beispiel 7.3
Gegeben seien folgende Beobachtungen:
1,280 ; 2,397 ; 3,999 ; 0,9506 ;
2,656 ; 1,882 ; 1,897 ; 1,378 ;
1,475 ; 3,568 ; 0,4591 ; 0,4424 ;
1,492 ; 2,174 ; 2,228 ; –1,264
arithmet. Mittel=a
a = (1,280+2,397+3,999+0,9506+2,656+
1,882+1,897+1,378+1,475+3,568+
0,4591+0,4424+1,492+2,174+2,228+
(–1,264)) / 16
=1,68838125
Stichprobenmeridian=c
c=(1,429+1,882)/2=1,687
Stichprobenvarianz= sn (Y ) =b
Spannweite=d
b= 1 [(1,280− a)2 + (2,379− a)2 + ...+ (−1,264− a)2 ]
d=3,999+(-1,264)=5,263
2
16 −1
=1,572670867
)]
(
)]
2
MSE / mittlerer quadratischer Abstand(Script Seite 81)
MSEϑ (T ) = Varϑ (T ) + [Eϑ T − γ (ϑ )] MSE ist die Varianz + das Quadrat der Verzerrung(Bias)
2
Für Erwartungstreue Schätzer ist der Bias = 0
Konstruktion von Schätzern(Script Seite 83)
Maximum-Likelihood-Schätzung für Y1 bis Yn unabhängige ZG
n
fϑ ( y1 ,..., yn ) = P(Y1 = y1 ,..., Yn = yn ) = ∏ P(Yi = yi )
i =1
MSL(ϑ ) = max( fϑ ( y1 ,..., yn ) ) = Ableitung nach ϑ bilden
α-Quantile(Script Seite 88)
mindestens α ∗ n liegen im Intervall (- ∞, qα ]
und
mindestens (1 − α ) ∗ n liegen im Intervall [qα , ∞ )
Quartile q 1 , q 2 , q 3 Dezile q 1 ,, q 9
4
4
4
10
10
Konfidenzintervalle(Script Seite 88)
∧
∧
1
1


I (Y )= Y −
⋅ t n −1 α ⋅ σ (Y ), Y +
⋅ t n −1 α ⋅ σ (Y )
n
n


P(I (Y ) ∋ µ ) = 1 − α
∧
t n −1 α aus Tabelle ablesen, σ (Y ) gegeben
Beispiel:
Quantile und Konfidenzintervalle
Gegeben seien die konkreten Werte y1,...,y12:
-1.534, -1.406, -1.112, -0.8289, -0.7342, -0.04339, 0.1157, 0.2960, 0.6996, 0.7341, 0.7941, 0.9374
Diese Werte seien unabhängige Realisierungen von normalverteilten Variablen
µ ,σ .
(
)
Yi ~ µ ,σ 2 für unbekannte
• Bestimmen Sie die Quartile dieser Beobachtung
• Bestimmen Sie ein Konfidenzintervall I(y) für
µ zum Niveau 0.95. Benutzen Sie dabei, dass y =0.177 und
σ̂ =0.749 ist. Erklären Sie verbal die Bedeutung des errechneten Intervalls.
2
Was bedeutet dieses Intervall, wenn man weiß, dass die Beobachtungswerte Realisierungen einer (0,5; 1)Verteilung sind?
a) Quartile:
α = 14 k ; k = 1,2,3,4
Allgemein : in (- ∞, qα ] liegen nα
Relisierungen
in [qα ,+∞ ) liegen n(1 - α ) Realisierungen
q1 = ?
4
12 *α = 12 * 1 4 = 3 und 12 * 3 4 = 9
⇒ q 1 ∈ [− 1,112;−0,8289]
4
⇒ q 2 ∈ [− 0,04339;0,1157]
4
⇒ q 3 ∈ [0,6996;0,7341]
4
⇒ q 4 ist trivial (?)
4
b)
P(µ ∈ I ( y )) = 1 − α
µ = 1−α
α = 0,05
Konfidenzintervall I(y) bei n=12. Gesucht ist hierbei das Intervall, in dem zu 95% der Wert µ liegt. Sowohl
die Werte als auch die Formel zur Berechnung des Konfidenzintervalls sind weiter oben im Dokument. Mit
den nun folgenden Werten bleibt nichts weiter zu tun, als diese einzusetzen und man hat das Intervall:
I ( y ) = [−0,726,0,373]
Wenn diese Stichprobe von einer N(0:5; 1)-Verteilung stammen soll, so ist diese Stichprobe eine nicht
repräsentative, denn nur 5 Prozent aller Stichproben vom Umfang 12 enthalten nicht den wirklichen
Erwartungswert 0.5
Kleinste Quadratische Schätzung (KQS) (Script Seite 91)
Meist durch Polynomklasse abgeschätzt
Pk ( x) = β 0 + β1 x + ... + β k x k
für (k = 0)
∧
1 n
β 0 = y = ∑ yi
n i =1
für (k = 1)
βˆ = y − βˆ ⋅ x
0
1
n
βˆ1 =
∑ (( x
i
i =1
− x) ⋅ ( yi − y ))
n
∑ (x
i =1
i
− x) 2
Herunterladen