Wahrscheinlichkeit und Statistik Wintersemester 2000/2001 Zusammenfassung von Michael Herms Hinweis: Diese Zusammenfassung ersetzt keinesfalls die Mitschrift in der Vorlesung, noch das Studium von Fachliteratur und Scripten. Die Zusammenfassung versteht sich lediglich als roter Faden durch die Lehrveranstaltung. Besonderen Dank möchte ich an dieser Stelle meinen Kommilitonen Tim Friese und Stefan Doktor zukommen lassen, die mich fachlich und schreibtechnisch stark bei der Erstellung dieses Script unterstützt haben. Teil 1 Wahrscheinlichkeitstheorie Zeichenerklärung I Ω.............. sicheres Ereignis ∅ ............ unmögliches Ereignis A .............. Ereignis (allg.: große lat. Zeichen) P............... Wahrscheinlichkeitsmaß ZG............ Zufallsgröße Wk ........... Wahrscheinlichkeit X( ω )....... ω wird ein reeller Wert zugeordnet x............... Realisierung : X( ω )=x ω ............ Elementarereignis ϑ ............ Erfolgs-Wk. (griech.: Theta) Erwartungswert ∞ ∑ g(x ) p i σ 2 ... ... Standardabweichung k ........... ... Anzahl der Erfolge r............ ... Zahl der Wiederholungen B(r, ϑ ). ... Notation für Binomialverteilung N( µ ,σ 2 )... Notation für Normalverteilung Kovarianz Cov ( X , Y ) = E (( X − EX )(Y − EY )) = EXY − EXEY diskret Y=aX+b Æ EY=aEX+b Y=g(X) Æ EY = µ ........ ... Erwartungswert (griech.: My) σ 2 ....... ... Varianz (griech.: Sigma) i i =1 Schiefe kontinuierlich EZ = µ = ∫ xdP Z ( x ) = ∫ xp( x ) dx, p(x )...Dichte ( ) E ( X − EX ) Schiefe= = σ3 3 ∑ (x − µ ) p ∑ (x − µ ) p ) 3 ( i i i i positiv = rechtsschief, negativ = linksschief E ( Z + Y ) = EZ + EY EZY = EZ * EY (nur bei unabhängig) Exzess Varianz diskret Varianz = ∑ (x i − EX ) pi = σ 2 i 2 4 ) Normalverteilung und zeigt sonst, ob stärker (>0) oder schwächer (<0) als NV gewölbt. Modalwert Modalwert = argument max f ( xi ) ??? kontinuierlich Wert in dem die Wk-fkt. für xi maximal ist. Im kontinuierlichen, der Wert x, für den die Dichtefunktion maximal ist. VarZ= σ 2 = ∫ ( x − µ ) 2 dP Z ( x) = ∫ ( x − µ ) 2 p ( x) dx Rechenregeln (Script Seite 53) Var ( Z + Y )= VarZ + VarX (bei stetig) + 2( E ( XY ) − EXEY ) (nur bei unstetig) Var (aZ ) = a 2Var ( z ) i E (X − EX ) Exzess= − 3 … ist 0 (null) bei σ4 ªStandardabweichung = σ2 VarX = EX 2 − ( EX ) 2 = E(X - EX) 2 3 2 Rechenregeln (Script Seite 52) ( i i Korellationskoeffizient Cov ( X , Y ) ρ ( X ,Y ) = σ Xσ Y Median Der Median halbiert die Wahrscheinlichkeitsmasse, so dass links und rechts des Medians die Wk = ½ (für diskrete Verteilungen : Wk ≥ 1/2) ist. Relative Häufigkeit (Script Seite 8) diskret ha ( A) = k => k Erfolge bei n Versuchen n Klassische Wahrscheinlichkeit (Script Seite 8-10) diskret Ω als Grundraum mit endlich vielen Elementen oder abzählbar unendlich vielen Elementen. Es gilt Gleichwahrscheinlichkeit. Anzahl der Elemente in A Anzahl der für A günstigen Fälle = Anzahl der Elemente in Ω Anzahl aller Fälle Anzahl der Elemente von A ∩ B Anzahl der für A und B günstigen Fälle P( A / B) = = Anzahl der Elemente von A Anzahl der für B günstigen Fälle P( A) = Diskrete Gleichverteilung P ( X = xi ) = 1 , i = 1...m m 1 m EX = ∑ xi m i =1 VarX = 1 m ∑ ( xi − EX ) 2 m i =1 kontinuierlich(stetige) (Script Seite 55) Identisch verteilt auf dem Intervall [a,b] Verteilungsfunktion: 0, x ≤ a x − a F (x ) = , für x ∈ [a, b ] b a − 1, x ≥ b Dichte: 1 , für x ∈ [a, b] f (x ) = b − a 0 , sonst für xi = i m +1 2 m2 −1 VarX = 12 EX = Binomialverteilung 0,25 Teta=0,5 0,2 Teta=0,2 Teta=0,8 Wk 0,15 0,1 0,05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Zahl der Erfolge (k), bei r=20 Binomialverteilung diskret Bernoulli-Experiment mit r-facher Wiederholung. Jedes Experiment hat genau zwei mögliche Ergebnisse: 1 – 0 ϑ ... Erfolgs-Wk k ... Anzahl der Erfolge B(r, ϑ ) ... Notation für Binomialverteilung 0 ω i = , Ω i = {0,1} und Ω = {ω | (ω1 ,...,ω r )}= {0,1}r . Hier ist ϑ = P (1) unabhängig von i. Es gilt: 1 P(ω ) = ϑ k (1 − ϑ ) r −k , falls genau k-mal 1 in ω ist. r P(ε k ) = ϑ k (1 − ϑ ) r −k für A= ε k = {ω : ∑ω i = k } k Z ~ B ( r , ϑ ), g.d.w. Z ist die Summe von unabhängigen ZGs Z1,...,Zr mit Zi~B(1, ϑ ): r Z= ∑Z i . i =1 Erwartungswert : EX = rϑ Varianz : VarX = rϑ (1 − ϑ ) Schiefe Für B(1, : Schiefe = 1 − 2ϑ ; ist symmetrisch für ϑ = 1 2 rϑ (1 − ϑ ) ϑ ) gilt P(ε k ) = ϑ k (1 − ϑ ) r − k Geometrische Verteilung 0,6 0,5 Teta=0,1 Teta=0,3 Teta=0,5 Wk 0,4 0,3 0,2 0,1 0 1 2 3 4 5 6 7 8 9 k - Einzelversuche 10 11 12 Geometrische Verteilung diskret Zur Qualitätskontrolle, um festzustellen, bei welchem Versuch k der erste Defekt festgestellt wird. Pϑ ( k ) = ϑ (1 − ϑ ) k −1 ... jede Ziehung ist ein Bernoulli-Experiment 1 Erwartungswert : EX = ϑ 1−ϑ Varianz : VarX = ϑ2 2 −ϑ Schiefe : Schiefe = ; ist immer rechtsschief 1−ϑ 13 Normalverteilung 0,45 my=1 und sigma=1 my=1 und sigma=2 my=0 und sigma^2=1 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 Normalverteilung(Script Seite 56) Kontinuierlich/stetig Die Kurve der Normalverteilung ist auch bekannt als Gaussche Glockenkurve (siehe 10DM). − 1 f : R − > R mit f ( x; µ ;σ ) = e 2π σ 2 N (µ ,σ ) 1 + 2 Erwartungswert : EX = ( x −µ )2 2σ 2 µ σ2 Varianz : VarX = Dichte : hat im Punkt Wendepunkt : bei µ ihr Maximum, der Wert der Dichte ist µ ±σ 1 σ 2π . StandardisierteNV: N(0,1) (Script Seite 58) µ = 0 und σ 2 = 1 Umrechnung auf die Standartnormalverteilung Φ(u) x−µ P(X ≤ x ) = Φ = Φ (u ) σ Φ(− u ) = 1 − Φ (u ) P(X > x ) = 1 − P(X ≤ x ) x= Φ −1 (P(X ≤ x ))* σ Φ −1 (1 − P(X > x ))* σ = µ µ Berechnet die Anzahl der nötigen Versuche um mindestens eine WK von P(X≤x) zu haben. 8 5, 2 5, 6 4, 4 4 3, 8 2, 2 2, 6 1, 1 -2 -1 ,4 -0 ,8 -0 ,2 0, 4 -5 -4 ,4 -3 ,8 -3 ,2 -2 ,6 0 Poissonverteilung 0,25 Lambda=3 0,2 Lambda=6 Wk-funktion Lambda=9 0,15 0,1 0,05 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 k-maliges Auftreten des Ereignis Poissonverteilung(Script Seite 45) diskret Ist für natürliche Ereignisse, die viele Versuche brauchen und eine geringe Trefferquote aufweisen. nϑ → λ so gilt für n → ∞ : Pn (k ) → Erwartungswert : EX = λ Varianz : VarX = λ Schiefe : Schiefe = Modalwert : liegt bei λk − λ e ... hierbei ist k die Häufigkeit des Eintretens des Ereignisses. k! 1 λ [λ ] ; ist λ ganzzahlig Æ Modalwert zusätzlich bei λ -1 Die Null-Eins-Verteilung(Script Seite 39) diskret ϑ ∈ (0,1) P ( X = 1) = ϑ und P ( X = 0) = 1 − ϑ Erwartungswert : ϑ Varianz : ϑ (1- ϑ ) Ist auch die Zweipunktverteilung, wenn es zwei Werte ungleich 0,1 annimmt. Exponentialverteilung(Script Seite 60) Stetig Lebensdauerverteilung oder Wartezeitverteilung 1 exp(−t / λ ) λ EZ = λ ; EZ 2 = λ2 f λ (t ) = EZ 3 = 3λEZ 2 VarZ = λ2 = EZ 2 − ( EZ ) 2 t 1 Fλ (t ) = ∫ exp(−u / λ ) = 1 − exp(−t / λ ) λ 0 Dichte := E ( Z − EZ )3 σ3 ; σ 3 = λ3 E(Z-EZ)3=(Z- λ )3 //An dieser stelle lasse ich das E vorne erst mal weg...taucht untern wieder auf. =(Z2-2Z λ + λ 2)(Z- λ ) =Z3-2Z2 λ +Z λ 2-Z2 λ +2Z λ 2- λ 3 =Z3-3Z2 λ +3Z λ 2- λ 3 =Z3-3Z2 λ +3Z λ 2- λ 3 3 E(Z-EZ) =EZ3-3EZ2 λ +3EZ λ 2-E λ 3 =3 λ EZ2=3 λ 3 EZ3 2 3EZ λ =3 λ 3 3EZ λ 2 =3 λ 3 Eλ 3 =λ 3 E(Z-EZ)3=3 λ 3-3 λ 3+3 λ 3- λ 3 = 2 λ 3 Î Die Dichte ist immer 2. Chi - Quadrat- Verteilung T Verteilung F Verteilung / Fischerverteilung (Siehe Script: alle Seite 63 / 64) Die bedingte Wahrscheinlichkeit k k n P( A ∩ B) = = ... P ( A | B ) * P ( B ) = P ( A ∩ B ) m mn P( B) Multiplikationssatz: P ( A ∩ B ) = P ( A | B ) P ( B ) = P ( B | A) P ( A) P( A | B) = Unabhängigkeit: Wenn sich die Wk für A nicht ändert, nur weil B eintritt, so sind die Ereignisse unabhängig. P ( A ∩ B ) = P ( A) P ( B ) Die Unabhängigkeit ist ein symmetrischer Begriff. Es sind auch A und B unabhängig: P ( A ∩ B ) = P ( B \ A ∩ B ) = P ( B ) − P ( A ∩ B ) = P ( B )(1 − P ( A)) = P ( A) P ( B ) Rechnen mit der bedingten Wahrscheinlichkeit Formel der totalen Wk: Bayessche Formel: n n j =1 j =1 P( A) = ∑ P( B j )P( A | B j ) bei A ⊆ B j , P(Bj)>0. P( B j | A) = P ( AB j ) P( A) = P( B j ) P( A | B j ) n ∑ P( B ) P( A | B ) k solange P(A)>0 gilt. (Script S.25) k k =1 Die Verteilungsfunktion(Script Seite 31) F(x)=P(X ≤ x):=P({ ω : X (ω ) ≤ x}) … Verteilungsfunktion F von X damit ist die Wahrscheinlichkeit für beliebige halboffene Intervalle (a,b] berechenbar. P(X ∈ (a,b])=F(b)-F(a) Die Verteilungsfunktion ist monoton nicht fallend. Für diskrete ZGs ist F stückweise konstant. Stetige Zufallsvariable Zusammenhang mit Verteilungsfunktion besteht: ist die kontinuierliche Variante. Die Verteilungsfunktion ist stetig. Verteilung mit Dichten Dichten bewerten die Punkte aus R. Aus der Dichte ist die Verteilungsfunktion bestimmt. Der wesentliche Unterschied zwischen diskreten und stetigen ZGs ist, dass bei diskreten ZG einzelne Punkte eine positive Wk haben können, bei stetigen ZG ist die Wk für jeden Punkt gleich Null. Die Chebyshev-Ungleichung(Script Seite 64) Mit Erwartungswert und Varianz Wissen über die Verteilung erhalten, ohne gesamte Wk-Verteilung der Zufallsvariablen Z zu kennen. σ2 σ2 P(| Z − µ |≥ ε ) ≤ 2 bzw. P(| Z − µ |< ε ) > 1 − 2 für beliebiges ε >0 ε ε Grenzwertsätze(Script Seite 68) Zur Berechnung von Wahrscheinlichkeiten braucht man gut begründete Approximationen. Bsp.1: Yi ~ B(1,ϑ ) Dann gilt : EYi = ϑ , VarYi = ϑ (1 − ϑ ) n n Wir setzen : Sn = ∑ Yi ⇒ P(Sn = k ) = ϑ k (1 − ϑ ) n − k = bn ,ϑ (k ) i =1 k Das sind die Werte der Binomialverteilung B(n, ϑ ). Anwendung dieser Verteilung auf das Problem: Wie wahrscheinlich ist es, bei 80 Würfen einer Münze k=40 mal Kopf zu haben? 80 − 80 2 ... Somit ist nicht einmal die Größenordnung bekannt. 40 Zentraler Grenzwertsatz (ZGWS) für unabhängige, identisch verteilte Zufallsgrößen Y1 , Y2 ,... mit EYi = µ , VarYi = σ 2 < ∞ , unabhängig. ªstandardisierte Summe: Vn = S n − nµ σ n mit S n = n ∑Y i : P(Vn ≤ x) → Φ ( x) für N → ∞ , i =1 wobei Φ die Verteilungsfunktion der N(0,1)-Verteilung ist. Bsp.2: n=80 ist so groß, dass ZGWS auf Y1,...,Y80 angewendet werden kann. Dann ist nach ZGWS die Verteilung S80 approximativ N(80 ϑ ,80 ϑ (1- ϑ )) verteilt, und das für ϑ =1/2, d.h. S − 80ϑ = P(V80 ≤ x ) ≈ Φ ( x) ⇒ P 80 ϑ ϑ 80 ( 1 ) − ( P (S ) P S80 ≤ 80ϑ + x 80 ϑ (1 − ϑ ) ≈ Φ ( x) ⇒ 80 ) ≤ 40 + x 20 ≈ Φ( x) Die beiden Ergebnisse S80=40 und 39<S80<=40 sind identisch mit der oberen Gleichung Î 1 P( S80 = 40) ≈ Φ(0) − Φ − = 0.08847 20 Eine Approximation der Verteilungsfunktion Binomialverteilung: P(Sn = k ) ≈ φ mit der Gauß-Dichte ergibt: (k − nϑ ) 2 1 exp − − ϑ ϑ n 2 ( 1 ) 2π nϑ (1 − ϑ ) Gesetz der großen Zahlen Verhalten des arithmet. Mittels für große n {Yn} ist eine Folge von ZGs Yn = 1 n ∑ Yi ist das arithm.Mittel aller Yi und gilt wenn nur nach dem Gesetz der großen Zahlen. n i =1 Teil II Statistik Zeichenerklärung I µ ........ ... Erwartungswert (griech.:My) σ 2 ....... ... Varianz (griech.:Sigma) Ω.............. sicheres Ereignis ∅ ............ unmögliches Ereignis A .............. Ereignis (allg.: große lat. Zeichen) P............... Wahrscheinlichkeitsmaß ZG............ Zufallsgröße Wk ........... Wahrscheinlichkeit X( ω )....... ω wird ein reeller Wert zugeordnet x............... Realisierung : X( ω )=x ω ............ Elementarereignis ϑ ............ Erfolgs-Wk (griech.:Theta) σ 2 ... ... Standardabweichung k ........... ... Anzahl der Erfolge r............ ... Zahl der Wiederholungen B(r, ϑ ). ... Notation für Binomialverteilung N( µ ,σ 2 )... Notation für Normalverteilung Zeichenerklärung II Yn = Vn = 1 n ∑ Yi ...arithmetisch Mittel alle Yi. n i =1 S n − nµ σ n n ....??? (beides aus... S n = ∑ Yi .....??? Gesetz der großen Zahlen) i =1 y1,...,yn ...........Realisierungen : Yi( ω )=yi Y1,...,Yn ..........zufällige Variablen, Stichprobe vom Umfang n (wenn unabhängig und identisch verteilt) FZ .....................Verteilungsfunktion einer Zufallsgröße Z PZ.....................Verteilung in der Grundgesamtheit von Z ℘.....................statistisches Modell => Menge von Möglichen Verteilungen => Parameter wie Erwartungswert und Varianz sind unbekannt PZ ∈ ℘ ...........eine Klasse von möglichen Verteilungen T ......................Schätzer, Schätzfunktion T(Y).................Schätzvariable T(y)..................Schätzung, Schätzwert Eϑ T (Y ) .........Approximation für den Parameter „Erwartungswert“ der Schätzfunktion γ (ϑ ) ...............Schätzfunktion von ϑ ≈ T ( y ) | γ = 1 λ (nach Script S.46) / der zu schätzende Wert EYi ...................Erwartungswert der einzelnen Stichprobe (unbekannt) ε .....................ist eine Umgebung mit möglichst kleinem ε sn2 (Y ) .............Stichprobenvarianz Θ ....................Parameterraum {Tn} .................Menge von Folgen χ ....................Stichprobenquadrat Ausdrücke mit ^ sind (Ab-)Schätzungen, während das ~ über einem Zeichen nur der Unterscheidung dient. Beispiel 7.1 Aus der laufenden Produktion werden zufällig und unabhängig voneinander n Federn genommen. Bei jeder Feder wird festgestellt: 0 – defekt oder 1 – in Ordnung. Es entstehen Werte y1,...,yn mit 0 yi = . 1 ªyi=Yi( ω ) für unabhängige Yi~B(1,p) ªY n = 1 n ∑ Yi ist nahe an p n i =1 Schätzverfahren(Script Seite 75) Erwartungstreue Ein Schätzer T heißt erwartungstreu für γ , falls Eϑ T (Y ) = γ (ϑ ) Konsistenz Schätzfolge T1,T2,... heißt für γ (schwach) konsistent, falls für jedes ( ) lim Pϑ Tn (y(n ) ) − γ (ϑ ) > ε = 0 n →∞ ∀ϑ ∈ Θ ε >0 und alle ϑ ∈ Θ gilt: Stichprobenmittel EYi= µ und VarYi= σ 2 (beide sind unbekannt) ; aus der Wahrscheinlichkeit : EY = ∞ ∑ g(x ) p i i =1 n Y n = 1n (Y1 + Y2 + ... + Yn ) ⇔ T ( y1 ,..., y n ) = ∑ yi i =1 ⇒ EY n = ( EY1 + EY2 + ... + EYn ) = ( µ + µ + ... + µ ) 1 n 1 n ⇒ Eϑ T (Y ) = EY n = µ = γ (ϑ ) Das Stichprobenmittel ist ein erwartungstreuer Schätzer für Tschebyshev Aus der Wahrscheinlichkeitsrechnung : VarY = ∑ (x i VarY n = µ. − EX ) pi = σ 2 2 i σ2 1 1 2 ( ) σ VarY VarY VarY n ... + + + = = 1 2 n n2 n2 n Das Stichprobenmittel ist mit wachsendem n ein konsistenter Schätzer für Für ein beliebig kleines ε strebt ( ) ( ) µ. σ2 (Tschebyshev) nε 2 Mit beliebig großer Wahrscheinlichkeit liegt Y n beliebig nahe an µ (für genügend großes n). P µ − ε < Y n < µ + ε →n 1, da P Y n − µ < ε > 1 − i Stichprobenvarianz sn2 (Y ) ist die Stichprobenvarianz 2 2 2 1 sn2 (Y ) = Y1 − Y n + Y2 − Y n + ... + Yn − Y n n −1 2 2 2 1 Esn2 (Y ) = E Y1 − Y n + E Y2 − Y n + ... + E (Yi − µ ) − Y n − µ + ... + E Yn − Y n n −1 2 2 σ2 σ2 n −1 2 + =σ2 . wobei E Yi − Y n = E (Yi − µ ) − Y n − µ = σ − 2 n n n Esn2 (Y ) = σ 2 [( ( ) ( [( ) ) [ ) ( ) ( )] Stichprobenkovarianz 1 n Tn 3 ( y ) = ∑ yi1 − y n1 yi 2 − y n 2 n − 1 i =1 (( ( )( )] [ ( )) Beispiel 7.3 Gegeben seien folgende Beobachtungen: 1,280 ; 2,397 ; 3,999 ; 0,9506 ; 2,656 ; 1,882 ; 1,897 ; 1,378 ; 1,475 ; 3,568 ; 0,4591 ; 0,4424 ; 1,492 ; 2,174 ; 2,228 ; –1,264 arithmet. Mittel=a a = (1,280+2,397+3,999+0,9506+2,656+ 1,882+1,897+1,378+1,475+3,568+ 0,4591+0,4424+1,492+2,174+2,228+ (–1,264)) / 16 =1,68838125 Stichprobenmeridian=c c=(1,429+1,882)/2=1,687 Stichprobenvarianz= sn (Y ) =b Spannweite=d b= 1 [(1,280− a)2 + (2,379− a)2 + ...+ (−1,264− a)2 ] d=3,999+(-1,264)=5,263 2 16 −1 =1,572670867 )] ( )] 2 MSE / mittlerer quadratischer Abstand(Script Seite 81) MSEϑ (T ) = Varϑ (T ) + [Eϑ T − γ (ϑ )] MSE ist die Varianz + das Quadrat der Verzerrung(Bias) 2 Für Erwartungstreue Schätzer ist der Bias = 0 Konstruktion von Schätzern(Script Seite 83) Maximum-Likelihood-Schätzung für Y1 bis Yn unabhängige ZG n fϑ ( y1 ,..., yn ) = P(Y1 = y1 ,..., Yn = yn ) = ∏ P(Yi = yi ) i =1 MSL(ϑ ) = max( fϑ ( y1 ,..., yn ) ) = Ableitung nach ϑ bilden α-Quantile(Script Seite 88) mindestens α ∗ n liegen im Intervall (- ∞, qα ] und mindestens (1 − α ) ∗ n liegen im Intervall [qα , ∞ ) Quartile q 1 , q 2 , q 3 Dezile q 1 ,, q 9 4 4 4 10 10 Konfidenzintervalle(Script Seite 88) ∧ ∧ 1 1 I (Y )= Y − ⋅ t n −1 α ⋅ σ (Y ), Y + ⋅ t n −1 α ⋅ σ (Y ) n n P(I (Y ) ∋ µ ) = 1 − α ∧ t n −1 α aus Tabelle ablesen, σ (Y ) gegeben Beispiel: Quantile und Konfidenzintervalle Gegeben seien die konkreten Werte y1,...,y12: -1.534, -1.406, -1.112, -0.8289, -0.7342, -0.04339, 0.1157, 0.2960, 0.6996, 0.7341, 0.7941, 0.9374 Diese Werte seien unabhängige Realisierungen von normalverteilten Variablen µ ,σ . ( ) Yi ~ µ ,σ 2 für unbekannte • Bestimmen Sie die Quartile dieser Beobachtung • Bestimmen Sie ein Konfidenzintervall I(y) für µ zum Niveau 0.95. Benutzen Sie dabei, dass y =0.177 und σ̂ =0.749 ist. Erklären Sie verbal die Bedeutung des errechneten Intervalls. 2 Was bedeutet dieses Intervall, wenn man weiß, dass die Beobachtungswerte Realisierungen einer (0,5; 1)Verteilung sind? a) Quartile: α = 14 k ; k = 1,2,3,4 Allgemein : in (- ∞, qα ] liegen nα Relisierungen in [qα ,+∞ ) liegen n(1 - α ) Realisierungen q1 = ? 4 12 *α = 12 * 1 4 = 3 und 12 * 3 4 = 9 ⇒ q 1 ∈ [− 1,112;−0,8289] 4 ⇒ q 2 ∈ [− 0,04339;0,1157] 4 ⇒ q 3 ∈ [0,6996;0,7341] 4 ⇒ q 4 ist trivial (?) 4 b) P(µ ∈ I ( y )) = 1 − α µ = 1−α α = 0,05 Konfidenzintervall I(y) bei n=12. Gesucht ist hierbei das Intervall, in dem zu 95% der Wert µ liegt. Sowohl die Werte als auch die Formel zur Berechnung des Konfidenzintervalls sind weiter oben im Dokument. Mit den nun folgenden Werten bleibt nichts weiter zu tun, als diese einzusetzen und man hat das Intervall: I ( y ) = [−0,726,0,373] Wenn diese Stichprobe von einer N(0:5; 1)-Verteilung stammen soll, so ist diese Stichprobe eine nicht repräsentative, denn nur 5 Prozent aller Stichproben vom Umfang 12 enthalten nicht den wirklichen Erwartungswert 0.5 Kleinste Quadratische Schätzung (KQS) (Script Seite 91) Meist durch Polynomklasse abgeschätzt Pk ( x) = β 0 + β1 x + ... + β k x k für (k = 0) ∧ 1 n β 0 = y = ∑ yi n i =1 für (k = 1) βˆ = y − βˆ ⋅ x 0 1 n βˆ1 = ∑ (( x i i =1 − x) ⋅ ( yi − y )) n ∑ (x i =1 i − x) 2