= (0≤k≤n) P(AUB) = P(A)+P(B) für A B = P(AUB) = P(A) + P(B) - P( A B ) für A B ≠ P(A|B) = für , A und B – unabhängig P(A)= Ai).P(A/Ai) P(A1)+…+P(An)=1 , P(Ak/A)= Ai Aj= A= i j i ,1 =Ω , A P( )=1-P(A); A = X-Zufallsvariable FX(x)=P(X x) – Verteilungsfunktion FX(x)= x(xi) f(xi)=P(X=xi) X-stetige Zufallsvariable Die Dichtefunktion fx(x): (1) (2)fx(x)≥0 x(x)dx=1; P(a≤X≤b)=F(b)-F(a) P(a≤X≤b)= x(x)dx FX(x)= fX(x)= FX(x)’ Erwartungswert E(X)=µ E(X)= i.fX(xi) fur diskrete X fX(xi)=P(X= xi) EX= . fX(x)dx fur stetige X fX(x)-die Dichtefunktion von X Varianz VAR(X)=V(X)= =E(X-E(x))2=E(X2)-(E(x))2 2 VAR(X)= VAR(X)= X-diskret X-stetig Standartabweichung = Eigenschaften des Erwartungswertes 1)E(C)=C 2)E(C.X)=C.E(X) 5)E(X.Y)=E(X).E(Y) 3)E(X+Y)=EX+EY 4)E = = ) X,Y-unabhängig Eigenschaften der Varianz 1)V(X)≥0 unabhängig 2)V(C)=0, C=const ,3)V(C.X)= , C=const 4)V(X+Y)=V(X)+V(Y), Momente um Null n E(xk)= xik . f ( xi ) Diskreten Fall i 0 E(x )= x k . f ( xi ) dx k Stetigen Fall Zentralle Momente E ( X E ( x)) k = xi E ( x) . f ( xi ) k Diskreten Fall i E(x-E(x)) = ( x E ( x)) k . f x ( x)dx k Stetigen Fall = x Standartizierte Zufallsvariable EX Schiefe von X E( ) = f(x) Binominalverteilung Bin(n;p) P(x=k) = f (x=k) = C nk . p k .(1 p) n k n n(n 1)( n 2)...( n k 1) n! C nk k! k!(n k )! k EX=n.p VAR(X)=n.p.(1-p) p=P(a) np+ p−1≤ k0 ≤ np+ p (k0=M0) Geometrishe Verteilung P(X=k)=(1-p)k-1.p 1 E(x)= p 1− p VAR(x)= p 2 X,Y Poissonverteilung P(X=k) = k k! e EX=λ (μ=λ)=VAR(x) λ=n.p / λ=a.t Hypergeometrische Verteilung M N M k n k C Mk .C Nn kM P(X=k) = = C Nn N n E(X) = n. M n( N n) M M . .1 VAR(X) = N N 1 N N Gleichverteilung 1 ,a x b b a 2 ab f X (x) = b a E(X)= V(x) = 2 12 0, sonst Exponentialverteilung: f X x e x , x 0, 0 0, sonst 1 VAR( X ) 1 2 Normalverteilung (Gauss-Verteilung): f X x 1 2 e ( x )2 2 2 , x (, ) ; VAR X 2 a X b a Z b Pa X b P P Z ~ N 0;1 Tabelle: Verteilung: Bin(n;p) Po(λ) Hyp(M,N,n) Erwartungswert: n p Varianz: n p1 p n G(p) M N n N 1 1 p p2 1 p ab 2 1 U(a,b) Exp(λ) N(μ,σ) N n M 1 M N N b a 2 12 1 2 2 Zweidimensionale Zufallsvariablen: (X, Y) f XY xi , y j PX xi Y y j 1 f xi , y j 0 2 f xi , y j 1 i j Die Dichtefunktion: f XY x, y f x, y dxdy 1 f x, y 0 Marginale Verteilung: f X xi f xi , y j j f Y y j f xi , y j f X x f x, y dy - diskreter Fall i fY y f x, y dx X und Y – stochastische unabhängig, wenn: f (xi, yj) = fx (xi) . fy (yj) – diskret f (x, y) = fx (x) . fy (y) – stetig - stetige Funktion Kovarianz: cov (x, y) cov x, y E [(X – E x . Y – E y cov x, y i j x i – E x . y j E y . f x i , y j cov x, y x – E x . y E y . f x, y . dxdy Korrelationskoeffizient von x und y: s ( x, y ) cov( x, y ) wenn s (x,y) = 0 , dann x und y sind unkorreliere var( x).var( y ) s (x,y) ≠ 0 , dann x und y sind korreliere Deskriptive Statistik X: (x1, x2, ..., xn) – Stichprobe hx (xi) – absolute Häufigkeit von xi 1 f x x i .h x x i - relative Häufigkeit n Fx x f x – statistische Verteilungsfunktion i:xi x i Statistische Maßzahlen 1 n x . xi - das Stichprobemittel n i 1 1 n S . xi x n 1 i 1 2 X 2 - die Stichproben – Varianz s x S x2 - die Stichproben – Standardabweichung x x1 , x 2 ,...., x n - die geordnete Stichprobe zu X x n 1 x– der Stichproben – Median , falls n - ungerade x̃ 2 ̃ 1 2 x n x n 1 , falls n - gerade 2 2 Sei α (0,1) und K = [n. α] x k 1 , falls n. N x 1 x k x k 1 , sonst 2 – das Stichproben – - Quantil ( [-0,5] = -1; [3] = 3; [1,2] = 1) - das untere Quartil - das obere Quartil – Quartilabstand - - - Spannweite Zweidimensionale Daten Lineare Regression (X,Y) : (( - ,Y1), ( ,Y2),...(Xn,Yn)) Stichprobe: y = a + b.x = = – . = E(Y) = = . = 1 n . xi x n 1 i 1 ; = 2 = . 1 n . y i y n 1 i 1 2 - Empirischer Korrelationskoeffizient = E(X) y= a + bx = . ; = 1 n xi ; n i 1 - 1 n yi n i 1 = Punkt-Schätzung.Die Momenten Methode.Die Maximum - Likelihood - Methode. 1.Momenten - Methode Schätzer Stichprobenmittel µ - Erwartungswert (EX) µ̃=x̄ Varianz x̄ Stichprobenvarianz VAR(X) S2 (x) 2.Die Maximum – Likelihood - Methode n f ( x , ) L((x1,x2...xn),Ѳ)= c i 1 M= ln L(x1,x2,…xn,Ѳ). Mmax→Ѳ̃ M̒(Ѳ)=0 , d.h. Ѳ̃ M˝(Ѳ̃)<0 , d.h. max Konfidenzintervall P(µu≤µ≤µo)=1-α X~N(µ,σ) 1. σ-unbekannt, P( x̄ - t. s n 1 2.σ-bekannt n <0,05 N x t. s n 1 )=1-α µu= x̄ - t. s ; n 1 µo= x̄ + t. n <0,05 N P(µu≤µ≤µo)=1-α ; µu=x̄ - z. n µo=x̄ + z. n (z aus der Tabelle) s n 1 3.σ-unbekannt n 0,05 N P(µu≤µ≤µo)=1-α µu=x̄ - t. s n 1 . N n ; N µ0=x̄ + t. s n 1 . N n N t , z-aus der Tabelle Konfidenzintervalle fuer die Varianz χ ~N(μ,σ) (naeherungsweise) P( σu2 σ 2 σo2)=1-α, σu2=(n.S2)/ χo2, σo2=(n.S2)/ χu2 χo2= χ2(1- α/2;n-1) , χu2= χ2(1- α;n-1) , χ2 aus Tabele der χ2-verteilung Statistische Tests der χ2 -Anpassungstest Ho:Fx(x)=Fo(x) gegen H1:Fx(x)≠Fo(x) k ni n. pi 2 i 1 n. pi 1) Testgroesse 2 pi=P(X=xi) 2) Co= χ2(1-α, k-r-1) ,0< α<1 3) χ2 > Co =>Ho abgelehnt. χ∗2 < Co =>Nullhypothese(Ho) kann nicht abgelehnt werden