Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger Formelsammlung Fehler od Unvollständigkeit nicht einklagbar bei Prüfung Enthält eher theoretische Resultate (und nicht komplizierte Teststatistiken, KI’s), damit man der Vorlesung besser folgen kann. Aus 3. Wahrscheinlichkeit P P : a) 0 ≤ P [E] ≤ 1 für alle E; b) P [Ω] = 1; c) Für endlich oder abzählbar unendlich viele paarweise unvereinbare Ereignisse E1 , E2 , . . . gilt: P [E1 ∪ E2 ∪ . . .] = P [E1 ] + P [E2 ] + . . . . folgt sofort für unvereinbare E und F : P [E ∪ F ] = P [E] + P [F ]. A ⊆ B ⇒ P [B] = P [A] + P [B\A] und damit A ⊆ B ⇒ P [A] ≤ P [B] P [A ∪ B] = P [A] + P [B] − P [A ∩ B]. P [A|B] := P [A∩B] P [B] P [A|B]P [B] = P [A ∩ B] = P [B|A]P [A] P [A|B] = P [A] = P [A∩B] P [B] ∑n i=1 = P [B|A]P [A] P [B|A]P [A]+P [B|A]P [A] P [A|Bi ]P [Bi ] A und B (paarweise) unabhängig voneinander, wenn P [A ∩ B] = P [A]P [B]. Falls P [B] > 0 resp. P [A] > 0, so ist Unabhängigkeit von A und B gleichbedeutend mit P [A|B] = P [A] resp. P [B|A] = P [B]. 1 Aus 4. Zufallsgrösse X F (x) := P [X ≤ x] := P [{ω|X(ω) ≤ x}], wenn diskret noch F (x) = P [X ≤ x] = ∑ xi ≤x P [X = xi ] Y stetig, wenn FY sich darstellen lässt als ∫ FY (a) := P [Y ≤ a] = wo ∫∞ −∞ a f (u)du −∞ f (x)dx = 1 stetig: P [a < X ≤ b] = P [X ≤ b] − P [X ≤ a] = F (b) − F (a) = stetig: P [X = x0 ] = ∫ x0 x0 ∫b a f (x)dx f (x)dx = 0 stetig: P [a ≤ X ≤ b] = P [a < X ≤ b] = P [a < X < b] = P [a ≤ X < b] ∫b = P [X ≤ b] − P [X ≤ a] = F (b) − F (a) = a f (x)dx stetig und F differenzierbar: F ′ (x) = f (x) Jargon: unabhängig, identisch verteilt = independent and identically distributed (iid) Aus 5. Erwartungswert E und Varianz V Erwartungswert Varianz {∑ xi P [X = xi ] E[X] := ∫ ∞xi xf (x)dx −∞ falls X diskret falls X stetig {∑ (xi − µX )2 P [X = xi ] X diskret V [X] := ∫ ∞xi (x − µX )2 f (x)dx X stetig −∞ Standardabweichung sd (Standard Deviation) ist die Wurzel aus der Varianz: sd[X] := √ V [X] ≥ 0 Linearität des Erwartungswertes E[aX + bY ] = aE[X] + bE[Y ]; E[X + Y ] = E[X] + E[Y ], E[b] = b, E[0] = 0 2 V [aX + b] = a2 V [X] (”Konstante quadratisch raus”), zentral: V [aX] = a2 V [X] V [X] = E[X 2 ] − (E[X])2 {∑ x2 P [X = xi ] E[X ] = ∫ ∞xi i2 x f (x)dx −∞ 2 falls X diskret falls X stetig Varianz einer Summe bei Unabhängigkeit ! ∑n ∑n V [ i=1 Xi ] = i=1 V [Xi ] (”Varianz der Summe ist die Summe der Varianzen”); insbesondere V [X + Y ] = V [X] + V [Y ] Falls Xi iid, sodass E[Xi ] = µ und V [Xi ] = σ 2 , dann gelten die folgenden 3 Resulate: I: E[X] := E [ 1 ∑n n II: V [X] := V III: sd[X] = i=1 ] Xi = µ [ 1 ∑n n i=1 ] Xi = 1 2 nσ √1 σ n Beliebter Blödsinn: P [X], E[A], E[X = 3] Aus 6. Ausgewählte Verteilungen Diskrete Verteilungen 6.1.1 Bernoulli Be(p) X kann 2 Werte annehmen: 0 und 1 (alternativ −1 und +1). P [X = 1] = p (Erfolg) und P [X = 0] = 1 − p (Misserfolg). E[X] = p und V [X] = p(1 − p). Mit 0 ≤ k ≤ 1 haben wir P [X = k] = pk (1 − p)1−k 3 6.1.2 Binomial Bin(n,p); Storrer Kapitel 38, 51.1 Xi , 1 ≤ i ≤ n, n iid Be(p). Y := ∑n i=1 Xi . Dann Y per Definitionem Binomialverteilung mit Parametern n und p; Bin(n,p). E[Y ] = np und V [Y ] = np(1 − p). 0 ≤ k ≤ n: ( ) n k P [Y = k] = p (1 − p)n−k k Einsatz: Anzahl Erfolge (k) bei n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p. 6.1.3 Geometrisch Ge(p); Storrer (37.12 b)) Xi , i ≥ 1, iid Be(p). Z := min{i|Xi = 1}. Z Zufallsgrösse auf den natürlichen Zahlen ohne die Null. Z per Definitionem geometrische Verteilung Ge(p) mit Parameter p. Es gilt: E[Z] = 1/p und V [Z] = (1 − p)/p2 . P [Z = k] = p(1 − p)k−1 Einzige diskrete Zufallsgrösse, welche gedächtnislos: mit n > m > 0 gilt P [Z > n|Z > m] = P [Z > (n − m)]. Geometrische Verteilung in gewissen Lehrbüchern so definiert, dass man Anzahl Misserfolge bis zum ersten Erfolg zählt. Dann nimmt Ge(p) Werte auf den natürlichen Zahlen inklusive 0 an. Resultate analog aber leicht komplizierter. 6.1.4 Poisson Po(λ) V poissonsch, wenn Sie Werte auf den natürlichen Zahlen inklusive 0 annimmt und zwar mit folgenden Wahrscheinlichkeiten: P [V = v] = e−λ Es gilt: E[V ] = V [V ] = λ. 4 λv . v! Stetige Verteilungen 6.2.1 Uniform U [a, b] U per Definitionem auf [a, b] uniform verteilt, wenn U folgende Dichtefunktion hat: f (u) = (b − a)−1 , wobei dann natürlich a ≤ u ≤ b zu gelten hat. Ausserhalb von [a, b] ist die Dichte gleich null. Es gilt E[U ] = (a + b)/2 und V [U ] = (b − a)2 /12. 6.2.2 (Negativ-) Exponential Exp(λ) Zufallsgrösse X mit Dichtefunktion f (x) = λe−λx , x ≥ 0, heisst exponentialverteilt mit Parameter λ; Exp(λ). E[X] = 1/λ, V [X] = 1/λ2 . Modell für: radioaktiver Zerfall, ”wann geht Glühbirne kaputt?”, Zwischenzeit bei Ankunft von KundInnen in einem Geschäft und vieles mehr. Einzige stetige Zufallsgrösse, welche gedächtnislos: t ≥ s, P [X > t|X > s] = P [X > (t − s)]. 6.2.3 Normal N (µ, σ 2 ) Vorsicht: Storrer N (µ, σ), Luchsinger N (µ, σ 2 ) Dichtefunktion (x−µ)2 1 f (x) = √ e− 2σ2 , x ∈ R, 2πσ E[X] = µ und V [X] = σ 2 . “Z-Transform”: X sei N (µ, σ 2 ), dann Z := X−µ σ 5 ist N (0, 1) 6.2.4 χ2 (Xi )ni=1 iid N (0, 1), dann n ∑ Xi2 i=1 χ2n -verteilt (sprich ”Chiquadrat mit n Freiheitsgraden” (degree of freedom, df)). (Yi )ni=1 iid N (µ, σ 2 )-verteilt, dann n ∑ (Yi − µ)2 σ2 i=1 χ2n -Verteilung. Ein wenig überraschend: Mit n ∑ S := (Yi − Y )2 , 2 i=1 wo Y := ∑n i=1 Yi /n, hat S 2 /σ 2 die χ2n−1 -Verteilung. E[χ2n ] = n; V [χ2n ] = 2n. X sei χ2a , Y sei χ2b und X und Y unabhängig voneinander, dann W := X + Y χ2a+b . 6.2.5 F U und V zwei unabhängige, χ2m -, bzw. χ2n -verteilte Zufallsgrössen. Dann W := U/m V /n F -verteilt mit Parametern m, n: Fm,n . E[W ] = n/(n − 2) (falls n > 2). 6.2.6 t Y eine N (0, 1)-Zufallsgrösse und Z eine χ2n -Zufallsgrösse; Y unabhängig von Z. Y Tn := √ Z/n 6 Student-t-Verteilung mit n df. Es gilt E[tn ] = 0 (falls n > 1 und falls n = 1 existiert der √ Erwartungswert nicht), V [tn ] = n/(n − 2), sobald n > 2. F1,n = |tn |. X1 , X2 zwei iid N (0, 1)-Zufallgrössen, so ist X1 /X2 ebenfalls t1 -verteilt. t∞ = N (0, 1). Summen von Zufallsgrössen n ∑ Be(p) = Bin(n, p) 1 n ∑ n ∑ Bin(ni , p) = Bin( ni , p) 1 1 Summe Normal ist Normal (Summanden müssen nicht mal identisch verteilt sein) n ∑ N (µi , σi2 ) n n ∑ ∑ = N( µi , σi2 ) i=1 i=1 i=1 Aus 7. n → ∞ (Konvergenz, LLN, CLT) [ ∑n CLT: P k=1 √ Xk −nµ nσ ] ≤ a −→ P [N (0, 1) ≤ a] Aus 8. Schätzen von Parametern und Konfidenzintervalle 2 X1 , . . . , Xn iid N (µ, σ 2 ), dann hat X eine N (µ, σn )-Verteilung 95 % KI f µ bei bekanntem σ 2 , Daten x1 , . . . , xn in Modell N (µ, σ 2 ) ist: [x − 1.96σ √ ,x n + 1.96σ √ ]. n √ σ̂ , x + 95 % KI f µ bei unbekanntem σ 2 , Daten x1 , . . . , xn in Modell N (µ, σ 2 ) ist: [x − CV n √ ∑n CV 1 2 √ σ̂ ] wo σ̂ := i=1 (xi − x̄) . n−1 n Aus 10. ANOVA/Regression Auf dem Weg zur Fundamentalgleichung der Varianzanalyse: ∑nj µ̂j := Ȳ.j := i=1 Yij nj 7 ∑k GM = ∑k ∑nj i=1 (Yij j=1 j=1 nj Ȳ.j ∑k j=1 = n − GM )2 = ∑nj ∑k i=1 i=1 (Ȳ.j − GM )2 + ∑nj ∑k Yij nj n ∑nj j=1 nj = ∑k j=1 i=1 j=1 Yij n ∑nj i=1 (Yij − Ȳ.j )2 . ∑k nj (Ȳ.j −GM )2 /(k−1) . V := ∑k j=1∑nj 2 j=1 i=1 (Yij −Ȳ.j ) /(n−k) Regression Yi = β0 + β1 xi + ϵi SSE := SSR := SSxx := SSyy := SSxy := ∑n 2 i=1 (yi − ŷi ) := ∑n i=1 (ŷi ∑n i=1 (xi ∑n i=1 (yi ∑n i=1 (xi ∑n i=1 (yi − (β̂0 + β̂1 xi ))2 − ȳ)2 − x̄)2 = − ȳ)2 = ∑n i=1 ∑n i=1 x2i − nx̄2 yi2 − nȳ 2 − x̄)(yi − ȳ) = ∑n i=1 xi yi − nx̄ȳ SSyy = SSR + SSE, also ∑n i=1 (yi β̂1 = − ȳ)2 = SSxy SSxx ∑n i=1 (ŷi − ȳ)2 + ∑n i=1 (yi und β̂0 = ȳ − β̂1 x̄ sowie σ̂ 2 := − ŷi )2 1 n−2 8 ∑n 2 i=1 ei (10.2)