2 Zusammenfassung (18. Oktober 2006) Einführung in die Stochastik Die Stochastik ist die Lehre von den mathematischen Gesetzmäßigkeiten des Zufalls • Teilgebiete: Wahrscheinlichkeitstheorie, Statistik. • Aufgaben der Wahrscheinlichkeitstheorie: Bildung und Untersuchung von Modellen für Phänomene, die vom Zufall beeinflußt sind. • Aufgaben der Statistik: Entwicklung von Verfahren zur Analyse realer Daten. • Begriffe, Konzepte der Wahrscheinlichkeitstheorie: – Wahrscheinlichkeitsräume (einfache Spezialfälle: Laplace’sche, diskrete Wahrscheinlichkeitsräume). – Zufallsvariablen. – Erwartungswert, Varianz; Verteilung einer Zufallsvariablen. – Stochastische Prozesse. – Bedingte Wahrscheinlichkeiten. – Gesetz der großen Zahlen, Zentraler Grenzwertsatz. – Markovketten. Zusammenfassung (20. Oktober 2006) • Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, F, P), wobei Ω (Stichprobenraum) eine Menge, F eine σ-Algebra und P ein Wahrscheinlichkeitsmaß auf (Ω, F) ist. • Elementare Beispiele zur Modellierung mit Wahrscheinlichkeitsräumen. P (|Ω| < ∞; F = Pot(Ω); P[A] = ω∈A P[{ω}], A ∈ F; P P[{ω}] ∈ [0, 1], ω ∈ Ω; ω∈Ω P[{ω}] = 1) – Münzwurf (fair, unfair; ein-, mehrmalig unabhängig) – Wurf eines Würfels (fair, unfair) – Laplace’scher W’raum: P[{ω}] = 1/|Ω|, ω ∈ Ω (Gleichverteilung auf Ω). • ∞-facher, unabhängiger, fairer Münzwurf : – Ω = (ωk )k∈N : ωk ∈ {0, 1}, k ∈ N =: {0, 1}N. Interpretation: ωk beschreibt Ergebnis des k-ten Wurfs, wenn insgesamt die Wurfsequenz ω geworfen wird. ( ωk = 0“ , Wurf von Kopf“, ωk = 1“ , Wurf von Zahl“) ” ” ” ” – Wenn F = Pot(Ω) gewählt wird, kann kein vernünftiges“ ” Wahrscheinlichkeitsmaß P auf (Ω, F) definiert werden (Satz von Vitali). • Frage (F): Welche Eigenschaften sollten F, bzw. P beim ∞fachen, unabhängigen, fairen Münzwurf sinnvollerweise haben? Ziel: Rechtfertigung von Axiomensystemen für σ-Algebren und Wahrscheinlichkeitsmaße. 3 4 Zusammenfassung (25. Oktober 2006) Zusammenfassung (27. Oktober 2006) • Sinnvolle Eigenschaften von σ-Algebren und Wahrscheinlichkeitsmaßen beim ∞-fachen Münzwurf. Definition 1.3.1. Sei Ω 6= ∅. Eine Familie F ⊆ Pot(Ω) mit (1) Ω ∈ F (2) A ∈ F (Sicheres Ereignis) (Ω \ A) ∈ F S∞ (3) A1, A2 , · · · ∈ F =⇒ n=1 An ∈ F =⇒ (A tritt nicht ein) (A1 oder A2 oder ...) wird als σ-Algebra bezeichnet. (Ω, F) ist ein meßbarer Raum. Definition 1.3.3. Sei (Ω, F) ein meßbarer Raum. Eine Funktion P : F → [0, 1] mit (1) P[Ω] = 1 P∞ S (2) P ∞ i=1 P[Ai ], falls Ai ∩ Aj = ∅, i 6= j i=1 Ai = heißt Wahrscheinlichkeitsmaß. (2) wird als σ-Additivität bezeichnet. (Ω, F, P) ist ein Wahrscheinlichkeitsraum. • Vorgehensweise bei der Konstruktion von σ-Algebren und Wahrscheinlichkeitsmaßen. Ω sei gegeben. – Familie F ∗ elementarer“ Ereignisse. ” ∗ ∗ – P : F → [0, 1] mit den Eigenschaften (1) und (2) in Definition 1.3.3. – Erweiterung F = σ(F ∗) (kleinste F ∗ umfassende σ-Algebra). – Fortsetzung P von P∗. P : F → [0, 1] Wahrscheinlichkeitsmaß auf (Ω, F). • Der ∞-fache, unabhängige Münzwurf: Details zur Konstruktion von F und P. – Ω = {0, 1}N – F = σ(Fendl) (kleinste Fendl umfassende σ-Algebra) Sei A = {ω ∈ Ω : ωk1 = ηk1 , . . . , ωkn = ηkn } ∈ Fendl. n – Faire Münze: P∗ [A] = 1/2 . – Münze mitPWahrscheinlichkeit p für Zahl“ (, 1): Pn ” n η n− η l=1 kl . P∗[A] = p l=1 kl (1 − p) – Zu P∗ : Fendl → [0, 1] existiert jeweils eine eindeutig bestimmte Fortsetzung P : F → [0, 1]. P ist W’maß auf (Ω, F). • Beispiel. p P[Erster Wurf von Kopf“ in geradem Zeitpunkt] = . ” 1+p • Eigenschaften einer σ-Algebra F in Ω: – ∅ ∈ F, SN A ∈ F. – A1, A2, . . . , AN ∈ F =⇒ T∞ n=1 n – A1, A2, · · · ∈ F =⇒ n=1 An ∈ F. • Eigenschaften eines Wahrscheinlichkeitsmaßes P auf (Ω, F): – P[∅] = 0, – P[A ∪ B] = P[A] + P[B] − P[A ∩ B], A, B ∈ F. – Subadditivität: P[A ∪ B] ≤ P[A] + P[B], A, B ∈ F. – Monotonie: A ⊆ B =⇒ P[A] ≤ P[B]. • Beispiel. P[beim ∞-fachen Münzwurf nur endlich oft Kopf“] ” =P {ω ∈ {0, 1}N : ωk = 0 für nur endlich viele k} = 0. 5 6 Zusammenfassung (3. November 2006) Zusammenfassung (8. November 2006) • Satz von Vitali. Auf ({0, 1}N, Pot({0, 1}N)) kann kein vernünfti- ges Wahrscheinlichkeitsmaß zur Modellierung des ∞-fachen, unabhängigen Wurfs einer fairen Münze existieren. ⇒ Pot(Ω) i.allg. als σ-Algebra in überabzählbaren Stichpro- benräumen Ω ungeeignet. • Einheitsintervall mit Gleichverteilung. Ω = [0, 1], F = B([0, 1]) = σ(F ∗), wobei F ∗ = {[a, b] : 0 ≤ a ≤ b ≤ 1} (Borelsche σ-Algebra), P mit P [a, b] = b − a, 0 ≤ a < b ≤ 1 (Lebesguemaß) • Lebesguemaß im Rd, d = 1, 2, . . . . B(Rd) kleinste σ-Algebra, die alle offenen Mengen enthält, Lebesguemaß λ mit λ(A) = Vol(A), falls A ein Quader ist. • Wahrscheinlichkeitsmaß mit Dichte f . R f : Rd → [0, ∞) stückweise stetig, Rd f (x)dx = 1. R P[A] = A f (x)dx, A ∈ B(Rd). Beispiele: Normalverteilung, Exponentialverteilung, Gleichver- teilung auf beschränktem Gebiet. • Diskrete Wahrscheinlichkeitsräume (Ω, F, P). Ω endlich oder abzählbar unendlich; P F = Pot(Ω); P[A] = a∈A pa, A ∈ F. P (pa = P[{a}] ∈ [0, 1], a ∈ Ω; a∈Ω pa = 1) P Für Ω ⊂ Rd ist P mit P[A] := a∈A∩Ω pa ein Wahrscheinlichkeitsmaß auf (Rd, B(Rd)). a mit pa = P[{a}] > 0 ist ein Atom. • Beispiele. Bernoulli-Verteilung (|Ω| = 2), Binomial-Vert. (Ω = {0, ..., N }; pk = Nk pk (1−p)N −k , k ∈ Ω), Geometrische Verteilung (Ω = N; pk = (1 − p)k−1p, k ∈ N), Laplacesche Verteilung (Gleichverteilung auf endlicher Menge). • Quantile. P W’maß auf (R, B(R)), α ∈ (0, 1). q ∈ R mit P (−∞, q] ≥ α, P [q, ∞) ≥ 1 − α ist ein α-Quantil von P. Quantile brauchen nicht eindeutig zu sein. 2. Zufallsvariable • ZV’en dienen derModellierung “zufälliger Beobachtungsgrößen“. • (Ω, F, P) Wahrscheinlichkeitsraum, (Ω′, F ′) meßbarer Raum. X : (Ω, F, P) → (Ω′, F ′) mit X −1(A′) = {ω ∈ Ω : X(ω) ∈ A′} ∈ F, A′ ∈ F ′, (1) heißt Zufallsvariable. =⇒ P[X −1(A′)] =: P[X ∈ A′] wohldefiniert für alle A′ ∈ F ′. • Ω abzählbar, F = Pot(Ω) =⇒ Jede Funktion auf Ω erfüllt (1). 7 8 Zusammenfassung (10. November 2006) Zusammenfassung (15. November 2006) • X : (Ω, F, P) → (Ω′, F ′) braucht keine Zufallsvariable zu sein, • Sei X : (Ω, F, P) → (Ω′, F ′) eine Zufallsvariable. • Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, (Ω′, F ′) ein meßbarer • Sei X : (Ω, F, P) → (R, B(R)) eine reellwertige Zufallsvariable. wenn F zu klein ist. ′ ′ Raum und T ⊆ R. Xt : (Ω, F, P) → (Ω , F ), t ∈ T, seien ZV’en. X = (Xt)t∈T wird als stochastischer Prozeß bezeichnet. • Beispiel. Bernoulli-Prozeß Y = (Yk )k∈N mit Parameter p. (Y1, Y2, . . . unabhängige, {−1, 1}-wertige Zufallsvariable mit P[Yk = −1] = 1 − p, P[Yk = 1] = p, k = 1, 2, . . . ) • Beispiel. Irrfahrt: X0 = 0; Xk = Xk−1 + Yk , k = 1, 2, . . . . (Y = (Yk )k∈N Bernoulli-Prozeß) Zu jedem Zeitp. k ∈ N springt X = (Xk )k∈N0 auf der Zahlengera- Die Verteilung PX von X ist ein W’maß auf (Ω′, F ′). Ihre Verteilungsfunktion FX : R → [0, 1] ist definiert durch FX (y) = P[X ≤ y], y ∈ R. • Eigenschaften der Verteilungsfunktion FX einer ZV X: – PX (a, b] = FX (b) − FX (a), −∞ < a < b < ∞. =⇒ PX ist durch FX eindeutig bestimmt. – FX ist monoton wachsend mit lim FX (y) = 0, y→−∞ lim FX (y) = 1. y→∞ den mit W’keit p nach rechts bzw. mit W’keit (1−p) nach links. – FX ist rechtsstetig und besitzt linksseitige Grenzwerte. p = 1/2: Symmetrische Irrfahrt. – a ∈ R sei ein Atom von PX • Sei (Ω, F, P) ein Wahrscheinlichkeitsraum, (Ω′, F ′) ein meßbarer Raum und X : (Ω, F, P) → (Ω′, F ′) eine ZV. PX mit PX [A′] = P {ω ∈ Ω : X(ω) ∈ A′} = P[X ∈ A′], A′ ∈ F ′, ist die Verteilung der Zufallsvariablen X. • PX ist ein Wahrscheinlichkeitsmaß auf (Ω′, F ′). • Ω′ höchstens abzählbar, F ′ = Pot(Ω′). X eine Ω′-wertige ZV. P PX [A′] = a∈A′ PX [{a}], A′ ∈ F ′, d.h., PX ist eindeutig durch PX [{a}], a ∈ Ω′, bestimmt. Es gilt: =⇒ FX hat Sprung in a. FX (a) − limyրa FX (y) = P[X = a]. – PX habe eine Dichte f bzgl. des Lebesguemaßes auf R. Ry =⇒ FX (y) = −∞ dz f (z), y ∈ R. • Wahrscheinlichkeitsräume und ZVen bei der Modellbildung. – allgemeine, hinreichend große W’räume zur Konstruktion der bei der Modellbildung benötigten Zufallsvariablen. – spezielle Wahrscheinlichkeitsräume zur Beschreibung und Untersuchung der gemeinsamen Verteilung von ZV’en. 9 10 Zusammenfassung (17. November 2006) Zusammenfassung (22. November 2006) (• Gemeinsame Verteilung, Unabhängigkeit von Zufallsvariablen) 3. Laplacesche Wahrscheinlichkeitsmodelle • Ω endlich, F = Pot(Ω), P[{ω}] = |Ω|−1, ω ∈ Ω. Alle Elemente von Ω sind gleichwahrscheinlich“. ” • Lösung von Abzählproblemen zur Bestimmung von Wahrscheinlichkeiten (P[A] = |A|/|Ω|). Hilfsmittel: Urnenmodelle. • Urne mit N Kugeln, n Ziehungen. Ziehungsvarianten: (U1) Ziehung mit Zurücklegen, Reihenfolge berücksichtigt. (U2) Ziehung ohne Zurücklegen, Reihenfolge berücksichtigt. (U3) Ziehung mit Zurücklegen, Reihenfolge unberücksichtigt. (U4) Ziehung ohne Zurücklegen, Reihenfolge unberücksichtigt. • Wk (N, n) mögliche Ziehungsresultate für (Uk ), k = 1, . . . , 4. W1(N, n) , {1, . . . , N }n = {(w1, . . . , wn) : w1, . . . , wn = 1, . . . , N }, W2(N, n) , {w ∈ W1(N, n) : wi 6= wj , i 6= j}, W3(N, n) , {w ∈ W1(N, n) : 1 ≤ w1 ≤ w2 ≤ . . . ≤ wn ≤ N }, W4(N, n) , {w ∈ W1(N, n) : 1 ≤ w1 < w2 < . . . < wn ≤ N }. (wi , Resultat der i-ten Ziehung; bei W3(N, n) und W4(N, n) evtl. Umordnung der Ziehungszeitpunkte“) ” • Urnenmodelle (U1) - (U4). Wk (N,n) Ziehungsresultate für (Uk ). |W1(N, n)| = N n, |W2(N, n)| = N !/(N − n)!, N +n−1 N |W3(N, n)| = , |W4(N, n)| = . n n • Beispiele. – W’keit für 2 Buben im Skat = |W4(4, 2)|/|W4(32, 2)|. – W’keit, daß für M Pers. 2 am gleichen Tag Geburtstag haben M (M − 1) |W2(365, M )| . ≥ 1 − exp − =1− |W1(365, M )| 730 – Wahrscheinlichkeit für r Richtige beim Zahlenlotto 6 aus 49“ ” |W4(6, r)| |W4(43, 6 − r)| = . |W4(49, 6)| 11 12 Zusammenfassung (24. November 2006) Zusammenfassung (29. November 2006) • Warnung vor sorgloser Anwendung von Laplaceschen Modellen. • Verteilungsmodelle“ als Alternativen zu Urnenmodellen. ” – Verteilung von n Murmeln“ auf N Zellen“. ” ” – Vier Varianten: ∗ Mehrfachbelegung der Zellen erlaubt / nicht erlaubt. ∗ Murmeln unterscheidbar / nicht unterscheidbar. – Äquivalenz zu entsprechenden Urnenmodellen. • Für k = 1, . . . , n sei Ωk höchstens abzählbar, Fk = Pot(Ωk ) und Xk : (Ω, F, P) → (Ωk , Fk ) eine Zufallsvariable. Die gemeinsame Verteilung von X1, . . . , Xn ist eindeutig bestimmt durch P[X1 = m1 , . . . , Xn = mn], m1 ∈ Ω1, . . . , mn ∈ Ωn. Die gemeinsame Verteilung PX1,...,Xn von X1, . . . , Xn mit X PX1,...,Xn [A] = P[X1 = m1, . . . , Xn = mn], (m1 ,...,mn )∈A = P[(X1, ..., Xn) ∈ A], A ∈ Pot(Ω1 ×...×Ωn), 4. Familien von Zufallsvariablen • T1, T2, . . . seien Zufallsvariable mit gleicher Verteilung (identisch verteilte Zufallsvariable). Unterschiedliche Abhängigkeiten“ sind möglich. ” • Seien (Ω, F, P) ein W’raum und (Ωk , Fk ), k = 1, 2, ..., meßbare Räume. Seien Xk : (Ω, F, P) → (Ωk , Fk ), k = 1, 2, . . . , ZV’en. Die gemeinsame Verteilung von X1, X2, ... wird durch P[Xk1 ∈ Ak1 , . . . , Xkn ∈ Akn ], Ak1 ∈ Fk1 , . . . , Akn ∈ Fkn , 1 ≤ k1 < · · · < kn < ∞, n ∈ N, beschrieben. Die Zufallsvariablen X1, X2, ... heißen unabhängig, wenn die gemeinsame Verteilung faktorisiert“, d.h., wenn ” P[Xk1 ∈ Ak1 , . . . , Xkn ∈ Akn ] = P[Xk1 ∈ Ak1 ] . . . P[Xkn ∈ Akn ] jeweils gilt. ist ein W’maß auf (Ω1 × · · · × Ωn, Pot(Ω1 × · · · × Ωn)). • Seien Xk : (Ω, F, P) → (Ωk , Fk ), k ∈ N, Zufallsvariable. Die gemeinsame Verteilung PX1,X2,... ist ein W’maß auf N∞ N∞ Q∞ F Ω , k=1 k , k=1 k k=1 Fk kleinste σ-Algebra, die alle endlich-dimensionalen Rechtecke n Q Ω : ω ∈ A , i ∈ ∆ : ω∈ ∞ k i i k=1 umfaßt. o Ai ∈ Fi, i ∈ ∆; ∆ ⊂ N, |∆| < ∞ • Ereignisse Aλ, λ ∈ Λ, in einem Wahrscheinlichkeitsraum (Ω, F, P) sind unabhängig, wenn T Q P λ∈∆Aλ = λ∈∆P[Aλ ], ∆ ⊂ Λ, |∆| < ∞. • Beachte: Paarweise Unabhängigkeit ; Unabhängigkeit. 13 14 Zusammenfassung (1. Dezember 2006) 5. Spezielle Wahrscheinlichkeitsmaße • Sei X = (Xn)n∈N0 ein stoch. Prozeß mit Werten in (Ω′, F ′). – X ist stationär, wenn die gemeinsame Verteilung von Xk+k1 , . . . , Xk+kn jeweils unabhängig von k ∈ N0 ist. – Ein stationärer Prozeß X ist mischend, wenn jeweils ′ lim P[X0 ∈ A′0, ..., Xn ∈ A′n, Xk ∈ B0′ , ..., Xk+m ∈ Bm ] k→∞ ′ ]. = P[X0 ∈ A′0, ..., Xn ∈ A′n]P[X0 ∈ B0′ , ..., Xm ∈ Bm (Teilsequenzen von X sind bei wachsender zeitlicher Entfernung asymptotisch“ unabhängig.) ” – Der Bernoulliprozeß ist stationär und mischend. Die Irrfahrt ist nicht stationär. • Gleichheitsbegriffe. – X, Y : (Ω, F, P) → (Ω′, F ′). X = Y , f.s., falls P[X = Y ] = 1 (fast-sichere Gleichheit). – X : (Ω, F, P) → (Ω′, F ′), Y : (Ω1, F1, P1) → (Ω′, F ′). L d X = Y (X = Y ), falls PX = PY (Gleichheit in Verteilung, X und Y sind identisch verteilt). Es existieren auch unterschiedliche Konvergenzkonzepte. • Multinomialverteilung Mn(N, q1, . . . , qn) mit Parametern P n, N ∈ N und q1, . . . , qn ∈ [0, 1], wobei nk=1 qk = 1: Ω = ω = (ω1, . . . , ωn) : Pn ωk ∈ {0, 1, ..., N }, k = 1, ..., n; k=1ωk = N , N! q1ω1 . . . qnωn , ω ∈ Ω. pω = P[{ω}] = ω1! . . . ωn! • Anwendung: Urne mit Kugeln der Farben 1, . . . , n. Für k = 1, . . . , n sei qk der Anteil der Kugeln der Farbe k. N -maliges Ziehen mit Zurücklegen. P[lk Kugeln der Farbe k, k = 1, . . . , n] = Mn(N, q1, . . . , qn)[{(l1, . . . , ln)}], Pn l1, . . . , ln ∈ N0 , k=1 lk = N . 15 16 Zusammenfassung (6. Dezember 2006) Zusammenfassung (8. Dezember 2006) • Multinomialverteilung Mn (N, q1, . . . , qn). Verteilung der Farben bei Ziehung mit Zurücklegen von Kugeln der Farben 1, ..., n mit den jew. Anteilen q1, ..., qn aus einer Urne. • Hypergeometrische Verteilung Hn,M (N, m1, ..., mn ). Verteilung der Farben bei Ziehung ohne Zurücklegen von Kugeln der Far- ben 1, ..., n mit den jew. Anzahlen m1, ..., mn aus einer Urne. • Multinomialapproximation der hypergeometrischen Verteilung. • Poissonverteilung P (λ), λ > 0: Ω = N0, pk = λk exp(−λ)/k!, k = 0, 1, 2, . . . . • Poisson-Approximation der Binomialverteilung. Sei pn, n ∈ N, eine Folge in [0, 1] mit limn→∞ npn = λ ∈ (0, ∞). =⇒ lim B(n, pn)[{k}] = P (λ)[{k}], n→∞ k = 0, 1, 2, . . . • Bedeutung der Poissonverteilung in Anwendungen basiert auf dieser Approximation (Anzahl der Zerfälle eines radioaktiven Präparats, Anzahl der Anfragen an einen Mail-Server, . . . ) • Wartezeiten. Für t > 0 sei die Anzahl spezieller, sich nicht beeinflußender Ereignisse in [0, t] verteilt nach P (λt). =⇒ Wartezeit auf das erste Ereignis ist exponentiell verteilt mit Parameter λ. • Ausblick: Untersuchung w’theoretischer Modelle. – Erwartungswert E[X], Varianz von Zufallsvariablen X. Seien Xk , k ∈ N, unabhängige, identisch verteilte ZV’en. – Gesetz der großen Zahlen (Asymptotik von Mittelwerten: – Zentraler Grenzwertsatz (Asymptotik von Fluktuationen 1 N PN k=1 Xk N →∞ → E[X1]) √ 1 PN N ( N k=1 Xk − E[X1])) – Markovketten X = (Xk )k∈N. (Bedingt unter der Gegenwart sind Vergangenheit und Zukunft unabhängig) 6. Erwartungswert und Varianz • Sei X : (Ω, F, P) → (R, B(R)) diskret, d.h. X(Ω) ist höchstens abzählbar. – X ist integrabel, wenn P x∈X(Ω) |x|P[X = x] < ∞. – Man definiert dann den Erwartungswert von X durch P E[X] := x∈X(Ω) xP[X = x]. 17 18 Zusammenfassung (13. Dezember 2006) Zusammenfassung (15. Dezember 2006) • Sei X eine reellwertige Zufallsvariable. X ist integrabel ⇐⇒ E[|X|] < ∞. • Eigenschaften der Abbildung X → E[X], X Zufallsvariable. X, Y , Xk , Yk , k ∈ N, ZV’en mit Werten in (R, B(R)), c ∈ R. – Monotonie des Erwartungswerts: X ≤ Y , f.s. =⇒ E[X] ≤ E[Y ]. – Linearität des Erwartungswerts: cX, X + Y sind integrabel mit ∗ E[cX] = cE[X], ∗ E[X + Y ] = E[X] + E[Y ]. – σ-Additivität des Erwartungswerts: P Xk ≥ 0, f.s., k ∈ N, und X = ∞ n=1 Xn . P∞ =⇒ E[X] = k=1 E[Xk ]. Satz von der monotonen Konvergenz: Yk ր Y =⇒ limk→∞ E[Yk ] = E[Y ]. X, Y, Xn, Yn, n ∈ N, seien reellwertige, integrable Zufallsvariable. • Weitere Eigenschaften der Abbildung X → E[X], X ZV. – Produktregel für unabhängige Zufallsvariablen: X, Y unabhängig. =⇒ XY ist integrabel und E[XY ] = E[X]E[Y ]. – Normierung: Sei X = 1, f.s. =⇒ E[X] = 1. • Bestimmung von E[X] mit Hilfe diskreter Approximationen. – Sei X(m)(ω) = ⌊mX(ω)⌋/m, ω ∈ Ω. – X(n0) für ein n0 integrabel =⇒ alle X(n) sind integrabel, E[X(n)] ist Cauchy-Folge. – Definition: E[X] := limn→∞ E[X(n)] • PX habe Dichte f bzgl. des Lebesguemaßes. H meßbar. R X ist integrabel, falls R dx |x|f (x) < ∞, R H(X) ist integrabel, falls R dx |H(x)|f (x) < ∞, R R E[X] = R dx xf (x), E[H(X)] = R dx H(x)f (x). • E[ . ] ist ein abstraktes Integral. R R Schreibweise: E[X] =: Ω X(ω)P(dω) =: XdP. • Sei p ∈ [1, ∞). Falls E[|X|p] < ∞, existiert das p-te Moment E[X p] von X. 19 20 Zusammenfassung (20. Dezember 2006) • Sei p ∈ [1, ∞) und (Ω, F, P) ein Wahrscheinlichkeitsraum. Lp(Ω, F, P) := {Y : (Ω, F, P) → (R, B(R)) : E[|Y |p] < ∞} ist ein Banachraum mit der Norm kY kp := (E[|Y |p])1/p. L2(Ω, F, P) ist Hilbertraum mit Skalarprodukt hY, Zi := E[YZ]. Seien X, Y ∈ L2(Ω, F, P). • Varianz: Var(X) := E[(X − E[X])2]. (Stärke der Fluktuationen von X um typischen“ Wert E[X]) p ” • Standardabweichung: σX = Var(X). • Kovarianz: Cov(X, Y ) := E[(X − E[X])(Y − E[Y ])]. Cov(X, Y ) ∈ [−1, 1]. • Korrelation: ρ(X, Y ) := σX σY (ρ(X, Y ) > 0 (bzw. < 0), wenn typischerweise“ X −E[X] und ” Y −E[Y ] gleiches (bzw. entgegengesetztes) Vorzeichen besitzen.) • Cauchysche Ungleichung: E[|X|]2 ≤ E[X 2]. • X = (X1, . . . , Xd), Y = (Y1, . . . , Yd) seien Rd-wertige ZV’en. (Cov(Xi, Yj ))i,j=1,...,d ist die Kovarianzmatrix. • X, Y unabhängig ⇒ X, Y unkorreliert, d.h., Cov(X, Y ) = 0. X, Y unkorreliert ; X, Y unabhängig. Rechenregeln für Varianz und Kovarianz. • Cov(aX + b, cY + d) = ac Cov(X, Y ), a, b, c, d ∈ R, Var(aX + b) = a2 Var(X). n X X Cov(Xk , Xl ). Var(Xk ) + • Var(X1 + · · · + Xn) = k=1 k,l=1,...,n k6=l Für unkorrelierte Zufallsvariablen addieren sich die Varianzen. • Cov(X, Y )2 ≤ Var(X) Var(Y ). Beispiele. • X habe Exponentialverteilung mit Parameter λ > 0. ⇒ E[X] = 1/λ, E[X 2] = 2/λ2, Var(X) = 1/λ2 . • X habe Cauchy-Verteilung mit Parameter a > 0. ⇒ X besitzt kein erstes Moment. • X habe Normalverteilung mit Parameter µ ∈ R und σ 2 > 0. ⇒ Alle Momente existieren, E[X] = µ, Var(X) = σ 2, E[X 2] = σ 2 + µ2. 21 22 Zusammenfassung (10. Januar 2007) Zusammenfassung (12. Januar 2007) 7. Gesetz der großen Zahlen • Weiterer Konvergenzbegriff in der Wahrscheinlichkeitstheorie: – Konvergenz in Verteilung. Zusammenfassende Beschreibung einer großen Anzahl von ZV’en. • Ungleichungen in der Wahrscheinlichkeitstheorie. – Markov-Ungleichung. Sei f : [0, ∞) → [0, ∞) monoton wach- send mit f (x) > 0 für x > 0. Dann gilt: E[f (|X|)] , ǫ > 0. P[|X| ≥ ǫ] ≤ f (ǫ) E[X 2] – Čebyšev-Ungleichung: P[|X| ≥ ǫ] ≤ , ǫ > 0. ǫ2 • Satz. Xk , k ∈ N, Folge von unkorrelierten, reellwertigen Zufallsvariablen in L2(Ω, F, P) mit supk∈N Var(Xk ) < ∞ und E[Xk ] = µ, k ∈ N. # " N 1 X N →∞ Xk − µ ≥ ǫ → 0 (schwaches GGZ). =⇒ P N k=1 • Hinweis: Unter obigen Bedingungen gilt auch das starke GGZ. • Konvergenzbegriffe in der Wahrscheinlichkeitstheorie. – Stochastische Konvergenz (Konv. in Wahrscheinlichkeit). n→∞ P[|Xn − X| > ǫ] → 0, ǫ > 0 Anwendung: Schwaches GGZ. P ⇐⇒: Xn → X. 8. Bedingte Wahrscheinlichkeiten – Fast-sichere Konvergenz. P[limn→∞ Xn = X] = 1 Anwendung: Starkes GGZ. d limn→∞ E[h(Xn)] = E[h(X)], h ∈ Cb(R) ⇐⇒: Xn → X. Anwendung: Zentraler Grenzwertsatz. – Satz. Äquivalente Aussagen: d (1) Xn → X. (2) limn→∞ FXn (y) = FX (y), y ∈ R, FX stetig in y. (3) limn→∞ ψXn (y) = ψX (y), y ∈ R. (FY Verteilungsfunktion, ψY mit ψY (z) = E[exp(izY )] charakteristische Funktion einer Zufallsvariablen Y ) f.s. P d – Satz. Xn → X =⇒ Xn → X =⇒ Xn → X. • Anwendungen des schwachen Gesetzes der großen Zahlen. – Monte Carlo Integration. h : [0, 1] → R meßbar, beschränkt. P P R1 h(X ) → =⇒ (1/N ) N k k=1 0 dx h(x) (X1, X2, . . . unabhängig, gleichverteilt auf [0, 1]) – Weierstraß’scher Approximationssatz. f : [0, 1] → R stetig, P Bernstein-Polynome: fN (p) = E[f ((1/N ) N Xnp)] n=1 P N k N −k = N . k=0 f (k/N ) k p (1 − p) p p (X1 , X2 , . . . unabh. Würfe einer Münze mit Erfolgsw’keit p) =⇒ limN →∞ supp∈[0,1] |fN (p) − f (p)| = 0. f.s. ⇐⇒: Xn → X. P[A|B] Wahrscheinlichkeit für A unter der Bedingung, daß B eingetreten ist. • P[A|B] 6= P[A], falls A und B nicht unabhängig sind. 23 24 Zusammenfassung (17. Januar 2007) Zusammenfassung (19. Januar 2007) • (Ω, F, P) ein Wahrscheinlichkeitsraum, B ∈ F mit P[B] > 0. Bedingte Wahrscheinlichkeit P[ . |B] ist W’maß auf (Ω, F) mit P[A ∩ B] P[A|B] = , A ∈ F. P[B] (Bestätigung durch ein Beispiel und durch allgem. Überlegung) • Rechenregeln. • S Ω = j∈I Bj abzählbare Zerlegung von Ω. P[Bj ] > 0, j ∈ I. – Fallunterscheidungsformel. P P[A] = j∈I P[Bj ]P[A|Bj ], A ∈ F. – Formel von Bayes. P[Bk ]P[A|Bk ] P[Bk ]P[A|Bk ] =P P[Bk |A] = , P[A] P[B ]P[A|B ] j j j∈I k ∈ I, A ∈ F, P[A] > 0. • Anwendung: Bewertung eines medizin. Diagnoseverfahrens. • Markovketten. Ein stochastischer Prozeß X = (Xn)n∈N0 mit ′ , X = s | X = s , . . . , X = s P X = s n n 0 0 n−1 n−1 n+k | {z } | {z } | {z } Gegenwart Vergangenheit Zukunft = P Xn+k = s′|Xn = sn , n, k ∈ N0, s0, s1, . . . , sn , s′ ∈ S. heißt Markovkette. (Bei Kenntnis der Gegenwart enthält die Vergangenheit keine Information zur Vorhersage der Zukunft.) – Übergangsw’keiten: Pn(s, s′) = P Xn+1 = s′|Xn = s . Übergangsmatrizen: Pn = (Pn(s, s′))s,s′∈S . Stationäre Übergangsw’keiten: Pn unabhängig von n. – Beispiele: Bernoulli-Prozeß, Irrfahrt. • Markovketten. – Übergangsw’keit: P (s, s′) = P Xn+1 = s′|Xn = s , s, s′ ∈ S. P – Verallg. Irrfahrt: X = (Xn)n∈N0 mit Xn = nk=1 ζk , n ∈ N0, wobei ζk , k ∈ N, i.i.d. (unabh. identisch verteilt), Zd-wertig. – Verteilung einer M.K. X ist bestimmt durch PX0 und P : P[X0 = s0, ..., Xn = sn] = PX0 [{s0 }]P (s0, s1 )...P (sn−1, sn). – n-Schritt-Übergangswahrscheinlichkeiten: P n(s, s′) = P[Xn+m = s′|Xm = s], n ∈ N0, unabh. von m. – Chapman-Kolmogorov-Gleichung: P P k+l (s1, s2 ) = s∈S P k (s1, s)P l (s, s2), k, l ∈ N0, s1, s2 ∈ S. – (µs)s∈S linker Eigenvektor von P zum Eigenwert 1 mit µs ≥ 0, P s∈S µs = 1. =⇒ (µs )s∈S ist invariante Verteilung von X. • Modellbildung mit Markovketten. – Ehrenfestsches Modell: Diffusion durch eine Membran. – Ein Warteschlangenmodell: Xn+1 = (Xn − 1)+ + ζn, n ∈ N0; ζn, n ∈ N0, i.i.d. (Anzahl der ankommenden Kunden). – Ein Verzweigungsprozeß (Galton-Watson-Prozeß): P n l l Xn+1 = X l=1ζn ; ζn , n ∈ N0 , l ∈ N, i.i.d. (Anz.d.Nachkommen). 9. Zentraler Grenzwertsatz • Ziel: Präzisierung des GGZ für i.i.d. ZV’en in L2(Ω, F, P) mit pos. Varianz. Charakterisierung der Konvergenzgeschwindigkeit. p d P N/Var(X1) N1 N k=1 Xk − E[X1] → X mit PX = N(0, 1). • Vorgehensweise: − Spezialfall. Bernoulli-verteilte ZV’en (Elementare Methode). − Allgemeiner Fall (Charakteristische Funktionen). n→∞ √ n 2πn(n/e) als Hilfsmittel. • Stirling Formel n! ∼ 25 26 Zusammenfassung (24. Januar 2007) Zusammenfassung (26. Januar 2007) • Abschätzung der Konvergenzgeschwindigkeit beim GGZ. Xn, n ∈ N, i.i.d., {0, 1}-wertig, P[X n = 0] = P[Xn = 1] = 1/2. # " √ N 1, falls αN N → ∞, 1 X 1 N →∞ Xk − ≤ αN → P √ N 2 0, falls αN N → 0. k=1 √ P X − 1/2 wird nichttrivialer Konsequenz: Für N N1 N k k=1 Limes“ erwartet. ” • Normalapproximation der Binomialverteilung B(N, 1/2). Standardisierte Summenvariable: √ P X − 1/2 ; E[FN ] = 0, Var(FN ) = 1. FN = 4N N1 N k k=1 Für k = 0, 1, . . . , N sei k xN (k) 1 2 N ; 1+ √ xN (k) = √ = k− . 2 N 2 N N Es gilt: N N 1 P[FN = xN (k)] = 2 k s N −k N k N 1 N 1 N N →∞ ∼ √ N −k 2 2π k(N − k) | k {z } | {z } = b(N, k) = a(N, k) mit 1 1 N →∞ N , − log b(N, k) = xN (k)2 +O(N −1/2), ∼ a(N, k)2 4 2 gleichmäßig für alle k mit |xN (k)| ≤ c, c > 0. • Satz. (Lokale Normalapproximation der Binomialverteilung) p ∈ (0, 1); B(N, p)[{k}] = Nk pk (1 − p)N −k , k = 0, 1, ..., N . Es gilt: exp(−x (k)2/2)/√2π N −1 = 0, c > 0, (∗) lim sup p N →∞ {k:|x (k)|≤c} N p(1−p)B(N, p)[{k}] N p wobei xN (k) = (k − N p)/ N p(1 − p), k = 0, 1, ..., N . • Interpretation. – Histogramm der Binomialverteilung B(N, p): N pk (1 − p)N −k , falls x ∈ [k − 1 , k + 1 ), k 2 2 ∗ fN (x) = 0, falls x < − 21 oder x ≥ N + 21 . – Reskaliertes Histogramm von B(N, p): p p fN (x) = N p(1 − p)fN∗ ( N p(1 − p)x + N p), x ∈ R, p d.h., N p(1−p)B(N, p)[{k}] = fN (xN (k)). – (∗) beschreibt lokal gleichmäßige Konvergenz von fN gegen die Dichte der standard Normalverteilung N(0, 1). • Korollar. (ZGWS für ZV’en mit Bernoulli-Verteilung) Xn, n ∈ N, i.i.d. ZV’en mit Bernoulli-Verteilung zu p ∈ (0, 1). Es gilt: "s ! # N X N 1 lim P Xk − p ∈ (a, b] N →∞ p(1 − p) N k=1 Z b x2 1 , −∞ < a < b < ∞. dx exp − =√ 2 2π a 27 Zusammenfassung (31. Januar 2007) • Eigenschaften charakteristischer Funktionen. R ψX (z) = E[exp(izX)] = R PX (dx) exp(izx), z ∈ R. a) X, Y unabhängig =⇒ ψX+Y = ψX · ψY . b) E[|X|2] < ∞ =⇒ ψX ∈ Cb2(R), ψX (z) = 1 + izE[X] − z 2E[X 2]/2 + o(|z|2), bei |z| → 0. c) a, b ∈ R =⇒ ψaX+b (z) = exp(izb)ψX (az), z ∈ R. d) PX = N(0, 1) =⇒ ψX (z) = exp(−z 2/2), z ∈ R. e) ψX = ψY =⇒ PX = PY . (Eindeutigkeit der charakteristischen Funktionen) • Zentraler Grenzwertsatz. Xn, n ∈ N, i.i.d. reellwertige ZV’en. E[X1] = µ, Var(X1) = σ 2 ∈ (0, ∞). Es gilt: ! r N N 1 X d X − µ → X mit PX = N(0, 1). k σ2 N k=1 • Ergänzungen zum Zentralen Grenzwertsatz. Xn, n ∈ N, i.i.d. ZV’en mit E[X1] = 0, Var(X1) ∈ (0, ∞), . . . p P FN Verteilungsfunktion von SN∗ = (1/ N Var(X1)) N k=1 Xk , Φ Verteilungsfunktion von N(0, 1). – Satz von Berry-Esseen: supx∈R |FN (x) − Φ(x)| ≤ CN −1/2, N ∈ N. – Gesetz vom Iterierten Logarithmus: p lim supN →∞ SN∗ / 2 log(log N ) = 1, f.s. – Große Abweichungen: 1 − FN (aN ) = 1, falls aN = o(N 1/6) bei N → ∞. lim N →∞ 1 − Φ(aN )