Elementare Wahrscheinlichkeitstheorie und Mathematische Statistik Prof. Dr. Karl-Heinz Fichtner WS 2004/05 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts „Vorlesungsskripte der Fakultät für Mathematik und Informatik“ weiter betreut. Das Dokument wurde nach bestem Wissen und Gewissen angefertigt. Dennoch garantiert weder der auf der Titelseite genannte Dozent, die Personen, die an dem Dokument mitgewirkt haben, noch die Mitglieder des Projekts für dessen Fehlerfreiheit. Für etwaige Fehler und dessen Folgen wird von keiner der genannten Personen eine Haftung übernommen. Es steht jeder Person frei, dieses Dokument zu lesen, zu verändern oder auf anderen Medien verfügbar zu machen, solange ein Verweis auf die Internetadresse des Projekts http: // uni-skripte. lug-jena. de/ enthalten ist. Diese Ausgabe trägt die Versionsnummer 2572 und ist vom 4. Dezember 2009. Eine neue Ausgabe könnte auf der Webseite des Projekts verfügbar sein. Jeder ist dazu aufgerufen, Verbesserungen, Erweiterungen und Fehlerkorrekturen für das Skript einzureichen bzw. zu melden oder diese selbst einzupflegen – einfach eine E-Mail an die Mailingliste <[email protected]> senden. Weitere Informationen sind unter der oben genannten Internetadresse verfügbar. Hiermit möchten wir allen Personen, die an diesem Skript mitgewirkt haben, vielmals danken: • Jens Kubieziel <[email protected]> (2004–2007) • Kim Muckelbauer <[email protected]> (2007) • Carolin Rabsahl (2007) • Mario Ullrich <[email protected]> (2007) 3 Inhaltsverzeichnis 1. Maß- und allgemeine Integrationstheorie 1.1. Einführung in die Maßtheorie . . . . . . . . . . . . . . . . 1.1.1. Das Grundmodell der Wahrscheinlichkeitsrechnung 1.1.2. Mathematisches Modell für zufällige Vorgänge . . 1.1.3. Eigenschaften von F . . . . . . . . . . . . . . . . . 1.1.4. Eigenschaften von P (A) . . . . . . . . . . . . . . . 1.2. σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Maße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Produkte von Maßräumen . . . . . . . . . . . . . . . . . . 1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 . 7 . 7 . 8 . 8 . 9 . 9 . 12 . 15 . 18 2. Integrationstheorie 2.1. Messbare Funktionen (Abbildungen) 2.2. Einführung des Integrals . . . . . . . 2.3. Absolute Stetigkeit von Maßen . . . 2.4. Der Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 29 36 39 3. Wahrscheinlichkeitsräume 3.1. Der klassische Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . 3.2. Das Bernoullischema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Der Poissonsche Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . 3.4. Ein kontinuierliches Analogon des klassischen Wahrscheinlichkeitsraumes . . . . 41 41 44 46 47 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Bedingte Wahrscheinlichkeit und Unabhängigkeit 48 4.1. Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.2. Lebensdauerverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3. Unabhängigkeit von Ereignissen . . . . . . . . . . . . . . . . . . . . . . . . 52 5. Zufallsgrößen 5.1. Zufallsvariablen . . . . . . . . . . . . . . . . 5.2. Unabhängige Zufallsgrößen . . . . . . . . . 5.3. Summen unabhängiger Zufallsgrößen . . . . 5.4. Der Erwartungswert . . . . . . . . . . . . . 5.5. Die Varianz . . . . . . . . . . . . . . . . . . 5.6. Die Tschebyscheffsche Ungleichung . . . . . 5.7. Konvergenzarten und das Gesetz der großen 4 . . . . . . . . . . . . . . . . . . . . . . . . Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 55 57 59 62 66 69 71 Inhaltsverzeichnis A. Übungsaufgaben 75 5 Auflistung der Theoreme Sätze Satz 1.3.3.elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Satz 1.4.4.Folgerung aus Satz 1.4.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Satz 2.1.1.Elementare Eigenschaften des Urbilds . . . . . . . . . . . . . . . . . . . 23 Satz 2.2.1.Integral bezüglich diskreter Maße . . . . . . . . . . . . . . . . . . . . . . 31 Satz 2.2.2.Riemannintegral stetiger Funktionen . . . . . . . . . . . . . . . . . . . 32 Satz 2.2.3.Übertragungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Satz 2.4.1.Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Satz 3.3.1.Poissonsche Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Satz 4.1.1.Elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Satz 4.1.2.Formel bzw. Satz über die totale Wahrscheinlichkeit . . . . . . . . . . . 49 Satz 4.1.3.Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Satz 5.3.2.Verallgemeinerung von Satz 5.3.1 . . . . . . . . . . . . . . . . . . . . . . 60 Satz 5.4.5.Elementare Eigenschaften des Erwartungswerts . . . . . . . . . . . . . . 64 Satz 5.5.1.Elementare Eigenschaften der Varianz . . . . . . . . . . . . . . . . . . . 66 Satz 5.6.1.Markoffsche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Satz 5.6.2.Tschebyscheffsche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . 69 Satz 5.7.1.Schwaches Gesetz der großen Zahlen nach Tschebyscheff . . . . . . . . . 72 Satz 5.7.6.Starkes Gesetz der großen Zahlen nach Kolmogoroff . . . . . . . . . . . . 73 Satz 5.7.7.Spezialfall des Satz von Weierstraß . . . . . . . . . . . . . . . . . . . . . 73 Definitionen und Festlegungen 6 1. Maß- und allgemeine Integrationstheorie Diese Vorlesung gliedert sich im wesentlichen in drei Teile. Dazu gehört dieses Kapitel und im späteren Verlauf dann die Wahrscheinlichkeitstheorie. Später wird dann auch auf die Stochastik eingegangen. Die Maßtheorie stellte früher eine eigenständige 2+4-Vorlesung dar. Für Wirtschaftsmathematiker ist diese jedoch gekürzt. Hauptsächlich werden längere Beweise zu Sätzen nicht geführt. Diese können in der Lektüre nachvollzogen werden. 1.1. Einführung in die Maßtheorie Die Maßtheorie stellt eine Verallgemeinerung einiger elementargeometrischer Begriffe dar und ermöglicht es, auch komplizierten Mengen ein Maß zuzuordnen. Dabei sollte man diese deutlich von der Messtheorie in der Physik unterscheiden. Wir betrachten hier zunächst allgemeine Maße und beschränken uns dann im späteren Verlauf auf Wahrscheinlichkeitsmaße. 1.1.1. Das Grundmodell der Wahrscheinlichkeitsrechnung Die Wurzeln der Wahrscheinlichkeitsrechnung liegen zu Zeiten des 30-jährigen Krieges. In den Gefechtspausen veranstalteten die Offiziere oft Glücksspiele. Diese haben naturgemäß einen zufälligen Ausgang und einige Spieler machten sich Gedanken über den Verlauf und wie der Ausgang beeinflusst werden kann. Hiervon stammen einige der ersten praktischen Überlegungen zu dem Themengebiet. Ein Breifwechsel zwischen Blaise Pascal und Pierre de Fermat aus dem Jahr 1654 wird gemeinhin als Geburtstunde der Wahrscheinlichkeitsrechnung angesehen. Die ersten Veröffentlichungen zur Wahrscheinlichkeitsrechnung enthielten noch keine Formeln. Stattdessen wurden die Rechenschritte in langen Beschreibungen erklärt. Dies hatte den Vorteil, dass man es langsam lesen musste und es dadurch auch besser verstand. Der Mathematiker David Hilbert stellte am 08. August 1900 eine Liste von 23 bis dahin ungelösten Problemen der Mathematik auf. Dabei formulierte Hilbert als sechstes Problem die Frage, wie die Wahrscheinlichkeitstheorie und die Mechanik axiomatisiert werden kann. Mittlerweile hat man diese Fragestellung auf die gesamte Physik erweitert. 7 1. Maß- und allgemeine Integrationstheorie Der russische Mathematiker Andrei Nikolajewitsch Kolmogorow schafft im Jahre 1933 die Axiomatisierung. Seine Axiome werden auch Gegenstand dieser Vorlesung sein. Unser Anliegen ist es zunächst, ein mathematisches Modell zur Beschreibung zufälliger Erscheinungen zu Formen. Als Beispiele dienen uns Münze und Würfel sowie auch Messungen. 1.1.2. Mathematisches Modell für zufällige Vorgänge Das mathematische Modell besteht aus den drei Faktoren: [Ω, F, P ]. Diese haben folgende Bedeutung: 1) Raum der Elementarereignisse - Ω Dies ist eine nichtleere Menge (Ω 6= ∅), die mögliche Versuchsausgänge klassifiziert. Beispiel: Würfel → Ω = {1, 2, 3, 4, 5, 6}, Messung → M ⊆ R, Münzwurf → Ω = {W, Z} = {0, 1} 2) System der Ereignisse - F ∈ P(Ω) Die Menge F beinhaltet zulässige Aussagen über das Versuchsergebnis und es gilt F ⊆ 2Ω ∗ Beispiel: Würfel → A = {2, 4, 6} ⊆ Ω entspricht der Aussage „Ich würfle eine gerade Zahl.“ 3) Eintrittswahrscheinlichkeit - P P ist eine Abbildung P : F → [0, 1] und P (A) bezeichnet die Wahrscheinlichkeit mit der das Ereignis A ∈ F eintritt. Beispiel: Würfel → Ω = {1, 2, 3, 4, 5, 6}, A = {2, 4, 6}, P (A) = 1/2, P ({k}) = 16 , k = 1, . . . , 6 Welche sinnvollen Forderungen sollte man nun an Ω, F, P stellen? Daraus ergibt sich der Aufbau der Axiomatik. 1.1.3. Eigenschaften von F • Grundidee: Logische Operatoren werden zu entsprechenden mengentheoretischen Operatoren: A1 ∨ A2 ↔ A1 ∪ A2 , ¬A ↔ Ac† • F= 6 ∅ • ∀A1 , A2 ∈ F(A1 ∪ A2 ∈ F ∧ A1 ∩ A2 ∈ F) S∞ • ∀A1 , A2 , . . . ∈ F( • ∀A ∈ F(Ac ∈ F) ∗ † 8 k=1 Ak ∈ F) Die Potenzmenge wird auch mit P bezeichnet. Damit gilt hier: F ⊆ P(Ω) Komplement 1.2. σ-Algebra 1.1.4. Eigenschaften von P (A) n→∞ von A −−−→= : P (A). Man • Beispiel: n-mal Würfeln: hn (A) = Anzahl des Eintretens n bezeichnet hn (A) als relative Häufigkeit des Eintretens. • 0 ≤ hn (A) ≤ 1 ⇒ 0 ≤ P (A) ≤ 1 • hn (Ω) = 1 = P (Ω) • A ∩ B = ∅ ⇒ hn (A ∪ B) = hn (A) + hn (B) ⇒ P (A ∪ B) = P (A) + P (B) S∞ • A1 , A2 , . . . ∈ F ∧ Aj ∩ AK = ∅(k 6= j) ⇒ P ( k=1 Ak ) = P∞ k=1 P (Ak ) 1.2. σ-Algebra Im folgenden gilt immer: • Ω 6= ∅ • P(Ω) - Potenzmenge • F ⊆ P(Ω) Definition Die Menge F heißt Algebra, wenn gilt: (1) ∅ ∈ F (2) A ∈ F ⇒ Ac ∈ F (3) A, B ∈ F ⇒ A ∪ B ∈ F F heißt σ-Algebra, wenn die Punkte (1) und (2) gelten und zusätzlich S (3’) A1 , A2 , . . . ∈ F ⇒ Ak ∈ F gilt. Satz 1.2.1 Jede σ-Algebra ist eine Algebra. Beweis: Zum Beweis genügt es zu zeigen, dass eine beliebige σ-Algebra F den Punkt (3) der Definition erfüllt. Denn die ersten beiden Eigenschaften teilen Algebra und σ-Algebra. Es gelten die Eigenschaften (1), (2) und (3’). Man setzt nun A1 = A, A2 = B, An = S ∅(n = 3, 4, . . .). Dann gilt A1 , A2 , . . . ∈ F ⇒ Ak Bemerkung • Die Umkehrung von Satz 1.2.1 ist in der Regel falsch, d. h. es gibt Algebren, die keine σ-Algebra sind. Das klassiche Beispiel hierfür ist: Ω = N; F : = {A ⊆ N|A endlich oderAc endlich} Eigenschaften: 9 1. Maß- und allgemeine Integrationstheorie (1) klar (2) Sei A ∈ F. Dann ist zu zeigen, dass entweder Ac ∈ F oder (Ac )c endlich ist. Falls Ac endlich, ist nichts weiter zu zeigen. Wenn A endlich ist, dann ist nichts zu Ac ausgesagt. Allerdings ist (Ac )c = A. Somit gilt auch Eigenschaft 2. (3) Für A, B ∈ F ist zu zeigen, dass (A ∪ B) endlich bzw. (A ∪ B)c ∈ F endlich sind. 1. Fall A, B endlich ⇒ A ∪ B endlich 2. Fall Ac , B c endlich ⇒ Ac ∩ B c ⊆ Ac endlich ⇒ (A ∪ B)c endlich ⇒ A ∪ B ∈ F 3. Fall A, B c endlich ⇒ Ac ∩ B c ⊆ B c endlich ⇒ (A ∪ B)c endlich ⇒ A ∪ B ∈ F 4. Fall Ac , B endlich ⇒ Ac ∩ B c ⊆ Ac endlich ⇒ (A ∪ B)c endlich ⇒ A ∪ B ∈ F • Jede endliche Algebra ist eine σ-Algebra. • Jede σ-Algebra ist bezüglich der (symmetrischen) Differenz abgeschlossen. Satz 1.2.2 Sei F eine Algebra über Ω. Dann ist Ω ∈ F und für alle Folgen A1 , . . . , An ∈ F(n ∈ N) gelten: a) b) Sn k=1 Ak Tn k=1 Ak ∈F ∈F Beweis: • Ω ist ein Element von F. Denn nach (1) gilt ∅ ∈ F und nach (2) folgt ∅c = Ω ∈ F. zu a) Nach Eigenschaft (3) gilt der Punkt a) für n = 2. Also haben wir A1 , A2 ∈ F ⇒ S A1 ∪ A2 ∈ F. Nun gelte: nk=1 Ak ∈ F(A1 , . . . , An ∈ F). Im Induktionsschritt Sn+1 Sn S können wir zeigen: A1 , . . . , An+1 ∈ F( n+1 k=1 Ak = k=1 Ak ∪ An+1 ) ⇒ k=1 An+1 ∈ F zu b) Nach Eigenschaft (3) kann folgender Schluss gezogen werden A1 , . . . , An ∈ F ⇒ S Ac1 , . . . , Acn ∈ F ⇒ nk=1 Ack ∈ F. Nach den deMorganschen Regeln bedeutet dies: T Sn ( k=1 Ack )c ⇒ nk=1 Ak ∈ F Satz 1.2.3 Sei F eine σ-Algebra. Dann gilt ∞ \ k=1 Ak ∈ F (Beweis wie in Satz 1.2.2 mit n = ∞) 10 A1 , A2 , . . . ∈ F 1.2. σ-Algebra Bemerkung Eine σ-Algebra ist i. A. nicht gegenüber überabzählbarer Vereinigung bzw. Durchschnitt abgeschlossen. Beispiel 1. Die „kleinste“ Algebra/σ-Algebra ist F = {∅, Ω}. 2. Die „größte“ σ-Algebra ist F = P(Ω). 3. Sei ∅ ⊂ A ⊂ Ω, F = {∅, Ω, A, Ac }. Der Nachweis, dass dies eine σ-Algebra ist, lässt sich leicht führen. Satz 1.2.4 T Sei (Fi )i∈I eine Familie von σ-Algebren. Dann ist i∈I Fi eine σ-Algebra. Beweis: T Sei i∈I Fi ⊆ P(Ω). zu (1) Für i ∈ I gilt, dass ∅ ∈ Fi ⇒ ∅ ∈ T T i∈I Fi zu (2) Sei A ∈ i∈I Fi . Es ist zu zeigen, dass Ac ∈ T A ∈ Fi ⇒ Ac ∈ Fi ⇒ Ac ∈ i∈I Fi zu (3’) Sei A1 , A2 , . . . ∈ T i∈I Fi T i∈I T i∈I ∈ Fi : Fi ⇒ Ak ∈ Fi (k = 1, 2, . . .) ⇒ S∞ k=1 Ak ∈ Fi ⇒ S∞ k=1 Ak ∈ Definition Sei E ⊆ P(Ω) und F eine σ-Algebra. σ(E) : = \ E⊆F F heisst die von E erzeugte σ-Algebra. Gilt für eine σ-Algebra B die Beziehung B = σ(E) so heißt E Erzeugendensystem von B. Bemerkung 1. Aus Satz 1.2.4 folgt σ(E) ist eine σ-Algebra. Gleiche Konstruktion ist auch für alle Algebren möglich. 2. E1 ⊆ E2 ⇒ σ(E1 ) ⊆ σ(E2 ) 3. Sei E ⊆ B und B eine σ-Algebra. Dann folgt, σ(E) ⊆ B Beispiel σ({∅}) = {∅, Ω} σ({A}) = {∅, Ω, A, Ac } (∅ ⊂ A ⊂ Ω) 11 1. Maß- und allgemeine Integrationstheorie Definition Sei Ω = M ein metrischer Raum. Wir setzen E = {A ⊆ M : A offen}. Dann heißt σ(E) die σ-Algebra der Borelmengen aus M , Bn ist die σ-Algebra der Borelmengen in Rn und B ist die σ-Algebra der Borelmengen in R. Satz 1.2.5 Jedes der folgenden Mengensysteme von Intervallen ist ein Erzeugendensystem für B (Es gilt: E1 , . . . , E8 sind abzählbar.): E1 : = {(α, β)|α, β ∈ R und rational} E2 : = {[α, β)|α, β ∈ R und rational} E3 : = {(α, β]|α, β ∈ R und rational} E4 : = {[α, β]|α, β ∈ R und rational} E5 : = {(−∞, β)|β ∈ R und rational} E6 : = {(−∞, β]|β ∈ R und rational} E7 : = {(α, ∞)|α ∈ R und rational} E8 : = {[α, ∞)|α ∈ R und rational} Beweis: zu E1 Sei E1 ⊆ E = {A ⊆ R|A offen} ⇒ B = σ(E). Nach der Definition gilt E1 ⊆ E ⇒ σ(E1 ) ⊆ σ(E) = B. Damit ist noch zu zeigen, dass B ⊆ σ(E1 ). Sei A ∈ E. Setzen S Kr (x) = (x − r, x + r) ⇒ A = Kr (x)⊆A Kr (x) Kr (x) ∈ E1 ⊆ σ(E1 ) ⇒ A ∈ σ(E1 ) ⇒ E ⊆ σ(E1 ) ⇒ σ(E) = B ⊆ σ(σ(E1 )) = σ(E1 ) 1.3. Maße Im folgenden gilt immer: Ω 6= ∅ und F ist eine σ-Algebra über Ω. Definition • Das Tupel [Ω, F] heißt messbarer Raum. • Eine nichtnegative Funktion µ : F → [0, +∞] auf F heißt Maß (auf [Ω, F]), wenn gilt 1. µ(∅) = 0 2. Für paarweise disjunkte Folgen (Ak )∞ k=1 aus F gilt: µ ∞ [ Ak k=1 • Das Tripel [Ω, F, µ] heißt Maßraum. Beispiel (1) Nullmaß O : O(A) = 0 für A ∈ F 12 ! = ∞ X k=1 µ(Ak ) 1.3. Maße ( 1 0 (2) Dirac-Maß: Sei ω ∈ Ω. Setzen δω (A) = ω∈A ω∈ /A (3) Sei Ω abzählbar und F = P(Ω). Dann ist das Zählmaß µ(A) : = #(A) die Anzahl der Teilmengen A aus Ω. Satz 1.3.1 Sei (µi )i∈I eine abzählbare Familie von Maßen auf [Ω, F] und (αi )i∈I eine Familie nichtnegativer reller Zahlen. Durch µ(A) : = X i∈I αi µi (A) (A ∈ F) ist ein Maß auf [Ω, F] definiert.‡ Beweis: Diese Funktion ist nichtnegativ, da alle αi nichtnegativ sind und die µi (A) per Definition ebenfalls positiv sind. Die Summenbildung ändert nichts. zu 1) µ(∅) = P∞ k=1 αi µi (∅) = 0. Denn µi (∅) = 0. zu 2) Seien (Ak )∞ k=1 paarweise disjunkt aus F. µ( ∞ [ Ak ) = k=1 = X αi µi i∈I ∞ X ∞ [ Ak k=1 X αi µi (Ak ) = k=1 i∈I | ! = X i∈I ∞ X αi ∞ X µi (Ak ) k=1 µ(Ak ) k=1 {z µ(Ak ) } Im letzten Schluss musste der große Umordnungssatz angewendet werden. Beispiel P Sei Ω = N und F = P(N). Dann kann man das Maß wie folgt definieren: µ = ∞ k=1 αk δk . Satz 1.3.2 Sei µ ein Maß auf [Ω, F]. Für alle Folgen A1 , . . . , An ∈ F, die paarweise disjunkt sind, gilt: ! µ n [ k=1 Ak = n X µ(Ak ) k=1 Diese Eigenschaft heißt endliche Additivität. ( Beweis: Ak Wir setzen Bk : = ∅ ‡ Schreibweise: µ = P i∈I k = 1, . . . , n . Damit ist folgendes bekannt: k>n αi µi 13 1. Maß- und allgemeine Integrationstheorie 1. ∀k ∈ N(Bk ∈ F) 2. S∞ k=1 Bk = Sn k=1 Ak 3. Ai ∩ Aj = Ai ∩ Bj = ∅ für i 6= j todo: stimmen die Indizes? 4. µ(Ak ) = µ(Bk ) für k = 1, . . . , n 5. µ(Bk ) = 0 für (k > n) Sn Damit folgt nun: µ( Pn k=1 µ(Ak ) k=1 Ak ) (2) S∞ = µ( k=1 Bk ) (1),(3) = P∞ k=1 µ(Bk ) (5) = Pn k=1 µ(Bk ) (4) = Bemerkung 1. Für n = ∞ im Satz 1.3.2 wird die Additivität als σ-Additivität bezeichnet. 2. Satz 1.3.2 impliziert, dass aus der σ-Additivität die endliche Additivität folgt. Die Umkehrung ist jedoch falsch. Sn 3. Subadditivität: Für alle A1 , . . . , An ∈ F gilt: µ( Beweis wird per Induktion geführt. k=1 Ak ) ≤ Pn k=1 µ(Ak ). Der ( Beispiel 0 A<∞ . Sei weiter Sei Ω = N, F = P(N) und das Maß ist definiert: µ(A) = +∞ A = ∞ Pn Sn Ak = {2k}. Dann gilt µ( k=1 Ak ) = k=1 µ(Ak ) = 0. Denn auch die Vereinigung ist wieder endlich. Wenn wir zur unendlichen Vereinigung übergehen, ändert sich die Situation. Die Menge, die durch die Vereinigung entsteht, ist die Menge der geraden P S 6 0= ∞ Zahlen. Diese ist unendlich als gilt: µ( ∞ k=1 Ak . k=1 Ak ) = +∞ = Satz 1.3.3 (elementare Eigenschaften) Sei [Ω, F, µ] ein Maßraum und A, B ∈ F. Dann gilt: (a) µ(A ∪ B) ≤ µ(A) + µ(B) (b) A ⊆ B ⇒ µ(A) ≤ µ(B) (Monotonie des Maßes) (c) A ⊆ B, µ endlich ⇒ µ(B \ A) = µ(B) − µ(A) Beweis: Satz 1.3.2 zu (b) und (c) A ⊆ B ⇒ B = A ∪ (B \ A) ⇒ µ(B) = µ(A ∪ (B \ A)) = µ(A) + µ(B \ A) Wir haben µ(B \ A) ≥ 0 ⇒ µ(A) ≤ µ(B) und Teil (b) ist gezeigt. Durch Umstellen erhält man µ(B \ A) = µ(B) − µ(A). Hierzu muss µ(A) < +∞ sein. zu (a) Wie oben haben wir: A ∪ B = A ∪ (B \ A) ⇒ µ(A ∪ B) = µ(A ∪ (B \ A)) = µ(A) + µ(B \ A). (b) Es gilt: B \ A ⊆ B ⇒ µ(B \ A) ≤ µ(B) ⇒ µ(A ∪ B) − µ(A) ≤ µ(B) ⇒ µ(A ∪ B) ≤ µ(A) + µ(B) 14 1.4. Produkte von Maßräumen Satz 1.3.4 Seien µ ein endliches Maß (µ(Ω) < +∞) und (An )∞ n=1 eine Folge aus F. Dann gelten: (a) (Stetigkeit von unten): Ist (An )∞ n=1 monoton wachsend, so gilt: µ ∞ [ An n=1 ! = lim µ(An ) n→∞ (b) (Stetigkeit von oben): Ist (An )∞ n=1 monoton fallend, so gilt: µ ∞ \ n=1 An ! = lim µ(An ) n→∞ Beweis: zu a) Für den Beweis ist die Forderung µ < ∞ nicht notwendig. Setzen B1 : = A1 , Bn+1 = An+1 \ An . Damit gelten folgende Tatsachen: 1. Alle Bk sind paarweise disjunkt. 2. Bk ∈ F 3. 4. S∞ k=1 Ak S∞ k=1 Bk = S∞ k=1 Bk = An 3 S S 1,2 ∞ Somit folgt: µ( ∞ k=1 Ak ) = µ( k=1 Bk ) = Sn 4. limn→∞ µ( k=1 Bk ) = limn→∞ µ(An ) P∞ k=1 µ(Bk ) = limn→∞ Pn k=1 µ(Bk ) 1 = zu b) An ⊇ An+1 ⇒ Acn ⊆ Acn+1 , d. h. die Folge der Komplemente ist monoton wachsend. S c c Nach (a) gilt nun: µ( ∞ n=1 An ) = limn→∞ µ(An ) S T T Satz 1.3.3 c T ∞ ∞ c c = µ(Ω) − µ( An ) µ( ∞ n=1 An ) = µ(( n=1 An ) ) = µ(Ω \ ( n=1 An )) µ(Acn ) = µ(Ω \ An ) = µ(Ω) − µ(An ) ⇒ limn→∞ µ(An ). In der Literatur werden z. T. schwächere Forderungen angesetzt. 1.4. Produkte von Maßräumen Im folgenden gilt immer: [Ω1 , F1 , µ1 ], . . . , [Ωn , Fn , µn ] eine Folge von Maßräumen. Wir betrachten direkte Produkte von Mengen: ×ni=1 Ai : = {[w1 , . . . , wn ]|wi ∈ Ai (i = 1, . . . , n)}. Das Ziel ist es, einen Maßraum mit der Grundmenge Ω = ×ni=1 Ωi zu bauen. Definition • Die Menge ⊗ni=1 Fi : = σ({×ni=1 Ai |Ai ∈ Fi (i = 1, . . . , n)}) heißt Produkt der σ-Algebren F1 , . . . , Fn . 15 1. Maß- und allgemeine Integrationstheorie • Die Menge ×ni=1 [Ωi , Fi ] : = [×ni=1 Ωi , ⊗ni=1 Fi ] heißt Produkt der messbaren Räume [Ω1 , F1 , . . . , Ωn , Fn ]. Bemerkung 1. Das Produkt der σ-Algebren ⊗Fi ist eine σ-Algebra auf ×ni=1 Ωi . 2. Für n = 2 nutzen wir die Schreibweise Ω1 × Ω2 , F1 ⊗ F2 . Beispiel 1. Fi = {∅, Ωi } ⇒ ⊗ni=1 Fi = {∅, ×ni=1 Ωi } 2. Sei Ω1 bis Ωn abzählbar: Fi = P(Ωi ) ⇒ ⊗ni=1 Fi = P(×ni=1 Ωi ). Denn wegen der Abzählbarkeit der Ωi gilt, dass auch ×ni=1 Ωi abzählbar sind. Diese sind eine S Obermenge von A = ω∈A {ω} und die Vereinigung ist wieder abzählbar. Nun genügt es zu zeigen, dass {[ω1 , . . . , ωn ]} ∈ ⊗ni=1 Fi für ωi ∈ Ωi , i = 1, . . . , n. Der | {z ×n i=1 {ωi } Rest ist klar, denn {ωi } ∈ Fi = P(Ωi ) } 3. Lässt man oben den Zusatz „abzählbar“ weg, gibt es Probleme. Definition Ein Maß µ auf ×ni=1 [Ωi , Fi ] heißt Produkt der Maße µ1 , . . . , µn § , wenn gilt µ(×ni=1 Ai ) = n Y µi (Ai ) i=1 Satz 1.4.1 Für endliche Maße µ1 , . . . , µn existiert das Produktmaß und ist eindeutig bestimmt. Bemerkung 1. Die Forderung, dass die µ1 , . . . , µn endlich sein sollen, kann man abschwächen (siehe hierzu auch Lebesguesches Maß). 2. Der Fall n = +∞ ist für Wahrscheinlichkeitsmaße interessant. Definition Sei Bn die σ-Algebra der Borelmengen auf Rn . Ein Maß ℓn auf [Rn , Bn ] heißt n-dimensionales Lebesguesches Maß, wenn gilt: ℓn (×ni=1 [ai , bi )) = n Y (bi − ai ) (ai < bi , i = 1, . . . , n) i=1 Satz 1.4.2 Das Lebeguesche Maß ℓn existiert und ist eindeutig bestimmt. Weiterhin gilt: § 16 µ = ×n i=1 µi [Rn , Bn , ℓn ] = ×ni=1 [R, B, ℓ] = [R, B, ℓ]nx = [Rn , Bn , ℓnx ] 1.4. Produkte von Maßräumen Bemerkung Die Bemerkungen sind gleichzeitig Beweisideen für den oben angegebenen Satz. • Bn = ⊗ni=1 B = Bn⊗ . Weiterhin ist klar, dass R ⊇ A1 , . . . , An offen. Damit ist auch ×ni=1 Ai offen. • Wir haben ℓn (×ni=1 Ai ) = ℓn⊗ (×ni=1 Ai ) für Mengen Ai = [ai , bi ). Ferner wissen wir, dass diese Mengen B erzeugen (siehe auch Satz 1.2.5). Die allgemeine Theorie führt zur Behauptung des oben stehenden Satzes. Satz 1.4.3 Sei x ∈ R. Dann gilt: ℓ({x}) = 0. Beweis: Wir haben ℓ([a, b)) = b − a mit a < b. Nun betrachten wir die Mengenfolge Bk : = T [x, x + n1 ) ⇒ Bk ⊇ Bk+1 ⇒ ∞ k=1 Bk = {x}. Wegen der Stetigkeit von oben (siehe T 1 Satz 1.3.4) folgt nun: ℓ({x}) = ℓ( ∞ k=1 Bk ) = limk→∞ ℓ(Bk ) = limk→∞ ℓ([x, x + )) = | {z k } limk→∞ 1 k 1 k =0 Satz 1.4.4 (Folgerung aus Satz 1.4.3) Seien a < b ⇒ ℓ([a, b]) = ℓ((a, b)) = ℓ((a, b]) = ℓ([a, b)) = b − a Beweis: • Es gilt [a, b] = [a, b)∪{b}. Der Durchschnitt beider Mengen ist leer ([a, b)∩{b} = ∅). Damit folgt: ℓ([a, b]) = ℓ([a, b) ∪ {b}) = ℓ([a + b)) + ℓ({b}) = b − a + 0 • (a, b] = [a, b] \ {a} Es ist klar, dass {a} in [a, b] liegt. Damit folgt nach Punkt c von Satz 1.3.3: ℓ((a, b]) = ℓ([a, b]) − ℓ({a}) = (b − a) − 0 = b − a • (a − b) = (a, b] \ {b} Wie schon oben ist klar, dass {b} in (a, b] liegt. Nach gleichem Schluss folgt auch hier: ℓ((a, b)) = ℓ((a, b]) − ℓ({b}) = (b − a) − 0 = b − a Satz 1.4.5 Für alle abzählbaren A ⊆ Rn gilt: ℓ(n) (A) = 0 Beweis: S S A = x∈A {x} = [x1 ,...,xn ]∈A {[x1 , . . . , xn ]} P Da A abzählbar ist, folgt ℓ(n) (A) = x∈A ℓ(n) {x}. Nunmehr ist noch zu zeigen, dass Q ℓ(n) ({[x1 , . . . , xn ]}) = 0. Dies ist gleich: ℓ(n) ×ni=1 {xi } = ni=1 ℓ({xi }) = 0. 17 1. Maß- und allgemeine Integrationstheorie 1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion Definition Ein Maß P auf einem meßbaren Raum [Ω, F] heißt Wahrscheinlichkeitsmaß, wenn gilt: P (Ω) = 1 In diesem Fall heißt [Ω, F, P ] Wahrscheinlichkeitsraum. Satz 1.5.1 Sei P ein Wahrscheinlichkeitsmaß auf [Ω, F]. Dann gelten: (a) 0 ≤ P (B) ≤ 1 (B ∈ F) (b) P (B c ) = 1 − P (B) (B ∈ F) Beweis: (a) klar, da P (∅) ≤ P (B) ≤ P (Ω) ⇒ 0 ≤ P (B) ≤ 1 (b) B c = Ω \ B, B ⊆ Ω ⇒ P (B c ) = P (Ω) − P (B) ⇒ P (B c ) = 1 − P (B) Definition Sei P ein Wahrscheinlichkeitsmaß auf [Rn , Bn ] mit n ≥ 1. Eine Abbildung F : Rn → R heißt Verteilungsfunktion von (zu) P , wenn gilt: F (x1 , . . . , xn ) = P (×ni=1 (−∞, xi )) (x1 , . . . , xn ∈ R) Satz 1.5.2 Ein Wahrscheinlichkeitsmaß P ist durch seine Verteilungsfunktion F eindeutig bestimmt. Dabei sind die P und F wie oben definiert. Beweis: Beweisidee: Wenn man ein durchschnittsabgeschlossenes Erzeugendensystem hat und darauf ein Wahrscheinlichkeitsmaß kennt, kennt man es auf der gesamten σ-Algebra. Satz 1.5.3 Eine Verteilungsfunktion F eines Wahrscheinlichkeitsmaßes P auf [R, B] hat folgende Eigenschaften: (F1) F (x) ≤ F (y) ∀(x ≤ y) (monoton nicht fallend bzw. wachsend) (F2) limn→∞ F (xn ) = F (x) mit x ∈ R, xn ↑ x (linksseitig stetig) (F3) limx→+∞ F (x) = 1 (F4) limx→−∞ F (x) = 0 Beweis: (F1) Sei F (x) : = P ((−∞, x)) mit x ∈ R. Dann gilt (−∞, x) ⊆ (−∞, y), da x ≤ y. Nach Satz 1.3.3 Punkt b hat man F (x) ≤ F (y) ⇒ P ((−∞, x)) ≤ P ((−∞, y)) ⇒ F (x) ≤ F (y) 18 1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion (F2) Seien x ∈ R und xn ≤ xn+1 , lim xn = x. Damit folgt: (−∞, xn ) ⊆ (−∞, xn+1 ) S x ). Unter Zuhilfenahme von Satz 1.3.4 a erhält man und (−∞, x) = ∞ n=1 (−∞, S n F (x) = P ((−∞, x)) = P ( ∞ n=1 (−∞, xn )) = limn→∞ P ((−∞, xn )) = lim F (xn ). (F3) Sei xn ↑ +∞¶ . Damit gilt wieder die schon oben angeführte Teilmengenbeziehung S Wie bereits oben erhält man nun durch den und es folgt: ∞ n=1 (−∞, xn ) = R. S Satz 1.3.4 a, dass 1 = P (R) = P ( ∞ n=1 (−∞, xn )) = lim P ((−∞, xn )) (F4) Sei nun xn ↓ −∞ ⇒ (−∞, xn ) ⊇ (−∞, xn+1 ) ⇒ nun P (∅) = 0 = lim F (xn ) T n∈N (−∞, xn ) = ∅. Damit ist Satz 1.5.4 Sei F : R → R mit den Eigenschaften (F1) bis (F4). Dann existiert genau ein Wahrscheinlichkeitsmaß P auf [Rn , Bn ] mit F (x) = P ((−∞, x)). Dies bedeutet, dass F die Verteilungsfunktion von P ist. Bemerkung 1. Sei F die Verteilungsfunktion zu einem Wahrscheinlichkeitsmaß P auf [Rn , Bn ]. Dann gelten folgende Eigenschaften: (F̂1) F (x1 , . . . , xn ) ≤ F (y1 , . . . , yn ) für (xk ≤ yk , k = 1, . . . , n) (m) (m) (m) ↑ xk ⇒ limm→∞ F (x1 , . . . , xn ) = F (x1 , . . . , xm ) (m) ↑ +∞ ⇒ limm→∞ F (x1 , . . . , xn ) = 1 (m) ↑ −∞ ⇒ limm→−∞ F (x1 , . . . , xn ) = 0 (F̂2) xk (F̂3) xk (F̂4) xk (m) (m) (m) (m) 2. Sei nun F : Rn → [0, 1] mit den Eigenschaften (F̂1) bis (F̂4). Dann muss nicht notwendigerweise ein Wahrscheinlichkeitsmaß P auf [Rn , Bn ] mit der Verteilungsfunktion P existieren. Somit kann der obenstehende Satz nicht auf Rn verallgemeinert werden. ( Beispiel 1 − e−λx x > 0 . Die Eigenschaften (F1) bis (F4) Sei λ > 0. Wir setzen Fλ (x) : = 0 x≤0 gelten hier und sind trivial nachzuweisen. Das Wahrscheinlichkeitsmaß Exλ mit der Verteilungsfunktion Fλ heißt Exponentialverteilung mit dem Parameter λ. Beweis: Für die Eigenschaft (F1) nehmen wir o. B. d. A. an, dass x ≤ y gilt. Dann können wir folgende Fälle unterscheiden: 1. Fall y ≤ 0 ⇒ Fλ (x) = Fλ (y) 2. Fall y > 0, x ≤ 0 ⇒ Fλ (x) = 0, Fλ (y) = 1 − e−λy ≥ 0 ⇒ Fλ (x) ≤ Fλ (y) 3. Fall 0 < x ≤ y ⇒ eλx ≤ eλy ⇒ e−λx ≥ e−λy ⇒ 1 − e−λx ≤ 1 − e−λy ⇒ Fλ (x) ≤ Fλ (y). ¶ n→∞ d. h. xn ≤ xn+1 , xn −−−−→ +∞ ⇒ (−∞, xn ) ≤ (−∞, xn+1 ) 19 1. Maß- und allgemeine Integrationstheorie x→+∞ Die Eigenschaften (F2) und (F4) sind sofort klar. Zu (F3) ist eλx −−−−→ +∞ ⇒ x→+∞ x→+∞ e−λx −−−−→ 0 ⇒ 1 − e−λx −−−−→ 1. Somit gelten alle vier Bedingungen. Beispiel Sei A ∈ Bn mit 0 < ℓ(n) (A) ≤ +∞. Wir setzen: GlA (B) : = ℓ(n) (A ∩ B) ℓ(n) (A) (B ∈ Bn ) Dann heißt GlA die Gleichverteilung zu A. Es gilt natürlich, dass GlA ein Wahrscheinlichkeitsmaß ist. Für den Spezialfall A = [0, 1] mit GlA (B) = ℓ([0, 1] ∩ B) ist als Übungsaufgabe zu betrachten. Bemerkung Die Gleichverteilung ist ein Wahrscheinlichkeitsmaß auf [Rn , Bn ]. Denn es gilt für (Ak )∞ k=1 paarweise disjunkte Mengen aus B: GlA (∅) = GlA (Rn ) = GlA [ k BK ! ℓ(n) (A ∩ ∅) =0 ℓ(n) (A) ℓ(n) (A ∩ R) ℓ(n) (A) = =1 ℓ(n) (A) ℓ(n) (A) S S ℓ(n) ( (Bk ∩ A)) ℓ(n) (( Bk ) ∩ A) = = = ℓ(n) (A) ℓ(n) (A) X = P k ℓ(n) (Bk ∩ A) ℓ(n) (A) GlA (Bk ) k Satz 1.5.5 Sei P ein Wahrscheinlichkeitsmaß auf [R, B] für k = 1, . . . , n mit der Verteilungsfunktion Fk und P = ×nk=1 Pk . Dann ist P ein Wahrscheinlichkeitsmaß auf [Rn , Bn ] und die Verteilungsfunktion F zu P hat die Gestalt: F (x1 , . . . , xn ) = n Y Fk (xk ) k=1 (x1 , . . . , xn ∈ R) Die Folge wird auch Tensorprodukt genannt. Beweis: Wir müssen zeigen, dass P ein Wahrscheinlichkeitsmaß ist. Dazu wissen wir, dass P ein Maß ist. Daher müssen wir noch zeigen, dass P (Rn ) = 1. Es gilt, P (Rn ) = P (×nk=1 Rn ) = Q (×nk=1 Pk )(Rnx ) = nk=1 Pk (R) = 1. | {z } =1 Nun ist noch zu zeigen, dass F eine Verteilungsfunktion zu P ist, d. h. F (x1 , . . . , xn ) = Q Q P (×nk=1 (−∞, xk )) = ×nk=1 Pk (×nk=1 (−∞, xk )) = nk=1 Pk ((−∞, xk )) = nk=1 Fk (xk ). 20 1.5. Wahrscheinlichkeitsmaße und Verteilungsfunktion Satz 1.5.6 Sei F eine Verteilungsfunktion eines Wahrscheinlichkeitsmaßes P auf [R, B]. Dann gelten: (1) P ([a, b)) = F (b) − F (a) für (a < b) (2) P ({a}) = F (a + 0) −F (a) | {z } limxn ↓a F (a) Beweis: zu (1) Die Frage ist zunächst, wie sich das Intervall durch Halbstrahlen darstellen lässt. Wir wissen, (−∞, b) \ (−∞, a) = [a, b) und (−∞, a) ⊆ (−∞, b). Nach Satz 1.3.3 c ist P ([a, b)) = P ((−∞, b)) \ (−∞, a)) = P ((−∞, b)) − P ((−∞, a)) = F (b) − F (a) T 1 ). Wegen Satz 1.3.4 zu (2) Es gilt, {a} = n≥1 [a, a + n1 ) und [a, a + n1 ) ⊇ [a, a + n+1 T Punkt b ist P ({a}) = P ( n≥1 [a, a + n1 )) = lim P ([a, a + n1 )) = limn→∞ F (a + 1 n ) − F (a) = F (a + 0) − F (a). Satz 1.5.7 Seien I abzählbar, Pi ein Wahrscheinlichkeitsmaß auf [R, B], αi ≥ 0 mit i ∈ I und P P = i∈I αi Pi . Dann ist P genau dann ein Wahrscheinlichkeitsmaß, wenn gilt X αi = 1 i∈I In diesem Fall gilt für die Verteilungsfunktion F von P F (x) = X αi Fi (x) i∈I (x ∈ R) wobei Fi die Verteilungsfunktion zu Pi ist. Beweis: Es ist klar, dass P ein Maß auf [R, B] ist (Folgerung aus Satz 1.3.1). Nun verbleibt P zu zeigen, dass P (R) = 1. Dies ist genau dann der Fall, wenn gilt αi = 1: P (R) = P P P α = 1. Nach der Definition gilt F (x) = P ((−∞, x)) = i∈I αi Pi ((−∞, x)) = α P (R) = i∈I i Pi∈ i i i∈I αi Fi (x). Beispiel Dies sind im wesentlichen Anwendungen zum oben genannten Satz: • Für jedes y ∈ R ist δy ein Wahrscheinlichkeitsmaß auf [R, B]. • Binomialverteilung: Gegeben ist 0 ≤ p ≤ 1, n ∈ N. Hierzu bilden wir Bn,p : = n X n i=0 i ! pi (1 − p)n−i δi Aus dem oben angeführten Satz folgt, dass die Binomialverteilung ein Wahrscheinlichkeitsmaß auf [R, B] ist.‖ ‖ (a + b)n = Pn i=0 n i ai bn−i ; a = p, b = 1 − p ⇒ (a + b)n = 1 21 1. Maß- und allgemeine Integrationstheorie • Poissonverteilung Gegeben ist λ > 0. Wir definieren: πλ := ∞ X λi i=0 i! Wieder aus dem obigen Satz folgt und aus das ein Wahrscheinlichkeitsmaß ist. e−λ δi λi i=0 i! P∞ = eλ ⇒ eλ e−λ = 1 folgt, dass • geometrische Verteilung: Gegeben ist 0 < q < 1. Gq : = ∞ X i=1 q i−1 (1 − q)δi Auch dies ist ein Wahrscheinlichkeitsmaß, da lim 22 P q i−1 = 1 1−q . 2. Integrationstheorie Hier soll ein allgemeiner Integralbegriff eingeführt werden. Wir brauchen das später für das Rechnen mit dem Erwartungswert. P n 1/n Man stelle sich vor, jemand führt n Würfe mit einem Würfel aus und berechnet i=1 xi . R Für unendlich viele Würfe konvergiert das gegen den Erwartungswert Eξ = ξ(ω)P (dω). Es wird zwei wichtige Spezialfälle geben: 1. 2. P k kαk R∞ −∞ f (x) dx 2.1. Messbare Funktionen (Abbildungen) Im folgenden gilt immer, dass [Ω, F, µ] ein Maßraum und [X, X] ein messbarer Raum ist. Wir betrachten f : Ω → X und definieren das Urbild einer Menge: f −1 (A) : = {ω ∈ Ω|f (ω) ∈ A} mit A ⊆ X. Dies ist nicht zu verwechseln mit inversen Abbildungen.∗ Satz 2.1.1 (Elementare Eigenschaften des Urbilds) Es gelten a) f −1 (∅) = ∅, f −1 (X) = Ω b) f −1 (Ac ) = (f −1 (A))c (∀A ⊆ X), dabei ist f −1 (Ac ) das Komplement in X und (f −1 (A))c das Komplement in Ω. S c) f −1 ( i∈I T Ai ) = S i∈I T f −1 (Ai ) (Ai ⊆ X, i ∈ I) d) f −1 ( i∈I Ai ) = i∈I f −1 (Ai ) (Für beide Fälle gilt, dass die (Ai )i∈I Folgen von Teilmengen aus X sind.) Beweis: zu a) f (ω) ∈ ∅ für jedes ω ∈ Ω ⇒ f −1 (∅) = ∅ f (ω) ∈ X ist richtig ∀ω ∈ Ω ⇒ f −1 (X) = Ω zu b) ω ∈ f −1 (Ac ) ⇔ f (ω) ∈ Ac ⇔ ¬f (ω) ∈ A ⇔ ¬ω ∈ f −1 (A) ⇔ ω ∈ / f −1 (A) ⇔ ω ∈ (f −1 (A))c ⇒ f −1 (Ac ) = (f −1 (A))c ∗ Falls es eine inverse Abbildung gibt, gilt f −1 (A) = {f −1 (x)|x ∈ A} 23 2. Integrationstheorie zu c) selbst in Übung zu d) selbst in Übung Definition Sei f : Ω → X. Die Abbildung f heißt (F, X)-messbar, wenn gilt: f −1 (A) ∈ F (A ∈ X)† In diesem Fall heißt das Maß µ ◦ f −1 , definiert durch µ ◦ f −1 (A) = µ(f −1 (A)) für alle A ∈ X, Bildmaß von µ bezüglich f . Bemerkung 1.) Die Definition von µ ◦ f −1 (A) ist sinnvoll, weil f −1 (A) ∈ F für alle A ∈ X. 2.) Es existiert eine formale Ähnlichkeit zwischen der Definition der Stetigkeit und der der Messbarkeit. 3.) Im Fall das Ω, X metrische Räume sind und F, X der σ-Algebra der Borelmengen entsprechen, folgt aus der Stetigkeit von f , dass f auch messbar ist. Um das zu zeigen, wähle man E = {A ⊆ X : A offen}. Nach der Definition ist X = σ(E) ⇒ f −1 (A) ∈ F für ein A ∈ E. Somit ist klar, dass, wenn f stetig ist, folgt, dass f −1 (A) offen ist und damit ist f −1 (A) ∈ F. (siehe auch den unten stehenden Satz) 4.) Sei f −1 : P(X) → P(Ω) mit µ : F ⊂ P(Ω) → [0, +∞] Die Definition von µ ◦ f −1 ist nur möglich, wenn f als (F, X)-messbar vorausgesetzt wird. 5.) Ist µ ◦ f −1 ein Maß auf [X, X]. Hierzu ist klar, dass µ ◦ f −1 : X → [0, +∞]. Es ist µ ◦ f −1 (∅) = µ(f −1 (∅)) = µ(∅) = 0. Im folgenden ist die zweite Maßeigenschaft zu Ai ∩ Aj = ∅, i 6= j ⇒ f −1 (Ai ) ∩ f −1 (Aj ) = f −1 (∅) = prüfen. Sei dazu (Ai )∞ i=1 ⊆ X, S S S P P ∅ ⇒ µ ◦ f −1 ( Ai ) = µ(f −1 ( Ai )) = µ( f −1 (Ai )) = µ(f −1 (Ai )) = µ ◦ f −1 (Ai ) Satz 2.1.2 Sei f : Ω → X. f ist (F, X)-messbar, wenn für ein E ⊆ P(X) mit σ(E) = X gilt: f −1 (A) ∈ F (A ∈ E) Beispiel 1. Die „Konstanten“ sind messbar, d. h. wir haben f : Ω → X mit f (ω) = c. Dann ist ( ∅ c∈ /A . Da nun die leere Menge und auch Ω Element von F sind, Ω c∈A gilt f −1 (A) ∈ F. Damit ist die Funktion immer (F, X)-messbar. f −1 (A) = 2. Sei F = {∅, Ω} und [X, X] = [R, B]. Zu zeigen ist, ob f (R, B)-messbar ist. Dies ist genau dann der Fall, wenn ein c ∈ R mit f (ω) = c existiert . . . † 24 Schreibweise: f : [Ω, F] → [X, X] 2.1. Messbare Funktionen (Abbildungen) 3. Sei F = P(Ω). Dann ist jede Abbildung f : Ω → X messbar. F = P(Ω) ⇒ f −1 (A) ∈ F (A ⊆ X). Für beliebige X ist f (P(Ω), X)-messbar. Satz 2.1.3 Seien f1 : [Ω1 , F1 ] → [Ω2 , F2 ] und f2 : [Ω2 , F2 ] → [Ω3 , F3 ]. Dann gilt f2 ◦ f1 : [Ω1 , F1 ] → [Ω3 , F3 ]. Die Hintereinanderausführung messbarer Funktionen ist wieder messbar. Beweis: Im ersten Schritt zeigen wir: (f2 ◦f1 )−1 (A) = f1−1 (f2−1 (A)). Sei dazu ω ∈ (f2 ◦f1 )−1 (A) ⇔ (f2 ◦ f1 )(ω) ∈ A ⇔ f2 (f1 (ω)) ∈ A ⇔ f1 (ω) ∈ f2−1 (A) ⇔ ω ∈ f1−1 (f2−1 (A)). Dieses Ergebnis verwenden wir nun für den weiteren Beweis. Sei A ∈ F3 . Es ist nun zu zeigen, dass (f2 ◦ f1 )−1 (A) ∈ F1 . Dazu stellen wir fest, dass (f2 ◦ f1 )−1 (A) = f1−1 (f2−1 (A)). Da aber f2 messbar ist, folgt f2−1 (A) ∈ F2 ⇒ f1−1 (f2−1 (A)) ∈ F1 . Das ist aber nichts anderes als (f2 ◦ f1 )−1 (A) ∈ F1 . Für die folgenden Aussagen gilt immer [X, X] = [R, B] und wir bezeichnen (F, B)messbar als messbar. Satz 2.1.4 Die Abbildung f : Ω → R ist genau dann messbar, wenn eine der folgenden Aussagen richtig ist (x, x1 , x2 sind dabei immer rational): (1) {ω ∈ Ω|f (ω) < x} ∈ F (2) {ω ∈ Ω|f (ω) ≤ x} ∈ F (3) {ω ∈ Ω|f (ω) > x} ∈ F (4) {ω ∈ Ω|f (ω) ≥ x} ∈ F (5) {ω ∈ Ω|x1 ≤ f (ω) < x2 } ∈ F (6) {ω ∈ Ω|x1 < f (ω) < x2 } ∈ F (7) {ω ∈ Ω|x1 ≤ f (ω) ≤ x2 } ∈ F (8) {ω ∈ Ω|x1 < f (ω) < x2 } ∈ F Beweis: Die ist eine Beweisidee für (1). Die weiteren Beweise sind analog zu führen: Nach dem Satz 1.2.5 wissen wir, dass die Menge {(−∞, x)|x ∈ Q} ein durchschnittsabgeschlossenes Erzeugendensystem für B ist. Wenn E ein solches System mit f −1 (B) ∈ F ist, dann ist f messbar. Es gilt: {ω ∈ Ω|f (ω) < x} = f −1 ((−∞, x)). Aus der Kombination beider Aussagen folgt der Satz. Satz 2.1.5 Seien f, g : [Ω, F] → [R, B] messbare Funktionen. Dann sind die Funktionen f + g und f g ebenfalls messbare Funktionen. 25 2. Integrationstheorie Beweis: Seien f, g : Ω → R2 . Diese Funktionen werden wie folgt umgewandelt: h : = [f, g] : Ω → R2 , [f, g](ω) = [f (ω), g(ω)]. Ist nun h messbar? h−1 (A × B) = {ω ∈ Ω|[f (ω), g(ω)] ∈ A × B} ⇒ f (ω) ∈ A ∧ g(ω) ∈ B = {ω ∈ Ω|f (ω) ∈ A} ∩ {ω ∈ Ω|g(ω) ∈ B} = f −1 (A) ∩ g−1 (B) Damit ist gezeigt, dass f, g messbar sind und es gilt, dass f −1 (A) ∈ F ∧ g−1 (B) ∈ F. Wegen der Abgeschlossenheit gegenüber Durchschnitten ((f −1 (A) ∩ g−1 (B)) ∈ F) gilt für alle A, B ∈ B: h−1 (A× B) ∈ F. Und es folgt weiter σ({A× B|A ∈ B, B ∈ B}) = B2 . Damit ist h messbar. Wir setzen nun a(x1 , x2 ) = x1 + x2 , b(x1 , x2 ) = x1 x2 , a, b : R2 → R, stetig. Also ist f + g = a ◦ h und f g = b ◦ h. Da a, b stetig sind, sind sie auch messbar und nach Satz 2.1.3 ist die Verknüpfung beider Abbildungen wieder messbar. Satz 2.1.6 Sei (fi )i∈I : [Ω, F] → [R, B] eine abzählbare Familie messbarer Funktionen, so dass die Mengen {ω ∈ Ω| sup fi (ω) < +∞} = Ω bzw. {ω ∈ Ω| inf fi (ω) < −∞} = Ω sind. Dann ist sup fi bzw. inf fi messbar.‡ Beweis: 1. Fall Sei f : = sup fi . Dann ist f eine Abbildung von Ω nach R. Wegen des Satz 2.1.4 genügt es zu zeigen, dass {ω ∈ Ω|f (ω) ≤ x} ∈ F. Dazu f (ω) ≤ x ⇔ fi (ω) ≤ x ⇒ T {ω ∈ Ω|f (ω) ≤ x} = i∈I {ω ∈ Ω|fi (ω) ≤ x}. Damit folgt, dass fi messbar ist. | {z fi−1 ((−∞,x))∈F } Nach Satz 1.2.3 ist es gegenüber Vereinigung abgeschlossen und es folgt somit: T {ω ∈ Ω : f (x) ≤ x} = i∈I fi−1 ((−∞, x)) ∈ F 2. Fall Sei f : = inf f1 ⇒ f : Ω → R. Wegen Satz 2.1.4 (4) genügt es zu zeigen, dass T (ω) ≥ x} ∈ F. Dazu f (ω) ≥ x ⇔ fi (ω) ≥ x(i ∈ i∈I {ω|fi (ω) ≥ x} = {ω ∈ Ω|f S S I) ⇒ {ω ∈ Ω|f (ω) ≥ x} = i∈I {ω ∈ Ω|fi (ω) ≥ x} = i∈I {fi−1 ([x, +∞)) ∈ B} ⇒ {ω ∈ Ω| inf i fi (ω) ≥ x} ∈ B für x ∈ R. Dann folgt nach Satz 2.1.4 Punkt 4, dass inf i fi messbar ist. Satz 2.1.7 Sei f eine messbare Funktion (f : [Ω, F] → [R, B]). Dann gelten: (1) af + b ist messbar. (a, b ∈ R) (2) f + : = max(f, 0) ist messbar und der positive Ast der Funktion. (3) f − : = min(f, 0) ist messbar und der negative Ast der Funktion. ‡ 26 Erläuterung: (sup fi )(ω) : = sup fi (ω) mit ω ∈ Ω 2.1. Messbare Funktionen (Abbildungen) (4) |f | ist messbar. Beweis: zu (1) Wir wissen, dass „konstante“ Funktionen immer messbar sind. Damit wie auch nach Satz 2.1.5 gilt die Behauptung. zu (2) Wir setzen f1 = f, f2 = 0. Dann folgt, dass f + = max(f1 , f2 ). Beide Funktionen sind messbar und wegen des obigen Satzes ist auch sup fi = f + messbar. zu (3) Beweis erfolgt analog zu (2). zu (4) |f | = f + − f − = f + + (−1)f − ⇒ messbar. Satz 2.1.8 Sei (fn )∞ n=1 eine Folge messbarer Funktionen und lim sup fn oder lim inf fn existieren als reelle Funktionen. Dann sind diese messbar. Falls lim fn existiert, so ist auch er messbar. Beweis: selbst Satz 2.1.9 Sei A ⊆ Ω. Die Indikatorfunktion χA (ω) = A ∈ F. Beweis: Es ist χ−1 A (B) zu prüfen: χ−1 A (B) = ∅ A Ac Ω ( 1 0 ω∈A ist genau dann messbar, wenn ω∈ /A 0, 1 ∈ /B 1∈B∧0∈ /B 1∈ / B∧0∈B 1∈B∧0∈B Für die Gleichheit müssen wir beide Richtungen zeigen: Sei χA messbar. Dann ist {1} ∈ B ⇒ χ−1 A ({1}) = A ∈ F. Sei A ∈ F. Dann ist zu zeigen, dass χA messbar ist, d. h. χ−1 A (B) ∈ F für B ∈ B. Es c } und somit genügt es zu zeigen, dass {∅, Ω, A, Ac } ⊆ F folgt, dass χ−1 (B) ∈ {∅, Ω, A, A A ist. Wir wissen, dass ∅, Ω ∈ F sind. Weiterhin ist nach Voraussetzung A ∈ F ⇒ Ac ∈ F und es folgt die Behauptung. Beispiel Ω = R, A = {x ∈ R|x rational} ⇒ A abzählbar. Da alle abzählbaren Mengen in der Borelmenge liegen. Definition Sei f : Ω → R. Die Funktion f heißt einfach, wenn existieren: n ≥ 1, a1 , . . . , an ∈ R, A1 , . . . , An ∈ F mit f= n X ai χAi i=1 27 2. Integrationstheorie Bemerkung 1. Das Wort „einfach“ bezieht sich auf die gegebenen σ-Algebren F und B. 2. Einfache Funktionen sind messbar. Denn nach dem vorhergehenden Satz folgt, dass χAi messbar sind und die Linearkombinationen messbarer Funktionen sind wieder messbar. (Zum Beweis siehe Satz 2.1.5 und Satz 2.1.9). Satz 2.1.10 Sei f : Ω → R. Dann gelten (1) Wenn f einfach ist, dann existieren n ≥ 1, b1 , . . . , bn ∈ R, B1 , . . . , Bn ∈ F mit P S bi 6= bj (i 6= j), Bi ∩ Bj = ∅, ni=1 Bi = Ω § , f = ni=1 bi χBi . Diese Darstellung von f ist bis auf Permutation des Indexbereichs eindeutig bestimmt. (2) f ist genau dann einfach, wenn f messbar ist und die Anzahl des Wertebereichs endlich ist. ¶ Beweis: zu (1) Der Beweis hierzu ist im untenstehenden Beweis enthalten. zu (2) „⇒“ Wegen der Bemerkung und der Definition folgt aus einfach auch die Messbarkeit. Auch die zweite Bedingung geht sofort aus der Definition hervor. „⇐“ Setzen {b1 , . . . , bn } = {f (ω)|ω ∈ Ω}. Die bi sind paarweise verschieden. Weiter setzen wir Bi = f −1 ({bi }) für i = 1, . . . , n. Es gilt, dass alle Bi paarweise disjunkt sind und das deren Vereinigung Ω ergibt. Damit folgt {bi } ∈ B. Wegen der Messbarkeit gilt weiter Bi = f −1 ({bi }) ∈ F. Es ist P trivial, dass Bi ∩ Bj = ∅ und klar, dass f = ni=1 bi χBi . Daraus folgt, dass f einfach ist. Satz 2.1.11 Sei f messbar und nichtnegativ‖ . Dann existiert eine Folge nichtnegativer einfacher Abbildungen (fn )∞ n=1 mit fn ≤ fn+1 (monoton wachsend) und f = limn→∞ fn (fn ↑ f ). Beweis: Der Beweis erfolgt konstruktiv, d. h. man konstruiert eine spezielle Folge (fn )∞ n=1 mit den Eigenschaften aus dem Satz: fn : = n −1 4X i=0 fn (ω) : = § ( i χ −1 i i+1 + 2n χf −1 ([2n ,+∞)) 2n f ([ 2n , 2n )) i/2n 2n ≤ f (ω) < f (ω) ≥ 2n i/2n Bi sind messbare Zerlegungen von Ω. #{f (ω)|ω ∈ Ω} < +∞ ‖ f = f+ ¶ 28 i+1 2n i = 0, . . . , 4n − 1 2.2. Einführung des Integrals f (ω) fn (ω) 4n −1 2n i+1 2n i 2n Damit ergibt sich 0 ≤ fn ≤ fn+1 ≤ f . Wenn f messbar ist, folgt, dass f auch einfach ist. Die Differenz f (ω) − fn (ω) ≤ 21n ∗∗ und es folgt, dass lim fn (ω) = f (ω) 2.2. Einführung des Integrals Im folgendenRist immer [Ω,RF, µ] ein Maßraum und wir betrachten f : [Ω, F] → [R, B]. Das Integral f (ω)µ(dω)= ˆ f dµ wird in drei Stufen eingeführt: Definition (1. Stufe) P Sei f ≥ 0 und einfach, d. h. wir haben eine Darstellung der Form f = ni=1 ai χAi mit n = 1, a1 , . . . , an ≥ 0, Ai ∈ F. Dann setzen wir Z f (ω)µ(dω) : = n X ai µ(Ai )†† i=1 Bemerkung R 1. f dµ ≥ 0 2. Die Definition des Integrals ist eindeutig, d. h. unabhängig von der betrachteten Darstellung als Linearkombination von messbaren Indikatorfunktionen: Pm Pn P P f = ni=1 ai χAi = m k=1 bk µ(Bk ) i=1 ai µ(Ai ) = k=1 bk χBk ⇒ R 3. Das IntegralR ist linear, d. h. f, g ≥ 0 und einfach, α, β ≥ 0 ⇒ (αf + βg)dµ = R P P α f dµ + β gdµ. Denn sei f = ai χAi und g = bj χBj . Dann ist αf R+ βg = R P P P P αa χ + βbj χBj ⇒ (αf + βg)dµ = αai µ(Ai ) + βbj µ(Bj ) = α f dµ + R i Ai β gdµ ∗∗ †† ω ∈ Ω mit f (ω) ≤ 2n Vereinbarung: Es kann sein, dass µ = ∞ und es kann 0 · ∞ auftauchen. Dann setzen wir 0 · ∞ = 0 29 2. Integrationstheorie R R 4. Wenn f, g ≥ 0 einfach und f ≤ g, dann folgt, dass f dµ ≤ gdµ. Das Integral ist monoton. Denn da f ≤ g ist, ist auch g − f ≥ 0 und da beide FunktionenR einfach sind, ist Zauch die Differenz wieder einfach. Es gilt: g = f + (g − f ) ⇒ gdµ = R f dµ + | (g − f )dµ ⇒ {z ≥0 } R gdµ ≥ R f dµ nichtnegativer einfacher Funktionen mit fn ≤ fn+1 . Dann 5. Sei (fn )∞ n=1 eine Folge R existiert lim f dµ. Dabei ist auch +∞ möglich. Aus dem vierten Punkt folgt n→∞ n R R 0 ≤ fn dµ ≤ fn+1 dµ 6. Seien (fn ), (gn ) Folgen nichtnegativerR einfacher Funktionen mit fn ≤ fn+1 , gn ≤ R gn+1 , lim fn ≤ lim gn . Dann gilt lim fn dµ ≤ lim gn dµ. Zum Beweis muss die zusätzliche Voraussetzung fn ≤ gn benutzt werden. DennR nach dem Rvierten Punkt R R folgt: Rfn dµ ≤ gn dµ und wegen fünftens existieren lim fn dµ, lim gn dµ. Damit R ist lim fn dµ ≤ lim gn dµ. Definition (2. Stufe) Sei f ≥ 0 und messbar. Nach Satz 2.1.11 existieren (fn )∞ n=1 , 0 ≤ fn ≤ fn+1 , f = lim fn , fn einfach. Wir setzen: Z Z f dµ : = lim fn dµ n→∞ Bemerkung 1. Die Definition ist „sinnvoll“, weil das Integral nach der Definition erster Stufe definiert ist und der Limes nach der obigen Bemerkung 5 existiert. 2. Die Definition ist auch eindeutig, d. h. wenn wir haben: 0 ≤ fn ≤ fn+1 , 0R ≤ gn ≤ gn+1R, f = lim fn = lim gn und beide sind einfach, dann folgt daraus: lim fn dµ = lim gn dµ. Dies ist eine direkte Folgerung aus der Bemerkung 6 oben. 3. Die Definition zweiter Stufe ist eine Erweiterung der Definition erster Stufe. Denn sei f ≥ 0 einfach. Dann setzen wir fn : = f mit n = 1, 2, . . . ⇒ 0 R≤ fn ≤ fn+1R. Die fn seien messbar. Dann folgt nach der Definition zweiter Stufe: f dµ = R lim fn dµ = f dµ. 4. Das so definierte Integral ist linear. Beweis: Sei α, β ∈ R ≥ 0, f, g ≥ 0 und messbar. WeiterR seien f = lim fRn , g = lim gRn , 0 ≤ fn ≤ fn+1R, 0 ≤ gn ≤ gn+1 alle einfach, d. h. f dµ = limn→∞ fn dµ und gdµ = limn→∞ gn dµ. R R αf + βg =R limn→∞ (αf + βgn ) ⇒ (αf + Rβg)dµ = limn→∞ (αfn + βgn )dµ = Rn R limn→∞ (α fn dµ + β gn dµ) = α f dµ + β gdµ R R R 5. RFür 0 ≤R f ≤ g gilt: R0 ≤ f dµ ≤ gdµ, denn g R= f + (g − f ) ⇒ gdµ = R f dµ + (g − f )dµ ⇒ gdµ ≥ f dµ. Dies folgt aus f dµ ≥ 0 für die erste Stufe. R 6. Monotonie: 0 ≤ f ≤ g ⇒ f dµ ≤ der Definition der ersten Stufe. 30 R g dµ. Siehe hierzu die vierte Bemerkung bei 2.2. Einführung des Integrals Definition (3. Stufe) R R Sei f messbar und bezüglich µ integrierbar, d. h. f + dµ und (−f − )dµ < +∞. Dann gilt: Z Z Z + f dµ : = f dµ − (−f − )dµ Bemerkung R R R 1. klar: |f | = f + + (−f − ) ⇒ |f |dµ = f + dµ + (−f − )dµ f ist genau dann µ-integrierbar, wenn 2. R R |f |dµ < ∞ f dµ für f ≥R0 und messbar existiert immer. Es ist allerdings der Fall +∞ möglich. Das Integral f dµ im Falle f messbar und nicht notwendigerweise ≥ 0 ist nach der Definition dritter Stufe nur für µ-integrierbare Funktionen erklärt. Ohne die R Bedingung f dµ < +∞ ist das Integral nicht erklärt. 3. Die Eigenschaften Monotonie und Linearität des Integrals übertragen sich von der zweiten zur dritten Stufe. Für den Beweis ist zu zeigen, dass für f, gRµ-integrierbar und für a, b ∈ R gilt, dass af +bg wieder µ-integrierbar sind und dass (af +bg)dµ = R R a f dµ + b gdµ ist. Da f, g messbar sind, folgt dass auch af + bg messbar sind. R R Somit ist af + bg natürlich auch µ-integrierbar. Es gilt (af + bg)dµ ≤ (|a||f | + |b||g|)dµ wegen der RMonotonie zweiter Stufe. Nach der Linearität zweiter Stufe ist R das aber gleich |a|R |f |dµ + |b|R |g|dµ. Sowohl |f | wie auch |g| sind kleiner +∞. Somit ist auch: |a| |f |dµ + |b| |g|dµ < +∞. Satz 2.2.1 (Integral bezüglich diskreter Maße) Seien (αi )i∈I eine abzählbare Familie nichtnegativer reeller Zahlen, (ωi )i∈I ⊆ Ω und P µ = i∈I αi δωi ‡‡ . Eine messbare Funktion f (d. h. f : [Ω, F] → [R, B]) ist genau dann P µ-integrierbar, wenn gilt i∈I αi |f (ωi )| < +∞. In diesem Fall gilt: Z f dµ = X αi f (ωi ) i∈I Beweis: 1. Fall Sei f = χA mit (A ∈ F). Dann folgt nach der Definition des RIntegrals erster Stufe, P P dass für g = R ai χAi (einfach und größergleich 0) gilt, g dµ = ai µ(Ai ). i R P P Damit folgt, f dµ = χA dµ = µ(A) = i∈I αi δωi (A) = i∈I αi χA (ωi ) = P i∈I αi f (ωi ) R P ist f ≥ 0, einfach und f dµ = 2. Fall Sei f = nk=1 ak χRAk mit ak ≥ 0, Ak ∈ F. Dann R P Pn Pn Pn Pn i∈I αi χAk (ωi ) = k=1 ak k=1 ak χAk dµ = k=1 ak χAk dµ = k=1 ak µ(Ak ) = P i∈I αi ‡‡ n X k=1 | ak χAk (ωi ) = {z f (ωi ) } P i∈I αi f (ωi ) Maße von diesem Typ heißen diskrete Maße 31 2. Integrationstheorie 3. Fall Seien f ≥ 0 und messbar, 0 ≤ (fm )∞ m=1 ↑ Rf einfach. Nach der Definition zweiter R Stufe folgt nun, dass f dµ = limn→∞ fm dµ. Nach dem vorigen Fall folgt: P limn→∞ i∈I αi fm (ωi ). Da die Funktion monoton wachsend ist, kann der Limes P P und die Summe vertauscht werden: i∈I αi limn→∞ fm (ωi ) = i∈I αi f (ωi ). 4. Fall Sei f messbar und gelte f = f + −f − . Wir wissen nach der Definition des Integrals zweiter Stufe: Z Z f + dµ = Z αi f + (ωi ) Z αi f − (ωi ) i∈I − f dµ = i∈I R Weiterhin wissen wir, dass f genau dann µ-integrierbar ist, wenn |f | dµ < ∞. Damit sind auch die Integrale der beiden Teilfunktionen kleiner als unendlich. Wenn f µ-integrierbar ist, dann folgt aus der Definition dritter Stufe: Z f dµ = = X i∈I Z f + − (−f − )dµ = i∈I − + X αi f + (ωi ) − αi f (ωi ) − (−f )(ωi ) = X X αi (−f − )(ωi ) i∈I + αi f (ωi ) + f − (ωi ) = i∈I X αi f (ωi ) i∈I Definition Der Wahrscheinlichkeitsraum (Ω, F, µ) heißt diskret, wenn Ω abzählbar, F = P(Ω) und µ diskret ist. Beispiel 1. Sei µ = δω0 und ein festesR ω0 ∈ ΩRgegeben. Dann ist jede messbare Funktion f µ-integrierbar und es gilt: f dµ = f dδω0 = f (ω0 ) P auch der Fall m = ∞ möglich. Nun 2. Wir betrachten die Reihe m k=0 ak . Dabei ist P wählen Ω = {0, 1, . . . , n}, F = P(Ω), µ = ni=0 δi und dasR Zählmaß µ(A) = #A. P Setzen f : Ω → R mit f (k) : = ak für k ∈ Ω. Damit folgt, f dµ = m k=0 ak und f Pm ist bezüglich µ genau dann integrierbar, wenn k=0 |ak | < ∞. Für den Fall m = ∞ muss die Reihe absolut konvergent sein. Satz 2.2.2 (Riemannintegral stetiger Funktionen) Seien f : R → R stetig, f stetig mit Stammfunktion F , a, b ∈ R und a < b. Dann ist f χ[a,b] bezüglich ℓ integrierbar und es gilt: Z 32 f χ[a,b] dℓ = Zb a f (x) dx = F (b) − F (a) 2.2. Einführung des Integrals Beweis: Der Fall, dass die Funktion einfach ist, wird nicht betrachtet. Denn alle stetigen Funktionen (außer Konstanten) sind nicht einfach. Sei nun f ≥ 0 und stetig. Dann ist f auch messbar und f χ[a,b] ebenfalls. Wir konstruieren einen Funktionenfolge (f )∞ n=1 . Nach der Definition zweiter Stufe wissen wir, dass R R f χ[a,b] dℓ = limn→∞ fn dℓ, falls 0 ≤ fn ↑ f und fn einfach. Im folgenden wird fn als (n) untere Darbouxsche Summe konstruiert. Dabei wird das Intervall [a, b] in Intervalle zk zerlegt. f (x) a (n) zk b Abbildung 2.1.: Untere Darbouxsche Summen 33 2. Integrationstheorie todo: Ergänzung von Carolin einfügen (n) b−a fn (x) = 0 2n (n) bk : = inf (n) zk+1 − zk = (n) (x ∈ / [a, b]) (n) zk ≤x<zl+1 fn (x) = X k ⇒ Z (n) bk χ[z (n) ,z (n) ) (x) k k+1 ⇒ fn ≥ 0, fn ≤ fn+1 , lim fn = f χ[a,b] , fn einfach f χ[a,b] dℓ = lim n→∞ = lim n→∞ = lim n→∞ Z fn dℓ X bk ℓ([zk , zk+1 )) X (n) b − a bk 2n k k (n) (n) | {z (n) b−a 2n = Zb a } f (x) dx = F (b) − F (a) Damit ist die Behauptung für f ≥ 0 gültig. Sei nun f „beliebig“ (insbesondere aber stetig, beachte die Voraussetzungen). Damit sind f + , (−f − ) stetig und das Integral R + R Rb + + f χ[a,b] dℓ = (f χ[a,b] ) = a f (x) dx. Selbiges gilt natürlich für (−f − ). Es ist R R R klar, dass ab f + (x) dx + ab (−f − )(x) dx = ab f (x) dx. Dabei wurde die Linearität des Riemannintegrals ausgenutzt. Wegen der Linearität des Lebegueintegrals folgt auch R + R R f χ[a,b] dℓ − (−f − )χ[a,b] dℓ = f χ[a,b] dℓ. Aus den obigen Aussagen folgt schließlich die Behauptung. todo: untenstehendes kann evtl. entfernt werden Es ist bekannt, dass das Riemannsche R Integral der Limes der Darbouxschen Summen ist. Somit haben wir limn→∞ fn dℓ = Rb a f (x) dx. Weiter ist klar, dass fn ≤ fn+1 . Denn die Feinheit wird verkleinert, wenn die Intervalle vergrößert werden. Damit strebt fn für n → ∞ nach f χ[a,b] und nach der R n→∞ R Definition zweiter Stufe folgt, fn dℓ −−−→ f χ[a,b] dℓ Bemerkung 1) Die Behauptung gilt auch dann, wenn nur vorausgesetzt wird, dass f auf [a, b] riemann-integrierbar ist. 2) Der Satz 2.2.2 ist ausdehnbar auf die Fälle a = −∞, b = ∞. DabeiRist die Forderung, dass f auf [a, b] ℓ-integrierbar ist, notwendig. Das heißt nun aber ab |f (x)| dx < +∞, R d. h. ab |f (x)| dx < +∞. Satz 2.2.3 (Übertragungssatz) Seien [Ω1 , F1 , µ] ein Maßraum, [Ω2 , F2 ] ein messbarer Raum und weiter h : [Ω1 , F1 ] → [Ω2 , F2 ], f : [Ω2 , F2 ] → [R, B], wobei f bezüglich µ ◦ h−1 integrierbar ist. Dann ist f ◦ 34 2.2. Einführung des Integrals h : Ω1 → R bezüglich µ integrierbar und es gilt: Z (2.1) f ◦ h dµ = Z f dµ ◦ h−1 Beweis: 0. Fall Sei f = χA mit (A ∈ F2 ) und damit messbar. Wir betrachten die Verknüpfung f ◦ h(ω) = χA (h(ω)). Es ist klar, dass χA ◦ h eine Indikatorfunktion auf Ω1 sein muss, d. h. ∃B ⊆ Ω1 mit χA ◦ h = χB und B = {ω ∈ Ω1 : χA (h(ω)) = 1}. χB (ω) = 1 ⇔ χA (h(ω)) = 1 ⇔ h(ω) ∈ A ⇔ w ∈ h−1 (A) ⇒ B = h−1 (A) ∈ F1 . Dabei ist B = {ω ∈ Ω1 : χA (h(ω)) = 1}. ⇒ χA ◦ h = χh−1 (A) R f ◦h dµ = R χh−1 (A) dµ = µ(h−1 (A)) = µ◦h−1 (A) = P R χA dµ◦h−1 = R f dµ◦h−1 1. Fall RSei f ≥ 0 und einfach, d. h. f = ni=1 ai χAi mit Ai ∈ F2 , ai ≥R0. Das Integral −1 = −1 entspricht wegen der Linearität der Summe Pn a f dµ ◦ h i=1 i χAi dµ ◦ h R R R Pn Pn −1 −1 dµ = f ◦ h dµ dµ = i=1 ai χAi ◦ h i=1 ai χAi ◦ h , f = lim fn und fn einfach. Somit folgt 2. Fall RWir wählen (fn )∞ n=1R mit 0 ≤ fn ≤ fn+1 R fn dµ ◦ h−1 = lim fn dµ ◦ h−1 = lim fn ◦ hdµ. Es ist klar, dass gn : = fn ◦ h die folgenden Bedingungen erfüllt:R 0 ≤ gn ≤ Rgn+1 , lim gn = f ◦ h, gn einfach.§§ R R ⇒ limn→∞ gn dµ = f ◦ hdµ ⇒ f ◦ hdµ = f dµ ◦ h−1 Die Behauptung, dass f ◦h µ-integrierbar ist, folgt sofort aus der µ ◦h−1 -Integrierbarkeit von f und der Gleichung (Gleichung 2.1) im bewiesenen Fall nichtnegativer Funktionen. Beispiel R R Sei Ω2 = R, h : Ω1 → R, f (x) = x, f : R → R. Dann gilt h(ω)µ(dω) = xµ ◦ h−1 (dx). Definition Seien f und g messbare Funktionen. f und g sind µ-fast-überall-gleich, wenn gilt: µ({ω ∈ Ω|f (ω) 6= g(ω)}) = 0 Beispiel 1. Sei µ = δω0 ⇒ f = g µ − fast-überall ⇔ f (ω0 ) = g(ω0 ) für ω0 ∈ Ω. Denn sei f (ω) 6= g(ω), ω 6= ω0 ⇒ µ({ω ∈ Ω|f (ω) 6= g(ω)}) = µ({ω ∈ Ω|f (ω0 ) 6= g(ω0 )}) ⇒ f =δω0 g ⇔ f (ω0 ) = g(ω0 ). 2. [Ω, F, µ] = [R, B, ℓ], f = χQ Da die rationalen Zahlen abzählbar sind, ist klar, dass ℓ(Q) = 0. Somit ist auch χQ ≡ 0, da ℓ({ω ∈ Ω|χQ (ω) 6= 0}) = ℓ(Q). Allgemeiner gilt: f =ℓ g ⇔ f χAc =ℓ gχAc . §§ Wenn fn nur endliche viele Werte annimmt, nimmt gn ebenfalls nur endlich viele Werte an. 35 2. Integrationstheorie Bemerkung Die Fast-Überall-Gleichheit ist eine Äquivalenzrelation. Die Klasse aller messbaren Funktionen zerfällt in von µ abhängigen Äquivalenzklassen. Satz 2.2.4 Seien f, g µ-fast überall gleich (f =µ g). Weiter seien f, g µ-integrierbar. Dann gilt: Z f dµ = Z gdµ Beweis: f =µ g ⇔ f − g =µ 0 =µ h durch „Reduktion“ der Allgemeinheit R R • Wegen (f − g)dµ = f dµ − R aus h =µ 0 folgt hdµ = 0. R gdµ genügt es zu zeigen, dass h = 0 messbar und • EsR genügt, den Fall h R≥ 0 zu zeigen. Denn wir haben h = h+ + h− .h+ , h− ≥ R + 0, h dµ = h dµ − (−h− ) dµ und 0 = µ({ω ∈ Ω|h(ω) 6==}) ≥ µ({ω ∈ Ω|h+ (ω) 6= 0}) ≥ 0. Das gilt analog für h− . R • Es reicht weiter, den Fall h einfach und größer 0 zu betrachten. Denn sei h dµ = R lim fn dµ mit 0 ≤ fn ≤ fn+1 , lim fn = h. Dann wissen wir nach dem obigen Punkt: 0 = µ({ω ∈ Ω|h(ω) 6= 0}) = µ({ω ∈ Ω|h(ω) > 0}) ≥ µ({ω ∈ Ω|fn (ω) > 0}) ≥ 0. • Das Problem kann weiter auf die Betrachtung von h = χA mit A ∈ P reduziert werP den. Denn sei h wie in der obigen Feststellung einfach. Dann gilt: h = m j=1 aj χAj für aj > 0 und für alle j = 1, . . . , m ist h ≥ aj χARj . Weiter ist 0 R= µ({ω ∈ Ω|h(ω) > P 0}) ≥ µ({ω ∈ Ω|χAj (ω) > 0}). Wir haben also: h dµ = aj χAj dµ. – R χAi dµ = µ(Ai ) = 0 ⇒ R f dµ = 0 – f ≥ ai χAi ⇒ genügt zu zeigen: χA =µ 0 ⇒ R χA dµ = 0 Dazu ist χA =µ 0 ⇔ µ({ω ∈ Ω|χA (ω) 6= 0}) = 0 = µ(A) R χA dµ = µ(A) = 0 | {z A } 2.3. Absolute Stetigkeit von Maßen Definition Seien µ, ν Maße auf [Ω, F] und 0 ≤ f : [Ω, F] → [R, B]. Dann heißt ν absolut stetig bezüglich µ mit Dichte f ¶¶ , wenn gilt: ν(A) = ¶¶ 36 Schreibweise: ν = µf Z f χA dµ (A ∈ F) 2.3. Absolute Stetigkeit von Maßen Bemerkung R R 0. Schreibweisen: A f dµ : = f χA dµ, ν ≪ µ. In der Literatur ist auch die folgende Definition gebräuchlich: Seien µ und ν Maße auf einer σ-Algebra F. Dann heißt µ absolut stetig bezüglich ν, wenn für alle A ∈ F gilt: ν(A) = 0 ⇒ µ(A) = 0 1. µf (A) = Beweis: R f χA dµ definiert ein Maß auf [Ω, F] • Fall: A = ∅ : µf (∅) = • klar: µf (A) = R R f χ∅ dµ = f χA dµ ≥ 0 R 0dµ = 0 S • Die (Ai ) sind paarweise disjunkt: Ai ∈ F ⇒ µf ( Ai ) = RP PR P f χAi dµ = f χAi dµ = µf (Ai ) 2. µf ist endlich. Es ist per Definition: +∞ > µf (Ω) = µ-integrierbar. R f χΩ dµ = µf ist Wahrscheinlichkeitsmaß. Per Definition ist µf (Ω) = 1 = scheinlichkeitsdichte bezüglich µ. R R f χS Ai dµ = R f dµ ⇔ f ist f dµ. f heißt Wahr- Beispiel P Sei Ω = N0 , F = P(N0 ) und µ : = ∞ i=0 δi das Zählmaß. Behauptung: Jedes Maß ν auf [N0 , P(N0 )] ist absolut stetig bezüglich µ (ν ≪ µ) mit der Dichte f (i) : = ν({i}) ⇒ ν(A) = µf (A). P P P Beweis: ν(A) = i∈A ν({i}) = i∈N0 ν({i})χA (i) = i∈N0 f (i)χA (i) = R f (i)χA (i)µ(di) Bemerkung Seien f, g ≥ 0 und messbar. Dann ist µf =Rµg genau dann, wenn f =µ g. R R R Beweis:∗∗∗ µf = µg ⇔ A f dµ = A gdµ ⇔ A (f − g)dµ = 0 = (f − g)χA dµ R „⇐“ Sei f =µ g ⇒ (f − g) =µ 0 ⇒ (f − g)χA =µ 0 ⇒ (f − g)χA dµ = 0 ⇒ µf = µg „⇒“ Angenommen ¬f =µ g, d. h. µ({ω ∈ Ω|f (ω) 6= g(ω)}) = 0 ⇒ µ({ω ∈ Ω|f (ω) > g(ω)}) > 0 ∨ µ({ω ∈ Ω|f (ω) < g(ω)}) < 0. o. B. d. A. gelte die erste Gleichung und sei An : = {ω ∈ Ω|g(ω) ≥ f (ω) + n1 } ⇒ An ≤ An+1 . Wegen der Stetigkeit von unS ten folgt: lim µ(An ) = µ( An ) = µ({ω ∈ Ω|f (ω) < g(ω)}) > 0 R⇒ ∃n0 : µ(An0 ) > 0 = µ({g(ω) ≥ f (ω) + n10 }) = µ({ω ∈ Ω|g(ω) − f (ω) ≥ n10 }) ⇒ (g − f )χAn0 dµ ≥ R 1 1 n0 χAn0 dµ = n0 µ(An0 > 0. Somit folgt, dass nicht gilt: µf = µg ∗∗∗ Der Beweis erfolgt einschränkend für Mengen mit endlichem Maß. 37 2. Integrationstheorie Satz 2.3.1 Sei P ein Wahrscheinlichkeitsmaß auf [R, B] mit stetig differenzierbarer Verteilungsfunktion F (x) = P ((−∞, x)). Dann gilt: P = ℓF ′ Beweis: ††† Wir definieren ein Maß ν : = ℓF ′ . F ist eine Verteilungsfunktion und monoton wachsend. Damit ist die Ableitung immer positiv. Zu prüfen ist nun, ob ν ein Wahrscheinlichkeitsmaß ist und ob dies mit P zusammen fällt. R R ∞ F ′ (x)dx = 1. Dazu ν(R) = R F ′ (x)ℓ(dx). Da F stetig ist und Satz 2.2.2 gilt: −∞ Rb ′ lima→−∞ limb→∞ a F (x)dx = lima→−∞ limb→∞ (F (b)−F (a)). Wegen des Satz 1.5.3 Punkt 3 und 4 gilt 1 − 0 · 1. Weiterhin ist zu zeigen, dass P = ν. Hier genügt es zu zeigen, dass beide die gleiche Verteilungsfunktion haben: Die Verteilungsfunktion F von P Rist gleich der Verteilungsfunktion G von ν. Wir Rhaben G(x) = x ν((−∞, x)) = (−∞,x) F ′ (x)ℓ(dy). Wiederum nach Satz 2.2.2 ist −∞ F ′ (y)dy = lima→−∞ (F (x) − F (a)) = F (x) Beispiel Wir betrachten die Exponentialverteilung: Exλ → F (x) = ′ F (x) = ( ( 0 1 − e−λx 0 λe−λx x≤0 x>0 x≤0 x>0 Exλ = ℓF ′ (x) Satz 2.3.2 Seien µ ein Maß auf [Ω, F], f, g : [Ω, F] → [R, B], f ≥ 0. Ist f · g bezüglich µ integrierbar, so ist g allein bezüglich µ mit Dichte f integrierbar und es gilt: Z gdµf = Z f gdµ Beweis: R R R 0. Fall gR = χA (AR∈ F): Es gilt zu zeigen, dass gdµf = f gdµ = χA dµf = µf (A) = R A f dµ = f χA dµ = f gdµ P 1. Fall g = ai χAi Die weiteren Schritte können wie bereits gehabt mittels der Linearität und Limes genzeigt werden. ††† Für die Gültigkeit der Behauptung reicht die Forderung, dass F ′ stückweise stetig ist. Der Beweis wird hierdurch jedoch sehr umfassend, sodass auf die schwächere Bedingung zurückgegriffen wird. 38 2.4. Der Satz von Fubini Beispiel Eine vielfache Anwendung stellt folgendes Beispiel dar: µ = ℓ, [Ω, F] = [R, B], P = ℓf, f ist (stückweise) stetig, g : [R, B] → [R, B] bezüglich P R R∞ integrierbar und stetig. Daraus folgt: gdP = −∞ f (x)g(x)dx 2.4. Der Satz von Fubini Definition Sei [Ω, F, µ] ein Maßraum. Das Maß µ heißt σ-endlich, wenn eine messbare Zerlegung‡‡‡ (Ak )∞ k=1 von Ω existiert mit µ(Ak ) < +∞ (k = 1, 2, . . .). Bemerkung Spezialfälle: • Alle Wahrscheinlichkeitsmaße und alle endlichen Maße • Lebesguesche Maße (jede Dimension); Wähle z. B. Ak = [k, k + 1) mit (k ∈ Z) ⇒ S Ak R, Ak ∩ Aj = ∅, ℓ(Ak ) = 1 • Zählmaß auf abzählbaren Mengen Ω, Wähle Aω = {ω}. Es ist klar, dass µ(Aω ) = P P ω∈Ω δω ({ω}) = 1 ω∈Ω δω (Aω ) = Im folgenden seien Ω1 , F1 , µ1 ], . . . , [Ωn , Fn , µn ] Maßräume und µ1 , . . . , µn σ-endlich. Satz 2.4.1 (Satz von Fubini) Sei f : ×ni=1 [Ωi , Fi ] → [R, B] bezüglich ×ni=1 µi integrierbar. Weiter sei (i1 , . . . , in ) eine Permutation der Zahlen {1, . . . , n}. Dann gilt: Z f d ×ni=1 µi = Z ··· Z f (ω1 , . . . , ωn )µi1 (dωi1 ) . . . µin (dωin ) Beispiel Wir wissen, [Rn R, Bn , ℓ(n)R ] = [R, B, ℓ]n× . Wenn f (x1 , . . . , xn ) stetig, ist sie in jeder Varia∞ ∞ |f (x1 , . . . , xn )|dx1 . . . dxn < +∞. Es gilt: · · · −∞ blen stetig und −∞ Z f dℓ (n) = Z∞ −∞ ··· Z∞ f (x1 , . . . , xn )dx1 . . . dxn −∞ Satz 2.4.2 Seien [Ω1 , F1 , µ1 ], . . . , [Ωn , FnR , µn ] Maßräume mit σ-endlichen Maßen. Weiterhin seien Q fi : [Ω1 , Fi ] → [R, B], fi ≥ 0, fi dµi = 1§§§ . Setzen f (ω1 , . . . , ωn ) : = ni=1 fi (ωi ). Dann gilt: µf = ×ni=1 µi fi wobei µ = ×ni=1 µi ‡‡‡ S d. h. Ak ∩ Aj = ∅ ∧ Ak = Ω §§§ d. h. fi ist Wahrscheinlichkeitsdichte bezüglich µi bzw. µi fi ist Wahrscheinlichkeitsmaß. 39 2. Integrationstheorie Beweis: µf (×nj=1 Aj ) = = Z Z χ×nj=1 Aj d(xµi )f ··· Z ··· Z Y n χ×nj=1 Aj (ω1 , . . . , ωn )µ1 (dω1 ) . . . µn (dωn ) Q|n {z } j=1 = = = Z Z ··· n Z Y j=1 40 Z χAj (ωj ) χAj (ωj ) j=1 n Y n Y fk (ωk )µ1 (dω1 ) . . . µn (dωn ) k=1 (χAj (ωj )fj (ωj ))µ . . . µ j=1 χAj (ωj )fj (ωj )µj (dωj ) = n Y j=1 µj fj (Aj ) 3. Wahrscheinlichkeitsräume Das Anliegen dieses Kapitels ist es, die Grundtypen von Wahrscheinlichkeitsräumen zu vermitteln und die Bildung von Modellen zu trainieren. Weiterhin werden wichtige Typen von Verteilungen auf [R, B] abgeleitet. 3.1. Der klassische Wahrscheinlichkeitsraum Dieser Wahrscheinlichkeitsraum war der erste, der in der Historie benutzt wurde. Wie schon in der Einleitung geschrieben, haben Spieler die Wahrscheinlichkeit zuerst gefühlsmäßig wahrgenommen und versucht, dies genauer zu errechnen. Dies geschah um im Anschluß eventuell eine Strategie zu entwickeln. Im 18. Jahrhundert kam dann ein französischer Mathematiker auf die Idee, den Zufall mit gleichen Wahrscheinlichkeiten zu modellieren. Dies ist die Wurzel des klassischen Wahrscheinlichkeitsraumes. Bei der Betrachtung ergibt sich die folgende Situation: Gegeben sei ein Experiment oder Versuch mit n-möglichen Ergebnissen. Dabei bezeichnet das Wort „Experiment“ die prinzipielle Möglichkeit der Wiederholung. Weiterhin darf kein bestimmtes Ereignis gegenüber einem anderen bevorzugt werden. Abstrakt hat man dann, endliches Ω = {ω1 , . . . , ωn } als die Klasse der möglichen Ereignisse. Weiterhin ist F = P(Ω) das System aller möglichen Ereignisse und A ∈ F ist eine Aussage über ein Ereignis. Beispiel 1. Münzwurf: Ω = {W, Z} = {0, 1} 2. Würfel: Ω = {1, 2, 3, 4, 5, 6} #A . Dieses Modell nimmt an, Ein Ansatz für ein Wahrscheinlichkeitsmaß ist: P (A) = #Ω dass alle Ereignisse gleich verteilt sind: P ({ωi }) = P ({ωj }) für alle i, j = 1, 2, . . .. P S Das Wahrscheinlichkeitsmaß hier ist: P (Ω) = 1 = P ( ni=1 {ωi }) = ni=1 P ({ωk }) ⇒ P P #A 1 1 P ({ωk }) = n1 = #Ω . Somit folgt dann P (A) = ω∈A P ({ω}) = ω∈A #Ω = #Ω . Definition Ein Wahrscheinlichkeitsraum [Ω, F, P ] heißt klassisch, wenn gilt • Ω ist endlich und nichtleer • F = P(Ω) 41 3. Wahrscheinlichkeitsräume • P (A) = #A #Ω (A ∈ F ⇔ A ⊆ Ω) Bemerkung In klassischen Wahrscheinlichkeitsräumen wird P in der Regel wie folgt dargestellt: Sei P µ = ω∈Ω δω ein Zählmaß auf Ω. Dann kann man das normierte Zählmaß als P (A) = 1 µ(Ω) µ darstellen. Allgemeiner gilt: Sei µ ein endliches Maß auf [Ω, F] mit µ(Ω) 6= 0. Dann 1 kann man Q : = µ(Ω) µ setzen. Beispiel 1. Münzwurf: Ω = {0, 1} ⇒ P ({ω}) = 2. Würfel: Ω = {1, . . . , 6} ⇒ P ({ω}) = 1 2 1 6 3. „kompliziertere“ Modelle: • n-facher Münzwurf: „Menge der möglichen Protokolle“ Ω = {[ω1 , . . . , ωn ]|ωi ∈ {0, 1}, i = 1, . . . , n} • n-mal Würfeln: Ω = {1, . . . , 6}n× Kombinatorische Formeln Dies stellt nur einen Einschub dar. In der Regel sollten diese Regeln dem Student bekannt sein. Die kombinatorischen Formeln drücken aus, wieviele Möglichkeiten der Auswahl von k Elementen einer n-elementigen Menge existieren. Dabei kann man sich vorstellen, dass aus eine Urne mit insgesamt n numerierten Kugeln nach bestimmten Kriterien Kugeln gezogen werden. 1. Variante Auswahl mit Berücksichtigung der Reihenfolge und mit Zurücklegen mR : = {[ω , . . . , ω ]|ω ∈ {1, . . . , n}, i = 1, . . . , k} = {1, . . . , n}k ⇒ AmW 1 i k k,n mW mR k #Ak,n =n 2. Variante Auswahl mit Berücksichtigung der Reihenfolge und ohne Zurücklegen (k ≤ n) mR : = {[ω , . . . , ω ]|{ω , . . . , ω } ∈ {1, . . . , n}} = n(n−1)(n−2) . . . (n− AoW 1 1 k k k,n n! mR = k + 1) ⇒ #AoW k,n (n−k)! Für den Spezialfall k = n folgt dann: #A = n!. Dies entspricht den Permutationen von {1, . . . , n}. 3. Variante Auswahl ohne Berücksichtigung der Reihenfolge und ohne Zurücklegen oR : = {{ω , . . . , ω }|{ω , . . . , ω } ⊆ {1, . . . , n}} AoW 1 1 k k k,n n n! 1 oW oR oW mR ⇒ #Ak,n k! = k!(n−k)! = k = #Ak,n 4. Variante Auswahl ohne Berücksichtigung der Reihenfolge und mit Zurücklegen (k+n)! k+n mW oR Ak,n = n = n!k! 42 3.1. Der klassische Wahrscheinlichkeitsraum Beispiel mR ⇒ #Ω = 2n . Wir betrachten das Ereignis n-facher Münzwurf: Ω = {0, 1}n = AmW n,2 P oR = k-mal wird Zahl geworfen. Dies entspricht {[ω1 , . . . , ωn ] ∈ Ω|k = ni=1 ωi } = AoW k,n n (k ) #Ak n k ⇒ P („Ak “) = #Ω = 2n . Das Ereignis Bk entspricht der Aussage „beim k-ten Wurf wird erstmalig Zahl geworfen“: Bk = {[ω1 , . . . , ωn ] ∈ Ω| ω1 , . . . , ωk−1 , ωk = 1} | {z =0 } = {[0, . . . , 0, 1]} × {[ωk+1 , . . . , ωn ]|ωj ∈ {0, 1}} P („Bk “) = #Bk 2n−k = n = 2−k #Ω 2 Hypergeometrisches Modell Zentrum der Betrachtung ist in der Regel eine Urne. Dabei steht dies für ein Behältnis, dass von außen nicht einsehbar ist und in dem alle Kugeln gleiche Oberflächeneigenschaften haben.∗ In der Urne befinden sich N Kugeln. Darunter sind M † rote und N − M weiße Kugeln. Nun werden aus der Urne „auf gut Glück“ n Kugeln herausgegriffen. Wir betrachten das Ereignis Ak , welches für „genau k der n Kugeln sind rot“ steht. Als Hilfe nehmen wir an, dass die Kugeln nummeriert sind und zwar von 1 bis M für die roten und M +1 bis N für die weißen Kugeln. Mathematisch wird dies wie folgt ausgedrückt: Ω : = {{ε1 , . . . , εn }|{ε1 , . . . , εn } ⊆ {1, . . . , N }} = AoRoW n,N #Ak #Ak = N F = P(Ω) P (Ak ) : = #Ω n Ak = {{ε1 , . . . , εn } ⊆ Ω|#({ε1 , . . . , εn } ∩ {1, . . . , M }) = k und #({ε1 , . . . , εn } ∩ {M + 1, . . . , N }) = n − k} Somit ist Ak = ∅, wenn k < 0 ∨ k > M ∨ k > n ∨ n − k > N − M ⇔ k < n + M − N . ∗ Untersuchungen während des Zweiten Weltkrieges ergaben, dass Menschen Kugeln anhand ihrer Oberflächen unbewusst wiedererkennen und dann Präferenzen ausbilden. Dies sollte bei den Experimenten immer ausgeschlossen werden. † Wobei gilt: M ≤ N . 43 3. Wahrscheinlichkeitsräume Wir betrachten nun, max(0, n + M − N ) ≤ k ≤ min(M, n). #Ak = oR #AoW k,M · oR #AoW n−k,N −M oR #Ω = #AoW = n,N ⇒ P (Ak ) = N n M N−M ( k )( n−k ) (Nn ) 0 M = k ! ! N −M n−k ! k mit max(0, n + M − N ) ≤ k ≤ min(M, n) sonst Aus der obigen Tatsache folgt nun: min(M,n) X k=max(0,n+M −N ) M k ! N −M n−k ! = N n ! Zum Beweis dieser Aussage wissen wir, dass Ak ∩ Aj = ∅ für k 6= j und N−M P (M P k )( n−k ) . Somit folgt, dass P (Ω) = 1 = k P (Ak ) = N (n) S k Ak = Ω ‡ ist. Weiterhin kann man schlussfolgern: M N −M k n−k δk N n k=max(0,n+M −N ) min(M,n) HN,M,n : = X ist ein Wahrscheinlichkeitsmaß auf [R, B]. 3.2. Das Bernoullischema Definition Seien n ≥ 1 mit n ∈ N und 0 ≤ p ≤ 1. Der Wahrscheinlichkeitsraum [Ω, F, P ] = [{0, 1}, P({0, 1}), pδ1 + (1 − p)δ0 ]n× heißt (endliches) Bernoullischema zu n Versuchen mit der Erfolgswahrscheinlichkeit p. Bemerkung 1. [Ω, F, P ] = [{0, 1}n× , P({0, 1}n× ), (pδ1 + (1 − p)δ0 )n× ] 2. Ω = {[ω1 , . . . , ωn ]|ωi ∈ {0, 1}, i = 1, . . . , n} = {0, 1}n× 3. F = P(Ω) Q 4. P ({[ω1 , . . . , ωn ]}) = P (×ni=1 {ωi }) = (pδ1 + (1 − p)δ0 )n× (×ni=1 {ωi }) = ni=1 (pδ1 + Qn Qn ωi 1−ωi = (1P− p)δ0 )({ωi }) P = i=1 (pδ1 )({ωi }) + (1 − p)δ0 ({ωi }) = i=1 p (1 − p) p ωi (1 − p)n− ωi ‡ 44 Für k gilt max(0, n + M − N ) ≤ k ≤ min(M, n) 3.2. Das Bernoullischema Beispiel Als Beispiel soll der n-fache Münzwurf mit einer Erfolgswahrscheinlichkeit von p = 1/2 nach dem klassichen Modell dienen. Wir betrachten die Ereignisse Ak und Bk . Dabei entspricht Ak der Aussage „k-mal Erfolg bei n Versuchen“ und Bk der Aussage „erstmalig beim k-ten Versuch Misserfolg“. Ak = {[ω1 , . . . , ωn ] ∈ Ω| X P (Ak ) = p [ω1 ,...,ωn ]∈Ak = pk (1 − p)n−k = ( P ωi X (1 − p)n− X 1= ω∈Ak pk (1 − p)n−k 0 P ωi = k} n k Damit folgt, dass nk=0 pk (1 − p)n−k nigung ergibt gerade Ω. X P ωi = X P ({ω}) ω∈Ak pk (1 − p)n−k = pk (1 − p)n−k #Ak k = 0, . . . , n sonst n k = 1. Denn die Ak sind disjunkt und ihre Verei- Die Binomialverteilung zu n Versuchen mit der Erfolgswahrscheinlichkeit p ist wie folgt definiert: ! n X n k Bn,p : = p (1 − p)n−k δk k k=0 Beispiel Weiterführung des obigen Beispiels: Es ist klar, dass P (B0 ) = 0. Für P (Bk ) gilt: P (Bk ) = (pδ1 + (1 − p)δ0 )n× ({[1, . . . , 1, 0]} × {0, 1}n−k ) = (pδ1 + (1 − p)δ0 )k× ({[1, . . . , 1, 0]})(pδ1 + (1 − p)δ0 )n−k ({0, 1}n−k ) | = pk−1 (1 − p) {z =1 } Zur Erinnerung: Die Verteilung Gp : = ∞ X k=1 pk (1 − p)δk heißt geometrische Verteilung. Strategien beim wiederholten Glücksspiel Im Rahmen derartiger Spiele wird beabsichtigt, einen Gewinn K zu erzielen. Dabei kann man mit folgender Strategie vorgehen: 45 3. Wahrscheinlichkeitsräume 1. Schritt Setze K. Bei Erfolg wird der Gewinn K realisiert. Andernfalls gehe zum nächsten Schritt. 2. Schritt Setze (1 + 1)K. Bei Erfolg wird Gewinn K realisiert. Andernfalls gehe zum nächsten Schritt. 3. Schritt Setze (1+ 2+ 1)K. Bei Erfolg wird Gewinn K realisiert. Andernfalls gehe zum nächsten Schritt. Im n Schritt wird also immer ein Betrag von 2n−1 K gesetzt und im Gewinnfall wird schliesslich K ausgeschüttet. Im Falle n = 10 sind 512K einzusetzen. Sei nun p = 1/2. Dann ergibt sich eine Gewinn9) P 9 wahrscheinlichkeit von (1−p) 9k=0 pk = (1−p) (1−p (1−p) = 1−p ≈ 0, 999 Beispiel radioaktiver Zerfall Wir betrachten die Zeit t. Zu Beginn dieser Zeit existieren n Atome des radioaktiven Stoffes. Diese sind mit 1, . . . , n nummeriert. Das Ereignis ωk = 1 entspricht der Aussage, „Atom k ist in der Zeit t zerfallen“ und das Ereignis ωk = 0 entspricht der Aussage, „Atom k ist in der Zeit t nicht zerfallen“. Die Anzahl der P zerfallenen Atome berechnet sich durch nk=1 ωk . Genetik Hierbei wird die Teilung eines DNA-Stranges beobachtet. Solch ein Strang teilt und „kopiert“ sich. Dabei entsteht keine 1:1-Kopie, sondern an endlich vielen Stellen treten Fehler auf. Nach Ansicht der Neodarwinisten erfolgt auf diesem Wege die Evolution. Insgesamt existieren n Verbindungen§. Das Ereignis ωk = 1 entspricht einem Fehler an der k-ten Stelle und das Ereignis ωk = 0 sagt aus, dass an der k-ten Stelle kein Fehler ist. Will man nun bei beiden Beispielen versuchen, nach dem bisher gelernten die Wahrscheinlichkeit zu errechnen, wird man sehr schnell auf Problemestoßen. So ist im Beispiel der Genetik P („k-mal Erfolg“) = nk pk (1 − p)n−k = 100000000 p25 (1 − p)≈100000000 ≈ ∞ · 0. 25 3.3. Der Poissonsche Grenzwertsatz Wir betrachten die Binomialverteilung Bn,p für sehr große n und kleine p, d. h. Bn,p ({k}) = ( n oder Bn,p = k 0 n X k=0 § 46 pk (1 − p)n−k ! 0≤k≤n sonst n k p (1 − p)n−k δk k Beim Mensch entspricht das n ungefähr 100 Millionen. 3.4. Ein kontinuierliches Analogon des klassischen Wahrscheinlichkeitsraumes und weiter die Poissonverteilung zum Parameter λ: Πλ ({k}) = λk −λ e k! (λ > 0) Satz 3.3.1 (Poissonsche Grenzwertsatz) Sei (pn )∞ n=1 eine Folge mit 0 ≤ pn ≤ 1 für alle n = 1, 2, . . . und 0 < λ = limn→∞ npn . Dann gilt: lim Bn,pn ({k}) = Πλ ({k}) (k = 0, 1, . . .) n→∞ Beweis: in der Übung Beispiel Seien n = 1011 , p = c·10−11 ⇒ np = c, λ = 1. Es gilt die Annahme, Bn,p ({k}) ≈ Πc ({k}). Wir betrachten k = 0, 1, 2, 3, 4, 5 für c = 1: Bn,p ({p}) ≈ Π1 ({5}) = 1/5!e−1 = 1/120·e ≤ 1/250 3.4. Ein kontinuierliches Analogon des klassischen Wahrscheinlichkeitsraumes Im kontinuierlichen Modell ist Ω ⊆ Rn , 0 ≤ ℓ(n) (Ω) < +∞: ⇒ GlΩ : = ℓ(n) ℓ(n) (Ω) 47 4. Bedingte Wahrscheinlichkeit und Unabhängigkeit 4.1. Bedingte Wahrscheinlichkeit Wenn man einer Lottoziehung zuschaut und feststellt, dass man nacheinander die gezogenen Zahlen auch getippt hat, verändern sich die Wahrscheinlichkeiten kontinuierlich. Im folgenden soll dies erklärt werden. Im folgenden gilt immer, dass [Ω, F, P ] ein Wahrscheinlichkeitsraum ist. Definition Seien A, B ∈ F mit P (B) > 0. Dann heißt P (A|B) : = P (A ∩ B) P (B) bedingte Wahrscheinlichkeit von A unter der Bedingung B. Beispiel Als Beispiel dient hier wieder der Würfel: Ω = {1, 2, 3, 4, 5, 6}, P ({k}) = 1/6, k ∈ Ω, A = {6}, B = {4, 5, 6} P (A|B) = 1/6 1 P ({6} ∩ {4, 5, 6}) P ({6}) = = = 3/6 P ({4, 5, 6}) P ({4, 5, 6}) 3 Satz 4.1.1 (Elementare Eigenschaften) Sei B ∈ F, P (B) > 0. Dann gelten: (a) 0 ≤ P (A|B) ≤ 1 (b) P (B|B) = P (Ω|B) = 1 S∞ (c) P ( i=1 Ai |B) = P∞ i=1 P (Ai |B) für alle (Ai )∞ i=1 ∈ F mit Ai ∩ Aj 6= ∅ (i 6= j) Beweis: (a) Nach der Definition ist klar, dass P (A|B) ≥ 0 gilt. Weiterhin ist A ∩ B ⊆ B. Nach der Monotonie von P folgt damit, dass P (A ∩ B) ≤ P (B). Durch Umstellen erhält P (∅∩B) P (∅) man nun P P(A∩B) (B) ≤ 1. Es ist klar, dass P (∅|B) = P (B) = P (B) = 0 ist. 48 4.1. Bedingte Wahrscheinlichkeit (b) P (Ω|B) = P (B) P (B) = 1 = P (B|B) (c) Seien die (Ai ) aus F paarweise disjunkt. Dann sind auch (Ai ∩ B) paarweise disjunkt P∞ S und es folgt, P ( ∞ i=1 P (Ai ∩ B). Somit hat man damit: i=1 (Ai ∩ B)) = S∞ P( i=1 Ai P (B) ∩ B) = P∞ i=1 P (Ai P (B) ∩ B) Bemerkung Durch A → P (A|B) ist ein Wahrscheinlichkeitsmaß auf [Ω, F] gegeben. Man bezeichnet P (·|B) als bedingte Verteilung unter der Bedingung B. Satz 4.1.2 (Formel bzw. Satz über die totale Wahrscheinlichkeit) Sei (Bi )i∈I eine abzählbar messbare Zerlegung von Ω, d. h. Bi ∈ F, i ∈ I abzählbar, S Bi ∩ Bj = ∅ für i 6= j, Bi = Ω. Dann gilt: P (A) = X P (A|Bi )P (Bi ) A ∈ F, P (Bi ) > 0 i∈I Beweis: X P (A|Bi )P (Bi ) = i∈I i∈I P X P (A ∩ Bi ) [ i∈I ! (A ∩ Bi ) = P P (Bi ) A∩ [ Bi i∈I P (Bi ) = ! X i∈I P (A ∩ Bi ) = P (A ∩ Ω) = P (A) Bemerkung Die zusätzliche Forderung P (Bi ) > 0 ist nicht notwendig, da P (A|Bi ) · P (Bi ) = 0. In dem Zusammenhang ist die Forderung jedoch sinnvoll. Satz 4.1.3 (Satz von Bayes) Sei (Bi )i∈I eine messbare Zerlegung von Ω und A ∈ F mit P (A) > 0. Dann gilt: P (A|Bi ) · P (Bi ) j∈I P (A|Bj ) · P (Bj ) P (Bi |A) = P i∈I Für den Spezialfall A, B ∈ F und P (A) > 0 gilt: P (B|A) = P (A|B) · P (B) P (A|B)P (B) + P (A|B c )P (B c ) 49 4. Bedingte Wahrscheinlichkeit und Unabhängigkeit Beweis: P Aus Satz 4.1.2 folgt P (A) = j∈I P (A|Bj )P (Bj ). Weiter folgt aus der Definition der bedingten Wahrscheinlichkeit: P (A|Bi )P (Bi ) = schließlich ergibt sich: P (A∩Bi ) P (Bi ) ·P (Bi ) = P (A∩Bi ). Aus beiden P (A ∩ Bi ) P (A|Bi ) · P (Bi ) = P (Bi |A) = P (A) j∈I P (A|Bj )P (Bj ) P Beispiel In einem BSE-Schnelltest werden 100 Millionen Kühe getestet. Davon sind 100 Kühe an BSE erkrankt und bei nahezu allen ist der Test auch positiv. Aber bei 0,001 % der gesunden Kühe schlägt der Test auch an. Wir betrachten folgende Ereignisse: • A = „Test positiv“ ⇒ Ac = „Test negativ“ • B = „Kuh hat BSE“ ⇒ B c = „Kuh hat kein BSE“ • „Testzuverlässigkeit“: P (A|B) ≈ 1 − 10−3 = 99, 9 % Dies entspricht der Wahrscheinlichkeit, dass der Test bei einer BSE-Kuh auch BSE anzeigt. Informationsübertragungsmodell Seien S1 = S2 = S ein endliches Alphabet. S1 bezeichnet das Alphabet des Senders, S2 das des Empfängers. Es ist F = P(Ω) und Ω = S1 ×S2 = S×S = {[s1 , s2 ]|s1 , s2 ∈ S}. As entspricht dem Ereignis, dass S empfangen und Bs das S gesendet wird. Dabei ist s ∈ S. Weiter ist As2 = S ×{s2 }, Bs1 = {s1 }×S, As2 ∩ Bs1 = {[s1 , s2 ]} und q(s1 , s2 ) : = P (As2 |Bs1 ). Die Wahrscheinlichkeit ps1 bezeichnet die P a-priori-Wahrscheinlichkeit P (Bs1 ). Damit folgt, P (As2 ) = s1 ∈S P (As2 |Bs1 )P (Bs1 ) = P s1 ∈S ps1 q(s1 , s2 ). Ideal ist q(s1 , s2 ) = δs1 ,s2 . 4.2. Lebensdauerverteilungen Im folgenden gilt immer: Ω = R+ = (0, +∞), F = B∩R+ = {A∩R+ |A ∈ B} Definition Ein Wahrscheinlichkeitsmaß Q auf [Ω, F] heißt Lebensdauerverteilung. • Sei Q = P∞ (Q ist bezüglich des Zählmaßes absolut stetig.). Dann heißt X qi qi ≥ 0, qi = 1, i = 1, 2, . . . rQ (i) : = P∞ j≥i qi i=1 qi δi Sterberate von Q zum Zeitpunkt i. R • Sei Q = ℓf mit f ≥ 0, f dℓ = 1 (Q ist absolut stetig mit Dichte f .). Dann heißt f (x) [x,∞) f (y)ℓ(dy) rQ (x) : = R Sterberate vom Q zur Zeit x ∈ R+ . 50 x ∈ R+ 4.2. Lebensdauerverteilungen Satz 4.2.1 P (a) Sei Q = ∞ i=1 qi δi . Dann gilt rQ (i) = Q({i}|{i, i + 1, . . .}) i = 1, 2, . . . (b) Sei Q = ℓf und f stetig. Dann gilt rQ (x) = lim 1/∆Q([x, x + ∆)|[x, +∞)) x ∈ R+ ∆→0 Beweis: (a) Q({i}|{i, i + 1, . . . }) = Q({i}∩{i,i+1,... }) Q({i,i+1,... }) = Q({i}) Q({i,i+1,... }) rQ (i) (b) Q([x, x + ∆)|[x, +∞)) = Q([x,x+∆)∩[x,+∞)) Q([x,+∞)) = = P Q({i}) = P qi Q({j}) Q([x,x+∆)) Q(x,+∞) q j≥i j j≥i = R f (y)ℓ(dy) Nunmehr = Rx,x+∆ x,+∞ f (y)ℓ(dy) werden die Zähler separat betrachtet und mit der ist, folgt: R Verwendung,Rdass f stetig R x+∆ R ∆→0 x x+∆ 1 1 1/∆ f (y)dy · 0 f (y)dy −−−→ f (x). f (y)(dy) = /∆ 0 [x,x+∆) f (y)ℓ(dy)· /∆ x Somit folgt die Behauptung. Beispiel (Interpretation zu Satz 4.2.1) Fall a) Der Wert {i} bedeutet, dass das Sterbealter i ist und {i, i+1, . . .} heißt, dass mindestens das Alter i erreicht wird. ⇒ rQ ({i}) = P („Sterben im Alter i“|„Alter i wurde erreicht“) Fall b) [x, x + ∆) heißt, Sterben in einem Alter zwischen x und x + ∆ und [x, +∞) bedeutet, dass mindestens das Alter x erreicht wird. Beispiel P i−1 δ ⇒ r (i) = 1 − p für i = 1, 2, . . .. 1. Sei Q = Gp = (1 − p) ∞ i Q i=1 p ( 0 x≤0 . Dabei ist λ > 0 gegeben. Sei −λx λe x>0 R R F (x) = Exλ ((−∞, x)) = Ex([0, x)) = [0,x) fλ (y)ℓ(dy) = 0x f (x) dy. F ist Ver- 2. Sei Q = Exλ = ℓfλ mit fλ = teilungsfunktion zu Q → R [x,+∞) f (y)ℓ(dy) = 1 − F x) −λx e−λx ⇒ rQ (x) = λe = λ. e−λx Q = Exλ → F (x) = 1 − nicht vom augenblicklichen Alter ab. ⇒ rQ (x) = f (x) 1−F (x) . Es ist Also hängt die Sterberate Typisches Verhalten der Sterberate rQ 1. technische/mechanische Systeme (Reibung, allg. Abnutzung) 2. Elektronische Bauteile 3. Biologische Systeme (höher organisiert, insbesondere Mensch) 51 4. Bedingte Wahrscheinlichkeit und Unabhängigkeit 4.3. Unabhängigkeit von Ereignissen Im folgenden gilt immer, dass [Ω, F, P ] ein Wahrscheinlichkeitsraum ist. Definition Seien A, B ∈ F. A und B heißen unabhängig, wenn gilt P (A ∩ B) = P (A) · P (B) Bemerkung 1. Sei P (B) > 0. Dann gilt A, B unabhängig ⇔ P (A|B) = P (A). Denn P (A) = P (A|B) = P P(A∩B) (B) ⇔ P (A)P (B) = P (A ∩ B) 2. Sei P (B) = 0 ⇒ A, B unabhängig für beliebige A ∈ F. Denn P (B) = 0 ⇒ P (A)P (B) = 0; A ∩ B ⊆ B ⇒ 0 = P (A ∩ B) ≤ P (B) = 0 3. P (B) = 1 ⇒ A, B unabhängig. Zum Beweis hierfür siehe auch den folgenden Satz: P (B) = 1 ⇔ P (B c ) = 0 ⇒ A, B c unabhängig ⇒ A, (B c )c unabhängig. Satz 4.3.1 A, B sind genau dann unabhängig, wenn A, B c unabhängig. Beweis: Rein mengentheoretisch ist klar, dass gilt A = (A∩B)∪(A∩B c ) und (A∩B)∩(A∩B c ) = ∅. P (A) = P (A ∩ B) + P (A ∩ B c ) = P (A)P (B) + P (A ∩ B c ) P (A ∩ B c ) = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B c ) | {z P (B c ) } Definition Sei A ⊆ F. Dann heißt A vollständig unabhängig, wenn ∀{A1 , A2 , . . . , An } ⊆ A gilt P n \ k=1 Ak ! = n Y P (Ak ) k=1 Weiter heißt A paarweise unabhängig, wenn ∀{A, B} ⊆ A gilt P (A ∩ B) = P (A)P (B) Bemerkung 1. Aus der Tatsache, dass A (vollständig) unabhängig ist, folgt, dass A auch paarweise unabhängig ist. Die Umkehrung hingegen ist falsch. 2. Wenn A = {A, B} ⇒ A vollständig unabhängig ⇔ A paarweise unabhängig ⇔ A, B unabhängig. 52 4.3. Unabhängigkeit von Ereignissen 3. Sei A = {A1 , A2 , A3 }. Aus P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ) folgt im allgemeinen nicht, dass A vollständig unabhängig ist. T 4. A ist genau dann vollständig unabhängig, wenn ∀{A1 , . . . , An } ⊆ A gilt: A1 , nk=2 Ak T unabhängig. Beweisidee: Die betrachtete Unabhängigkeit heißt: P (A1 ∩ nk=2 Ak ) = Qn Tn j=1 P (Aj ) = P (A1 )P ( k=2 Ak ). Die andere Richtung wird durch vollständige Inn=1 duktion gezeigt: k = 2 −−→ P (A1 ∩ A2 ) = P (A1 )P (A2 ). 5. A ist genau dann vollständig unabhängig, wenn ∀{A1 , . . . , An } ⊆ A gilt, dass {A1 , . . . , An } vollständig unabhängig. Dabei werden keine beliebigen Systeme betrachtet, sondern wir beschränken uns auf abzählbare Mengen Beispiel Sei A ∈ F, 0 < P (A) < 1. Setzen A1 = A2 = A, A3 = ∅ ⇒ P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ) = 0. Aber P (A1 ∩ A2 ) = P (A) 6= (P (A))2 = P (A1 ) · P (A2 ) Satz 4.3.2 Wenn A vollständig unabhängig ist, dann ist à : = {Ac |A ∈ A} vollständig unabhängig. Beweis: Nach der obigen Bemerkung 5 genügt es, für den Fall A = {A1 , . . . , An } die Unabhängigkeit zu zeigen. Dies ist jedoch nach der Bemerkung 4 und Satz 4.3.1 klar. Satz 4.3.3 P∞ Sei (Ai )∞ i=1 P (Ai ) = +∞. Dann gilt: i=1 vollständig unabhängig und P ∞ [ \ n=1 i≥n T∞ S S Ai = 1 Interpretation: ω ∈ n=1 i≥n Ai ⇔ ω ∈ i≥n Ai für n = 1, 2, . . . ⇔ #{i|ω ∈ Ai } = T S +∞ ⇒ ∞ n=1 i≥n Ai entspricht dass unendlich viele Ereignisse Ai eintreten. Beweis: T T S S c Ai )c ) = 0. Es ist klar, dass P (( ∞ Es genügt zu zeigen, dass P (( ∞ n=1 i≥n Ai ) ) = n=1 i≥n T T P S∞ T c c P ( n=1 i≥n Aci ) ≤ ∞ n=1 P ( i≥n Ai ). Damit genügt zu zeigen, dass P ( i≥n Ai ) = 0 = T T∞ Tk T T ∞ k P ( k=n i=n Aci ) ⇒ P ( i≥n Aci ) = P ( k=n i=n Aci ). Wegen der Stetigkeit von oben T ist limk→∞ P ( ki=n Aci ). Da Ai unabhängig ist, ist auch Aci unabhängig. Daraus folgt, Q Q dass limk→∞ ki=n P (Aci ) = limk→∞ ki=n (1 − P (Ai )) = 0. Somit genügt es noch zeigen, P P∞ Qk dass ln( i=n (1 − P (Ai )) = i=n ln(1 − P (Ai )) = −∞ = ∞ i=n − ln(1 − P (Ai )) = +∞. P Weiterhin wissen wir, dass P (Ai ) = +∞. Somit muss nur noch gezeigt werden, dass − ln(1 − P (Ai )) ≥ P (Ai ). Wir haben allgemein somit die Ungleichung − ln(1 − x) ≥ x 1 oder e− ln(1−x) ≥ ex . Durch die Ableitung erhält man: 1−x ≥ 1 für 0 ≤ x ≤ 1. Beispiel Man stelle sich ein unendliches Lottospiel vor. Dann entspricht Ai der Aussage, dass T S beim i-ten Spiel 6 Richtige gezogen werden und ∞ n=1 i≥n Ai entspricht unendlich oft 6 Richtigen. Es ist klar, dass die Ai unabhängig sind und dass P (Ai ) = c > 0. 53 4. Bedingte Wahrscheinlichkeit und Unabhängigkeit Bemerkung Ohne die Forderung nach Unabhängigkeit gilt die Aussage in Satz 4.3.3 im Allgemeinen nicht. Denn wähle beispielsweise Ai = A und sei P (A) ∈ / {0, 1}. Dann ist die Summe S∞ T aller Ai = +∞, aber P ( n=1 i≥n ) = P (A) ist ungleich eins. Satz 4.3.4 P Sei (Ai )∞ i≥1 P (Ai ) < +∞. Dann gilt i=1 eine Folge aus F mit P ∞ [ \ n=1 i≥n Ai = 0 Hierbei wurde die Unabhängigkeit nicht vorausgesetzt. Beweis: TS S S T S Ai ) ≤ P ( i≥k Ai ) für k = Trivialerweise ist: n≥1 i≥n Ai ⊆ i≥k Ai und 0 ≤ P ( S S 1, 2, . . .. Es genügt zu zeigen, dass limk→∞ P ( i≥k Ai ) = 0 ist. Es ist, P ( i≥k Ai ) ≤ P k→∞ P (Ai ) −−−→ 0 und es reicht zu zeigen, dass limk→∞ P aber aus i≥k P (Ai ) < +∞. i≥k P i≥k P (Ai ) = 0. Das folgt Bemerkung vollAus den obigen beiden Sätzen kann folgende Folgerung gemacht werden: Sei (Ai )∞ i=1 S T S T A ) ∈ {0, 1} (0, 1-Gesetz) b) P ( ständig unabhängig. Dann gelten: a) P ( ∞ n=1 i≥n i n≥1 i≥n Ai ) ⇔ P (Ai ) = +∞ (Lemma von Borel-Cantelli) 54 5. Zufallsgrößen 5.1. Zufallsvariablen Definition Seien [Ω, F, P ] ein Wahrscheinlichkeitsraum und [X, X] ein messbarer Raum. • Eine messbare Abbildung ξ : [Ω, F] → [X, X] heißt Zufallsvariable über [Ω, F, P ] mit Werten in [X, X]. • Pξ : = P ◦ ξ −1 heißt Verteilungsgesetz von ξ. • Ist [X, X] = [R, B], so heißt ξ Zufallsgröße. Um sich dies etwas genauer vorzustellen, kann man annehmen, dass man ein zufälliges System hat. Dies ist ein Vorgang, der bei mehreren Versuchen wechselwirkungsfrei andere Ergebnisse bringt. Als Realisierung erhält man ω ∈ Ω. Daraus folgt die Abbildung ξ(ω). Das P muss die Verteilung Pξ haben. Das Anliegen der Statistik ist die Bestimmung von Pξ . Beispiel (Bernoulli-Schema) [Ω, F, P ] = [{0, 1}, P({0, 1}), pδ1 + (1 − p)δ0 ]n× = [{0, 1}n , P({0, 1}n ), (pδ1 + (1 − p)δ0 )nx] Ω = {[ε1 , . . . , εn ]|εi ∈ {0, 1}, i = 1, . . . , n} ξk : Ω → R, ξk ([ω1 , . . . , ωn ]) : = ωk 55 5. Zufallsgrößen Nun fixieren wir ein i und betrachten das Tupel ξi ([ε1 , . . . , εn ]) = ξi . Es ist klar, dass ξi eine Zufallsgröße ist. Pξi (A) = P ◦ ξi−1 (A) = P (ξi−1 (A)) ξi−1 A∈B = {[ε1 , . . . , εn ]|ξi ([ε1 , . . . , εn ]) ∈ A} = {0, 1}(i−1) × A × {0, 1}(n−k) P (ξi−1 (A)) = P ({0, 1}(i−1)× × A × {0, 1}(n−k)× ) = (pδ1 + (1 − p)δ0 )n× ({0, 1}(i−1)× × A × {0, 1}(n−1)× ) = ((pδ1 + (1 − p)δ0 )(i−1)× ({0, 1})(i−1)× )(pδ1 + (1 − p)δ0 )A | {z } =1 (pδ1 + (1 − p)δ0 )({0, 1})(n−1)× ) | {z =1 = (pδ1 + (1 − p)δ0 )(A) = B1,p (A) } ⇒ Pξi = B1,p = pδ1 + (1 − p)δ0 Im allgemeinen Fall gilt: Wenn P = ×nk=1 Pk und ξi die Projektion in ×nk=1 Pk ist, dann ist Pξi = Pi P Wir setzen ξ : = nk=1 ξk . Die Frage ist nun, was Pξ ist. Anzunehmen ist, dass sich die Binomialverteilung ergibt. Dazu genügt es, statt Pξ (A) nur Pξ ({j}) zu betrachten Pξ ({j}) = P (ξ −1 ({j})) = P ({[ω1 , . . . , ωn ] : ξ([ω1 , . . . , ωn ]) = j}) = P ({[ω1 , . . . , ωn ] : n X k=1 = P ({[ω1 , . . . , ωn ] : n X k=1 ⇒ Pξ = Bn,p ξk ([ω1 , . . . , ωn ]) = j}) | {z =ωk ωk = j}) = } ! n j p (1 − p)n−j = Bn,p ({j}) j Satz 5.1.1 Sei Q ein Wahrscheinlichkeitsmaß auf [R, B] mit stetiger und streng monoton wachsender Verteilungsfunktion FQ . Dann ist ξ = FQ−1 eine Zufallsgröße über dem Wahrscheinlichkeitsraum [(0, 1), B ∩ (0, 1), Gl(0,1) ] mit Pξ = Q. Beweis: Die strenge Monotonie und Stetigkeit bedingen, dass die Umkehrfunktion wieder stetig und damit messbar ist. Weiter ist bekannt, dass das Wahrscheinlichkeitsmaß auf [R, B] durch seine Verteilungsfunktion eindeutig bestimmt ist. Damit genügt es zu zeigen, dass FPξ = FQ . Es gilt, FQ (x) ∈ [0, 1] mit x ∈ R. Aber FQ kann nie die Werte 0 oder 1 wegen der strengen Monotonie annehmen ⇒ FQ (x) ∈ (0, 1). Somit existiert FQ−1 auf (0, 1) und FQ−1 56 5.2. Unabhängige Zufallsgrößen ist stetig ⇒ FQ−1 messbar. Also ist ξ = FQ−1 eine Zufallsgröße. (Genauere Betrachtungen zu oben.) Dazu ist nach Definition FPξ (x) = Pξ ((−∞, x)) = P (ξ −1 ((−∞, x))). Weiterhin ist: Pξ ((−∞, x)) = P (ξ −1 ((−∞, x))) = P ({y ∈ (0, 1)|ξ(y) ∈ (−∞, x)}) = P ({y ∈ (0, 1)|ξ(y) < x}) = P ({y ∈ (0, 1)|FQ−1 (y) < x}) = P ({y ∈ (0, 1)|y < FQ (x)}) = P ((0, FQ (x))) Wegen P = Gl(0,1) gilt Gl(0,1) ((0, FQ (x))) = FQ (x) ℓ((0,FQ (x))) ℓ((0,1)) = FQ (x) 1 = FQ (x) ⇒ FPξ (x) = Bemerkung Schreibweise: Fξ : = FPξ und P (ξ −1 (A)) = : P („ξ ∈ A“) : = P ({ω ∈ Ω|ξ(ω) ∈ A}) ⇒ Fξ (x) = P („ξ ∈ (−∞, x)“) = P („ξ < x“) Es reicht die Forderung, FQ ist streng monoton wachsend auf (a, b) mit Q((a, b)) = 1. Dabei ist a = ∞, b = −∞ zulässig. Ohne Stetigkeit gilt die Aussage nicht. Beispiel Betrachten die Exponentialverteilung Q = Exλ → Q((0, +∞)) = 1, FQ (x) = 1 − e−λx für x ∈ (0, +∞). Weitere Betrachtung in der Übung. 5.2. Unabhängige Zufallsgrößen Im folgenden Abschnitt gilt immer, dass [Ω, F, P ] ein Wahrscheinlichkeitsraum und eine Familie von Zufallsvariablen (ξi )i∈I mit Werten in [Xi , Xi ] ist. Spezialfall: [Xi , Xi ] = [R, B]. Definition Die Familie (ξi )i∈I heißt unabhängig, wenn für alle Folgen Bi ∈ Xi (i ∈ I) die Familie {ξi−1 (Bi )|i ∈ I} ⊆ F (vollständig) unabhängig ist. Satz 5.2.1 Wegen der Bemerkung h nach der Definition von unabhängigen Ereignissystemen ist klar: (ξi )i∈I ist genau dann unabhängig, wenn für alle n ≥ 2 gilt, dass {ξ1 , . . . , ξn } ⊆ {ξi |i ∈ I} unabhängig ist. Andere Formulierung: Die (ξi )i∈I sind genau dann unabhängig, wenn für jedes n ≥ 2 und i1 , . . . , in ⊆ I die Folge ξi1 , . . . , ξin unabhängig ist. Satz 5.2.2 Sei (Ai )i∈I ⊆ F. Die Aussage (Ai )i∈I ist genau dann (vollständig) unabhängig, wenn die Familie der Zufallsgrößen (χAi )i∈I unabhängig ist. 57 5. Zufallsgrößen Beweis: Da die Ai in F liegen, folgt wegen des Satz 2.1.9, dass auch die χAi messbar und somit Zufallsgrößen sind. „⇐“ Es sei vorausgesetzt, dass die (χAi )i∈I unabhängig sind. Daraus folgt nach Definition, dass die (χ−1 Ai (Bi ))i∈I für alle Bi ∈ B vollständig unabhängig sind. Wir wählen speziell Bi = {1} und es folgt, dass χAi ({1}) = Ai . Dies liefert, dass (Ai )i∈I (vollständig) unabhängig sind. „⇒“ Wir setzen voraus, dass die (Ai )i∈I (vollständig) unabhängig sind und wissen, dass c χ−1 Ai (Bi ) ∈ {∅, Ω, Ai , Ai }. Die leere und die gesamte Menge müssen nicht betrachtet werden, da beide unabhängig sind. Somit genügt es zu zeigen, dass die (ci )i∈I in den Fällen ci = Ai oder ci = Aci unabhängig sind. Dem Satz 4.3.2 folgend gilt hierfür die Behauptung. Bemerkung Wegen dem Satz 5.2.1 werden folgend nur endliche Folgen ξ1 , . . . , ξn von Zufallsvariablen betrachtet. • Schreibweise: ξ(ω) : = [ξ1 (ω), . . . , ξn (ω)] ⇒ ξ ist Zufallsvariable mit Werten in [Rn , Bn ]. ξ heißt n-dimensionaler zufälliger Vektor. • Frage: Ist Pξ durch Pξ1 , . . . , Pξn eindeutig bestimmt? Im allgemeinen nicht. Dies gilt nur im Spezialfall, dass ξ1 , . . . , ξn unabhängig sind. Satz 5.2.3 (ξi )ni=1 ist genau dann unabhängig, wenn Pξ = ×ni=1 Pξi Beweis: Der Beweis zeigt, dass der Satz auch im allgemeinen Fall von Zufallsvariablen ξ1 , . . . , ξn gilt. „⇒“ Wir haben die Unabhängigkeit von ξ1 , . . . , ξn gegeben und es ist zu zeigen, dass Q Pξ (×ni=1 Bi ) = ni=1 Pξi (Bi ) mit B1 , . . . , Bn ∈ B. Dazu wissen wir: Pξ (×ni=1 Bi ) = P (ξ1−1 (×ni=1 Bi )) = P ({ω ∈ Ω|ξ(ω) ∈ ×ni=1 Bi }) = P („[ξ1 , . . . , ξn ] ∈ ×ni=1 Bi “) = P („ξi ∈ Bi “) = P ( =P n \ i=1 = n Y i=1 58 ! ξi−1 (Bi ) Pξi (Bi ) n \ {ω ∈ Ω|ξi (ω) ∈ Bi }) i=i = n Y i=1 P (ξi−1 (Bi )) 5.3. Summen unabhängiger Zufallsgrößen Q „⇐“ Wir haben die Aussage, Pξ (×ni=1 Bi ) = ni=1 Pξi (Bi ) und es ist zu zeigen, dass (ξi−1 (Bi ))ni=1 vollständig unabhängig sind. Das heißt, für {i1 , . . . , ik } ⊆ {i1 , . . . , in } Q T −1 −1 (Bij )) gelten. Wir setzen, (Bij )) = kj=1 P (ξij und Bij ∈ B muss P ( kj=1 ξij Aj : = R mit j ∈ / {i1 , . . . , ik } und Aij : = Bij mit j = 1, . . . , k. n Y ⇒ Pξ (×ni=1 Ai ) = (5.1) Pξi (Ai ) i=1 Wegen der obigen Feststellungen ist klar: (5.2) n \ Pξ (×ni=1 Ai ) = P ! ξi−1 (Ai ) i=1 =P k \ j=1 ξi−1 (Bij ) Falls Ai = R, dann ist ξi−1 (Ai ) = Ω und kann weggelassen werden. Pξi (Ai ) = (5.3) ⇒ k Y P (ξi−1 (Ai )) Pξi (Ai ) = i=1 = k Y ( 1 P (ξi−1 (Bi )) −1 P (ξij (Bij )) = j=1 i∈ / {i1 , . . . , ik } i ∈ {i1 , . . . , ik } k Y Pξij (Bij ) j=1 Aus den Gleichungen (Gleichung 5.1), (Gleichung 5.2) und (Gleichung 5.3) folgt die Behauptung. Bemerkung Als Folgerung lässt sich festhalten, dass die ξ1 , . . . , ξn genau dann unabhängig sind, wenn Q T gilt P ( ni=1 ξi−1 (Bi )) = ni=1 P (ξi−1 (Bi )) mit B1 , . . . , Bn ∈ B. Beispiel (Bernoullischema) Sei [Ω, F, P ] = [{0, 1}, P({0, 1}), B1,p ]n× = [{0, 1}, P({0, 1}), pδ1 +(1−p)δ0 ]n× = [{0, 1}n× , P({0, 1})n× , [pδ1 + (1 − p)δ0 ]n× ]. Wir betrachten ξk ([ε1 , . . . , εn ]) = εk mit ε1 , . . . , εn ∈ {0, 1}. Hieraus folgt, dass Pξk = B1,p und es ist klar, ξ([ε1 , . . . , εn ]) = [ε1 , . . . , εn ] (identische Abbildung). Somit folgt, Pξ = (pδ1 + (1 − p)δ0 )n× = ×ni=1 B1,p = ×ni=1 Pξi und in Verbindung mit Satz 5.2.3 ergibt sich, dass die ξ1 , . . . , ξn unabhängig sind. 5.3. Summen unabhängiger Zufallsgrößen Definition Seien P1 , P2 Wahrscheinlichkeitsmaße auf [R, B]. P1 ∗ P2 : = heißt Faltung von P1 und P2 . Z P1 ( B − x )P2 (dx) | {z } {y−x|y∈B} (B ∈ B) 59 5. Zufallsgrößen Bemerkung Die Faltung P1 ∗ P2 ist ein Wahrscheinlichkeitsmaß auf [R, B]. Denn die Eigenschaften lassen sich wie folgt nachweisen: 1) Da das Integral nie negativ werden kann, ist P1 ∗ P2 (B) ≥ 0 R R R 2) P1 ∗ P2 (R) = R P1 (R − x)P2 (dx) =R P1 (R)P2 (dx) =R 1P2 (dx) = P2 (R) = 1 P1 ∗ P2 (∅) = P1 (∅ − x)P2 (dx) = P1 (∅)P2 (dx) = 0P2 (dx) = 0 disjunkt und Bi ∈ B. Dann sind auch die (Bi − x)∞ 3) Seien die (Bi )∞ i=1 i=1 paarweise S∞ S∞ S∞ B ) = B ) − x. Somit folgt, P ∗ P ( (B − x) = ( paarweise disjunkt und i i 1 2 i i=1 i=1 i=1 R P R P∞ R S ∞ P (B − x)P (dx) = P (B − x)P (dx) = (B − x))P (dx) = P1 ( ∞ 1 1 2 i 2 2 i=1 i=1 1 P∞ i=1 1 i=1 P1 ∗ P2 (Bi ). Satz 5.3.1 Seien ξ1 , ξ2 unabhängige Zufallsgrößen. Dann gilt Pξ1 +ξ2 = Pξ1 ∗ Pξ2 Beweis: Wir setzen h(x1 , x2 ) = x1 + x2 . Die x1 , x2 sind aus R und somit ist die Abbildung h eine Abbildung von R2 nach R (h : R2 → R), die stetig und damit messbar ist. ξ1 + ξ2 = h([ξ1 , ξ2 ]) = h([ξ]) = h ◦ ξ ⇒ (ξ1 + ξ2 )−1 (B) = ξ −1 (h−1 (B)) ⇒ Pξ1 +ξ2 (B) = P ◦ (ξ1 + ξ2 )−1 = P ((ξ1 + ξ2 )−1 (B)) = P (ξ −1 (h−1 (B))) = P ◦ ξ −1 = Pξ (h−1 (B)) = Pξ ◦ h−1 (B) = Pξ1 × Pξ2 (h−1 (B)) = Pξ ({[x1 , x2 ]|x1 + x2 ∈ B}) = = Z x χ{[x1 ,x2 ]|x1 +x2 ∈B} (y1 , y2 )Pξ (d[y1 , y2 ]) = χB−y2 (y1 )Pξ1 (dy1 )Pξ2 (dy2 ) = = Pξ1 ∗ Pξ2 (B) Z Z χB−y2 (y1 )Pξ ([y1 , y2 ]) = (Pξ1 × Pξ2 ) ◦ h−1 Pξ1 (B − y2 )Pξ2 (dy2 ) Bemerkung ∗ ist kommutativ und assoziativ (siehe auch Satz 5.3.1). Somit ist für P1 , . . . , Pn : (5.4) ∗ni=1 Pi = (((P1 ∗ P2 ) ∗ P3 ) ∗ · · · ∗ Pn ) Satz 5.3.2 (Verallgemeinerung von Satz 5.3.1) Seien ξ1 , . . . , ξn unabhängige Zufallsgrößen: ⇒ PPn ξ i=1 i 60 ◦ h−1 = ∗ni=1 Pi 5.3. Summen unabhängiger Zufallsgrößen Beweis: Der Beweis erfolgt durch vollständige Induktion. Für n = 2 ist die Behauptung nach Satz 5.3.1 richtig und wir nehmen an, dass die Gleichung (Gleichung 5.4) für gewisse n gilt. Dann ist zu zeigen, dass, wenn ξ1 , . . . , ξi unabhängige Zufallsgrößen sind, folgt, ∗ni=1 Pi = (((P1 ∗ P2 ) ∗ P3 ) ∗ · · · ∗ Pn ). Seien ξ1 , . . . , ξn unabhängig und [ξ1 , . . . , ξn ], ξn+1 P unabhängig sowie ni=1 ξi , ξn+1 ebenfalls unabhängig∗ . Dann folgt, PPn ξi = ∗ni=1 Pξi . i=1 Unter Anwendung von Satz 5.3.1 ergibt sich, PPn ξi +ξi+1 = ∗ni=1 Pξi ∗Pξn+1 ⇒ PPn+1 = i=1 i=1 ∗n+1 i=1 Pξi Satz 5.3.3 Seien ξ1 , ξ2 unabhängige Zufallsgrößen. Dann gilt: Fξ1 +ξ2 (y) = Z Fξ1 (y − x)Pξ2 (dx) Beweis: Wir wenden den Satz 5.3.1 mit B = (−∞, y) an und haben: Fξ1 +ξ2 = Pξ1 +ξ2 ((−∞, y)) = Pξ1 ∗ Pξ2 ((−∞, y)) = = Z Z Pξ1 ((−∞, y) − x)Pξ2 (dx) = Z Pξ1 ((−∞, y − x))Pξ2 (dx) Fξ1 (y − x)Pξ2 (dx) Satz 5.3.4 Seien ξ1 , ξ2 unabhängige Zufallsgrößen mit Pξi = ℓfi (i = 1, 2) und f1 , f2 stetig. Dann gilt: Pξ1 +ξ2 = ℓ(f1 ∗ f2 ) wobei f1 ∗ f2 (y) : = R∞ −∞ f1 (y − x)f2 (x)ℓ(dx). Beweis: Der Beweis erfolgt weniger mathematisch streng. Da der Aufwand hierfür unangemessen hoch ist. Für streng mathematische Rechnungen sei der Leser an weitere Lektüre verwiesen. R Wegen Satz 5.3.2 ist Fξ1 +ξ2 (x) = F1 (x − y)Pξ2 (dy) und wegen Pξ2 = ℓf2 ergibt sich R F1 (x − y)f2 (y)ℓ(dy)† . Man geht nun davon aus, dass die Funktion differenzierbar ist. Alle Fälle, wo die Funktion nicht überall differenzierbar ist, werden nicht mit abgedeckt. R Somit folgt, dass Fξ′1 +ξ2 (x) = F1′ (x − y)f2 (y)ℓ(dy) die Dichte von Pξ1 +ξ2 ist (nach R Definition). Dies ist aber f1 (x − y)f2 (y)ℓ(dy) = f1 ∗ f2 (x) ∗ † Der Beweis hierfür findet sich in der gängigen Lektüre zum Thema. Der Sachverhalt wurde früher bewiesen. 61 5. Zufallsgrößen Satz 5.3.5 P Seien ξ1 , ξ2 unabhängige Zufallsgrößen mit Pξi (Z) = 1 (i = 1, 2), d. h. Pξ1 = k∈Z ak δk , Pξ2 = P P P ak = bk = 1. Dann gilt: k∈Z bk δk , ak , bk ≥ 0, Pξ1 +ξ2 (Z) = 1 Pξ1 +ξ2 ({n}) = X k∈Z d. h. Pξ1 +ξ2 = P k∈Z ck δk mit ck = P Pξ1 ({n − k})Pξ2 ({k}) an−k bk . Beweis: R Nach Satz 5.3.1 wissen wir, dass Pξ1 +ξ2 (B) = R Pξ1 (B − x)Pξ2 (dx) ist und wählen B = P {n}. Somit erhalten wir nun, Pξ1 +ξ2 ({n}) = Pξ1 ({n − x})Pξ2 (dx) = k∈Z Pξ1 ({n − k})Pξ2 ({k}). Beispiel Seien ξ1 , ξ2 unabhängig und Pξi = Bni ,p mit i = 1, 2. Zur Bestimmung von Pξ1 +ξ2 wäre es jetzt möglich, Satz 5.3.5 anzuwenden: Pξ1 +ξ2 ({n}) = X k∈Z = Pξ1 ({n − k})Pξ2 ({k}) = X 0≤k≤n2 = ( ! X k∈Z Bn1 ,p ({n − k})Bn2 ,p ({k}) ! n1 n2 k pn−k (1 − p)n1 −(n−k) p (1 − p)n2 −k n−k k n1 +n2 n p (1 n 0 − p)n1 +n2 −n 0 ≤ n ≤ n1 + n2 sonst = Bn1 +n2 ,p ({n}) Diese Rechnung ist relativ kompliziert und es existieren weitere Möglichkeiten zur Bestimmung. Wir betrachten das Bernoullischema zu n1 + n2 , p und haben durch den Wahrscheinlichkeitsraum [{0, 1}, P({0, 1}), B1,p ]n1 +n2 ein Bernoullischema gegeben. DaP 1 P 1 +n2 bei stellen ξˆ1 : = ni=1 πi und ξˆ2 : = ni=n π die Anzahl der Erfolge im Bernoullii +1 i schema dar. Wir wissen, dass Pξˆ1 = Bn1 ,p , Pξˆ2 = Bn2 ,p , ξˆ1 , ξˆ2 unabhängig sind. Daraus P folgt: Pξ +ξ = P ˆ ˆ und es ist klar, dass ξˆ1 + ξˆ2 = n1 +n2 πi ⇒ P ˆ ˆ = Bn +n ,p 1 2 ξ1 +ξ2 i=1 ξ1 +ξ2 1 2 5.4. Der Erwartungswert Im folgenden sind immer [Ω, F, P ] ein Wahrscheinlichkeitsraum und wir betrachten die Zufallsgrößen ξ, η, ζ. Definition R Sei ξ eine Zufallsgröße, so dass Eξ : = ξ(ω)P (dω) existiert. Dann heißt Eξ Erwartungswert von ξ. 62 5.4. Der Erwartungswert Bemerkung • In älteren Büchern wird Eξ auch manchmal als M ξ bezeichnet. • Ist ξ bezüglich P integrierbar, so ist Eξ endlich. Man sagt, ξ hat einen endlichen Erwartungswert. • Eξ existiert, wenn ξ ≥ 0 oder ξ P -integrierbar ist. Der letztere stellt einen wichtigen Fall dar. • Eξ ist ein fundamentales, aber grobes Kennzeichen der Verteilung Pξ . Die Definition lässt sich allein mit Pξ aufschreiben. Satz 5.4.1 Sei ξ eine Zufallsgröße mit endlichen Erwartungswert‡ . Dann gilt: Eξ = Z xPξ (dx) = Z ιdPξ Beweis: Zum Beweis kommt der Übertragungssatz (Satz 2.2.3) zur Anwendung. Wir haben [Ω1 , F1 , µ] : = [Ω, F, P ], [Ω2 , F2 ] = [R, B], hR: [Ω1 , F1 ] →R [Ω2 , F2 ], f : [Ω2 , F2 ] → [R, B]. −1 Speziell sind h = ξ und f = ι. Somit folgt, f ◦ hdµ = f dµ ◦h | {z } und in unserem Fall: R ξdP = R P ◦ξ −1 =Pξ ιdPξ Satz 5.4.2 P Sei Pξ (Z) = 1§ und ξ eine Zufallsgröße mit Pξ = k∈Z ak δk . Falls Eξ absolut konvergiert, gilt: X X kak kP ξ({k}) = Eξ = k∈Z k∈Z Beweis: R P Aus Satz 5.4.1 folgt, Eξ = xPξ (dx) = k∈Z kak . Satz 5.4.3 Sei Pξ = ℓf mit f stetig. Falls der Erwartungswert Eξ existiert, gilt: Eξ = Z∞ xf (x)dx −∞ Beweis: R R R∞ xf (x)dx. Aus Satz 5.4.1 folgt, Eξ = xPξ (dx) = xf (x)ℓdx = −∞ ‡ Die Aussage gilt auch für unendlichen Erwartungswert. Doch der hierzu zu führende Beweis ist deutlich aufwendiger. § diskrete Verteilung, ξ nimmt nur ganze Zahlen an. 63 5. Zufallsgrößen Satz 5.4.4 Sei ξ eine nichtnegative Zufallsgröße, d. h. P („ξ ≥ 0“) = 1 ⇔ Pξ ([0, +∞)) = 1. Dann gilt: Z Eξ = (1 − Fξ (x))ℓdx [0,+∞) Beweis: R R R R Nach Satz 5.4.1 ist Eξ = [0,x] 1ℓ(dy) = [0,+∞) xPξ (dx) = [0,+∞) ( [0,x) 1ℓ(dy))Pξ (dx) = s s R R χ{[z1 ,z2 ]∈R (x, y)ℓ(dy)Pξ (dx) = χ{[z1 ,z2 ]∈R2 |0≤z2 <z1 } 2 s χ[0,+∞)(x) χ[0,x) (y)ℓ(dy)Pξ (dx) = R R |0≤z2 <z1 } R χ (y)χ[y,∞) (x)Pξ (dx)ℓ(dy) = χ[0,∞) (y)( χ[y,∞)(x)Pξ (dx))ℓ(dy) = χ[0,∞) (y)Pξ ([y, ∞))ℓ(dy) R [0,∞) R χ[0,∞)(y)(1 − Fξ (y))ℓ(dy) = [0,∞) (1 − Fξ (y))ℓ(dy). Definition Sei ξ eine Zufallsgröße, so dass ein endlicher Eξ k existiert. Dann heißt mk (ξ) = Eξ k k-tes Moment der Zufallsgröße ξ. Momentenproblem Ist Pξ durch die Folge (mk (ξ))nk=1 eindeutig bestimmt? Diese Frage R k k ist negativ zu beantworten. Nach dem Übertragungssatz ist klar, dass Eξ = x Pξ (dx) gilt. Aus der Kenntnis von Pξ folgt somit die Kenntnis des Moments. Aber im allgemeinen ist Eξ k 6⇒ Pξ . Eine positive Antwort auf die obige Frage ist nur unter gewissen Beschränktheitsforderungen möglich. Satz 5.4.5 (Elementare Eigenschaften des Erwartungswerts) (E1) Seien Eξ1 , Eξ2 endlich. Dann folgt: E(a1 ξ1 + a2 ξ2 ) = a1 Eξ1 + a2 Eξ2 mit a1 , a2 ∈ R. (E2) Sei ξ = χA , A ∈ F ⇒ Eξ = P (A) (E3) Sei P („ξ = c“) = 1 ⇔ Pξ = δc ⇒ Eξ = c (E4) Sei P („a ≤ ξ ≤ b“) = 1 ⇒ a ≤ Eξ ≤ b Beweis: R R R (E1) E(a1 ξ1 + a2 ξ2 ) = (a1 ξ1 + a2 ξ2 )dP = a1 ξ1 dP + a2 ξ2 dP = a1 Eξ1 + a2 Eξ2 (E2) EχA = R χA dP = P (A) (E3) P („ξ = c“) = 1 ⇒ Pξ = δc R R Nach Satz 5.4.1 folgt nun Eξ = xPξ (dx) = xδc (dx) und letzteres ist ein Integral bei diskreten Maßen. Damit ergibt sich nach Satz 5.4.2, dass die letzte Aussage R P gleich k∈R 1 · δc ({k}) = c ist. Im allgemeinen Fall gilt f (x)δRc (dx) = f (x). help: P muss das nicht eigentlich f(c) sein? Noch allgemeiner formuliert: f (x) k ak δωk (dx) = P k ak f (ωk ). (E4) P („a ≤ ξ ≤ b“) = 1 ⇒ Pξ ([a, b]) = 1 ⇒ Eξ = R [a,b] aPξ (dx) = aP ([a, b]) = a 64 R xPξ (dx) = R [a,b] xPξ (dx) ≥ 5.4. Der Erwartungswert Beispiel 1. Bernoulli-Verteilung: Pξ = B1,p = pδ1 + (1 − p)δ0 ⇒ Eξ = 1p + 0(1 − p) = p P P 2. Pξ = Bn,p = nk=0 nk pk (1 − p)n−k δk ⇒ Eξ = nl=0 k nk pk (1 − p)n−k = np Ein anderer Weg, um dies zu ermitteln: Sei [Ω, F, P ] = [{0, 1}, P({0, 1}), B1,p ]n× und ξk die Projektion auf die k-te Ebene in Ω. Es ist bekannt, dass Pξk = B1,p und P P P PP ξk = Bn,p = Pξ . Damit folgt, Eξ = E nk=1 ξk = nk=1 Eξk = nk=1 p = np. 3. Cauchy-Verteilung: Pξ = ℓf mit f (x) = R +∞ 0 1 π(1+x2 ) xf (x)dx = ∞ gilt. und x ∈ R. Es ist klar, dass Ein anderer Weg ist folgender: Sei [Ω, F, P ] = [{0, 1}, P({0, 1}), B1,p ]n× und ξk die Projektion auf die k-te Komponente in Ω. Es ist bekannt, dass Pξk = B1,p und P P P PP ξk = Bn,p = Pξ . Somit folgt, Eξ = E nk=1 ξk = nk=1 Eξk = nk=1 p = np. R +∞ 1 4. Sei P ξ = ℓf mit f (x) = π(1+x) xf (x)dx = +∞ 2 für x ∈ R. Es ist klar, dass 0 gilt. Formal wäre Eξ = +∞. Damit folgt, dass Eξ nicht existiert. 5. Pξ = Q λ ⇒ Eξ = λ 6. Pξ = Exλ ⇒ Eξ = 1/λ Satz 5.4.6 Seien ξ, η unabhängige Zufallsgrößen mit endlichem Erwartungswert. Dann hat die Zufallsgröße ξ · η einen endlichen Erwartungswert und es gilt: E(ξ · η) = Eξ · Eη Beweis: Spezialisierung des Übertragungssatzes: [Ω1 , F1 , µ] := [Ω, F, P ] h : Ω1 → Ω2 [Ω2 , F2 ] : = [R2 , B2 ] h = [ξ, η] f : Ω2 → R ⇒ Z Z f ◦ hdµ = ξ · ηdP = Z Z f (x, y) = xy f dµ ◦ h−1 xydP[ξ,η] d([x, y]) ⇒ f ◦ h = ξ · η, µ ◦ h−1 = P ◦ h−1 = P[ξ,η] = Pξ × Pη ⇒ E(ξ · η) = = Z x xydP[ξ,η] d([x, y]) = xyPξ (dx)Pη (dy) = = Eξ · Eη Z Z xy(Pξ × Pη )(d[x, y]) xPξ (dx) · Z yPη (dy) 65 5. Zufallsgrößen Bemerkung Ohne die Forderung der Unabhängigkeit von ξ und η ist die Behauptung im obigen Satz im allgemeinen nicht richtig. 5.5. Die Varianz Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum. Wir betrachten die Zufallsgrößen ξ, η. Definition Sei ξ eine Zufallsgröße mit endlichem Erwartungswert. 2 Dξ : = E(ξ − Eξ) = heißt Varianz von ξ. Weiterhin heißt ξ. √ Z (ξ − Eξ)2 dP Dξ Standardabweichung oder Streuung von Satz 5.5.1 (Elementare Eigenschaften der Varianz) a) Dξ ≥ 0 b) Dξ = 0 ⇔ Pξ = δEξ . d. h. P („ξ = c“) = 1, also Determinismus. c) Dξ endlich ⇔ Eξ 2 endlich. In diesem Fall gilt Dξ = Eξ 2 − (Eξ)2 d) D(c1 ξ + c2 ) = c21 Dξ mit c1 , c2 ∈ R (Varianz einer linearen Transformation) R e) Dξ = (x − Eξ)2 Pξ (dx) Beweis: R a) klar, weil (ξ − Eξ)2 ≥ 0 ⇒ (ξ − Eξ)2 dP ≥ 0 R b) „⇐“ Pξ = δEξ ⇒ Dξ = (x − Eξ)2 Pξ (dx) = (Eξ − Eξ)2 = 0 „⇒“ Sei η ≥ 0, Eη = 0 ⇒ P („η = 0“) = 1. c) Dξ = E(ξ − Eξ)2 = E(ξ)2 − 2eξEξ + (Eξ)2 ) = Eξ 2 − 2EξEξ + (Eξ)2 = Eξ 2 − 2(Eξ)2 + (Eξ)2 = Eξ 2 − (Eξ)2 d) D(c1 ξ + c2 ) = E(c1 ξ + c2 − E(c1 ξ + c2 ))2 = E(c1 ξ − c1 Eξ)2 = E(c1 (ξ − Eξ))2 = c21 E(ξ − Eξ)2 = c21 Dξ R e) Dξ = E(ξ − Eξ)2 = (ξ − Eξ)2 dP . Nach dem Übertragungssatz folgt mit h = ξ, f (x) = (x − Eξ)2 , µ = PR sowohl f ◦ h =R (ξ − Eξ)2 als auch µ ◦ h−1 = Pξ . Weiter folgt somit E(ξ − Eξ)2 = f (x)Pξ (dx) = (x − Eξ)2 Pξ (dx). Daraus ergibt sich die Behauptung. Bemerkung (Folgerungen) 1. Aus den Punkten a) und c) ergibt sich: Eξ 2 ≥ (Eξ)2 66 5.5. Die Varianz 2. Aus c) ergibt sich: Dξ = 0 ⇔ Eξ 2 = (Eξ)2 ⇔ Pξ = δEξ Beispiel (für Eξ · η 6= Eξ · Eη) Sei ξ eine Zufallsgröße mit Dξ > 0, d. h. ξ ist keine Konstante, und η : = ξ. Dann folgt, Eξ · η = Eξ 2 . Da weiter gilt, Dξ = Eξ 2 − (Eξ)2 und Dξ 6= 0, folgt, dass Eξ 2 6= Eξ · Eξ. Angenommen, es gelte, Eξ·η = Eξ·E·η. Dann wäre Eξ 2 = (Eξ)2 ⇒ Dξ = Eξ 2 −(Eξ)2 = 0 Satz 5.5.2 Seien ξ, η unabhängige Zufallsgrößen mit endlicher Varianz. Dann gilt: D(ξ + η) = Dξ + Dη Beweis: Es ist klar, dass aus ξ, η unabhängig auch ξ − Eξ, η − Eη unabhängig folgt. D(ξ + η) = E(ξ + η − E(ξ + η))2 = E((ξ − Eξ) + (η − Eη))2 = E (ξ − Eξ)2 + 2(ξ − Eξ)(η − Eη) + (η − Eη)2 = E(ξ − Eξ)2 + E(η − Eη)2 + 2 E(ξ − Eξ) · E(η − Eη) = Dξ + Dη | {z 0= } | {z =0 } Bemerkung Ohne die Forderung der Unabhängigkeit ist die Behauptung im allgemeinen falsch. Weiterhin kann man per vollständiger Induktion zeigen, dass für ξ1 , . . . , ξn unabhängige Zufallsgrößen mit endlichen Erwartungswerten folgt, D n X k=1 ξk ! = n X Dξk k=1 Satz 5.5.3 P a) Sei Pξ = k∈Z ak δk und Eξ endlich. Dann gilt: Dξ = X (k − Eξ)2 ak = k∈Z X (k − k∈Z X jaj )2 ak = X k∈Z j∈Z k2 ak − ( X kak )2 k∈Z b) Sei Pξ = ℓf mit f stetig und Eξ endlich. Dann ist: Dξ = +∞ Z −∞ (x − Eξ)2 f (x)dx = +∞ 2 Z x2 f (x)dx − xf (x)dx +∞ Z −∞ −∞ Beispiel 1. Pξ = B1,p = pδ1 + (1 − p)δ0 ⇒ Dξ = (0 − p)2 (1 − p) + (1 − p)2 p = p2 (1 − p) + p − 2p2 + p3 = p − p2 = p(1 − p) 67 5. Zufallsgrößen 2. Pξ = Bn,p Seien ξ1 , . . . , ξn unabhängig und Pξk = B1,p für k = 1, . . . , n. Dann gilt PP ξk = P P Bn,p ⇒ Pξ = PP ξk ⇒ Dξ = D nk=1 ξk = nk=1 Dξk = np(1 − p). Andererseits gilt auch: Dξ = Pn k=0 (k − np)2 pk (1 − p)n−k n k = np(1 − p) Interpretation der Varianz Sei (H, k·k) ein Hilbertraum. Dabei ist H ein linearer Raum und k·k die Norm. Weiter seien h ∈ H, G ⊆ H. Wir betrachten den Spezialfall: H: = ( f [Ω, F] → [R, B]|kf k = sZ f 2 dP < +∞ ) Dabei ist f eine Zufallsgröße und Ef ist endlich, denn es gilt, ∞ > Ef 2 ≥ (Ef )2 . Damit ist auch Df endlich und existiert. Weiter sei: G : = {a : Ω → R|konstant} und ξ eine Zufallsgröße mit Eξ 2 < +∞. Es ist klar, dass kξ−ak = Satz 5.5.4 Sei ξ eine Zufallsgröße mit Eξ 2 < ∞. Dann gilt: p E(ξ − a)2 Dξ = inf E(ξ − a)2 = min E(ξ − a)2 a a √ Dabei p ist Dξ der Abstand einer Zufallsgröße zur Menge der Konstanten mit Dξ = inf a E(ξ − a)2 = inf a kξ − ak. Wenn der Abstand 0 ist, ist somit ξ konstant. Für einen kleinen Abstand bedeutet dies, dass der Zufall gering ist. √ Beweis: E(ξ − a)2 = E((ξ − Eξ) + (Eξ − a))2 = E((ξ − Eξ)2 + E(ξ − Eξ)(Eξ − a) + (Eξ − a)2 ) = Dξ + E(Eξ − a) E(ξ − Eξ) +(Eξ − a)2 = Dξ + (Eξ − a)2 | {z =0 } ⇒ min E(ξ − a)2 = min Dξ + (Eξ − a)2 ⇔ a = Eξ a a ⇒ Dξ = min E(ξ − a)2 a Bemerkung Sei ξ eine Zufallsgröße mit Eξ, Eξ 2 < +∞ und endlich. 68 5.6. Die Tschebyscheffsche Ungleichung • ξ − Eξ heißt Zentrierung von ξ. Die Zufallsgröße η heißt zentriert, wenn Eη = 0. • Sei Dξ > 0. Dann heißt √ξ Dξ Normierung von ξ. Die Zufallsgröße η heißt nor- miert, wenn Dη = 1. √ . Dann ist: • Wir betrachten Normierung und Zentrierung: η : = ξ−Eξ Dξ E(ξ − Eξ) √ =0 Dξ ξ − Eξ 1 1 Dη = D √ = D(ξ − Eξ) = Dξ = 1 Dξ Dξ Dξ Eη = 5.6. Die Tschebyscheffsche Ungleichung Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum. Wir betrachten Zufallsgrößen über diesen Wahrscheinlichkeitsraum. Satz 5.6.1 (Markoffsche Ungleichung) Sei ξ ≥ 0 eine nichtnegative Zufallsgröße¶ und a ≥ 0 eine reelle Zahl. Dann gilt: Eξ ≥ aP („ξ ≥ a“) = aPξ ([a, +∞]) = a(1 − Fξ (a)) Beweis: Sei ξ ≥ 0. Dann ist ξ(ω) ≥ ξ(ω)χ{ω̂|ξ(ω̂)≥a} (ω) ≥ aχ{ω̂|ξ(ω̂)≥a} (ω). Da das Integral monoR R R ton ist, folgt Eξ = ξ(ω)P (dω) ≥ aχ{ω̂|ξ(ω̂)≥a} dP = a χ{ω̂|ξ(ω̂)≥a} dP = aP ({ω̂|ξ(ξ̂) ≥ a}) = aP („ξ ≥ a“). Satz 5.6.2 (Tschebyscheffsche Ungleichung) Sei η eine Zufallsgröße mit endlichem Erwartungswert. Dann existiert Dη und es gilt: P („|η − Eη| ≥ ε“) ≤ Dη ε2 ε>0 Beweis: Zum Beweis wird der Satz 5.6.1 für folgenden Spezialfall angewendet. Wir setzen ξ := (η − Eη)2 ≥ 0 und a : = ε2 . Dann ist klar, dass Eξ = Dη gilt. Dann ergibt sich: Dη = Eξ ≥ aP („ξ ≥ a“) = ε2 P („(η − Eη)2 ≥ ε2 “) = ε2 P („|η − Eη| ≥ ε“). Satz 5.6.3 Seien ξ1 , . . . , ξn eine Folge unabhängiger Zufallsgrößen mit Eξi = a, Dξi = σ 2 für i = 1, . . . , n. Dann gilt: P ¶ Damit existiert R n 1X ξi − a| ≥ ε“ „| n i=1 ! ≤ σ2 nε2 ε>0 ξdµ nach der Definition zweiter Stufe immer. 69 5. Zufallsgrößen Beweis: Für den Beweis wird Satz 5.6.2 angewendet und wir setzen: η : = ⇒ Eη = E Dη = D 1/n 1/n X i X ξi i ⇒ P „|1/n X ξi ! ! = 1/n X i = 1/n2 X i 1 n Pn i=1 ξi Eξ = a1/nn = a |{z}i =a Dξi = 1/n2 nσ 2 = |{z} σ2 n =σ2 ξi − a| ≥ ε“ = P („|η − Eη| ≥ ε“) ≤= σ2 Dη = ε2 nε2 Anwendung von Satz 5.6.3 auf Wette • n = 250 Münzwürfe mit ξ1 , . . . , ξ250 , Bernoullischema mit n = 250, p = 1/2. • ξi = 1 entspricht der Aussage, dass der i-te Wurf Wappen zeigt. • Damit sind die ξ1 , . . . , ξn unabhängig • Pξi = B1,p = 1/2(δ1 + δ0 ) mit p = 1/2 ⇒ Eξi = 1/2, Dξi = 1/2(1 − 1/2) = 1/4 P250 • | i=1 ξi − 125| < 25 = : A entspricht der Aussage, dass ich gewinne. Aus Satz 5.6.3 folgt nun: P (A) = P („|1/n 1 − 1/10 = 0, 9 Pn i=1 ξi −a| ≥ ε“) < σ2 nε2 = 1−P („|1/2 P ξi − a| ≥ ε“) = (reale) Anwendung — Meßtheorie Viele Messgeräte arbeiten nicht exakt. Die Ursachen liegen in systematischen Fehlern und durch zufällige Einflüsse bedingte Fehler. Die systematischen Fehler können durch Eichung minimiert oder abgeschafft werden. Die ideale Messapparatur liefert der Wert a und der reale Vorgang die zufällige Größe ξ. Da das Gerät zwar korrekt misst, aber auch anfällig für äußere Einflüsse ist, ergibt sich ein nicht systematischer Fehler, d. h. Eξ = a. Vom Hersteller erhält man Dξ = σ 2 . Die übliche Verfahrensweise ist nun, dass wiederholte Messungen durchgeführt werden und man so viele ξ1 , . . . , ξn bekommt. Für diese wird angenommen, dass sie unabhängig und identisch verteilt (iid‖ ) sind und es gilt: Dξi = σ 2 Eξi = a Als Verfahren wird das arithmetische Mittel als „Schätzwert“ für a gebildet: n 1X ξi = ηn n i=1 ‖ 70 vom englischen independent and identical distributed 5.7. Konvergenzarten und das Gesetz der großen Zahlen Folgende Ansprüche werden formuliert: 1. Die Schätzung soll „hinreichend“ exakt sein, d. h. für ein vorgegebenes ε > 0 wird gefordert: |ηn − a| < ε. 2. Vorgabe eines Sicherheitsniveaus s < 1 mit (5.5) P („|ηn − a| < ε“) ≥ s Damit stellt sich das Problem, wie n gewählt werden muss, so dass die Gleichung (Gleichung 5.5) gilt. Eine mögliche Antwort ist: (5.6) n≥ σ2 (1 − s)ε2 Bemerkung 1. Wählen „kleinstes“ zulässiges n 2. Kompromiss bei der Wahl von s, ε gewöhnlich erforderlich. Denn aus großem s und kleinem ε folgt ein großes n. 3. Bei Informationen über den Typ Pξ kann man bessere Grundlagen für die Ermittlung des n als Satz 5.6.3 erhalten. (siehe Vorlesung Stochastik). Beweis: Es folgt ein Beweis dafür, dass aus Gleichung (Gleichung 5.6) die Gleichung (Gleichung 5.5) folgt. Aus dem Satz 5.6.3 folgt, P („|ηn − a| < ε“) = 1 − P („| ηn −a| ≥ ε“). Nunmehr |{z} P 1/n ξi 2 σ sich hier wieder Satz 5.6.3 anwenden und die obige Gleichung ist größergleich 1− nε 2 ≥ s. σ2 σ2 d. h. Gleichung (Gleichung 5.5) wird realisiert, wenn s ≤ 1− nε2 ⇔ n ≥ (1−s)ε2 . Letzteres entspricht gerade Gleichung (Gleichung 5.6). 5.7. Konvergenzarten und das Gesetz der großen Zahlen Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum und wir betrachten Zufallsgrößen oder -variablen über diesem Wahrscheinlichkeitsraum. Definition Seien ξ eine Zufallsgröße und (ξn )n≥1 eine Folge von Zufallsgrößen. Die Folge (ξn ) konvergiert mit Wahrscheinlichkeit gegen ξ, wenn für alle ε > 0 gilt: n→∞ n→∞ P („|ξn − ξ| ≥ ε“) −−−→ 0 ⇔ P („|ξn − ξ| < ε“) −−−→ 1 71 5. Zufallsgrößen Satz 5.7.1 (Schwaches Gesetz der großen Zahlen nach Tschebyscheff) Sei (ξi )i≥1 eine Folge unabhängiger identisch verteilter Zufallsgrößen mit Eξi = a, Dξi = σ 2 . Dann gilt: n 1X P ξi − →a n i=1 Beweis: Aus Satz 5.6.3 folgt: help: Beweis unklar Bezug zu relativen Häufigkeiten (Spezialfall) Wir betrachten die Folgen von Zufallsvariablen (ηi )i≥1 mit Werten in [X, X], wählen ein A ∈ X und betrachten Pn1 (A) = Pni (A). Dann wird gefordert, dass die (ηi )i≥1 iid sind. Nun betrachten wir die ξi : = ξiA : = χA (ηi ) = χA ◦ηi für i = 1, 2, . . .. Diese sind messbar, da A ∈ X und die Summe über alle ξi P entspricht der Anzahl, wie oft A bei 1, . . . , n realisiert wird, d. h. 1/n ni=1 ξi ist die relative Häufigkeit des Eintretens von A. Es ist klar, dass (ξi ) iid sind und aus Satz 5.7.1 ergibt P P sich 1/n ξi − → Pη1 (A). Dies ist eine rein qualitative Aussage und macht keine Angabe über die Konvergenzgeschwindigkeit. Durch die Anwendung von Satz 5.6.3 kann nun P P (A)(1−P (A)) folgender Schluss gezogen werden: P („lvert1/n ξi − Pη1 (A)| ≥ ε“) ≤ η1 nε2 η1 ≤ P n→∞ 1 1 ξi − Pη1 (A)| ≥ ε“) −−−→ 0 nε2 ⇒ supA P („| /n andere Konvergenzarten Wir betrachten die schwache Konvergenz. Dazu sei (Qn )∞ n=1 und Q ein Wahrscheinlichkeitsmaß auf [R, B]. Man sagt, (Qn ) konvergiert schwach gegen Q, wenn gilt: Z Z n→∞ f dQn −−−→ f dQ Dabei ist f eine Abbildung von R nach R, die stetig und beschränkt ist. Die Schreibweise dafür, dass (Qn ) schwach gegen Q konvergiert, ist Qn ⇒ Q. Satz 5.7.2 Qn ⇒ Q ⇔ FQn (x) → FQ (x) für alle Stetigkeitspunkte von FQ . Satz 5.7.3 P ηn − →⇒ Pηn ⇒ Pη Bemerkung Die Umkehrung ist im Allgemeinen falsch. Denn sei (ηn ) iid, Pη = Pη1 , η, ηn unabhängig. Dann folgt, dass Pηn = Pη ⇒ Pη1 ⇒ Pn . Aber P („|ηn − η| ≥ ε“) ist konstant und ungleich 0. Außer für den Fall, dass Pη , Pηn Diracmaße sind. 72 5.7. Konvergenzarten und das Gesetz der großen Zahlen Satz 5.7.4 Sei Pη = δa . Dann folgt: P ηn − → η ⇔ Pηn ⇒ Pη Definition ∞ Sei (η)∞ n=1 , η eine zufällige Größe. Dann konvergiert (ηn )n=1 mit Wahrscheinlichkeit 1 ∗∗ (fast sicher) gegen η, wenn gilt : P („ lim ηn = η“) = 1 = P ({ω ∈ Ω : η(ω) = lim ηn (ω)}) n→∞ Satz 5.7.5 P =1 P ηn −−−→ η ⇒ ηn − →η Die Umkehrung dieses Satzes ist im Allgemeinen falsch. Bemerkung Andere Formulierung: Wenn zu jeder Folge eine Teilfolge existiert, so dass man immer Konvergenz in Wahrscheinlichkeit hat, hat man auch fast sichere Konvergenz. Satz 5.7.6 (Starkes Gesetz der großen Zahlen nach Kolmogoroff) Sei (ξk )nk=1 eine Folge unabhängiger identisch verteilter Zufallsgrößen mit endlichem Erwartungswert a. Dann gilt: n 1X P =1 ξk −−−→ a n k=1 Bemerkung Betrachten Zufallsgrößen mit E|ξ|p < +∞ und führen hier eine Konvergenz ein. Diese Räume werden als Lp -Räume bezeichnet. Es gilt dann Lp (Ω, F, P ) und man hat die Spezialfälle: 1. p = 1 → ρ(η, ξ) : = E|ξ − η| 2. p = 2 → hf, gi : = R f gdP . Der Raum L2 ist der Hilbertraum mit kf k2 = hf, f i. Satz 5.7.7 (Spezialfall des Satz von Weierstraß) P Sei f : [0, 1] → R stetig. Weiter sei bn (x) := nk=0 f ( nk ) nk xk (1 − x)n−k ein Bernoullipolynom mit x ∈ [0, 1]. Dann gilt: lim bn (x) = f (x) n→∞ ∗∗ P =1 Schreibweise: ηn −−−→ η 73 5. Zufallsgrößen Beweis: Der Beweis erfolgt durch die Anwendung des schwachen Gesetzes der großen Zahlen (Satz 5.7.1). Seien ξ1 , . . . , ξn unabhängige, identische verteilte Zufallsgrößen mit Pξi = P P → x. B1,x ⇒ Eξk = x, Dξk = x(1 − x). Aus demR obigen Gesetz folgt 1/nR nk=1 ξk − P P Dies ist gleichwertig zu P1/n n ξk ⇒ δx ⇔ f (y)P1/n n ξk (dy) ⇒ f (y)δx (dy) = k=1 f (x). Nach dem Übertragungssatz ist Pn k k=1 f ( /n)ak 74 = Pn n k k=1 f ( /n) k xk (1 − R f (y)P1/n Pn x)n−k . k=1 k=1 ξk (dy) = R f (y/n)PPn ξ k=1 k (dy) = A. Übungsaufgaben 1. Sei Ω eine nichtleere Menge und es gelte Ai ⊆ Ω, i = 1, 2, . . . , Wir definieren: lim sup An : = n→∞ lim inf An : = n→∞ ∞ [ ∞ \ n=1 k=n ∞ \ ∞ [ Ak Ak n=1 k=n Zeigen Sie: a) Berechnen Sie lim supn→∞ An und lim inf n→∞ An für die Mengen An : = (1/n, 1 + 1/n] b) Beweisen Sie: lim inf An = {ω ∈ Ω : ω ∈ An ∀n ∈ N bis auf endlich viele} n→∞ c) Geben Sie eine zu (b) analoge Beschreibung von lim supn→∞ An . d) Zeigen Sie: lim inf Acn = lim sup An n→∞ T S S n→∞ c T S ∞ ∞ c / ∞ / ∞ „⇐“ x ∈ ( ∞ k=n0 Ak ⇒ n=1 ( k=n Ak ) ⇒ ∃n0 : x ∈ n=1 k=n Ak ) ⇒ x ∈ c x ∈ / Ak für k = 1, 2, . . . ⇒ x ∈ Ak für k = n0 , n0 + 1, . . . ⇒ x ∈ T∞ S∞ S∞ c c c k=n0 Ak ⇒ x ∈ n=1 k=n Ak = lim inf n→∞ An . „⇒“ selbst 2. Sei Ω eine nichtleere Menge und E ∈ P(Ω). Die von E erzeugte σ-Algebra σ(E) ist definiert durch σ(E) = \ {F : F ⊇ E, F ist σ-Algebra über Ω} Es sei Ω = {1, 2, 3, 4, 5, 6} und E = {{1, 2, 3}, {1, 3}}. Ermitteln Sie σ(E). i 1 2 3 4 5 6 7 8 Ai ∅ {2} {1, 3} {1, 2, 3} {4, 5, 6} {2, 4, 5, 6} {1, 3, 4, 5, 6} Ω 75 A. Übungsaufgaben A1 A2 A3 A4 A5 A6 A7 A8 A1 A2 A3 A4 A5 A6 A7 A8 1 x x x x x x x 2 2 x x x x x x 3 4 3 x x x x x 4 4 4 4 x x x x 5 6 7 8 5 x x x 6 6 8 8 6 6 x x 7 8 7 8 7 8 7 x 8 8 8 8 8 8 8 8 3. Sei [Ω, F, µ] ein Maßraum mit µ(Ω) < ∞. Zeigen Sie für beliebige meßbare Mengen A, B ∈ F gilt: µ(A ∪ B) = µ(A) + µ(B) − µ(A ∩ B) Wir können A ∪ B auch als A ∪ (B \ A) aufschreiben und erhalten so zwei disjunkte Mengen. Also folgt µ(A ∪ B) = µ(A) + µ(B \ A). Also müssen wir noch zeigen, dass µ(B \ A) = µ(B) − µ(A ∩ B) gilt. Hierzu ist wichtig zu wissen, dass es sich um ein endliches Maß handelt. Wir können die Menge B \ A zu B \ (A ∩ B) umformen und können einen Satz aus der Vorlesung anwenden: µ(A ∩ B) = µ(B \ (A ∩ B)) = µ(B) − µ(B ∩ A). 4. Wir betrachten die messbaren Räume [Ωk , Fk ] mit k = 1, 2, . . .. Dabei sei Ωk endlich oder abzählbar unendlich und es gelte Fk = P(Ωk ). a) Zeigen Sie ⊗nk=1 Fk = P(×nk=1 Ωk ) Hierfür müssen wir zeigen, dass ⊗nk=1 Fk ⊆ P(Ωk ) sowie P(Ωk ) ⊆ ⊗nk=1 Fk gilt. Es ist ×nk=1 Ωk = {[ω1 , . . . , ωn ] : ωk ∈ Ωk }. Weiterhin wissen wir, dass ⊗nk=1 Fk = T σ({×nk=1 Ak , Ak ∈ Fk }) und es gilt, σ(E) = {F ist σ-Algebra, E ⊆ F}. So| {z } =E {×nk=1 Ak , Ak mit folgt P(×nk=1 Ωk ). ∈ Fk } ⊆ P(×nk=1 Ωk ) ⇒ σ({×nk=1 Ak , Ak ∈ Fk }) ⊆ 5. Zeigen Sie, dass durch nachfolgende Mengenfunktionen Wahrscheinlichkeitsmaße auf [R, B] gegeben sind und skizzieren Sie jeweils deren Verteilungsfunktion: a) Das Maß heißt Binomialverteilung mit den Parametern n und p: Bnp : = n X k=0 ! n k p (1 − p)n−k δk , k p ∈ [0, 1], n ∈ N Wir betrachten zunächst die allgemeine Formulierung: Sei (µi )i∈I eine abzählbare Familie von Maßen auf [R, B] und (αi )i∈I eine 76 P Familie nichtnegativer reeller Zahlen. Falls gilt, i∈I αi = 1 und µ(R) = 1, P In unserem Beispiel dann ist µ = i∈I αi µi (R) ein Wahrscheinlichkeitsmaß. ist I = {0, 1, 2, . . . , n} ⊆ N0 . Weiter ist αi = ni pi (1 − p)n−i . Für 0 < p < 1 P P ist i∈I αi = ni=0 ni pi (1 − p)n−i = (p + (1 − p))n = 1n = 1. Es ist klar, dass alle αi > 0. P Für die Verteilungsfunktion gilt: Fnp (x) = Bnp ((−∞, x)) = ni=0 ni pi (1 − p)n−i δi ((−∞, x)). Dabei bildet F von R nach [0, 1] ab (F : R → [0, 1]). 1. Fall Falls −∞ < x ≤ 0, dann ist Fnp (x) = 0. 2. Fall Falls 0 < x ≤ 1, dann ist Fnp (x) = α0 . 3. Fall Falls 1 < x ≤ 2, dann ist Fnp (x) = α0 + α1 . 4. Fall Falls n < x < ∞, dann ist Fnp (x) = Allgemein gilt: Pn i=0 αi = 1. ⌈x⌉−1 P ((−∞, x)) = Fnp (x) = X αi i=0 b) Diese Verteilung heißt Poissonverteilung: πλ : = ∞ X λk k=0 k! e−λ δk , λ>0 c) Gq : = ∞ X (1 − q)q k−1 δk , 0≤q≤1 k=1 6. Es sei A ∈ Bn mit 0 < ℓ(n) (A) < +∞ gegeben. Zeigen Sie, dass durch: GlA (B) : = ℓ(n) (A ∩ B) , ℓ(n) (A) (B ∈ Bn ) ein Wahrscheinlichkeitsmaß auf [Rn , Bn ] gegeben ist. Es ist GlA (∅) = ℓ(n) (A) ℓ(n) (A) ℓ(n) (A∩∅) ℓ(n) (A) = ℓ(n) (∅) ℓ(n) (A) = 0. Weiter gilt GlA (Rn ) = ℓ(n) (A∩Rn ) ℓ(n) (A) = = 1. 77 A. Übungsaufgaben ξ i 7. [Ω, F, P ] − → [R, B, Pξi ], Pξi = Exλi , λi > 0. Weiter ist Pξi : Fi (x) = (1−e−λi x )χ(0,∞) (x) = ( 0 x≤0 . Gesucht ist die Verteilungsfunktion der Zufallsgröße ξ = min{ξ1 , . . . , ξn }. −λ x i 1−e x>0 Wie ist F (x) definiert? Es gilt, F (x) = Pξ ((−∞, x)) = P (min{ξ1 , . . . , ξn } < x) = 1 − P (min{ξ1 , . . . , ξn } ≥ x) = 1 − P (ξ1 ≥ x, . . . , ξn ≥ x) = 1 − P ({ω ∈ Ω : ξ1 (ω) ≥ T x, . . . , ξn (ω) ≥ x} = 1 − P ( ni=1 {ω ∈ Ω : ξi ≥ x}) mit x ∈ R. Dabei sind die Q Ereignisse unabhängig und man kann das schreiben als 1 − ni=1 P ({ω ∈ Ω : ξi ≥ Qn Qn x}) = 1 − i=1 P (ξi ≥ x) = 1 − i=1 (1 − Fi (x)). Die weitere Betrachtungen erfordern eine Fallunterscheidung. Im Fall x ≤ 0 ist F (x) = 0. Für x > 0 gilt P Q Q F (x) = 1 − ni=1 (1 − (1 − e−λi x )) = 1 − ni=1 e−λi x = 1 − e−λx für λ = ni=1 λi . Also folgt, F (x) = (1 − e−λx )χ(0,∞) (x). Somit ist Pξ = Exλ .) 8. Es sind n ≥ 1 unabhängige Zufallsgrößen ξ1 , . . . , ξn über einem Wahrscheinlichkeitsraum [Ω, F, P ] mit Pξi = Exλ , λ > 0 gegeben. Weiterhin ist η = ξ1 + · · · + ξn . Zeigen Sie: Pη ist absolut stetig bezüglich des Lebesgue-Maßes ℓ auf [R, B] mit der Dichte fn (x) = 0 1 n −λx xn−1 (n−1)! λ e x≤0 x≥0 Das Wahrscheinlichkeitsmaß Pη heißt Erlang-Verteilung mit n Freiheitsgraden und dem Parameter λ > 0. Speziell ist f1 die Dichte der Exponentialverteilung. Wir wissen: η = ξ1 + · · · + ξn , Pη = ℓfn und müssen eine Induktion über n durchführen: Sei n = 2, η = ξ1 + ξ2 . Dabei sind die ξ1 , ξ2 unabhägig und gleich verteilt. Nach der Vorlesung ist Pη R= Pξ1 ∗ Pξ2 . Wir wissen weiter, Rfξ1 = fξ2 = f1 . Die Dichte ist (fξ1 ∗ fξ2 )(x) = 0y fξ1 (y − x) fξ2 (x) ℓ(dx) = λ2 0y e−λ(y−x) e−λx dx = R | {z } | {z } >0 für y−x>0 >0 Denn e−λx e−λ(−x) = λ2 e−λy 0y dx = λ2 e−λy y. 1. Also folgt, dass fξ1 ∗ fξ2 = f2 . Es gelte nun die Behauptung für n − 1. Nun ist Pηn = ∗ni=1 Pξi R= Pηn−1 ∗ Pξn . Es Ry 1 λn−1+1 (0,y) e−λ(y−x) (y − gilt (fn−1 ∗ fn )(y) = 0 fn−1 (y − x)fn (x)ℓ(dx) = (n−2)! R 1 x)n−2 e−λx ℓ(dx) = (n−2)! λn e−λy 0y (y − x)n−2 dx Nun substituieren wir t = y − R 1 1 x, dt = −dx und schreiben das Integral (n−2)! λn e−λy (− y0 tn−2 dt) = (n−2)! λn e−λy 1 1 n −λy tn−1 |y = n −λy y n−1 . Somit folgt die Behauptung. 0 (n−2)!(n−1) λ e (n−1)! λ e Ry 9. Sei [Ω, F, P ] ein Wahrscheinlichkeitsraum. Berechnen Sie das erste Moment, das zweite Moment und die Varianz folgender Zufallsgrößen: ξ2 : Ω → N0 mit Pξ2 = Gq , 0 < q < 1. P 2 k−1 = 2m 1 m2 = (1 − q) ∞ 1 1−q k=1 k q 78 0 tn−2 dt = Index σ-Additivität, 14 σ-Algebra, 9 Abbildung messbare, 24 absolut stetig, 36 Additivität endliche, 13 Algebra, 9 bedingte Verteilung, 49 Bernoullischema, 44 Bildmaß, 24 Binomialverteilung, 21, 45, 76 Borelmenge, 12 Dirac-Maß, 13 diskret, 32 Eintrittswahrscheinlichkeit, 8 Elementarereignis, 8 endlich,Maß endliches, 39 Erwartungswert, 62 Erzeugendensystem, 11 Exponentialverteilung, 19, 38 Faltung, 59 fast überall gleich,gleich fast überall, 35 Funktion einfache, 27 Gleichverteilung, 20 Hilbertraum, 68, 73 Häufigkeit relative, 9 integrierbar, 31 Komplement, 8 Lebensdauerverteilung, 50 Maß, 12 diskretes, 31 Lebeguesches, 16 Maßraum, 12 messbar, 24 Moment, 64 Normierung, 69 Nullmaß, 12 paarweise unabhängig, 52 Poissonverteilung, 22, 77 Potenzmenge, 8 Produkt, 15, 16 Produktmaß, 16 Raum messbarer, 12 Riemannintegral, 6, 32 Standardabweichung, 66 Sterberate, 50 stetig absolut, 36 Streuung, 66 Subadditivität, 14 Tensorprodukt, 20 unabhängig, 52, 57 Urbild, 23 Varianz, 66 Vektor zufälliger, 58 79 INDEX Verteilung geometrische, 22, 45 Verteilungsfunktion, 18 Verteilungsgesetz, 55 vollständig unabhängig, 52 Wahrscheinlichkeit bedingte, 48 Wahrscheinlichkeitsdichte, 37 Wahrscheinlichkeitsmaß, 18 Wahrscheinlichkeitsraum, 18 klassischer, 41 Zentrierung, 69 Zufallsgröße, 55, 56 Zufallsvariable, 55 Zählmaß, 13 normiertes, 42 80