Inhaltsverzeichnis 1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . Studierhinweise Kapitel 1A 1 . . . . . . . . . . . . . . . . . . . . . . 9 2 Zufallsexperimente und relative Häugkeiten . . . . . . . . . . 11 3 Der Begri des diskreten WRaumes . . . . . . . . . . . . . . 14 4 Beispiele von diskreten WMaÿen . . . . . . . . . . . . . . . . 19 Studierhinweise Kapitel 1B . . . . . . . . . . . . . . . . . . . . . . . 24 5 Zufallsvariable und Verteilungen im diskreten Fall . . . . . . . 26 6 Stochastische Unabhängigkeit . . . . . . . . . . . . . . . . . . 31 . . . . . . . . . . . . . . . . . . . . . . . . . 36 Lösungen zu Kapitel 1 Studierhinweise Kapitel 2 . . . . . . . . . . . . . . . . . . . . . . . 37 . . . . . . . . . . . . . . . . . . . . . . 39 7 Allgemeine WRäume 8 Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 9 Das Erfordernis der Messbarkeit . . . . . . . . . . . . . . . . . 46 10 Über Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 11 Maÿe mit LebesgueDichten . . . . . . . . . . . . . . . . . . . 50 Maÿes i INHALTSVERZEICHNIS ii Studierhinweise Kapitel 3 . . . . . . . . . . . . . . . . . . . . . . . 53 12 Erwartungswerte . . . . . . . . . . . . . . . . . . . . . . . . . 56 13 Varianz und Kovarianz . . . . . . . . . . . . . . . . . . . . . . 62 14 Die Tschebyschev'sche Ungleichung . . . . . . . . . . . . . . . 65 15 Über Zufallsgeneratoren (fakultativ) . . . . . . . . . . . . . . . 69 . . . . . . . . . . . . . . . . . . . . . . . . . 73 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Lösungen zu Kapitel 3 Index Grundlagen 1 1 Grundlagen Der Abschnitt orientiert über Notation und Sprechweisen und präsentiert ergänzende Sachverhalte. Die Ausführungen über Konvergenz von Reihen sind insbesondere im Zusammenhang mit Abschnitt 12 Erwartungswerte zu sehen. 1.1 Allgemeines a := b meint, dass a denitionsgemäÿ gleich b ist. =⇒ bzw. ⇐⇒ meint die Implikation bzw. die Äquivalenz. kennzeichnet das Ende eines Beweises. 1.2 Mengen, Allquantor Die Begrie Menge, Element, Teilmenge einer Menge, die leere Menge werden als bekannt vorausgesetzt. Die Potenzmenge aller Teilmengen von x∈A besagt, dass x Teilmenge der Menge ∅ P(A) der Menge A ist die Menge A Element von B A ist, während A⊂B die Menge A als ausweist. bezeichnet die leere Menge. Der Durchschnitt A ∩ B, die Vereinigung A∪B sowie die Dierenz A\B werden als bekannt vorausgesetzt. Ac als Komplementmenge der Menge ist die Dierenz menge Ω\A bez. einer Grund- Ω. A × B der Mengen A und B ist deniert als die (a, b) | a ∈ A , b ∈ B . ×ni=1 Ai meint entsprechend das kartesische Produkt der Mengen Ai , i = 1, . . . , n. N, Z, Q, R kennzeichnen die Mengen der natürlichen, ganzen, rationalen und Das kartesische Produkt Menge reellen Zahlen. Rn meint den linearen Raum der nTupel reeller Zahlen. Insbesondere ist Rn+ := {x ∈ Rn | x ≥ 0}. 0 0 0 Die Mengen N , Nn und Nn sind deniert als N := N∪{0}, Nn := {1, . . . , n} 0 und Nn := {0, 1, . . . , n}. Ω, Ω0 , Ω00 bezeichnen Grundmengen, I, J Indexmengen; sie sind stillschweigend als nichtleer vorausgesetzt. A(ω) (ω ∈ Ω) bzw. A(i), i = 1, . . . , n meint, dass die Aussage A(ω) A(i) für alle ω ∈ Ω bzw. alle i ∈ {1, . . . , n} zutrit. bzw. 1.3 Abbildungen Der Begri der Abbildung (Funktion) wird als bekannt vorausgesetzt, ebenso die Konzepte der Injektivität, Surjektivität und Bijektivität. Lässt sich eine Menge so heiÿt A A bijektiv auf Nm für ein endlich bzw. abzählbar (unendlich). m∈N bzw. auf N abbilden, Überblick Grundlagen 2 Notation einer Abbildung bedienen wir uns der Darstellungsweise Zur f : A −→ B , der dann die Funktionswertzuweisung folgt (a ∈ A) . f (a) := . schreiben aber auch Wir f( . ) a 7→ f (a), bzw. sofern die Darstellung aufgrund des Kontextes Missverständnisse ausschlieÿt. Sind f :A→B g : A → C Abbildungen, so f und g , d.h. die Abbildung und tabbildung von (f, g) : A −→ (f, g)(a) := Mit f ◦g ist die meint B×C mit f (a), g(a) Komposition der Abbildungen (f, g) die (a ∈ A) . f :B→C und g:A→B gemeint: f ◦ g( . ) := f g( . ) . idΩ : Ω → Ω meint die Identität auf Ω, id(x) = x für alle 1.3.1 Denition (Indikatorfunktion) Sei A eine Teilmenge von Ω. Die Funktion ( 1A (ω) := heiÿt Indikatorfunktion von A. 1.3.2 Satz A, B ⊂ Ω. Dann gilt (1.3.2.1) 1Ac = 1 − 1A , (1.3.2.2) A ⊂ B =⇒ 1A ≤ 1B , (1.3.2.3) 1A∩B = 1A · 1B . Seien 1, 0, 1A : Ω → R falls falls Produk- ω∈A ω∈ /A mit x ∈ Ω. Grundlagen 3 1.4 Mengen (Ergänzungen), Mengensysteme 1.4.1 Denition (ωi Schnitt) Sind der V ⊂ Ω 1 × Ω2 ω̄1 Schnitt ω̄1 ∈ Ω1 , so heiÿt Vω̄1 := ω2 ∈ Ω2 | (ω̄1 , ω2 ) ⊂ V und von V; analog deniert man den 1.4.2 Bemerkungen 1.4.2.1 Stellt man die Menge ω1 Achsen und Vω2 und ω2 bei festen V ω̄2 Schnitt von in einem Koordinatensystem mit den dar, so ergibt sich für die Schnittmengen ω1 bzw. ω2 eine Darstellung, die den ω2 6 ........................................................................................................................................................................................................................................................................................................ ....... . ....... ....... .... ...... ...... ... ...... ...... ...... .... ... . . .... ω2 ... .. ... ... ... ... ... ... ... ... .. ... . . . ... .. .. . . ... .. .. . . .. . .. .... ... .. ... ... .. . .. .. . .. ... .... .. . . . . . ....................................................................................................................................................................................................... .. . . . . ... . . . ...... .. . ..... . . . . . ... . . . . ... . .. ... . ... ... . . . . . .. .. .. ............................................................................................................................................................................................................................................................................................................. .. . . .. . .... .... .. .... .......... ........ ... ...... .... .. .... . . . . . . . . . . . . . ... ............. . . . . . .. .... ............................................ ... .... .... .............................................. ... .... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. .. V | 1.4.2.2 1.4.2.3 {z | } ω i Schnitt von ∅ω̄i = ∅, i = 1, 2, Für A1 ⊂ Ω1 , A2 ⊂ Ω2 (A1 × A2 )ω̄1 | ω {z1 Vω2 V , i = 1, 2. ω̄1 ∈ Ω1 gilt oenbar ( A2 , falls ω̄1 ∈ A1 = ∅, falls ω̄1 ∈ / A1 , und ein entsprechender Sachverhalt gilt für 1.4.2.4 (Ω1 × Ω2 )ω̄i = Ω3−i , {z } i = 1, 2. ω̄2 ∈ Ω2 . } Vω1 Namen Schnitt rechtfertigt. Vω1 V. - ω1 Grundlagen 4 1.4.3 Denition 1.4.3.1 Eine Menge von Mengen heiÿt ein Mengensystem. K ein Mengensystem und f : I → K eine Abbildung, die jedem i ∈ I ein Element f (i) = Ai ∈ K, also eine Menge, zuordnet, so heiÿt (Ai | i ∈ I) eine Familie von Mengen bzw. Mengenfamilie (aus K). 1.4.3.2 Ist 1.4.3.3 Eine Mengenfamilie Ω); 1.4.3.4 I eine (nichtleere) Menge, wir schreiben (Ai | i ∈ N) dafür auch (Ai ). heiÿt eine Mengenfolge (in Sind in 1.4.3.2 bzw. in 1.4.3.3 alle Elemente von gen ein und derselben Grundmenge Ω, Als Beispiel für ein Mengensystem nennen wir die A, die sogenannte Teilmen- so sprechen wir von einer Mengenfamilie bzw. Mengenfolge in einer Menge K Ω. Menge aller Teilmengen Potenzmenge P(A) von A. 1.4.4 Denition (disjunkte Vereinigung) Ist (Ai | i ∈ I) eine Familie X Ai := i∈I und sprechen von der bzw. I = N, n X paarweise fremder Mengen, so schreiben wir X Ai := I [ Ai := I [ Ai . i∈I disjunkten Vereinigung der Mengen Ai . Ist I = Nn so schreiben wir auch Ai = A1 + . . . + A n bzw. ∞ X i=1 Ai = A 1 + A2 + . . . i=1 1.4.5 Denition (Zerlegung, Partition) Eine Familie heiÿt (Ai | i ∈ I) paarweise fremder Mengen in Zerlegung (oder Partition) von Ω. Ω mit P I Ai = Ω Grundlagen 1.4.6 Satz 1.4.6.1 Sei 5 (Bi | i ∈ I) eine Zerlegung von A = X Ω und A ⊂ Ω. Dann gilt (A ∩ Bi ) . I 1.4.6.2 Ist I = Nn oder I = N und (Ai | i ∈ I) eine Familie von Mengen, so gilt [ Ai = A1 + i∈I X Ai − i−1 [ i∈I i6=1 Aj . j=1 1.5 Die erweiterten reellen Zahlen Erweitert man die Menge fügen) der Elemente der erweitert +∞ R der reellen Zahlen durch Adjunktion (=Hinzu- und −∞ zur Menge reellen Zahlen, so sind die in ergänzen.Man setzt für R := R ∪ {+∞} ∪ {−∞} R üblichen Rechenregeln zu a ∈ R: a + (±∞) = (±∞) + a = (±∞) + (±∞) = ±∞ . (1.5.1) Hingegen bleiben die Operationen (±∞) − (±∞) (1.5.2) unerklärt. Weiter setzt man für a ∈ R: ±∞ 0 a · (±∞) = (±∞) · a = ∓∞ (1.5.3) für für für a>0 a=0 a<0 (1.5.4) (±∞)·(±∞) = +∞ , (±∞)·(∓∞) = −∞ , a 1 = 0 , = +∞ . ±∞ 0 Eigenschaften: Die oben denierte Addition und Multiplikation ist kommutativ und assoziativ, freilich bleiben gewisse Operationen (siehe (1.5.2))unerklärt. R ist daher kein Körper. Deniert man für x < c) ±∞ oene Umgebung gemäÿ (c < x ≤ +∞) bzw. (−∞ ≤ und übernimmt man die übliche Denition der Umgebung für die übrigen Punkte, so ist die Menge der erweitert reellen Zahlen kompakt. Grundlagen 6 1.6 Konvergenz von Reihen Der Begri der Reihe P vorausgesetzt. Ist für n∈N i∈N ai mit Gliedern sn := n X ai ∈ R , i ∈ N n , wird als bekannt ai i=1 nte Teilsumme, so sagt man, die Reihe konvergiert in R (bzw. in R) zum Reihenwert a, wenn der Grenzwert der Teilsummenfolge (sn ) in R (bzw. in R) existiert und die a = lim sn n→∞ gilt. Wir werden uns was den denitorischen Aufbau betrit auch in Abschnitt 12 Erwartungswerte auf die Konvergenz in R beschränken. Alle Reihen werden im folgenden auch ohne explizite Erwähnung als Reihen mit ausschlieÿlich reellen Gliedern vorausgesetzt. Nun lässt sich ein Reihenwert nur dann sinnvoll denieren, wenn dieser für jede Summationsreihenfolge stets derselbe ist. Ist b:N→I I eine Indexmenge und eine Bijektion, so wird man vernünftigerweise fordern, dass X ab(i) b : I → N gegen denselben Reihenwert in R konvergiert. Damit wird die Menge N mit ihrer natürlichen Ordnung entbehrlich. für jede beliebige Bijektion 1.6.1 Denition Sei I eine abzählbare Indexmenge. Konvergiert X (1.6.1.1) ab(i) , mit ab(i) ∈ R (i ∈ N) , i∈N in R b : N → I zum selben Reihenwert a, so unbedingt in R. Für den Reihenwert schreiben für jede beliebige Bijektion konvergiert die Reihe wir auch P i∈I Als Beispiel: ai . Eine Reihe mit lauter nichtnegativen Gliedern konver- giert unbedingt, allerdings in R. Grundlagen 7 1.6.2 Denition Eine Reihe die Reihe P P i∈N ai mit ai ∈ R , i ∈ N, konvergiert absolut i∈N |ai | in R konvergiert. Bekanntlich gilt der in R, wenn 1.6.3 Satz Konvergiert die Reihe in P i∈N ai absolut in R, so konvergiert sie unbedingt R. Weiter gilt der 1.6.4 Satz (Umordnungssatz für absolut konvergente Reihen) (Ik | k P ∈ K) eine Zerlegung der abzählbaren Indexmenge I . Konvergiert P die Reihe konvergiert jede der Reihen i∈I ai absolut in R, so Ik ai (k ∈ P P K), sowie auch die Reihe unbedingt in R, wobei die k∈K i∈Ik ai letztere für jede Zerlegung von I denselben Reihenwert hat. Sei 1.6.5 Bemerkungen 1.6.5.1 Setzt man für Ik insbesondere die Einpunktmengen von I, so geht (1.6.4) in (1.6.3) über. 1.6.5.2 dern in R, P i∈N ai einer Reihe mit nichtnegativen Glieso ist sie absolut konvergent, so dass Satz 1.6.4 gilt. Existiert der Wert Umordnungssatz von Wir sprechen in diesem Fall auch vom Reihen mit nichtnegativen Gliedern. Die folgenden Sachverhalte sind unmittelbar einsichtig. 1.6.6 Satz Sind P i∈I 1.6.6.1 ai und P i∈I bi Reihen und P P P i∈I ai und i∈I bi absolut konvergent, Reihe i∈I (αai + βbi ), und es gilt X X X α ai + β bi = (αai + βbi ) . Sind die Reihen auch die i∈I 1.6.6.2 α, β ∈ R. Sind die Reihen i∈I P i∈I ai i∈I und P i∈I bi absolut konvergent, so gilt ai ≤ b i (i ∈ I) X =⇒ ai ≤ i∈I 1.6.6.3 Ist P i∈I ai absolut konvergent, so gilt X X ai ≤ |ai | . i∈I so i∈I X i∈I bi . Grundlagen 8 1.7 Binomialkoezient Der Binomialkoezient durch n! n k (sprich: ( n := k n über k) n! , k!(n−k)! falls 0 falls , (sprich: nFakultät) ist festgelegt durch ist für n, k ∈ N0 deniert k≤n k > n. n! := 1 · 2 · 3 · · · · · n, 0! = 1. Studierhinweise Kapitel 1A 9 Studierhinweise Kapitel 1A 2 Zufallsexperimente und relative Häugkeiten 3 Der Begri des diskreten WRaumes 4 Beispiele von diskreten WMaÿen Die erste Lernperiode schlieÿt Durchsicht und Studium von '1 Grundlagen' mit ein. Auf eine Kommentierung von '1 Grundlagen' wird verzichtet. 2 Zufallsexperimente und relative Häugkeiten Der Abschnitt 'Zufallsexperimente und relative Häugkeiten' liefert den nichtmathematischen Hintergrund der zum Begri des (diskreten) WRaumes (Def. 3.1) führt. Eine Analyse des Zufallsexperimentes legt es nahe, den sog. WRaum als Rahmen für spätere Überlegungen festzulegen. Hier wird die intuitive Vorstellung eingebracht, dass die Zahl P (A) für ω des die Wahrscheinlichkeit steht, dass ein zufällig ausgewähltes Element Ausgangsraumes Ω in die Menge A zu liegen kommt oder wie man (als au- ÿermathematische Sprechweise) auch sagt, dass das Ereignis A eintritt. 3 Der Begri des diskreten WRaumes Die zentralen Begrie sind der des WRaumes, Def. 3.1, bzw. der der W Funktion, Def. 3.6 . 3.1 Denition Präzise Kenntnis 3.2 Bemerkungen Kenntnis der Inhalte und Spechweisen 3.3 PunktWMaÿ Präzise Kenntnis 3.4 Folgerungen Kenntnis der Sachverhalte incl. Beweisführungen Studierhinweise Kapitel 1A 10 3.5 Bemerkung Wiedergabe des Sinnes dieser Bemerkung, die auf Formel (3.5.1) beruht. Die Gültigkeit von (3.5.1) muss begründet werden können. 3.6 Denition Präzise Kenntnis 3.7 Satz Kenntnis, Beweisführung (vgl. die Begründung von (3.5.1)) 4 Beispiele von diskreten WMaÿen 4.1 Binomialverteilung, 4.2 Poissonverteilung, 4.3 Geometrische Verteilung Kenntnis der jeweiligen WFunktionen incl. Nachweis, dass es sich tatsächlich um WFunktionen handelt. 4.4 Gleichverteilung, 4.5 Laplace'scher WBegri Präzise Kenntnis 4.6 Beispiel Verständnis, so dass ein analoges Beispiel bearbeitet werden kann 4.7 Beispiel Verständnis, so dass ein analoges Beispiel bearbeitet werden kann 4.8 ProduktWMaÿ, 4.9 Bemerkungen Kenntnis, präzise Wiedergabe, Zusammenschau von (4.8.1), (4.9.1), (4.9.2) die letzte Formel ist eine Konsequenz aus (4.9.1) und (3.5.1) . 4.10 Beispiel Verständnis, so dass selbst ein Beispiel konstruiert werden kann Zufallsexperimente und relative Häugkeiten 2 11 Zufallsexperimente und relative Häugkeiten Der Abschnitt liefert eine Analyse und Beschreibung des nichtmathematischen Be- gries des Zufallsexperimentes, nach dem dann der Begri des diskreten WRaumes modelliert werden soll. Zentrale Stichworte sind Ausgangsraum, Ereignis, Ereignis- system und relative Häugkeiten. Gegenstand dieses Abschnittes ist der auÿermathematische Begri des Zufallsexperimentes, der den in Abschnitt 3 zu denierenden Begri des diskreten WRaumes begründen und motivieren soll. Im Sinne einer vorläugen Festlegung erklären wir, dass ein Zufallsexperi- ment ein Vorgang mit unbestimmten Ausgang ist. Beispiele dazu wären etwa: (1) ein einmaliger Wurf mit einer Münze, (2) die nächste Landtagswahl in NRW. Obwohl in beiden Fällen die Ausgänge ungewiÿ sind, bestehen zwischen beiden Beispielen erhebliche Unterschiede. Bei Beispiel 1 handelt es sich um einen Vorgang, der unter gleichen Umständen beliebig oft wiederholbar ist, was für Beispiel 2 nicht zutrit. Aussagen zu Beispiel 1 sind einer empirischen Überprüfung durch Er- mittlung von Häugkeiten zugänglich. Bei Aussagen zu Beispiel 2 handelt es sich um Mutmaÿungen zu einem einmaligen Vorgang. Gegenstand unseres Interesses sind in der Folge solche Zufallsvorgänge, die einer empirischen Überprüfung durch Häugkeitserhebungen zugänglich sind. Wir denieren: Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit ungewissen Ausgang. Zu Zufallsexperimenten rechnet man klassischerweise • das Werfen von Münzen, • das Ziehen von Kugeln aus einer Urne. Dazu gehören aber auch (unter gleichen Umständen) wiederholbare medizinische, biologische oder technische Versuche, die aber nicht notwendigerweise Beispiele für diskrete WRäume liefern. Überblick Zufallsexperimente und relative Häugkeiten 12 Ein typisches Zufallsexperiment im Sinne der Wahrscheinlichkeitstheorie ist das GaltonBrett, wo die Kugel bei jedem Nagel ihren Weg mit der Wahrscheinlichkeit p nach links bzw. mit der Wahrscheinlichkeit 1−p nach rechts fortsetzt, vgl. Experiment 6.1 . Im Hinblick auf die Denition des diskreten WRaumes, in dessen Rahmen die Begrie Ereignis und Wahrscheinlichkeit formal festzulegen sind, hat man sich die Frage der Beschreibung eines Zufallsexperimentes zu überlegen. Ein wesentlicher Punkt bei der Beschreibung von Zufallsexperimenten ist die Angabe der möglichen Ausgänge, der möglichen Resultate des Zu- fallsexperimentes. Die Menge der möglichen Ausgänge heiÿt mit Ω Ausgangsraum, und wird hier bezeichnet. Betrachtet man das Zufallsexperiment Zweimaliges Werfen eines Würfels, so bietet sich die Menge Ω := (i, j) ∈ N × N | 1 ≤ i ≤ 6 , 1 ≤ j ≤ 6 als Ausgangsraum an, wobei Wurf realisierten Augenzahl i (i, j) bzw. das Paar der im ersten bzw. im zweiten j meint. Weiterführend ist zu klären, was unter einem Ereignis verstanden werden soll. Im Sinne einer sehr vorläugen Charakterisierung ist ein Ereignis etwas, von dem nach Ablauf des Zufallsexperimentes feststeht, ob es eingetreten ist oder nicht. Da nach Durchführung eines Zufallsexperimentes ein Punkt des Aus- gangsraumes als Ereignis feststeht, muÿ ein Ereignis ein Punkt des Ausgangsraumes oder eine Teilmenge des Ausgangsraumes sein, die diesen Punkt enthält. Tatsächlich faÿt man ein Ereignis als eine Teilmenge des Ausgangsrau- mes auf. Man sagt im Sinne einer auÿermathematischen Sprachregelung das Ereignis tritt ein bzw. tritt nicht ein, je nachdem, ob das Ergeb- nis des Zufallsexperimentes in die als Ereignis denierte Teilmenge des Ausgangsraumes fällt oder nicht. Im Falle des Beispiels Zweimaliges Werfen eines Würfels wären etwa (i, j) ∈ Ω | i + j < 5 oder (i, j) ∈ Ω | i ist eine gerade Zahl , 4 ≤ j ≤ 6 denkbare Ereignisse. Zufallsexperimente und relative Häugkeiten 13 Bei der Denition des Begries WRaum wird man allerdings kaum ein einzelnes Ereignis allein betrachten wollen, sondern man wird sich für die Men- ge aller Ereignisse interessieren. Es liegt nahe, kurzerhand alle Teilmengen des Ausgangsraumes als Ereignisse zu betrachten. Nennen wir eine Menge von Mengen ein Mengensystem, so wäre demnach die Potenzmenge (Menge aller Teilmengen) P(Ω) von Ω das Ereignissy- stem. Tatsächlich legt man in der diskreten Stochastik die Potenzmenge P(Ω) als das Ereignissystem fest. Ein Konzept freilich, das sich für die allgemeine WTheorie nicht übernehmen läÿt. Der Grund sind logische Schwierigkeiten. Als drittes, neben dem Ausgangsraum Ω und dem Ereignissystem P(Ω), we- sentliches Objekt zur Denition des WBegries führen wir eine P : P(Ω) → [0; 1] ein. Für jedes A ∈ P(Ω) wird die Zahl Abbildung P (A) als scheinlichkeit dafür interpretiert, dass ein zufällig ausgewähltes rade in A liegt oder, wie man auch sagt, dass das Ereignis Beachten Sie: P ist auf P(Ω) und nicht auf Ω A ge- P zu kommen, relativen Häugkeiten. Von diesem Begri lieÿen wir uns oben zu der Festlegung des Wertebereiches P ω∈Ω eintritt. deniert. Um nun zu Vorstellungen zu den Eigenschaften der Abbildung untersuchen wir die Eigenschaften von Wahr- [0; 1] von leiten. Tritt bei einer nmaligen Wiederholung eines Zufallsexperimentes, wir spre- chen von einer Versuchsserie vom Umfang ist die relative Häugkeit hn (A) n, k mal das Ereignis A ein, so dieses Ereignisses für die vorliegende Versuchsserie deniert als hn (A) := k . n Für die relative Häugkeit als Modell eines zu schöpfenden WBegries spricht der Umstand, dass die relative Häugkeit für das Eintreten eines bestimmten Ereignisses bei fortgesetzter Wiederholung des Zufallsexperimentes erfahrungsgemäÿ mit in der Tendenz kleiner werdenden Ausschlägen um einen gewissen konstanten Wert schwankt. Oenbar gilt 0 ≤ hn (A) ≤ 1 , hn (A) + hn (B) = hn (A ∪ B) , für A, B ∈ P(Ω) , A ∩ B = ∅ . Die Denition des WMaÿes in Abschnitt 3 ist an diesen Eigenschaften für relative Häugkeiten modelliert. Der Begri des diskreten WRaumes 3 14 Der Begri des diskreten WRaumes In diesem Abschnitt wird der Begri des diskreten WRaumes eingeführt. Diskrete W Räume sind durch einen endlichen bzw. abzählbar unendlichen, also einen diskreten Ausgangsraum gekennzeichnet. Der zentrale Begri ist der des WMaÿes für das die σ Additivität gefordert wird. Mit Hilfe der WFunktion läÿt sich über einem diskreten Ausgangsraum eindeutig ein WMaÿ festlegen. Mit den in Abschnitt 2 gegebenen Motivierungen als Hintergrund geben wir die Denition des diskreten WRaumes. 3.1 Denition Das Tripel • Ω (Ω, P(Ω), P ) eine nichtleere, heiÿt diskreter WRaum, wenn endliche oder abzählbare, also diskrete Menge, und • P : P(Ω) → R Abbildung der Potenzmenge eine P(Ω) von Ω (Menge aller Teilmengen) in die reellen Zahlen mit folgenden Eigenschaften ist: (3.1.1) P (A) ≥ 0 (A ⊂ Ω) (3.1.2) P (Ω) = 1 (3.1.3) für jede Folge (Nichtnegativität) (Normiertheit) (An ) paarweise fremder Mengen aus P(Ω) gilt: X X P An = P (An ) (σ Additivität) n∈N n∈N (lies: SigmaAdditivität) Ω heiÿt se), P Ausgangsraum, ein P(Ω) Ereignissystem (Menge der Ereignis- (diskretes) WMaÿ, wobei, falls eine Präzisierung gewollt ist, das Ereignissystem bzw. der Ausgangsraum mitgenannt wird, also: tes) WMaÿ auf P(Ω) über (diskre- Ω. 3.2 Bemerkungen 3.2.1 Die Teilmengen des Ausgangsraumes Ω heiÿen Ereignisse. P (A) verstehen wir als die Wahrscheinlichkeit des Ereignisses A oder in der Sprache des als intuitiver Hintergrund dienenden Zufallsexperimentes als die Wahrscheinlichkeit dafür, dass ein zufällig durch (Messung oder Beobachtung) gemäÿ (dem WGesetz) nes ω̄ ∈ Ω ein Element der Menge P zustandegekomme- A ist, d.h., dass ω̄ ∈ A gilt. Überblick Der Begri des diskreten WRaumes Man spricht von ω̄ 15 im Sinne einer auÿermathematischen Begrisbildung als von einer Realisation gemäÿ (dem WGesetz) P. Zur empirischen Überprüfung, ob es sich bei vorgegebenen Realisationen um solche gemäÿ 3.2.2 P handelt, vgl. Exp. 15.1 . P ist keine Abbildung der Menge Ω sondern der Menge P(Ω) in R; d.h. den Teilmengen von Ω werden reelle Zahlen zugeordnet. Man spricht deshalb von P als von einer MenBeachten Sie: genfunktion. 3.2.3 Gilt für A ∈ P(A) P (A) = 0 so spricht man von bzw. P (A) = 1 , A als von einer PNullmenge bzw. von einer PEinsmenge. ∅ ist stets eine Nullmenge; ebenso ist Ω stets eine Einsmenge. Wir begnügen uns für den Moment mit einem ersten Beispiel für ein WMaÿ, nämlich dem PunktWMaÿ. Dieses liefert auch prototypisch Beispiele für nichttriviale Null und Einsmengen. Die Denition des PunktWMaÿes ist nicht auf diskrete Ausgangsräume beschränkt. 3.3 PunktWMaÿ Sei ω ∈ Ω. δω : P(Ω) → [0; 1] mit ( 1, falls ω ∈ A δω (A) := 0, falls ω ∈ /A Dann heiÿt PunktWMaÿ in DiracMaÿ in ω. Oenbar ist die gesamte Masse in ω konzentriert. Gilt ω ∈ A für ein A ⊂ Ω, so nimmt δω (A) den Wert 1 an, d.h., A ist eine Einsmenge. Trit ω ∈ A nicht zu, so nimmt δω (A) den Wert 0 an; d.h., A ist eine Nullmenge. Machen Sie sich klar, dass δω ein WMaÿ ist, wozu Sie sich insbesondere die σ Additvität das überlegen. ω; (A ⊂ Ω) man spricht auch vom Der Begri des diskreten WRaumes 16 3.4 Folgerungen 3.4.1 P (∅) = 0, P (A + B) = P (A) + P (B) (A, B ⊂ Ω , A ∩ B = ∅), P) 3.4.2 (Additivität von 3.4.3 P (Ac ) = 1 − P (A) 3.4.4 P (B \ A) = P (B) − P (A) 3.4.5 A ⊂ B =⇒ P (A) ≤ P (B), 3.4.6 P (A) ≤ 1 (A ⊂ Ω), (A, B ⊂ Ω , A ⊂ B), (A ⊂ Ω). Beweis: 3.4.1 Aufgrund von (3.1.2) und (3.1.3) erhält man 1 = P (Ω) = P (Ω + ∅ + . . . ) = P (Ω) + ∞ · P (∅) , also 3.4.2 ∞ · P (∅) = 0; woraus mit (1.5.3) P (∅) = 0 folgt. Wegen (3.1.3), 3.4.1 und 3.4.6 ist P (A+B) = P (A+B+∅+ . . . ) = P (A)+P (B)+0+ . . . = P (A)+P (B) . (Oenbar zieht die σ Additivität von P im Falle von endlich vie- len nichtleeren Mengen die Additivität von 3.4.3 P nach sich.) Wegen (3.1.2) und 3.4.2 gilt 1 = P (Ω) = P (A + Ac ) = P (A) + P (Ac ) . 3.4.4 Für A⊂B gilt B = (B \ A) + A und somit aufgrund von 3.4.2 P (B) = P (B \ A) + P (A) . 3.4.5 Ist eine Konsequenz aus 3.4.4 zusammen mit (3.1.1). 3.4.6 Ergibt sich als Spezialfall von 3.4.5 mit B := Ω. 3.5 Bemerkung Das WMaÿ ist als eine Abbildung es ordnet jeder Teilmenge von Ω P : P(Ω) → R eingeführt worden, d.h., eine reelle Zahl zu. Der Begri des diskreten WRaumes 17 P ist aber schon festgelegt, wenn die Wahrscheinlichkeitswerte P {ω} für alle ω ∈ Ω bekannt sind. Wegen der σ Additivität von P und der Abzählbarkeit von Ω gilt für alle A ⊂ Ω Das diskrete WMaÿ P (A) = P (3.5.1) X {ω} = ω∈A X P {ω} . ω∈A (Beachten Sie, dass die Summe im Rechtsterm von (3.5.1) sowohl endlich viele als aber auch abzählbar unendlich viele Summanden aufweisen kann, vgl. auch Beweis zu (3.4.2).) 3.6 Denition Sei Ω eine nichtleere, diskrete Menge. 3.6.1 w : Ω → [0; 1] heiÿt WFunktion (auf Ω), wenn w(ω) = 1 gilt, wobei bei der Summation im Falle der ω∈Ω Abzählbarkeit von Ω der Wert der entsprechenden nichtEine P Funktion negativen Reihe gemeint ist. 3.6.2 Ist P ein WMaÿ über Ω, so heiÿt die durch w(ω) := P {ω} denierte Abbildung w : Ω → [0; 1] (ω ∈ Ω) die WFunktion von P. 3.7 Satz Eine WFunktion bzw. über (3.7.1) Ω. w : Ω → [0; 1] deniert eindeutig ein WMaÿ P auf P(Ω) Es gilt P (A) = X w(ω) (A ⊂ Ω) . ω∈A 3.8 Diskrete WMaÿe über überabzählbaren Ausgangsräumen Gelegentlich ist es sinnvoll ein diskretes WMaÿ über einem überabzähl- baren Ausgangsraum, z.B. über R, zu betrachten. Dabei ist man, z.B. im Zusammenhang mit WFunktionen, auf das Problem geführt, über über- abzählbar viele Summanden summieren zu müssen. 0 ein diskretes WMaÿ über einem überabzählbaren Ausgangsraum Ω , 0 so kann dies ja nur heiÿen, dass eine abzählbare Menge Ω, Ω ⊂ Ω , als Ist P Ausgangsraum existiert, über der P deniert ist. Der Begri des diskreten WRaumes In einem weis von Ω 18 Summenbildungsprozeÿ werden auch ohne expliziten Hin- nur solche Summanden miteinbezogen, die durch Elemente indiziert sind, Summanden, die mit Elementen aus sind, entfallen. Freilich kann anstelle von 0 Obermenge D ⊂ Ω von Ω treten. Ω Ω0 \ Ω indiziert auch eine geeignete, abzählbare Beispiele von diskreten WMaÿen 4 19 Beispiele von diskreten WMaÿen Der Abschnitt liefert als StandardBeispiele für diskrete WMaÿe die Binomial, die Poisson wie auch die geometrische Verteilung, die mit Hilfe ihrer WFunktion dargestellt werden. Das ProduktWMaÿ (hier bei diskreten Ausgangsräumen) ist ein spezielles WMaÿ über dem ProduktAusgangsraum. Mit Hilfe des in 3.6 eingeführten Begries der WFunktion führen wir zunächst zwei für die Theorie wichtige diskrete StandardWMaÿe ein, ohne dabei aber deren wahrscheinlichkeitstheoretische Bedeutung zu klären. Es handelt sich um die Binomial bzw. die PoissonVerteilung. Dem allgemeinen Brauch folgend sprechen wir die beiden WMaÿe als Verteilungen an. Von Verteilungen sprechen wir ansonsten im Zusammenhang mit Bildmaÿen; freilich läÿt sich jedes WMaÿ als Bildmaÿ auassen. 4.1 Binomialverteilung Ω := N0n , 0 ≤ p ≤ 1, q := 1 − p. Dann n k n−k (4.1.1) w(k) := p q k Seien N0n eine WFunktion auf ist durch (k ∈ N0n ) deniert, denn wegen p+q = 1 folgt nach dem binomischen Lehrsatz n X n k k=0 Das für n∈N nennt man die schreibt dafür und pk q n−k = (p + q)n = 1n = 1 . p ∈ [0; 1] durch die obige WFunktion denierte WMaÿ Binomialverteilung mit den Parametern B(n, p). 0.5 0.1 0 1 2 3 WFunktion von 4 5 B(8, 0.4) 6 für 7 8 Ω = N08 n und p und Überblick Beispiele von diskreten WMaÿen 20 4.2 PoissonVerteilung Seien Ω = N0 λ > 0. und Dann wird durch (4.2.1) w(k) = e−λ eine WFunktion auf N0 λk k! (k ∈ N) L deniert. (Warum?) Das durch diese WFunktion denierte WMaÿ heiÿt die mit Parameter λ; wir schreiben dafür PoissonVerteilung Π(λ). 0.5 0.1 0 1 2 3 WFunktion von 4 Π(0.5) 5 6 für 7 8 Ω = N0 4.3 Geometrische Verteilung Seien Ω := N0 und q ∈ (0; 1). Dann wird durch w(k) = (1 − q)q k (4.3.1) eine WFunktion auf N0 (k ∈ N0 ) deniert. (Führen Sie bitte diesen Beweis.) Das durch diese WFunktion denierte WMaÿ heiÿt die Verteilung zum Parameter geometrische q. 0.5 0.1 0 1 2 3 4 5 6 7 WFunktion der geometrischen Verteilung mit 8 q = 0.4 L Beispiele von diskreten WMaÿen 21 4.4 Diskrete Gleichverteilung Ω = Nn . Gilt w(k) = const (k ∈ Nn ), so ist w(k) = n1 (k ∈ N). Das so auf Nn denierte WMaÿ heiÿt die diskrete Gleichverteilung über Nn . Hat das Ereignis A ⊂ Ω genau 1 Element, so ergibt sich seine Wahrschein1 lichkeit als P (A) = . n Sei 4.5 Laplace'scher WBegri Erklärt man unter den Voraussetzungen von 4.4 die Elemente einer Menge A ⊂ Ω zu den günstigen Fällen und versteht Ω die möglichen Fälle , so ist man auf die von man unter den Elementen klassische Laplace'sche WDenition geführt, wonach die Wahrscheinlichkeit das Verhältnis der Anzahl der günstigen Fälle zur Anzahl der möglichen Fälle ist. 4.6 Beispiel Man bestimme die Wahrscheinlichkeit dafür, dass beim gleichzeitigen Werfen zweier unverfälschter (idealer) Würfel die Summe der realisierten Augenzahl kleiner gleich 5 ist. Wählt man als Ausgangsraum die Menge Ω = N6 × N6 = (i, j) | i, j ∈ N6 , so kommt jedem Element (i, j) ∈ Ω die gleiche Wahrscheinlichkeit, nämlich 1 zu, zumal die Anzahl |Ω| der Elemente von Ω gleich 36 ist. 36 Die Anzahl der günstigen Fälle erhalten wir durch Aufzählung. Für die folgenden Paare (i, j) ∈ Ω gilt i + j ≤ 5: (1, 1) , (1, 2) , (1, 3) , (1, 4) , (2, 1) , (2, 2) , (2, 3) , (3, 1) , (3, 2) , (4, 1) Die Anzahl der günstigen Fälle ist 10, womit sich die gesamte Wahrschein10 5 lichkeit zu = 18 ergibt. 36 4.7 Beispiel Beim zweimaligen Werfen mit einem unverfälschten Würfel bestimme man die Wahrscheinlichkeit dafür, dass (1) beim ersten Wurf die Augenzahlen 1 oder 2, (2) beim zweiten Wurf die Augenzahlen 3, 4 oder 5, (3) beim ersten Wurf die Augenzahlen 1 oder 2 und beim zweiten Wurf die Augenzahlen 3, 4 oder 5 eintreten. Zur Beschreibung der einzelnen Würfe wählen wir jeweils für den Ausgangsraum die Mengen N6 und für die WMaÿe krete Gleichverteilung (auf N6 ). P1 bzw. P2 beide Male die dis- Zur Beschreibung des zweimaligen Wurfes Beispiele von diskreten WMaÿen sei N6 × N6 22 P der Ausgangsraum, während das WMaÿ N6 × N6 gegeben sei. C := {1, 2} ⊂ N6 sowie D := {3, 4, 5} ⊂ N6 . durch die diskrete Gleichverteilung auf Weiter sei (1) P1 (C) = |C| |N6 | = 2 ; 6 (2) P2 (D) = |D| |N6 | = 3 ; 6 (3) P (C × D) = |C×D| |N6 ×N6 | = Dann gilt 6 . 36 Wegen P1 (C) · P2 (D) = P (C × D) eine A, B ⊂ N6 bestätigen kann. |A × B| = |A| · |B| folgt (4.7.1) P (A×B) = Oenbar ist Einsicht, die man sofort für beliebige Mengen |A| |B| |A × B| = · = P1 (A)·P2 (B) 36 6 6 (A, B ⊂ N6 ) Die sich als Produktregel präsentierende Beziehung (4.7.1) ist freilich eine Konsequenz aus der Festlegung der WMaÿe P, P1 und P2 . P1 bei P Bei den in (4.7.1) auftretenden WMaÿen handelt es sich bei jeweils um die diskrete Gleichverteilung über diskrete Gleichverteilung über N6 und und P2 um die N6 × N6 . Das Beispiel 4.7 mit insbesondere dem Sachverhalt (4.7.1) gibt Anlass zur Denition des ProduktWMaÿes zweier WMaÿe als ein spezielles WMaÿ über dem ProduktAusgangsraum, das sich durch die Eigenschaft (4.8.1) auszeichnet. 4.8 Denition (ProduktWMaÿ) (Ωi , P(Ωi ), Pi ), i = 1, 2 zwei diskrete P auf P(Ω1 × Ω2 ) über Ω1 × Ω2 mit Seien Maÿ (4.8.1) WRäume. Dann heiÿt das W P (A1 × A2 ) = P1 (A1 ) · P2 (A2 ) (A1 ∈ P(Ω1 ), A2 ∈ P(Ω2 )) P1 und P2 , in Zeichen P1 ⊗P2 . Der WRaum (Ω1 ×Ω2 , P(Ω1 ×Ω2 ), P1 ⊗P2 ) heiÿt ProduktWRaum der WRäume (Ωi , Pi ), i = 1, 2 . das ProduktWMaÿ von (4.8.1) heiÿt die Produktmaÿeigenschaft . Beispiele von diskreten WMaÿen 23 4.9 Bemerkungen (4.9.1) liefert eine Anleitung zur Berechnung von ProduktWMaÿ werten, allerdings nur für sehr spezielle Mengen vom Typ A1 × A2 d.h. nur für sogenannte (A1 ∈ P(Ω1 ), A2 ∈ P(Ω2 )) , Rechtecksmengen . Im diskreten Fall lässt sich aber auch sofort P1 ⊗ P2 (A) für eine beliebige Menge A ∈ P(Ω1 × Ω2 ) bestimmen, denn wegen (4.8.1) gilt insbesondere auch P1 ⊗ P2 ({(ω1 , ω2 )}) = P1 ({ω1 }) · P2 ({ω2 }) (4.9.1) ((ω1 , ω2 ) ∈ Ω1 × Ω2 ). woraus sich dann mit (3.5.1) P1 ⊗ P2 (A) = P (P1 ⊗ P2 ({(ω1 , ω2 )})) (ω1 ,ω2 )∈A (4.9.2) = P P1 ({ω1 }) · P2 ({ω2 }) (ω1 ,ω2 )∈A ergibt. Der Begri des ProduktWMaÿes läÿt sich auch in einer allgemeinen W Theorie einführen, verlangt allerdings einen umfangreichen mathematisch denitorischen Aufwand;(4.9.1) kann in einem solchen Zusammenhang nicht mehr zur Festlegung des ProduktWMaÿes herangezogen werden. 4.10 Beispiel Als Beispiel für ein NichtProduktWMaÿ über WMaÿ N6 ×N6 nennen wir z.B. das 1 1 δ(1,1) + δ(6,6) 2 2 w : N6 × N6 → [0; 1] mit P := mit der WFunktion w((1, 1)) = w((6, 6)) = 12 w((i, j)) = 0 ((i, j) ∈ N6 × N6 \ {(1, 1), (6, 6)}) . Tatsächlich ist P nicht als Produktmaÿ zweier WMaÿe darstellbar, wie Sie sich am besten selbst überzeugen. Studierhinweise Kapitel 1B 24 Studierhinweise Kapitel 1B 5 Zufallsvariable und Verteilungen im diskreten Fall 6 Stochastische Unabhängigkeit 5 Zufallsvariable und Verteilungen im diskreten Fall Zentrale Begrisbildungen sind: Die der Zufallsvariablen, die des Bildmaÿes bzw. die der gemeinsamen Verteilung. 5.1 Denition Präzise Kenntnis incl. der eingebrachten Details und Sprachregelungen 5.2 Denition Präzise Kenntnis incl. der im Text vor der Denition gegebenen Motivierung 5.3 Warnung Nehmen Sie sich's zu Herzen 5.4 Satz Die Sachverhalte 5.4.1, 5.4.2 (hinterer Teil), 5.4.4 müssen (auswendig) zur P Verfügung stehen. Ist Ihnen die Bedeutung von ' ' in 5.4.4 bekannt, vgl. 1.4.4 5.5 Satz Kenntnis, exakte Wiedergabe des Beweises. 5.6 Denition (Bildmaÿ), 5.7 Sprechweisen Präzise Kenntnis incl. der Nomenklatur und der Sprechweisen 5.8 Die Realisation einer ZV als auÿermathematisches Konzept Präzise Wiedergabe erforderlich 5.9 Gemeinsame Verteilung Präzise Kenntnis der Def. Wiedergabe von (5.9.1) mit Begründungen Studierhinweise Kapitel 1B 25 6 Stochastische Unabhängigkeit Im Zentrum steht der Begri der stochastischen Unabhängigkeit, Def. 6.2, der durch Bemerkung 6.1 vorbereitet wird. Von praktischer Bedeutung sind die aufgeführten Fakten zur stochastischen Unabhängigkeit: 6.3, 6.4, 6.5 . 6.1 Bemerkung Präzise Kenntnis der äquivalenten Sachverhalte (6.1.1), (6.1.2), (6.1.3), (6.1.4). Als Eselsbrücke: Die Äquivalenz (6.1.1), (6.1.2) ergibt sich aus Def. der Urbildabbildung, vgl. auch (5.9.1) (6.1.3) erweist sich als Spezialisierung von (6.1.1), die Äquivalenz ergibt sich unter Beachtung von (3.5.1) (6.1.3), (6.1.4) folgt aufgrund von (6.1.2) und nutzt bei der Darstellung des Rechtsterms den begri des Produktmaÿes (der Bildmaÿe PXi ); vgl. Def. 4.8 . Beachten Sie: Die Äquivalenz von (6.1.1), (6.1.2) und (6.1.4) ist sofort auf allgemeine WMaÿe übertragbar. 6.2 Denition Kenntnis 6.3 Folgerungen, 6.4 Satz, 6.5 Satz Kenntnis, so dass die Sachverhalte präzise wiedergegeben werden können 6.8 Denition, 6.9 Satz Kenntnis Zufallsvariable und Verteilungen im diskreten Fall 5 26 Zufallsvariable und Verteilungen im diskreten Fall Eine Zufallsvariable (ZV) ist eine auf dem Ausgangsraum eines diskreten WRaumes denierte Abbildung. Die ihr zugeordnete Urbildabbildung erlaubt es mit Hilfe des WMaÿes über dem Urbild (Ausgangs)raum Wahrscheinlichkeiten für Ereignisse im Bildraum zu bestimmen. Das Gesagte führt zum Begri des Bildmaÿes oder synonym zum Begri der Vertei- lung einer ZV. Unter einer gemeinsamen Verteilung versteht man das Bild eines WMaÿes unter einer vektorwertigen ZV. Neben einem (diskreten) WRaum sollen in der Folge auf dem Ausgangsraum eines WRaumes denierte Abbildungen betrachtet werden. Die dabei in der Stochastik herausgebildete Namensgebung Zufallsvariable nimmt man im Falle eines diskreten WRaumes zweckmäÿigerweise als Bezeichnung für Abbildung zur Kenntnis. 5.1 Denition Sei (Ω, P(Ω), P ) ein diskreter WRaum und Ω0 eine abzählbare Menge. Dann heiÿt die Abbildung X : Ω −→ Ω0 eine (diskrete) Ω0 Zufallsvariable (Ω0 ZV). Ist der Bildraum überabzählbar, z.B. im Falle von wird Ω0 = R oder Rn , so X(Ω) oder in eine geeignete, abzählbare Obermenge D , X(Ω) ⊂ D ⊂ Ω0 , aufgefasst. Gilt für eine diskrete ZV X insbesondere X(Ω) ⊂ R, so sprechen wir von einer X als Abbildung in reellen ZV. Zur Betrachtung von ZVen ist man durch die Idee des Transportes von W Maÿen geführt. 0 Ist A ein Ereignis des Bildraumes, also eine Teilmenge von Ω0 , so geht es Urbild(ausgangs)raumes Ω mit Hilfe darum aufgrund des WMaÿes P des 0 einer ZV X dem Ereignis A eine Wahrscheinlichkeit zuzuweisen. Dazu betrachtet man 0 der ZV X in A die Gesamtheit der Punkte in Ω, abgebildet werden. Dieses Urbild von sich durch das WMaÿ P über Ω ausmessen . Das Gesagte gibt Anlass zur Denition der Urbildabbildung. die vermöge A0 bei X läÿt Überblick Zufallsvariable und Verteilungen im diskreten Fall 27 5.2 Denition Sei T : Ω → Ω0 eine beliebige Abbildung von Ω in Ω0 . Dann heiÿt die Abbil- dung T −1 : P(Ω0 ) −→ P(Ω) , deniert durch T −1 (A0 ) := die zu (bei ω ∈ Ω | T (ω) ∈ A0 zugehörige Urbildabbildung; T A0 ∈ P(Ω0 ) , T −1 (A0 ) heiÿt das Urbild von A0 T ). 5.3 Warnung Für T −1 (A0 ) schreibt man auch verkürzt (und möglicherweise auch ir- reführend) T −1 (A0 ) =: {T ∈ A0 } bzw. für ω 0 ∈ Ω0 T −1 {ω 0 } =: {T = ω 0 } . {T ∈ A0 } und {T = ω 0 } sind Kürzel logisch interpretiert führen diese zu Missverständnissen. Deshalb sollten diese Kürzel wenn sie nicht durch den Schreibaufwand erforderlich werden nach Möglichkeit unterdrückt werden. Unterscheiden Sie die dungen erklärten Die zu T Urbildabbildung von der (nur) für bijektive Abbil- Umkehrfunktion! zugehörige Urbildabbildung T −1 weist eine Reihe von Eigenschaften auf, von denen in Satz 5.4 vier wichtige aufgelistet sind. 5.4 Satz Sei T : Ω → Ω0 eine Abbildung. Weiter seien 0 eine Mengenfamilie in Ω . Dann gelten: 5.4.1 5.4.2 5.4.3 5.4.4 Das Zeichen von A0 , B 0 ⊂ Ω 0 T −1 (∅) = ∅ , c T −1 (A0 )c = T −1 (A0 ) und daher S S −1 (A0i ) = T −1 ( i∈I A0i ), i∈I T P P −1 (Ai ) = T −1 ( i∈I Ai ). i∈I T P auch sowie (A0i | i ∈ I) T −1 (Ω0 ) = Ω, meint hier die disjunkte Vereinigung, d.h., die Vereinigung disjunkten Mengen. Zufallsvariable und Verteilungen im diskreten Fall Mit dem folgenden Satz wird der 28 Begri des Bildmaÿes begründet. 5.5 Satz (Ω, P(Ω), P ) Ω0 ZV. Durch Seien eine Ω0 ein diskreter WRaum, P 0 (A0 ) := P X −1 (A0 ) (5.5.1) WMaÿ auf wird ein Ω0 eine diskrete Menge und X (A0 ⊂ Ω0 ) festgelegt. Beweis: 0 0 0 0 0 Oenbar gilt P (A ) ≥ 0 (A ⊂ Ω ). Aufgrund von 5.4.1 bzw. 5.4.2 ist P (∅) = 0 bzw. P 0 (Ω0 ) = 1. 0 0 Ist dann (An ) eine Folge paarweise disjunkter Mengen aus Ω so folgt aufgrund der σ Additivität von P P 0 ∞ X A0n = P X −1 n=1 ∞ X A0n = n=1 P ∞ X X −1 ∞ X (A0n ) n=1 = ∞ X P X −1 (A0n ) = n=1 P 0 (A0n ) , n=1 d.h., P0 ist σ additiv und damit ein WMaÿ auf Ω0 . 5.6 Denition (Bildmaÿ) (Ω, P(Ω), P ) Ω0 ZV. Seien eine ein diskreter WRaum, Das durch 5.4.1 über (bei X) Ω0 X (bez. PX (A0 ) := P (X −1 (A0 )) (5.6.1) eine diskrete Menge und denierte WMaÿ heiÿt das Verteilung von oder die Ω0 P ); Bildmaÿ PX von es gilt (A0 ∈ P(Ω0 )) 5.7 Sprechweisen 5.7.1 Liegt eine X WFunktion der Verteilung (Bildmaÿ) der ZV vor, so spricht man ZV X. kurzerhand von der WFunktion der X P Zufallsvariable und Verteilungen im diskreten Fall 5.7.2 29 Bildmaÿ und Verteilung meinen grundsätzlich gesehen dasselbe. Allerdings bedeuten unterschiedliche Sprechweisen oft eine unterschiedliche Akzentsetzung. Spricht man von der Verteilung von der X, so meint dies oftmals, dass man sich mit Kenntnis des Bildmaÿes von X zufrieden gibt. Der Begri der Verteilung bzw. des Bildmaÿes und damit auch der der Urbildabbildung, wird in Experiment 5.1 thematisiert. 5.8 Die Realisation einer ZV als auÿermathematisches Konzept X : (Ω, P(Ω), P ) → (Ω0 , P(Ω0 )) eine ZV, A ∈ P(Ω) und ω̄ ∈ Ω eine Realisation gemäÿ P ; d.h. im Sinne einer auÿermathematischen Deutung steht P (A) für die Wahrscheinlichkeit, dass ω̄ ∈ A gilt, vgl. 3.2.1 . Sei x̄ := X(ω̄) entsprechend A ∈ P(Ω0 ) steht PX (A0 ) für Dann ist 0 ein eine Realisation gemäÿ PX ; d.h. die Wahrscheinlichkeit, dass für x̄ ∈ A0 gilt. Anstatt 'x̄ ist eine Realisation gemäÿ Realisation von PX ' sagt man auch: 'x̄ ist eine X' . 5.9 Gemeinsame Verteilung (Ω, P(Ω), P ) ein WRaum, Xi Ωi ZVen, i = 1, . . . , n und X = (X1 , . . . , Xn ) die Produktabbildung. Dann heiÿt die Verteilung von X bez. P die gemeinsame Verteilung der Xi , i = 1, . . . , n. Seien Es gilt PX n × Ai i=1 (5.9.1) = 1 = 2 = 3 n P {ω ∈ Ω |X(ω) ∈ × Ai } i=1 P P ω ∈ Ω | X1 (ω) ∈ A1 , . . . , Xn (ω) ∈ An n \ Xi−1 (Ai ) (Ai ⊂ Ωi , i ∈ Nn ) . i=1 Zu 1: Nach Def. des Bildmaÿes. Zu 2: Nach Def. der Produktabbildung, vgl. 1.3, bzw. des kartesischen Produktes, vgl. 1.2 . Zu 3: Die Auistung mit Komma meint 'und', was mengentheoretisch zur 'Durchschnitts'bildung führt. Nach Def. der Urbildabbildungen Xi−1 , i = 1, . . . , n . Zufallsvariable und Verteilungen im diskreten Fall 30 Die gemeinsame Verteilung zweier ZVen wird im Experiment 5.2 illustriert. Zur Darstellung nutzen wir die Möglichkeiten der diskreten Theorie und basieren auf den Einpunktmengen des Bildraumes, vgl. (3.5.1). Stochastische Unabhängigkeit 6 31 Stochastische Unabhängigkeit Der Begri der stochastischen Unabhängigkeit ist für die Stochastik von zentraler Bedeutung. Obwohl der dem Begri zugrundeliegende Sachverhalt singulären Charakter hat, ist er Voraussetzung für viele in der Stochastik formulierte Sachverhalte. Die stochastische Unabhängigkeit steht im engen Zusammenhang mit dem Produkt- maÿbegri. Das Bernoullische Versuchsschema als spezieller WRaum ist ein stochastisches Modell zur Beschreibung einer Versuchsfolge, deren Einzelversuche sich gegenseitig nicht beeinussen; tatsächlich werden die Einzelversuche durch stochastisch unabhängige, gemäÿ B(1, p) verteilte ZVen beschrieben. An die Spitze unserer Überlegungen stellen wir die Bemerkung 6.1, die die Denition der stochastischen Unabhängigkeit vorbereitet. 6.1 Bemerkung Seien milie (Ω, P(Ω), P ) von Ωi ZVen ein (diskreter) WRaum, und (Xi | i ∈ Nn ) eine endliche Fa- X := (X1 , . . . , Xn ). PXi bzw. der Denition Xi , i = 1, . . . , n vgl. (5.9.1) Aufgrund der Denition der Verteilungen (Bildmaÿe) der gemeinsamen Verteilung PX der ZVen besagen (6.1.1) bzw. (6.1.2) (oensichtlich) dasselbe; d.h. (6.1.1) und (6.1.2) sind äquivalent: (6.1.1) P ({ω ∈ Ω| Xi (ω) ∈ Ai , i ∈ Nn ) = n Y P ({ω ∈ Ω| Xi (ω) ∈ Ai }) i=1 (Ai ∈ P(Ωi ), i ∈ Nn ) n P X ( × Ai ) = (6.1.2) i=1 (Das Zeichen n Q ai n Y PXi (Ai ) (Ai ∈ P(Ωi ), i ∈ Nn ) . i=1 meint das Produkt der Faktoren ai , i = 1, . . . , n). i=1 Tatsächlich sind (6.1.1) bzw. (6.1.2) auch mit (6.1.3) bzw. (6.1.4) äquivalent (6.1.3) P ({ω ∈ Ω| Xi (ω) = ωi (i ∈ Nn )} = n Y P ({ω ∈ Ω| Xi (ω) = ωi }) i=1 (ωi ∈ Ωi , i ∈ Nn ) Überblick Stochastische Unabhängigkeit 32 bzw. mit PX = (6.1.4) O PXi . Oensichtlich ist (6.1.3) eine Konsequenz aus (6.1.1) dass (6.1.3) den Sachverhalt (6.1.1) nach sich zieht, liegt im Umstand begründet, dass bei diskreten WMaÿen diese bereits festgelegt sind, wenn die MaÿWerte auf den Ein PunktMengen festgelegt sind, vgl. 3.5 . Der Sachverhalt (6.1.3) lässt sich mindestens nicht direkt auf allgemeine WRäume übertragen. Die bedeutungsvollste Darstellung der Sachverhalte (6.1.1)(6.1.4) ist die von (6.1.4); hier wird eine Verbindung zwischen der gemeinsamen Verteilung und dem Produktmaÿ der einzelnen Verteilungen (Bildmaÿe) der ZVen Xi hergestellt. Die Äquivalenz von (6.1.1), (6.1.2) und (6.1.4) trit (entsprechend modiziert) auch für allgemeine WRäume zu; der Nachweis stellt allerdings mathematische Ansprüche. 6.2 Denition (Ω, P(Ω), P ) ein WRaum (Xi | i ∈ Nn ) eine endliche Familie von Ωi ZVen und X = (Xi , . . . , Xn ). Die Familie (Xi | i ∈ Nn ) heiÿt stochastisch unabhängig bez. P , wenn Seien eine der Bedingungen (6.1.1) und (6.1.2) (und damit) beide zutreen. In diesem Falle spricht man von (stochastisch) unabhängigen ZVen X1 , . . . , Xn . 6.3 Folgerung 6.3.1 Aufgrund von 6.1 ist klar, dass die Familie (Xi | i ∈ Nn ) für n = 1, also mit nur einer ZV, unabhängig ist. 6.3.2 Die Reihenfolge der Nennung der ZVen spielt keine Rolle: Sind X1 , X2 , X3 , X4 unabhängig, so auch X4 , X1 , X2 , X3 etc. Ist (Xi | i ∈ Nn ) unabhängig und gilt M ⊂ Nn , so ist auch (Xi | i ∈ M ) unabhängig, d.h., eine Teilmenge von unabhängiz.B. 6.3.3 gen ZVen ist unabhängig. Der Sachverhalt leuchtet unmittelbar −1 ein; zum formalen Beweis nutzt man 5.4.2, wonach Xi (Ωi ) = Ω gilt sowie P (Ω) = 1. Die beiden folgenden Sachverhalte erweisen sich im Rahmen von Anwendungen als nützlich. Stochastische Unabhängigkeit 33 6.4 Satz (Ω, P(Ω), P ) ein WRaum und Xi unabhängige Ω0i ZVen, i = 1, . . . m, m+ 1, . . . , n. Dann sind die vektorwertigen ZVen Seien Y := (X1 , . . . , Xm ) und Z := (Xm+1 , . . . , Xn ) unabhängig. 6.5 Satz (Ω, P(Ω), P ) ein WRaum. Seien Xi : Ω → Ωi unabhängige ZVen und fi : Ωi → Ω0i Abbildungen. Dann sind die ZVen fi ◦Xi , i = 1, . . . , n ebenfalls Sei unabhängig. Sind die reellen ZVen sin(X1 ) und eX2 . X1 und X2 stochastisch unabhängig, so also auch (fakultativ) Xi : Ω → {0, 1} 6.6 Bernoullisches Versuchsschema (Ω, P(Ω), P ) ein WRaum und B(1, p)verteilte ZVen; d.h., es gilt P ω ∈ Ω | Xi (ω) = 1 = p Seien und P Sei ω ∈ Ω | Xi (ω) = 0 = 1 − p =: q unabhängige, gemäÿ (i = 1, . . . , n) . X := (X1 , . . . , Xn ). Wegen der vorausgesetzten stochastischen UnabhänXi gilt gigkeit der PX = (6.6.1) n O PXi = i=1 Damit erhält man für ein Element k mal n O B(1, p) . i=1 (ω1 , . . . , ωn ) ∈ {0, 1}n bei dem die 1 genau auftritt (6.6.2) PX n Y PXi {ωi } = pk q n−k , (ω1 , . . . , ωn ) = i=1 d.h. also, dass die Wahrscheinlichkeit eines solchen Elementes durch gegeben ist. pk q n−k Stochastische Unabhängigkeit 34 Ein WRaum {0, 1} , P({0, 1} ), i=1 B(1, p) mit n ∈ N und p ∈ [0; 1] heiÿt ein Bernoullisches Versuchsschema vom Umfang n. Das Bernoullische Versuchsschema ist ein wtheoretisches Modell für die nmalige unabhängige Wiederholung eines Versuchs mit den beiden Ausgängen 0 und 1. n n Nn 6.7 Bernoullisches Versuchsschema (Ergänzung) (fakultativ) Mit den Absprachen von 6.6 sei Y := n X Xi , i=1 d.h., Y ist die Summe von unabhängigen gemäÿ B(1, p) verteilter ZVen. Dann lässt sich (mit Hilfe der bislang entwickelten Theorie) zeigen, dass gemäÿ B(n, p) verteilt ist; oder anders formuliert, das Bildmaÿ PY Y ist gleich B(n, p): PY = B(n, p) . Anstelle eines Beweises verweisen wir auf das Experiment 6.1 . Wie erinnerlich vgl. 4.1 ist die WFunktion w n k w(k) = p (1 − p)n−k k von B(n, p) gegeben durch k ∈ N0n . Experiment 6.1 veranschaulicht das Bernoulli'sche Versuchsexperiment, 6.6 bzw. 6.7, anhand eines virtuellen Galton Brettes. 6.8 Denition (Ω, P(Ω), P ) ein WRaum sowie A, B ⊂ Ω Ereignisse. A und B (stochastisch) unabhängig (bez. P ), wenn gilt Seien (6.8.1) heiÿen P (A ∩ B) = P (A) · P (B) . Die Unabhängigkeit der Ereignisse lässt sich sofort als die Unabhängigkeit ihrer Indikatorfunktionen formulieren. Stochastische Unabhängigkeit 35 6.9 Satz Seien (Ω, P(Ω), P ) ein WRaum sowie A, B ⊂ Ω. Aussagen äquivalent. 6.9.1 Die ZVen 6.9.2 Die 1A , 1B sind unabhängig. Ereignisse A, B sind unabhängig. Dann sind die folgenden Lösungen zu Kapitel 1 36 Lösungen zu Kapitel 1 Zu 4.2 PoissonVerteilung Die in 4.2 eingeführte Funktion w : N 0 → R+ −λ λ w(k) = e mit k k! (k ∈ N0 ) ist eine WFunktion, denn es gilt X w(k) = X e−λ k∈N0 λk = e−λ · eλ = 1 . k! Zu 4.3 Geometrische Verteilung Die in 4.3 eingeführte Funktion w : N 0 → R+ w(k) = (1 − q)q k mit einem q ∈ (0, 1) X k∈N0 mit (k ∈ N0 ) ist eine WFunktion, denn es gilt w(k) = X k∈N0 (1 − q)q k = (1 − q) 1 = 1. (1 − q) Studierhinweise Kapitel 2 37 Studierhinweise Kapitel 2 7 Allgemeine WRäume 8 Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes 9 Das Erfordernis der Messbarkeit 10 Über Integrale 11 Maÿe mit LebesgueDichten Abschnitt 2 liefert eine Einführung in die allgemeine Wahrscheinlichkeitstheorie. Die beweismäÿige Aufarbeitung ist nicht angestrebt; sie liegt deutlich jenseits der Möglichkeiten dieses Kurses. Erwartet wird hingegen die Kenntnis der Begrisbildungen bzw. die Einsicht in deren Notwendigkeit. 7 Allgemeine WRäume 7.1 Denition σ Algebra, 7.2 Folgerungen, 7.3 Borel'sche σ Algebra Kenntnis incl. der Motivation im Text vor Def. 7.1 7.4 Denition des allgemeinen WRaumes Präzise Kenntnis incl. Sprechweisen. Was ist eine messbare Menge ? Wie unterscheiden sich die Denition 7.4.1 und 3.1 ? 7.5 Die Realisation gemäÿ einem WMaÿ als auÿermath. Konzept Kenntnis 7.6 Das BorelLebesgueMaÿ Präzise Kenntnis Studierhinweise Kapitel 2 38 8 Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes 8.1 Verteilungsfunktion, 8.2 Beispiele Kenntnis 9 Das Erfordernis der Messbarkeit Zentral ist der Begri der Messbarkeit, Def. 9.1, deren Notwendigkeit im Text vor 9.1 erläutert wird. Diese Erläuterung muss wiedergegeben werden können. 9.1 Denition, 9.2 Bemerkungen Präzise Kenntnis der Inhalte, Formeln und Sprechweisen. Was meint die Verteilung von Angesichts der X? Was ist eine ZV ? σ Algebra als kennzeichnendes Element allgemeiner WRäume bedürfen die Denitionen der allgem. Theorie einer Neufassung, was am Beispiel der stochastischen Unabhängigkeit demonstriert wird. 9.3 Der Begri der stochastischen Unabhängigkeit im allg. Fall, 9.4 Satz Kenntnis und Vergleich mit 6.2 bzw. (6.1.1) und (6.1.2) sowie 6.5 10 Über Integrale Kenntnis 11 Maÿe mit LebesgueDichten Eine bedeutsame Art, WMaÿe festzulegen, ist neben der Vorgabe von Verteilungsfunktionen die Vorgabe von Dichten. 11.1 Satz, 11.2 Denition, 11.3 Bemerkung Präzise Kenntnisse der Inhalte, Formeln, Nomenklatur und Sprechweisen 11.4 Beispiel (StandardNormalverteilung), 11.5 Denition Präzise Kenntnis incl. Kommentierung der Graphen Allgemeine WRäume 7 39 Allgemeine WRäume Der Abschnitt hat den allgemeinen WRaum bzw. den Maÿraum zum Gegenstand. σ Algebra eingeführt; ein (wichtiger) Spezialfall stellt n dem R dar. Dazu wird zunächst der Begri der die Borel'sche σ Algebra über Der Begri des WMaÿes ist in Abschnitt 3 über einem diskreten Ausgangsraum eingeführt worden, was eine erhebliche Vereinfachung bedeutet. Als Ereignissystem (Gesamtheit aller Ereignisse) wurde und konnte die menge P(Ω) (Menge aller Teilmengen einer Menge) des gangsraumes Potenz- diskreten Aus- Ω herangezogen werden. Eine Leitidee, die bei überabzähl- baren Ausgangsräumen aufgrund logischer Widersprüche aufgegeben werden muss. Als Indiz für das Gesagte mag dienen, dass es auf der Potenzmenge von es gibt auf P(R) R, kein P(R) translationsinvariantes Maÿ gibt; d.h., kein Maÿ, das kongruenten Figuren stets dieselbe Maÿzahl zuordnet. Der Ausweg besteht darin, dass Maÿe über sogenannten σ Algebren den niert werden; im Spezialfall des R wählt man insbesondere die sogenannte Borel'sche σ Algebra. Für die Behandlung praktischer Probleme im Rn ergeben sich dadurch kaum Einschränkungen. 7.1 Denition (σ Algebra) Ein System A von Teilmengen über Ω heiÿt σ Algebra (7.1.1) Ω∈A (7.1.2) A ∈ A ⇒ Ac ∈ A (über Ω), mit einer Folge (An ) von Mengen aus A gilt auch (7.1.3) ∞ [ An ∈ A . n=1 Beispiele von {∅, Ω} falls gilt: oder über Ω6= ∅ A⊂Ω oder σ Algebren {∅, A, Ac , Ω} für sind etwa die Systeme P(Ω) . Als unmittelbare Konsequenz aus 7.1 erhält man die Überblick Allgemeine WRäume 40 7.2 Folgerungen 7.2.1 7.2.2 ∅ ∈ A. Ist (An ) eine Folge von Mengen aus ∞ \ A, so gilt auch An ∈ A . n=1 7.2.3 Ai ∈ A, i = 1, . . . , n ⇒ n [ Ai ∈ A n \ bzw. i=1 7.2.4 Mit Ai ∈ A . i=1 Ai ∈ A, i = 1, 2 gilt auch A1 \ A2 ∈ A . σ Algebra Man sagt für 7.2.2 bzw. 7.2.3 auch, dass eine gegenüber den Operationen Vereinigung und Durchschnitt bez. endlich oder abzählbar vieler Elemente der 7.3 Borel'sche Über B σ Algebra abgeschlossen ist. σ Algebra n R bzw. R wird standardmäÿig die sogenannte Borel'sche σ Algebra B n verabredet, wobei hier auf eine förmliche Einführung verzichtet bzw. wird. σ Algebra Als genügen B bzw. B Darüber hinaus enthält Bn die Mengensysteme (Mengen von Mengen) • aller Halbintervalle • aller Intervalle • aller oenen Mengen aus mit x ∈ R mit x∈R und [a, b] mit a≤b⊂R R. Bn . Bedeutung ist, dass n (−∞, x] (a, b), (a, b], [a, b) Entsprechendes gilt für Von den Bedingungen aus (7.1.1) (7.1.3). Bn auch stets alle Einpunktmengen enthält; ein Sachverhalt, der bei beliebigen zutreen muss; vgl. z.B. die σ Algebra {∅, Ω} über {x} ⊂ Rn σ Algebren nicht Ω. σ Algebra B n zum StandardDenitionsraum für WMaÿe über dem Rn gemacht wird, heiÿt dies, dass auch den Einpunktmengen des Rn Maÿwerte zukommen. Da die Borel'sche Allgemeine WRäume 41 7.4 Denition 7.4.1 Das (Ω, A, P ) mit Ω als nichtleerer über Ω und einer Abbildung Tripel Algebra P : A → R+ (7.4.1.1) P (Ω) = 1 (7.4.1.2) P (A) ≥ 0 (A ∈ Ω) (7.4.1.3) für jede Folge (An ) ! An gangsraum; mente von A A A gilt σ mit paarweiser fremder Mengen aus ∞ X P (An ) (σ − Additivität) 1 Wahrscheinlichkeitsraum (WRaum); Ω heiÿt AusP heiÿt WMaÿ. Die Elemessbare Mengen. (Ω, A) heiÿt Messraum; wir P über dem Messraum (Ω, A). steht für das heiÿen sprechen vom WMaÿ 7.4.2 als (Nichtnegativität), = 1 heiÿt (allgemeiner) A (Normiertheit), ∞ X P Menge, Ereignissystem; P (Ω) = 1 zugunsten von P (∅) = 0 P als von einem Maÿ und schreibt µ, ν etc.; (Ω, A, µ) heiÿt Maÿraum. Wird die Bedingung (7.4.1.1) aufgegeben, so spricht man von anstelle von P nunmehr ∞ P ( An meint die disjunkte Vereinigung, d.h., die Vereinigung der 1 disjunkten Mengen An ) Beachten Sie: Nur den messbaren Mengen, also den Elementen der Algebra A, σ können Wahrscheinlichkeiten zugeordnet werden. 7.5 Die Realisation gemäÿ einem WMaÿ als auÿermath. Konzept In der intuitiven, auÿermathematischen Deutung meint P (A) die Wahr- scheinlichkeit dafür, dass ein zufällig gemäÿ P zustandegekommenes (durch Messung oder Beobachtung ermitteltes) ω̄ ∈ Ω in die Menge A hineinfällt, d.h., dass ω̄ ∈ A für A ∈ A gilt. Man spricht von ω̄ als von einer Realisation gemäÿ dem W-Maÿ P . Die empirische Überprüfung, ob es sich bei vorgegebenen Realisa- tionen um solche gemäÿ vgl. Experiment 15.1 . P handelt, ist nur für ein Kollektiv möglich; Allgemeine WRäume 42 7.6 Das BorelLebesgue Maÿ 7.6.1 Auf (R, B) ist (ohne Beweis) ein Maÿ µ eindeutig durch die Vor- gabe µ((a, b]) = b − a für a<b∈R festgelegt. µ heiÿt das anstelle von 7.6.2 λ stellt ein BorelLebesgue Maÿ (BLMaÿ) auf µ λ verwendet wird. auf B über R dar; λ ist B, wobei speziell das Zeichen allgemeines Maÿ also kein WMaÿ. Ist nun A ∈ B eine Menge aus stellt die sog. Einschränkung R, λA z.B. das Intervall von λ auf A Gleichverteilung) λA (B) := Oenbar ist Im Falle λ(B) λ(A) (B ⊂ A, B ∈ B) . λA (A) = 1 . A := [0; 1] gilt λ[0;1] (B) = λ(B) so ein WMaÿ dar; nämlich die sogenannte Gleichverteilung auf ne [0; 1], (B ⊂ A, B ∈ B) . A (allgemei- Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes 8 43 Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes Es gibt verschiedene Möglichkeiten WMaÿe festzulegen. Eine solche Möglichkeit ist die Darstellung mit Hilfe der Verteilungsfunktion für WMaÿe auf B über R, die auf A. von Mises zurückgeht. Die Erweiterung des Darstellungskonzeptes auf den Eine Möglichkeit, ein WMaÿ über Rn ist unhandlich. (R, B) mitzuteilen, ist die Vorgabe der so- genannten Verteilungsfunktion. Diese Verteilungsfunktion kann auch über n dem R eingeführt werden, sie erweist sich in diesem Falle aber als nicht sehr handlich. 8.1 Verteilungsfunktion 8.1.1 Ist P ein WMaÿ auf B (über Verteilungsfunktion von FP so heiÿt die Funktion (x ∈ R) FP (x) := P ((−∞, x]) (8.1.1.1) 8.1.2 R), P. besitzt folgende Eigenschaften FP (8.1.2.1) ist isoton (8.1.2.2) FP ist (bedingt durch die rechts abgeschlossenen Intervalle (−∞, x] in (8.1.1.1)) lim FP (x) = 0 (8.1.2.3) x→−∞ lim FP (x) = 1 (8.1.2.4) 8.1.3 rechtsseitig stetig. x→+∞ Nun deniert aber jede beliebige Funktion (8.1.2.4) genügt, eindeutig ein WMaÿ PF auf F , die B mit (8.1.2.1) PF ((a, b]) = F (b) − F (a) , (8.1.3.1) als dessen Verteilungsfunktion sich F erweist. Beachten Sie, die Verteilungsfunktion ist ein Darstellungskonzept für WMaÿe P über (R, B). Überblick Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes 44 8.2 Beispiele für Verteilungsfunktionen 8.2.1 Verteilungsfunktion eines diskreten WMaÿes über 1 ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .............. ......................... ......................... ......................... ......................... ......................... 0 b b b −1 1 2 3 b 4 b 5 6 Denition (8.1.1.1) basiert auf dem Halbintervall folge sind die Intervalle des obigen Graphen und 8.2.2 (R, B) (−∞, x]; demzu- links abgeschlossen rechts oen! Verteilungsfunktion der Exponentialverteilung Die Funktion R→R ( F : 1 − e−αx (x ≥ 0) F (x) := 0 (x < 0) erfüllt die Bedingungen (8.1.2.2) (8.1.2.3) und ist dadurch eine Verteilungsfunktion; das zugehörige WMaÿ heiÿt die Exponen- tialverteilung 1 −1 Die (verallgemeinerte) ....... ....... ....... ....... ....... ....... .......................................................................... ....... ....... ....... ...... ............... ........... ........ ...... . . . . .... ..... ..... ..... ... . . . . ... ... ... 0 1 2 3 4 5 6 inverse Verteilungsfunktion erweist sich bei der künstlichen Erzeugung von Realisationen gemäÿ einem WMaÿ P als nützlich. 8.3 Denition (verallgemeinerte inverse Verteilungsfunktion) kultativ) Sei P ein WMaÿ auf Die (verallgemeinerte) (R, B) F. := FPinv mit Verteilungsfunktion inv inverse Verteilungsfunktion F inv : (0; 1) → R F zu (fa- P Die Verteilungsfunktion als Möglichkeit zur Vorgabe eines WMaÿes 45 ist deniert durch F inv (u) := inf{x ∈ R| F (x) ≥ u}, Wir verzichten auf eine Diskussion von F inv u ∈ (0; 1) . und merken an, dass sich deF von P an der 45◦ ren Graph durch Spiegelung der Verteilungsfunktion Geraden des 1. Quadranten ergibt. Zum Verständnis erläutern wir das hinter F inv stehende Zuordnungsprinzip mit Hilfe einer Figur. 8.4 Zuordnungsprinzip der inversen Verteilungsfunktion Vorgelegt sei der Graph der Verteilungsfunktion F von (fakultativ) P: R 1 6 u3 u2 u1 0 .............. .............. ......... ........ ....... ....... . . . . . ...... ...... ...... ................................................................................................................................................ . .. . . . . . . ..... ... ...... .. ....... ....... .. ....... . . . . . . ... . ...... . . . . .. . . . .. ........ .. . . .......................................................................................... .. ... ... .. .. .. .. ... ... . . .. .. ... ... .. ....................................................................................................................... . . .. . . . . .. ... ... . . . . ... . . ... .. . . . . . . ... . . . . . ... . . . ... . . . . .. . . . . . . ... . .. . . . . . .... .. .. . . . . . ... . . .... . . .. . . . . . . F - R 0 F inv (u1 ) F inv (u2 ) F inv (u3 ) Fig. 8.1 Den Elementen u1 , u2 , u3 ∈ (0; 1) (vertikale Achse), werden Bilder F inv (u2 ) und F inv (u3 ) gemäÿ Fig. 8.1 zugeordnet. F inv (u1 ), Bedeutsam ist der folgende Sachverhalt 8.5 Satz Seien P (fakultativ) ein WMaÿ auf Verteilungsfunktion teilung über λ(0,1) (R, B) und sei das auf F inv dessen (verallgemeinerte) inverse (0; 1) restringierte BLMaÿ (Gleichver- (0; 1)). Dann gilt (λ(0,1) )F inv = P , d.h. das Bildmaÿ von λ(0,1) unter F inv ist gleich dem WMaÿ P. Das Erfordernis der Messbarkeit 9 46 Das Erfordernis der Messbarkeit Die zentrale Begrisbildung ist die der Messbarkeit einer Abbildung, eine Eigenschaft, ohne die das Bild eines (W) Maÿes im allgemeinen Falle nicht zu erklären ist. Bei Zugrundelegung von P(Ω) als Ereignissystem wie bei den diskreten WRäumen erweist sich jede Abbildung (trivialerweise) als messbar. Eine direkte Konsequenz aus der Denition des (allgemeinen) WRaumes als Tripel (Ω, A, P ) tritt beim Transport von WMaÿen auf. Wir gehen zur Erläuterung von einem WRaum 0 sowie einer Abbildung T : Ω → Ω aus. (Ω, A, P ), einem Messraum (Ω0 , A0 ) In Abschnitt 5 wurde zum Zwecke des Transportes von WMaÿen die Urbildabbildung T −1 : P(Ω0 ) −→ P(Ω) T −1 (A0 ) := {ω ∈ Ω| T (ω) ∈ A0 } (A0 ∈ P(Ω0 )) eingeführt. A0 als Ereignissystem über Ω0 meint, dass der Denitions0 0 0 bereich eines nach (Ω , A ) zu transportierenden WMaÿen die σ Algebra A Die Festlegung von sein soll, was uns im Sinne von Abschnitt 5 auf die Betrachtung der Urbilder T −1 (A0 ) ⊂ Ω für A0 ∈ A 0 führt. Diesen Mengen T −1 (A0 ) können aber nur dann Wahrscheinlichkeiten unter P zuerkannt werden, wenn T −1 (A0 ) ∈ A gilt, denn P (A0 ∈ A0 ) ist nur für die Elemente von A deniert. Diese Einsicht führt zur Denition der Messbarkeit einer Abbildung. 9.1 Denition (Ω, A), (Ω0 , A0 ) Messräume und X : Ω → Ω0 9.1.1 X heiÿt messbar, wenn Seien X −1 (A0 ) ∈ A eine Abbildung. (A0 ∈ A0 ) gilt. Wir sprechen von der (Ω0 , A0 ) . messbaren Abbildung X : (Ω, A) → Überblick Das Erfordernis der Messbarkeit 9.1.2 47 (Ω, A) Tritt anstelle von der WRaum PX : A0 −→ R+ (9.1.2) das Die PX von P bei X so heiÿt mit PX (A0 ) := P (X −1 (A0 )) Bildmaÿ (bzg. (Ω, A, P ), bzw. (A ∈ P(Ω0 )) die Verteilung von X P). messbare Abbildung X heiÿt in diesem Falle Zufallsvaria- ble (ZV). 9.2 Bemerkung 9.2.1 Mit grundsätzlich gleicher Beweisführung wie in Abschnitt 4 zeigt man, dass 9.2.2 PX ein WMaÿ ist. Grundsätzlich ist ZV ein Synonym für messbare Abbildung. Spricht man von einer messbaren Abbildung insbesondere als von einer ZV, so liegt das Interesse in der Regel auf dem 9.2.3 PX X. von Ist (Ω, A, P ) insbesondere X oder wie man auch sagt, auf der auch stillschweigend X : Ω → Ω0 Verteilung PX von ein diskreter WRaum, so tritt die Potenzmenge vgl. 7.1, an die Stelle der Abbildung Bildmaÿ σ Algebra P(Ω) als σ Algebra, A. Damit ist aber jede trivialerweise messbar, also eine ZV nicht nur im Sinne der Denition 5.1, sondern auch im Sinne der Denition 9.1.1. 9.2.4 n n Sei der Messraum (R , B ) mit der Borel'schen σ Algebra n n über R gegeben, so erweist sich jede stetige Funktion f : R Rm als messbar. Bn → Die durch Messbarkeitsforderungen bedingten Veränderungen beim Übergang von diskreten zu allgemeinen WRäumen werden an der Denition der stochastischen Unabhängigkeit bzw. an einen Sachverhalt über stochastische Unabhängigkeit aufgezeigt. 9.3 Der Begri der stochastischen Unabhängigkeit im allgemeinen Fall (Ω, A, P ) ein WRaum und (Xi | i ∈ Nn ) Xi : (Ω, A) → (Ωi , Ai ), i ∈ N . Sei eine Familie von ZVen mit Das Erfordernis der Messbarkeit 48 Dann besagen in Entsprechung zu 6.1 die Sachverhalte (9.3.1) und (9.3.2) dasselbe. P ({ω ∈ Ω| Xi (ω) ∈ Ai , i ∈ Nn }) (Ai ∈ Ai , (9.3.1) n Q = i ∈ Nn ) P ({ω ∈ Ω| Xi (ω) ∈ Ai ) i=1 und PX ( ×ni=1 Ai ) = (9.3.2) n Q PXi (Ai ) (A ∈ Ai , i ∈ Nn ) i=1 n Q ai meint das Produkt der Faktoren ai , i = 1, . . . , n)) . i=1 Oenbar besteht der Unterschied von (9.3.1) bzw. (9.3.2) zu (6.1.1) bzw. (Das Zeichen (6.1.2) darin, dass jetzt A anstelle von P(Ω) bzw. Ai anstelle von P(Ωi ) tritt. Ist (9.3.1) oder äquivalent dazu (9.3.2) erfüllt, so sagt man Denition 6.2 verallgemeinernd , dass X1 , . . . , Xn stochastisch unabhängig sind. Die Sachverhalte 6.3, 6.4, 6.5 übertragen sich, (entsprechend modiziert) in die allgemeine Theorie. Satz 9.4 verdeutlicht diese Übertragung am Beispiel von Satz 6.5. 9.4 Satz (Ω, A, P ) ein WRaum und Xi : (Ω, A, P ) → (Ω0i , A0i ) unabhängige 00 00 0 0 ZVen, sowie f : (Ωi , Ai ) → (Ωi Ai ) messbare Abbildungen, i = 1, . . . , n . Dann sind die messbaren Abbildungen (ZVen) fi ◦ Xi : Seien fi ◦ Xi (.) = fi (Xi (.)) : (Ω, A) → (Ω00 , A00 ) , ebenfalls unabhängig, i = 1, . . . , n . Als Anwendung von 9.4 und 8.5 sei noch der folgende Sachverhalt für einen späteren Bezug im Zusammenhang mit Zufallsgeneratoren festgehalten. (fakultativ) 9.5 Satz λ(0;1) bez. des Ini = 1, . . . , n . P sei ein WMaÿ auf B über R mit F inv als inverser Verteilungsfunktion. inv Dann sind F (Xi (.)) unabhängige, gemäÿ P verteilte ZVen, i = 1, . . . , n. Seien Xi unabhängige, gemäÿ der Gleichverteilung tervalles (0; 1) verteilte ZVen, Über Integrale 10 49 Über Integrale Das LebesgueIntegral wird als Spezialfall des allgemeinen µIntegrals eingeführt, auf das nur verwiesen wird. Unter gewissen (nicht wiedergegebenen) Voraussetzungen koinzidiert das Lebesgue Integral mit dem aus der Schule bekannten Riemann Integral, was eine einfache Auswertung von Lebesgue Integralen zur Konsequenz hat. Das in der WTheorie bei Unterstellung eines Maÿraumes ner A − B messbaren µIntegral: Funktion f : Ω → R (Ω, A, µ) bez. ei- benutzte Integral ist das sogenannte Z f dµ ; (10.1) vgl. [Moeschlin, Wahrscheinlichkeitstheorie I], 4.f heiÿ t integrierbar, falls der Term (10.1) existiert und endlich ist. Grundsätzlich wird über den gesamten Ausgangsraum Integration auf eine Menge A∈A Ω integriert; soll die eingeschränkt werden, so bildet man Z Z f dµ := (10.2) f · 1A dµ A und spricht vom µIntegral von f über A. n n Ist A insbesondere die Borelsche σ Algebra B über R und µ das BLMaÿ λn , so spricht man vom LebesgueIntegral. Dafür schreibt man auch Z Z f (x) dx := (10.3) f dλn . Bekannt ist in der Regel z.B. aus Anfängervorlesungen das Riemann Integral. Nun zieht die RiemannIntegrierbarkeit weder die LebesgueIntegrierbarkeit nach sich, noch gilt das Umgekehrte. Dennoch gibt es allgemeine Bedingungen, unter denen das RiemannIntegral mit dem LebesgueIntegral koinzidiert. Dies gilt beispielsweise für das RiemannIntegral (10.4) Z+∞ 2 √ −x e 2 dx = 2π , −∞ das somit auch in der Lebesgueschen Theorie zur Verfügung steht. Anwendungsmöglichkeiten für Integrale ergeben sich in der WTheorie bei der Darstellung von Maÿen bzw. bei der Frage nach Mittelung, d.h. also bei der Erwartungswertbildung. Überblick Maÿe mit LebesgueDichten 11 50 Maÿe mit LebesgueDichten Das Integral kann zur Festlegung von Maÿen benutzt werden; die dabei auftretenden Integranden heiÿen Dichten. Schlieÿlich wird die Normalverteilung 2 N (a, σ ) über eine Dichte deniert. Der folgende Satz eine Konsequenz aus dem (hier nicht wiedergegebenen) Satz von der monotonen Konvergenz erönet die Möglichkeit, Maÿe mit Hilfe von Integralen festzulegen. 11.1 Satz Sei (Ω, A, µ) ein Maÿraum und f : Ω → R+ eine nichtnegative, messbare Funktion. 11.1.1 Die durch Z ν(A) = f dµ (A ∈ A) A erklärte Funktion 11.1.2 ν:A→R ist ein Maÿ. Gilt überdies Z ν(Ω) = f dµ = 1 , Ω so ist ν ein WMaÿ. 11.2 Denition Sei (Ω, A) ein Messraum und µ und ν Maÿe auf Eine messbare, nichtnegative Funktion A. f : Ω → R+ mit Z ν(A) = (11.2.1) f dµ (A ∈ A) A heiÿt eine Gilt bzw. µDichte von (Ω, A) = (Rn , B n ) λn Dichte. ν in Zeichen und µ = λn , ν = f µ. so heiÿt f eine LebesgueDichte 11.3 Bemerkungen 11.3.1 Eine Dichte besitzen meint also, dass sich die Werte für ν(A) A ∈ A als Integrale einer reellen, nichtnegativen, messbaf darstellen lassen. ren Funktion Die Forderung nach der Existenz einer Dichte ist nicht selbstver- ständlich. Beispielsweise haben diskrete WMaÿe, das Punktmaÿ µω in ω z.B., keine LebesgueDichten. Die Unterstellung von Dichten führt z.B. in der Statistik zu viel spezielleren Resultaten als im allgemeinen Fall. Überblick Maÿe mit LebesgueDichten 11.3.2 51 Bei der Bildung des Integrals Z f dµ f auf Teilmenge einer µNullmenge, d.h. N ∈ A, mit µ(N ) = 0, ohne Auswirkung auf kann der Intgrand auf einer Menge das Integral abgeändert werden. Aus diesem Grund spricht man nicht von der Dichte eines Maÿes, sondern von einer Dichte. 11.4 Beispiel (StandardNormalverteilung) Die durch x2 1 f (x) = √ e− 2 2π (11.4.1) f : R → R+ denierte Abbildung Damit dass f (x ∈ R) ist stetig und daher nach 9.2.4 messbar. eine LebesgueDichte eines WMaÿes der Normiertheit von P P ist, muss wegen Z +∞ P (Ω) = −∞ x2 1 √ e− 2 dx = 1 2π gelten, was aufgrund von ((10.4)auch zutrit. Durch (11.4.1) wird die Parametern 0 und 1 StandardNormalverteilung N (0, 1) mit den deniert. 11.5 Denition Seien a, σ ∈ R, σ > 0. auf B denierte WMaÿ heiÿt die 2 a ga,σ2 : R → R+ 1 (x − a)2 ga,σ2 (x) = √ exp − 2σ 2 σ 2π (11.5.1) tern Das durch die Dichte und σ ; in Zeichen: (x ∈ R) Normalverteilung mit den Parame- N (a, σ 2 ). Der Graph der Dichte (11.4.1) ist symmetrisch bez. der Ordinate angeordnet. Für x=a±σ x = a x = a nimmt diese Dichte ein Maximum an und weist in Wendepunkte auf. Maÿe mit LebesgueDichten 52 ........ ... .... ... .... .. .... .. .. ... ... ... ... .... .. ... .. .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ............................... .... ..... .. ... ....... ....... . . . . . . ...... ... ...... .... ..... ....... ....... ... .... . . ... ... .. ... . . .. ... .. ... . . . .................................................................... ..... . . . . . ..................... . ................ ... . ............. . . .. . . . ..... ........... . ............. . . .. . . . . . . . . . . ..... ............ .. . ....... ....... . . . . . .......... . ..... ... . . . . . .. ........... ....... . ..... . . . . . . . . . . . . . . . . . ............ . . ...... ... . ........ .... . . . . . .............. . . . . .. . . . . . . . . . . . . . . ...... σ= 1 2 σ=1 σ=2 −4 −3 −2 −1 0 1 2 3 4 Die Graphen der durch (11.4.1) gegebenen Dichte werden als Gauÿ'sche Glockenkurven bezeichnet; oenbar verlaufen diese 'Glockenkurven' für klei2 2 ne σ steil, während sie für groÿe σ ach verlaufen. Experiment 15.1 zeigt die Erzeugung von gemäÿ N (0, 1) verteilte Stichpro- benrealisationen, die mit Hilfe des BoxMüllerVerfahrens berechnet werden. Das (hier nicht beschriebene) BoxMüller-Verfahren fällt in den Bereich '15 Zufallsgeneratoren'. Eine detaillierte Darstellung ndet sich in Moeschlin et al., Stochastics', Berlin, Heidelberg, New York, 1998. 'Experimental Studierhinweise Kapitel 3 53 Studierhinweise Kapitel 3 12 Erwartungswerte 13 Varianz und Kovarianz 14 Die Tschebyschev'sche Ungleichung 12 Erwartungswerte Zentral ist der Begri des Erwartungswertes, vgl. 12.1, 12.2 sowie die für den Erwartungswert geltenden Rechenregeln: 12.4, 12.5, 12.9 . 12.1 Der Erwartungswert im diskreten Fall, 12.2 Der Erwartungswert im allg. Fall, 12.3 Spezialfälle Präzise Kenntnis der Inhalte, der Formeln sowie der Sprechweisen 12.4 Rechenregeln für Erwartungswerte Kenntnis 12.5 Satz (Erwartungswertbildung bez. des Bildmaÿes) Präzise Wiedergabe 12.6 Zur Bedeutung von 12.5.2 Kenntnis, Sinnwiedergabe 12.7 Erwartungswerte spezieller Verteilungen (12.7.1): Rechnung, (12.7.2) (12.7.4) auswendig ! 12.8 Die Zufallsvariable bei Modellen des stochastischen Zufalls Kenntnis mit dem Ziele einer vollständigen Sinnwiedergabe 12.9 Satz Kenntnis Studierhinweise Kapitel 3 54 13 Varianz und Kovarianz Zentral sind die Begrisbildungen der Varianz, Def. 13.1, der Kovarianz, Def. 13.5 sowie beider Rechenregeln, 13.3, 13.6, 13.7 . 13.1 Denition (Varianz), 13.2 Bemerkungen Kenntnis der Denition incl. vollständige Wiedergabe der Ausführungen zur Interpretation 13.3 Rechenregeln für Varianzen Kenntnis incl. der Wiedergabe der Beweise 13.4 Varianzen spezieller Verteilungen Auswendig 13.5 Denition Kovarianz, 13.6 Satz Kenntnis 13.7 Rechenregeln für Kovarianzen Kenntnis mit Beweisen 13.8 Bemerkung Kenntnis 14 Die Tschebyschev'sche Ungleichung 14.1 Satz (Tschebyschev'sche Ungleichung) Kenntnis incl. Beweisführung sowie anschlieÿende Interpretation incl. der Erläuterung der eingebrachten Figur 14.2 Satz Kenntnis incl. Beweisführung. Lesen Sie die Kommentierung zur Beweisführung ! Studierhinweise Kapitel 3 55 14.3 Denition Präzise Kenntnis des Sachverhaltes, den man das schwache Gesetz der groÿen Zahlen nennt incl. anschlieÿende in Text gegebene Kommentierung 14.4 Aufgabe Fähigkeit, die gestellte Aufgabe bzw. ähnliche Aufgaben selbst zu lösen Erwartungswerte 12 56 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskre- ten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert subsumiert den speziellen Erwartungswert für den diskreten Fall. Der Erwartungswert weist eine Anzahl von Eigenschaften auf, die zur rechnerischen Vereinfachung beitragen, vgl. 12.4.1 12.4.5 Als bedeutsam erweist sich die Erwartungswertbildung bez. des Bildmaÿes, vgl. 12.5 Im Sinne der Motivation der Begrisbildung wird zunächst der Erwartungswert im Falle eines diskreten WRaumes eingeführt. Dieser spezielle Erwartungswertbegri subsumiert sich unter den für allgemeine WRäume denierten. 12.1 Der Erwartungswert im diskreten Fall (Ω, P(Ω), P ) ein diskreter WRaum. Betrachtet man dann eine reelle ZV X : Ω → R, so läÿt sich für jedes ω ∈ Ω nicht nur der Funktionswert X(ω), sondern mit Blick auf eine Gewichtung, auch die Wahrscheinlichkeit P ({ω}) Sei angeben. In naheliegender Weise bietet es sich an, eine Mittelung über diese Funktionswerte mit den entsprechenden Wahrscheinlichkeiten P ({ω}) als Gewichte herbeizuführen, was zur Denition des Erwartungswertes als Wert der endlichen Summe bzw. als Wert der Reihe X (12.1.1) X(ω)P ({ω}) ω∈Ω veranlasst. Ist Ω Ω insbesondere endlich, so stellt (12.1.1) eine abzählbar unendlich, so deniert sich der damit der endliche Summe dar; ist Wert der Reihe (12.1.1) und Erwartungswert als Limes der entsprechenden Teilsum- men. Existiert dieser Limes, d.h. existiert der Reihenwert (12.1.1) und ist dieser endlich oder handelt es sich bei (12.1.1) um eine endliche Summe, so sagt man, X hat den Erwartungswert der Erwartungswert EP (X) E(X) := EP (X) bez. P; ist gegeben durch den Wert der end- lichen Summe (12.1.1) bzw. durch den Wert der Reihe (12.1.1). Überblick Erwartungswerte 57 Der Reihenwert (12.1.1) existiert immer, wenn die Reihe (12.1.1) absolut konvergent ist; in diesem Falle zeigt die Reihenfolge bei 'Summation' keine Auswirkung auf das Ergebnis. Zwar lieÿe sich über N eine 'natürliche Reihenfolge' festlegen, nicht aber über der ebenfalls abzählbaren Menge Q. 12.2 Der Erwartungswert im allgemeinen Fall Sei (Ω, A, P ) ein WRaum und X : (Ω, A, P ) → (R, B) eine ZV (messbare Abbildung). Existiert das Integral Z X dP (12.2.1) von X bez. des Maÿes den Erwartungswert P und ist dieses endlich, so sagt man, X hat E(X) := EP (X); der Erwartungswert EP (X) ist durch (12.2.1) gegeben. 12.3 Spezialfälle 12.3.1 Die dem Integral (12.2.1) zugrundeliegende Integraldenition ist so 'exibel', dass sie die in 12.1 gegebene Denition des Erwartungswertes im diskreten Fall miteinschlieÿt. Das heiÿt insbesondere, dass man sich bei der Angabe von Rechenregeln für Erwartungswerte, stets an die Rechenregeln des in (12.2.1) betrachteten Integrals halten kann; der in 12.1 angesprochene Fall des Erwartungswertes im diskreten Fall wird dabei miterfasst. 12.3.2 Ein ebenfalls für die Praxis bedeutsamer Spezialfall liegt vor, (Rn , B n , P ) jetzt mit wenn bei Zugrundelegung des WRaumes der Bn , σ Algebra Borelschen n ∈ N, das WMaÿ P eine LebesgueDichte aufweist, d.h., falls P = f λn gilt. In diesem Falle gilt Z (12.3.2.1) Z X dP = X · f dλ n Z = X · f dx über. Bei (12.3.2.1) handelt es sich dabei um ein das für eine LebesgueIntegral, groÿe Klasse von (Integrand) Funktionen (, Erwartungswerte 58 den sogenannt regulierten Funktionen) über das entsprechen- de Riemann Integral ausgewertet werden kann. Bei der folgenden Auistung von Rechenregeln für Erwar- tungswerte handelt es sich um solche für Integrale. Bei 12.4.1 und 12.4.2 kommt speziell der Umstand zum Tragen, dass Erwartungswerte Integrale bez. eines WMaÿes sind, d.h., P (Ω) = 1 wird mitberücksichtigt. 12.4 Rechenregeln für Erwartungswerte Sei (Ω, A, P ) ein beliebiger (z.B. auch diskreter) WRaum. α, β ∈ R . 1A , wo 1A die Indikatorfunktion A ∈ A meint, so gilt wertige ZVen und 12.4.1 Ist X = )mit Ist X(ω) = a ∈ R für alle Abbildung mit Funktionswert Sind X (vgl. Grundlagen, 1.4 ω ∈ Ω, a, so gilt d.h. ist X die konstante EP (X) = a . (12.4.2.1) 12.4.3 seien reell- EP (X) = EP (1A ) = P (A) . (12.4.1.1) 12.4.2 X, Y und Y integrierbar, d.h., existieren die jeweiligen Er- wartungswerte, so ist auch αX + βY integrierbar, und es gilt: αEP (X) + βEP (Y ) = EP (αX + βY ) . (12.4.3.1) (Linearität des Erwartungswertes) 12.4.4 Sind X und (12.4.4.1) Y integrierbar, so gilt X(ω) ≤ Y (ω) (ω ∈ Ω) =⇒ EP (X) ≤ EP (Y ) (Isotonie des Erwartungswertes) 12.4.5 Ist |X| integrierbar, so gilt (12.4.5.1) E(X) ≤ E(|X|) . Der folgende Sachverhalt die sogenannte Erwartungswertbildung bez. des Bildmaÿes ist bedeutsam, insbesondere für die Modellbildung im Zusammenhang mit ZVen. Erwartungswerte 59 12.5 Erwartungswertbildung bez. des Bildmaÿes (Ω, A, P ) ein WRaum, X : (Ω, A) → (Ω0 , A0 ) eine ZV mit Verteilung 0 0 (Bildmaÿ) PX und h : (Ω , A ) → (R, B) eine reelle ZV. Dann gilt: 12.5.1 Die reelle ZV h(X(.)) hat den Erwartungswert EP (h((X(.))) genau dann, wenn h den Erwartungswert EPX (h(.)) (jetzt bez. des Bildmaÿes PX ) besitzt, und es gilt Sei EP (h(X(.))) = EPX (h(.)) . (12.5.1.1) 12.5.2 Im Spezialfall von (12.5.2.1) (Ω0 , A0 ) = (R, B) und h = idΩ0 gilt EP (X(.)) = EPX ( idΩ0 (.)) Dabei meint idΩ0 (.) die identische Abbildung idΩ0 (ω 0 ) = ω 0 , (ω 0 ∈ Ω0 ) . idΩ0 : Ω0 → Ω0 mit Der Inhalt von (12.5.2.1) wird in Experiment 12.1 thematisiert. 12.6 Zur Bedeutung von 12.5.2 Die Aussage 12.5.2, wonach EP (X) = EPX ( idΩ0 ) gilt, bedeutet insbesondere, dass der Erwartungswert EP (X) X bez. P PX bekannt EP (X) weder die von bereits bestimmt werden kann, wenn die Verteilung (Bildmaÿ) ist. Tatsächlich ist zur Ermittlung des Erwartungswertes Kenntnis von X noch die von P erforderlich. Dies drückt sich auch dadurch aus, dass man kurzerhand auch vom Er- wartungswert einer Verteilung (anstatt von dem einer ZV) spricht, also z.B. der der der Erwartungswert der Binomialverteilung Erwartungswert einer gemäÿ mit Bildmaÿ Bildmaÿes. B(n, p) B(n, p), als verteilten ZV (einer ZV B(n, p)). Der Erwartungswert ist demnach eine Kennzahl des Erwartungswerte 60 12.7 Erwartungswerte spezieller Verteilungen Der Erwartungswert von B(1, p) B(1, p) (einer gemäÿ verteilten ZV), be- stimmt sich wegen 12.6 zu (12.7.1) EB(1,p) ( id{0,1} ) = 0 · (1 − p) + 1 · p = p . Bei der Bestimmung der Erwartungswerte der Binomialverteilung B(n, p), 2 der PoissonVerteilung Π(λ) bzw. der Normalverteilung N (a, σ ) ist das Vor- idΩ N (a, σ 2 ) . gehen im Grundsatz ähnlich, man bestimmt den Erwartungswert von bez. der jeweiligen Verteilung, also der B(n, p), der (12.7.2) EB(n,p) ( idN0n ) = n · p (12.7.3) EΠ(λ) ( idN ) = λ (12.7.4) EN (a,σ2 ) ( idR ) = a . Π(λ) oder der (Wir verzeichten hier bewusst auf die Wiedergabe von Rechentechniken!) Der Begri der Zufallsvariablen ist in 9.2.2 mit dem der messbaren Abbildung gleichgesetzt worden. Bei Modellen des stochastischen Zufalls mit Hilfe von Zufallsvariablen kommt eine spezielle Sichtweise des Begries Zufallsvariable zum Tragen. 12.8 Die Zufallsvariable bei Modellen des stochastischen Zufalls Ziel unserer Überlegung ist die Bestimmung des Erwartungswertes bei einem Würfelexperiment mit einem fairen Würfel. Das Interesse liegt dabei weniger auf dem Ergebnis als auf der zugrundeliegenden Modellbildung, in die eine spezielle Sichtweise der Zufallsvariablen eingeht. Die durch Würfelwurf realisierte Augenzahl wird als das Ergebnis einer Abbildung, einer Zufallsvariablen X : (Ω, A, P ) → (N6 , P(N6 ), G6 ) aufgefasst, wo G6 die diskrete Gleichverteilung über Die Frage nach dem Erwartungswert der ZV X N6 meint. steht hier für eine für das Würfelexperiment typische Fragestellung, zu deren Klärung mindestens Erwartungswerte 61 X nach Denition des Erwartungswertes sowohl die ZV Maÿ P als noch das W bekannt sein müssen. (12.5.2.1) lehrt aber, dass EP (X) gleich EPX ( idN00 ) ist, so dass zur BestimEP (X) die Gröÿen X und P entbehrlich werden, mung des Erwartungswertes sofern PX bekannt ist. Legt man die ZV X als Abbildung X : (Ω, A, P ) → (N6 , P(N6 ), G6 ) fest, wobei sowohl X als auch (Ω, A, P ) eine rein formale Bedeutung zu- kommt, denn bei Kenntnis der Verteilung (Bildmaÿ) weder von X noch von (Ω, A, P ) stellung einer Zufallsvariablen PX ist die Kenntnis erforderlich, so dass sich die intuitive Vor- oftmals auf die Kenntnis des Bildmaÿes der ZV, im betrachteten Beispiel also auf diejenige von G6 , reduziert. Zur Ermittlung des Erwartungswertes bildet man dann EP (X) = EPX ( idN6 ) = 6 X i=1 i· 6 1 X 7 1 = i= . 6 6 i=1 2 Für den Erwartungswert eines Produktes zweier unabhängiger, reellwertiger ZVen gilt eine spezielle Produktregel. 12.9 Satz Seien (Ω, A, P ) X, Y : (Ω, A, P ) → (R, B) zwei stochaErwartungswerten EP (X) und EP (Y ). ein WRaum und stisch unabhängige ZVen mit Dann gilt (12.9.1) EP (X · Y ) = EP (X)EP (Y ) . Zwar zieht die stochastische Unabhängigkeit von X und Y die Gültigkeit von (12.9.1) nach sich; die Gültigkeit von (12.9.1) impliziert wie man mit Gegenbeispielen zeigen kann jedoch nicht die stochastische Unabhängigkeit. Der Sachverhalt (12.9.1) wird nochmals in Zusammenhang der Kovarianz zweier ZVen angesprochen. Varianz und Kovarianz 13 62 Varianz und Kovarianz Die zentralen Begrie sind die der Varianz bzw. der Kovarianz. Während die Varianz als 'Maÿ des Streuens einer ZV' eine Deutung erfährt, kann die Kovarianz als ein 'Maÿ des linearen Zusammenhangs zweier ZVen' gesehen werden. Zur Denition der Varianz als 'Maÿ des Streuens einer ZV' bietet das durch das zugrundeliegende WMaÿ gewichtete Quadrat der 'Abstände' der Werte der ZV vom Erwartungswert an. 13.1 Denition (Varianz) Sei (Ω, A, P ) ein WRaum E(X). und X : (Ω, A, P ) → (R, B) eine ZV mit Erwar- tungswert Dann heiÿt V (X) := VP (X) := EP ((X − E(X))2 , (13.1.1) sofern der Term (13.1.1) endlich ist, die Varianz von bez. X P. 13.2 Bemerkungen Die Varianz ist eingeführt worden als Erwartungswert der quadrierten Abweichungen einer ZV eine X von ihrem Erwartungswert E(X). Sie ist demnach Maÿzahl für die durchschnittliche quadratische Abweichung der ZV X von ihrem Erwartungswert. Dabei meint eine groÿe Varianz eine groÿe Streuung, eine kleine Va- rianz eine kleine Streuung der Funktionswerte X(ω), ω ∈ Ω, um den Erwartungswert. Bestätigt wird das Gesagte durch den Sachverhalt, dass äquivalent ist, dass auf ganz Ω X = E(X) V (X) = 0 damit P Nullmenge abgesehen von maximal einer gilt. 13.3 Rechenregeln für Varianzen Sei (Ω, A, P ) ein V (X). WRaum, die reelle ZV X : (Ω, A, P ) → (R, B) habe die Varianz Dann gelten 13.3.1 13.3.2 V (aX + b) = a2 V (X), (a, b ∈ R) 2 2 V (X) = E(X ) − [E(X)] (Verschiebungssatz) Beweis: 13.3.1: Aufgrund der Linearität des Erwartungswertes gilt V (aX + b) = E((aX − E(aX))2 ) = E(a2 (X − E(X))2 = a2 V (X) . Überblick Varianz und Kovarianz 63 13.3.2: Mit den Rechenregeln für Erwartungswerte vgl. 12.4 gilt V (X) = E((X − E(X))2 ) = E(X 2 − 2XE(X) + (E(X))2 ) = E(X 2 ) − 2E(X)E(X) − (E(X))2 = E(X 2 ) − (E(X))2 . Die folgende Auistung liefert die Varianzen spezieller Verteilungen. Entsprechend zu 12.6 dort für Erwartungswerte versteht sich die Varianz B(n, p) als die Varianz VB(n,p) ( idN0 ) der ZV idN0n (WMaÿ) B(n, p) etc. z.B. der bez. der Verteilung 13.4 Varianzen spezieller Verteilungen 13.4.1 VB(1,p) ( id{0,1} ) = p(1 − p) 13.4.2 VB(n,p) ( idN0n ) = np(1 − p) 13.4.3 Vπ(λ) ( idN ) = λ 13.4.4 VN (a,σ2 ) ( idR ) = σ 2 . (Wir verzichten hier bewusst auf die Wiedergabe von Rechentechniken!) 13.5 Denition Seien (Ω, A, P ) ein WRaum und X, Y : (Ω, A, P ) → (R, B) zwei ZVen, deren Varianzen existieren. Dann heiÿt Kov(X, Y ) := Kov(X, Y ) := E((X − E(X))(Y − EY )) die Kovarianz von X und Y bez. P. Satz 13.6 zeigt, wie der Kovarianzbegri in die bisherige Theorie eingeht. 13.6 Satz Seien bzw. (Ω, A, P ) ein WRaum und X, Y zwei reelle ZVen mit Varianzen V (X) V (Y ). Dann hat auch X + Y eine Varianz, und es gilt V (X + Y ) = V (X) + V (Y ) + 2Kov(X, Y ) . Varianz und Kovarianz 64 13.7 Rechenregeln für Kovarianzen Seien X, Y 13.7.1 13.7.2 Sind X 13.7.3 13.7.4 reelle ZVen mit Varianzen V (X) und V (Y ). Dann gilt Kov(aX + c, bY + d) = abKov(X, Y ) a, b, c, d ∈ R) Kov(X, Y ) = E(X, Y ) − E(X)E(Y ) und Y überdies stochastisch unabhängig, gilt Kov(X, Y ) = 0 V (X + Y ) = V (X) + V (Y ) (Formel von Bienaymé) Hinweise zu den Beweisen: 13.7.1 bzw. 13.7.2 entsprechen den für Varianzen formulierten Sachverhalten 13.3.1 bzw. 13.3.2 (Verschiebungssatz). 13.7.3 folgt aus 13.7.2 zusammen mit Satz 12.9, während 13.7.4 eine Konsequenz aus Satz 13.6 zusammen mit 13.7.3 ist. 13.8 Bemerkung Kov(X, Y ) ist ein 'Maÿ' für den linearen Zusammenhang der ZVen X und Y ; sind X und Y stochastisch unabhängig, so ist die Kovarianz von X und Y gleich null: Kov(X, Y ) = 0, vgl. 13.7.3; die Umkehrung des Die Kovarianz Sachverhaltes trit nicht zu. Im Falle der stochastischen Unabhängigkeit stellt sich aber auch die Varianz der Summe zweier ZVen besonders einfach als Summe der Varianzen dar, vgl. 13.7.4, (Formel von Bienaymé). Die Tschebyschev'sche Ungleichung 14 65 Die Tschebyschev'sche Ungleichung Bezeichnet man E(X), X(ω)−E(X) als die Auslenkung von X(ω) vom Erwartungswert so liefert die Tschebyschev'sche Ungleichung eine obere Schranke für die Wahrscheinlichkeit der Menge all der ω ∈ Ω, für die die Auslenkung gröÿer als eine vorgegebene Zahl t ausfällt. Eine Verschärfung der Tschebyschev'schen Ungleichung ist nicht möglich, wie ein Beispiel lehrt. Ein auf der Tschebyschev'schen Ungleichung basierender Sachverhalt gibt Anlass zur Denition einer Bedingung, die man das schwache Gesetz der groÿen Zahlen nennt. Wir formulieren und beweisen zunächst einen Satz der die Tschebyschev'sche Ungleichung beinhaltet. 14.1 Satz (Tschebyschev'sche Ungleichung) Sei (Ω, P(Ω), P ) ein WRaum. Die ZV X : Ω → R besitze eine endliche Varianz. Dann gilt: (14.1.1) P V (X) ω ∈ Ω X(ω) − E(X) ≥ t ≤ t2 (t ∈ R , t > 0) . Beweis: Für A := ω ∈ Ω |X(ω) − EP (X)| ≥ t gelten oenbar die folgenden Abschätzungen 2 2 EP X − EP (X) ≥ EP X − EP (X) · 1A ≥ t2 · EP (1A ) ≥ t2 · P (A) , so dass sich die Behauptung aufgrund von V (X) = EP 2 2 X − E(X) = EP X − EP (X) ergibt. Oenbar liefert (14.1.1) eine obere Schranke für die Wahrscheinlichkeit der Menge aller t ω ∈ Ω, für die die Auslenkung X(ω)−E(X) gröÿer oder gleich ausfällt. Die in Rede stehende obere Schranke ist gegeben durch V (X) . t2 Überblick Die Tschebyschev'sche Ungleichung Abbildung 14.1: 66 Darstellung der Menge {ω ∈ Ω||X(ω) − E(X)| ≥ t} =: A aus dem Linksterm (14.1.1) : R ............ ......... .. ... ... ... ... ........................ ... ....... .......... ... ....... .......... ....... .......... ... ....... ......... ....... ....... ....... ....... ........................ ....... ....... ....... ....... ....... ........................... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...... . ...... . . ... .. .... . ... .... . ... ...... ... ... ... .. ...... ... ... .... ... ... ..... . . ... ... ... ...... .. . . . . . . . . . ... ... ... ... . ... ... ... ... ... ... ...... ... ...... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... . .. . ... . .. . ......... ....... ....... .......... ....... ........... ....... ....... ....... ....... ....... ....... ....... ........... ....... .......... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ........... ....... ...... ... . ... ... .. ... ... ... ... ... ... ... ... ... . ... ... .. . . . ... ... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. . . ... . . . ... . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. ... ......... .......... ....... ....... ....... ........... ....... ....... ....... ....... ....... ....... ....... ........... ....... ....... ....... ............. ....... ....... ....... ....... ...................... ....... ....... ....... ....... ...... ... ..... ... ... ... .... ..... .. ... ....... ... ... ....... ... ..... ... ... ...... ... ... ..... .... ... ... ... ..... ..... ... ... ... . ... . . ... .... .... . . ..... . ... ... ... ... ..... ..... ... ... ... ... ... ... ... ..... ........ ... ... ... ... ... ..... ..... ... . ... . .... . ... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... .. ................................................................................................................................................................................................................................................................................................................................................................................................................................... .. .... ... ... E(X) + t E(X) X E(X) − t Ω A := {ω ∈ Ω||X(ω) − E(X)| ≥ t} In diesem Zusammenhang verweisen wir auf Experiment 14.1, das die Tschebyschev'sche Ungleichung zum Gegenstand hat. Ohne Nachweis halten wir fest, dass es nicht möglich ist, die durch die Tschebyschev'sche Ungleichung gegebene Abschätzung zu verschärfen. Die Tschebyschev'sche Ungleichung 67 14.2 Satz (Ω, P(Ω), P ) ein WRaum. Die ZVen Xi : Ω → R mit endlichen Varianzen 2 seien stochastisch unabhängig und es gelte E(Xi ) = a sowie V (xi ) = σ , i = 1, . . . , n. Dann ist Sei (14.2.1) P n 1 X σ2 ω ∈ Ω Xi (ω) − a ≥ t ≤ 2 n i=1 nt (t ∈ R , t > 0) Beweis: Wegen der vorausgesetzten stochastischen Unabhängigkeit der Xi , i = 1, . . . , n erhält man für die Varianz der ZV n X Xi − i=1 n X n X E(Xi ) = Xi − na i=1 i=1 aufgrund von 13.7.4 (Formel von Bienaymé) die Gröÿe nσ 2 . Damit folgt auf- grund der Tschebyschev'schen Ungleichung n X n o σ2 nσ 2 P ω ∈ Ω Xi (ω) − na ≥ nt ≤ 22 = 2, nt nt i=1 wobei für t (im Links wie im Rechtsterm) die Zahl nt gesetzt wurde, woraus die Behauptung nun folgt. Oenbar konvergiert der Rechtsterm in (14.1.1), der eine obere Schranke für die als Linksterm auftretende Wahrscheinlichkeit darstellt, für n → ∞ gegen null. Tatsächlich motiviert der angesprochene Sachverhalt die Denition dessen, was man als schwaches Gesetz der groÿen Zahlen versteht. 14.3 Denition Seien (Ω, P ) ein WRaum und Gilt dann für alle (14.3.1) so sagt man, (Xi ) eine Folge reeller, integrierbarer ZVen. ε>0 lim P n→∞ die Folge n 1 X ω ∈ Ω Xi (ω) − E(Xi ) ≥ ε = 0, n i=1 (Xi ) genüge dem schwachen (oder Bernoulli- schen) Gesetz der groÿen Zahlen. Die Bedingung (14.3.1) heiÿt das Gesetz der groÿen Zahlen. Die Tschebyschev'sche Ungleichung 68 In einer Vielzahl von Sätzen werden nun Bedingungen die Folge (Xi ) betreend formuliert derart, dass das schwache Gesetz der groÿen Zahlen erfüllt ist. Dies ist beispielsweise der Fall, wenn eine Folge (Xi ) reeller, paarweise unab- hängiger ZVen der Bedingung n 1 X lim V (Xi ) = 0 n→∞ n2 i=1 genügt, was die Existenz der Varianzen V (Xi ), i ∈ N, voraussetzt. 14.4 Aufgabe Sei Ω (Ω, P ) ein WRaum und seien X1 , . . . , Xn reelle unabhängige ZVen auf mit E(Xj ) = 10 , gilt, wobei (j ∈ Nn ) . n aufgrund von Satz 14.3 gewählt werden, damit die Abschät P ω ∈ Ω X(ω) − E(X) ≥ 4 ≤ 0.01 P X = n1 nj=1 Xj ist? Wie groÿ muss zung V (Xj ) = 20 L Über Zufallsgeneratoren 15 (fakultativ) 69 Über Zufallsgeneratoren (fakultativ) Erläutert wird die Erzeugung von gemäÿ einem WMaÿ P verteilter Realisatio- Überblick nen mit Hilfe von Zufallsgeneratoren. Der Satz von GlivenkoCantelli bietet eine Möglichkeit zur empirischen Überprüfung. 15.1 Notwendigkeit von Realisationen WMaÿe (Verteilungen) durch oenbaren sich beispielsweise in der Statistik ihre Realisationen, die dann die Grundlage für die Schätzung (Mutmaÿung) bez. des den Realisationen zugrundeliegenden (unbekannten) WMaÿes bilden. Für verschiedene Aufgaben ist man nun auf solche, künstlich erzeug- te (Stichproben) Realisationen angewiesen, von denen man weiÿ, welchem WGesetz (WMaÿ, Verteilung) diese folgen. Soll beispielsweise ein Schätzverfahren zur bestimmung eines WMaÿes aufgrund von durch dieses WMaÿes erzeugter Realisationen empirisch überprüft werden, so setzt dies die Kenntnis dieses WMaÿes voraus! Das Gesagte unterstreicht die Verfügbarkeit von Techniken zur Erzeu- gung von Realisationen gemäÿ einem vorgegebenen WMaÿ P. Unter Vorwegnahme späterer Ausführungen lässt sich die Erzeugung von Realisationen gemäÿ einem WMaÿ mäÿ der Gleichverteilung 15.2 λ(0;1) P auf eine solche von Realisationen ge- bez. dem Intervall (0; 1) reduzieren. (0; 1)Realisation Die Erzeugung von Zufallszahlen durch Zufallsgeneratoren meint zunächst die Erzeugung von Zahlen auf einem endlichen Abschnitt von Die Erzeugung von Zufallszahlen aus dem Intervall (0; 1)Realisationen (0; 1), N ∪ {0}. den sogenannten ergibt sich dann durch geeignete Normierung. 15.3 Beschaung von künstlichen (0; 1)Realisationen Grundsätzlich bieten sich zwei Möglichkeiten zur Beschaung bzw. Erzeugung von Zufallszahlen und mithin von (0; 1)Realisationen. Die eine Möglichkeit besteht in der Nutzung eines geeigneten physikalischen Experimentes, d.h. konkret z.B. die Verarbeitung eines elektromagnetische bzw. elektrischen Signals. Im beschriebenen Fall spricht man von der Erzeugung durch einen physikalischen Zufallsgenerator. Wenn auch Vieles für die Verwendung physikalisch erzeugter Realisationen spricht, so wird der Nutzung von PseudoZufallsgeneratoren der Vorzug gegeben; was im Umstand begründet liegt, dass bei PseudoZufallsgeneratoren Über Zufallsgeneratoren (fakultativ) 70 Zufallsdaten ohne groÿen Aufwand auch später wieder zur Ver- die fügung stehen. 15.4 Anforderungen Auch wenn (Pseudo) Zufallsgeneratoren eine deterministisch bestimmte Folge von (0; 1)Realisationen liefern, müssen diese in der Stochastik wenigstens Aspekten des Zufalls genügen, in dem Sinne, dass die statistische Wider- legung nur aufgrund von groÿen Stichprobenumfängen möglich ist. In der Stochastik angestrebt sind Realisationen, die sich möglichst als solche einer Folge unabhängiger, auf (0, 1) gleichverteilter ZVen dar- stellen. 15.5 Typen von (Pseudo) Zufallsgeneratoren Zufallsgeneratoren sind algorithmische Verfahren, die eine deterministische Folge von Zahlen aus einem endlichen Abschnitt dann auf (0; 1) A ⊂ N ∪ {0} f deniert, d.h., gilt i ∈ N periodisch, d.h. es Sind Zufallsgeneratoren über eine Iterationsabbildung (zi ) für eine Folge von Zufallszahlen zi+1 := f (zi ) , so sind die Zufallsgeneratoren wegen existiert eine erzeugen, (die normiert werden). Periode (Zahl) p∈N i ∈ N, zi ∈ A , mit i ∈ N. zi = zi+p , Bekannt geworden sind verschiedene Typen von Zufallsgeneratoren, deren bekanntester wohl der sogenannte In Experimental Stochastics, LinearGenerator ist. O.Moeschlin et al., Berlin Heidelberg New York, 1998, ndet sich eine Darstellung solcher Typen; dort wird auch gezeigt, wie die Realisationen solcher Zufallsgeneratoren auf die gewünschten Anforderungen hin getestet werden können. 15.6 Realisationen gemäÿ einem WMaÿ P Heute, im Ramen von SoftwarePackages angebotene Zufallsgeneratoren, liefern (in aller Regel) Realisationen ui , als solche einer unabhängigen Folge von i ∈ N, die in der Tat weitestgehend auf (0; 1)gleichverteilten ZVen auf- gefasst werden können. Ist dann P lungsfunktion F inv , so können abhängigen Folge gemäÿ 8.5. B ein WMaÿ (auf P über die F inv R mit der inversenen Vertei(ui ) als Realisationen einer un- verteilter ZVen aufgefasst werden, vgl. Über Zufallsgeneratoren (fakultativ) 71 15.7 Zur Überprüfung gemäÿ einem W-Maÿ verteilter Realisa- P tionen 15.7.1 Denition (empirische Verteilungsfunktion) Xi : (Ω, A, P ) → (R, B), i ∈ N gemäÿ P über (R, B) verteilte ZVen, d.h., es gelte PXi = P, i ∈ N. Für eine Realisation ω̄ ∈ Ω stellen xi := Xi (ω) Realisationen der ZVen Xi dar, i ∈ N . Sei weiter Seien X = (Xi )i∈N und x = (xi )i∈N . Die durch Fn (t, ω̄) := (15.7.1.1) denierte Abbildung n 1 X 1(−∞;t] ◦ Xj (ω̄), n j=1 (t ∈ R, ω̄ ∈ Ω) Fn : R × Ω → [0, 1] erweist sich als die Verteilungsfunk- tion eines speziellen (hier nicht wiedergegebenen) WMaÿes. Fn X1 , . . . , Xn . Man spricht von ZVen als von der Man beachte: Für ein festes empirischen Verteilungsfunktion der t∈R bzw ein festes ω̄ ∈ Ω nimmt 1(−∞;t] ◦ Xj (ω) nach Denition der Indikatorfunktion entweder die Werte 1 oder 0 an, je nachdem ob Xj (ω̄) ∈ (−∞; t] oder Xj (ω̄) ∈ / (−∞; t] gilt. Fn (t, ω̄) den Prozentsatz Intervall (−∞; t] fallen. Damit gibt das Für die empirische Verteilungsfunktion sogenannten der Fn Xj (ω̄), j ∈ Nn wieder, die in gilt nun als einer Vorform des Hauptsatzes der Statistik von GlivenkoCantelli der 15.7.2 Satz Seien die Voraussetzungen der Denition 15.7.1 gegeben, wobei insbesondere je endlich viele der ZVen funktion von Xi , i ∈ N unabhängig seien. F sei die Verteilungs- P. Dann gilt P ({ω ∈ Ω| lim Fn (t, ω̄) = F (t)} = 1, n→∞ t ∈ R, Über Zufallsgeneratoren (fakultativ) 72 ω ∈ Ω mit höchstens einer P Nullmenge konvergiert Fn (t, ω̄) gegen F (t). d.h. für fast alle menge als Ausnahme- Dieser Sachverhalt wird in Experiment 15.1 zu einer empirischen Überprüfung der Qualität von (0; 1) Realisationen herangezogen. Realisationen ui werden inv gemäÿ den Erläuterungen von 15.6 Realisationen xi := F (ui ) bestimmt. Zu auf der vertikalen Achse ausgegebenen Nach Satz 8.5 handelt es sich bei den gemäÿ P verteilten ZVen, sofern die Gleichverteilung Konvergenz von (0; 1) xi um Realisationen von unabhängigen, ui solche von unabhängigen, gemäÿ der λ(0;1) verteilten ZVen sind, was sich anhand der punktweisen Fn (ti , ω̄) für ausgewählte Werte ti gegen F (ti ) 'empirisch' überprüfen lässt. Lösungen zu Kapitel 3 73 Lösungen zu Kapitel 3 Zu 14.4 Aufgabe Aufgrund von 14.3 (also nicht etwa 14.1) gilt P {ω ∈ Ω| |X̄(ω) − E(X̄)| ≥ 4} ≤ Damit die geforderte Abschätzung erfüllt ist, muss 20 5 = ≤ 0.01 16n 4n gilt. Dies ist für n ≥ 125 der Fall. 20 . n · 16 n so gewählt werden, dass Index Abbildung Exponentialverteilung 8.2.2 , messbar 9.1 Familie von Mengen 1.4.3 absolute Konvergenz 1.6.2 Formel von Bienaymé 13.7.4 Additivität , σ 3.1 gemeinsame Verteilung 5.9 Ausgangsraum 3.1, 7.4 geometrische Verteilung 4.3 Gesetz der groÿen Zahlen Bernoullisches , schwaches (oder Bernoullisches) (oder schwaches) Gesetz der groÿen 14.3 Zahlen 14.3 Gleichverteilung Versuchsschema 6.6 , allgemeine 7.6.2 Bienaymé, Formel von 13.7.4 , diskrete 4.4 Bildmaÿ 5.6, 9.1.2 Binomialkoezient 1.7 Indikatorfunktion 1.3.1 Binomialverteilung 4.1 Borel'sche σ Algebra Integral 10.0 7.3 , Lebesgue 10.0 , Dichte n , λ 11.2 µ 10.0 Konvergenz einer Reihe 1.6 , Lebesgue 11.2 , µ , absolute 1.6.2 11.2 , unbedingte 1.6.1 DiracMaÿ 3.3 Kovarianz 13.5 disjunkte Vereinigung 1.4.4 diskrete Gleichverteilung 4.4 λn Dichte diskreter WRaum 3.1 LebesgueDichte 11.2 diskretes WMaÿ 3.1 LinearGenerator 15.5 Einsmenge 3.2.3 Maÿ 7.4 Ereignis 3.2.1 , BL 7.4 Wahrscheinlichkeit eines 3.2.1 , Bild 5.6, 9.1.2 Ereignissystem 7.4 , Dirac 3.3 Erwartungswert 12.1, 12.2 , W 7.4 bez. des Bildmaÿes 12.5 Maÿraum 7.4 erweitert reelle Zahlen 1.5 Menge 74 11.2 , Eins 3.2.3 Ereignissen 6.8 , Null 3.2.3 ZVen 6.2 Mengen Tschebyschev'sche Ungleichung 14.1 familie 1.4.3 folge 1.4.3 Umordnungssatz 1.6.4 funktion 3.2.2 Unabhängigkeit von system 1.4.3 Ereignissen, stochastische 6.8 messbare Mengen 7.4 ZVen, stochastische 6.2 Messraum 7.4 unbedingt konvergent 1.6.1 µ Ungleichung Dichte 11.2 , Tschebyschev'sche 14.1 Integral 10.0 Urbildabbildung 5.2 Normalverteilung 11.5 Varianz 13.1 , Standard 11.4 Vereinigung Nullmenge 3.2.3 , disjunkte 1.4.4 Verschiebungssatz 13.3 Partition 1.4.5 Versuchsschema PoissonVerteilung 4.2 , Bernoullisches 6.6 Potenzmenge 1.2 Verteilung Produkt abbildung 1.3 von X 5.6, 9.1.2 , Binomial 4.1 Maÿ 4.8 , diskrete Gleich 4.4 WMaÿ 4.8 , Exponential 8.2.2 WRaum 4.8 , gemeinsame 5.9 PunktWMaÿ 3.3 , geometrische 4.3 Realisation 3.2.1 , Normal 11.5 Rechtecksmenge 4.9 , Poisson 4.2 reelle Zahlen , StandardNormal 11.4 , erweitert 1.5 Verteilungsfunktion 8.1 Reihenwert 1.6 , (verallgemeinerte) inverse 8.3 , empirische 15.7.1 Schnitt , ωi 1.4.1 WFunktion 3.6.1 einer ZV 5.7.1 schwaches (oder Bernoullisches) Gesetz der groÿen Zahlen 14.3 WMaÿ 3.1 σ Additivität 3.1 σ Algebra 7.1 , allgemeines 7.4 , Borel'sche 7.3 , Produkt 4.8 StandardNormalverteilung 11.4 , Punkt 3.3 stochastische Unabhängigkeit von WRaum , diskretes 3.1 75 , allgemeiner 7.4 , diskreter 3.1 , Produkt 4.8 Wahrscheinlichkeit eines Ereignisses 3.2.1 Zerlegung 1.4.5 Zufallsgeneratoren, (Pseudo-) 15.5 Zufallsvariable 5.1, 9.1.2 ZV 5.1, 9.1.2 76 Symbolverzeichnis :=, ⇒, ⇔, P(A) T −1 (A0 ) 1.1 PX 1.2 5.6, 9.1.2 N, Z, Q, R 1.2 A 7.1 N0 , Nn , N0n 1.2 B 7.3 Rn , Rn+ 1.2 A(ω) (ω ∈ Ω) A(i) Bn 1.2 i = 1, . . . , n 1.2 f : A → B, f ( . ), a 7→ f (a) (f, g), f ◦ g, 1A ( . ) idΩ : Ω → Ω 1A ( . ) Vω̄1 n k δω : 11.2 N (0, 1) E(X) 5.1 4.8 11.5 12.1, 12.2 EP (X) 4.8 (Ω1 × Ω2 , P(Ω1 × Ω2 ), P1 ⊗ P2 ) 11.4 N (a, σ 2 ) 4.1 4.2 Ω0 ZV 7.6.2 fµ 3.3 P1 ⊗ P 2 7.6.1 3.1 1.7 Π(λ) 7.4 F inv 8.3 R f dµ 10.0 R f dµ 10.0 A R f (x) dx 10.0 1.4.1 B(n, p) (Ω, A, µ) 1.3 1.3.1 (Ω, P(Ω), P ) 7.4 λA 1.3 7.3 (Ω, A, P ) λ 1.3 5.2 12.1, 12.2 EB(n,p) ( idN0n ) EΠ(λ) ( idN ) 77 12.7 12.7 EN (a,σ2 ) ( idR ) V (X) 12.7 13.1 VB(1,p) ( id{0,1} ) VB(n,p) ( idN0n ) Vπ(λ) ( idN ) 13.4 13.4 VN (a,σ2 ) ( idR ) Kov(X, Y ) 13.4 13.4 13.5 78