Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2017 Prof. Dr. Hans-Jörg Starkloff Stand: 12. Juli 2017 1 TU Bergakademie Freiberg 0 Wahrscheinlichkeitstheorie Sommersemester 2017 Organisatorisches Informationen • Vorlesung: Dienstag Mittwoch ungerade Wochen 7:30-9:00 PRÜ-1103 14:00-15:30 PRÜ-1103 • Lesender: Prof. Dr. Hans-Jörg Starkloff • Kontaktdaten: http: // www. mathe. tu-freiberg. de/ sto/ mitarbeiter/ hans-joerg-starkloff • Website zur Vorlesung: http: // www. mathe. tu-freiberg. de/ wt • Übung: Mittwoch, 9:15-10:45, PRÜ-1103 • Übungsleiter: Dr. Udo Lorz • Kontaktdaten: http: // www. mathe. tu-freiberg. de/ dek/ mitarbeiter/ udo-lorz • Website zur Übung: http: // www. mathe. tu-freiberg. de/ wt-ue Literatur • Bauer, H.: Wahrscheinlichkeitstheorie. Verlag Walter de Gruyter, 5. Auflage, 2002. (E-Book TUBAF, 2011) • Hesse, C.: Wahrscheinlichkeitstheorie – Eine Einführung mit Beispielen und Anwendungen. Vieweg-Teubner-Verlag, 2. Auflage, 2009. (1. Auflage TUBAF) • Klenke, A.: Wahrscheinlichkeitstheorie. Springer-Verlag, 3. Auflage, 2013. (E-Book TUBAF) • Brokate, M., Henze, N., Hettlich, F., Meister, A., Schranz-Kirlinger,G., Sonar,T.: Grundwissen Mathematikstudium – Höhere Analysis, Numerik und Stochastik. SpringerVerlag, 2016, Kapitel 19-24. (E-Book TUBAF) 2 TU Bergakademie Freiberg 1 Wahrscheinlichkeitstheorie Sommersemester 2017 Grundbegriffe 1.1 Ereignisse und Wahrscheinlichkeiten Anmerkungen 1.1. • Die Wahrscheinlichkeitstheorie liefert Methoden zur mathematischen Untersuchung von Versuchen, Beobachtungen, Situationen, etc., bei denen man die Ergebnisse nicht genau (vorher-)berechnen kann, aber eine Quantifizierung der vorhandenen Unsicherheit möglich und nützlich ist. • Eine Möglichkeit dieser Unsicherheitsquantifizierung besteht in der Nutzung stochastischer Modelle (oft auch in Verbindung mit statistischen Modellen). Dabei werden Wahrscheinlichkeiten als Maßzahlen für die Chancen des Eintretens von bestimmten zufälligen Ereignissen und darauf aufbauende Konzepte genutzt. • Der Wahrscheinlichkeitsbegriff ist dabei aus dem Begriff der relativen Häufigkeit für das Eintreten von zufälligen Ereignissen bei unabhängigen und gleichartigen Wiederholungen von Zufallsversuchen entstanden. Anmerkungen 1.1 ((Fortsetzung)). • Die Einbettung der Wahrscheinlichkeitstheorie in die Mathematik erfolgt durch ihre Grundlegung mit Hilfe der Maß- und Integrationstheorie und durch vielfältige Verflechtungen mit anderen mathematischen Teilgebieten. • Dies wurde erstmalig umfassend und konsequent 1933 in dem Buch von A. N. Kolmogorow (Kolmogoroff, Kolmogorov) Grundbegriffe der Wahrscheinlichkeits” rechnung“ realisiert. • Das mathematische Modell eines zufälligen Versuchs ist ein Wahrscheinlichkeitsraum. Definitionen 1.2. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum. • Die Elemente ω P Ω werden Elementarereignisse genannt. • Die messbaren Mengen A P F heißen (zufällige) Ereignisse. • Ein Ereignis A P F tritt ein, falls eines seiner Elementarereignisse ω P A eintritt. • PpAq P r0, 1s ist die Wahrscheinlichkeit für das Eintreten des Ereignisses A P F . • Das Ereignis ∅ P F wird unmögliches Ereignis genannt. Es gilt Pp∅q “ 0 . • Das Ereignis Ω P F heißt sicheres Ereignis. Es gilt PpΩq “ 1. 3 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 1.3 ((Einmaliges Würfeln)). Ω “ t1, 2, 3, 4, 5, 6u , F “ PpΩq Das Ereignis A “ t2, 4, 6u tritt ein, wenn eine gerade Zahl gewürfelt wird. Beispiel 1.4 ((Außentemperatur in ˝ C)). Ω “ r´100, 100s, F “BXΩ Das Ereignis A “ p16, 22q tritt ein, wenn eine (angenehme) Temperatur zwischen 16˝ C und 22˝ C herrscht. Definitionen 1.5. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und A, B P F . • Das Ereignis Ac P F wird das zum Ereignis A P F komplementäre (oder auch entgegengesetzte) Ereignis genannt. Es tritt genau dann ein, wenn A nicht eintritt. • Das Ereignis A Y B tritt ein, wenn das Ereignis A oder das Ereignis B oder beide Ereignisse A und B eintreten. Man sagt, das Ereignis A oder B tritt ein. • Das Ereignis A X B tritt ein, wenn sowohl das Ereignis A als auch das Ereignis B eintritt. Man sagt, das Ereignis A und B tritt ein. • Es gelte A X B “ ∅ . Dann heißen die Ereignisse A und B unvereinbar, denn sie können nicht zugleich eintreten. • Es gelte A Ď B . Dann sagt man aus A folgt B oder das Ereignis A zieht das Ereignis B nach sich. Beispiele 1.6 ((Einmaliges Würfeln, vgl. Beispiel 1.3)). • Das komplementäre Ereignis Ac “ t1, 3, 5u besteht darin, dass eine ungerade Zahl gewürfelt wird. • Sei B “ t1, 2u . Dann folgt A Y B “ t1, 2, 4, 6u und A X B “ t2u . Das Ereignis A oder B tritt ein, wenn eine der Zahlen 1, 2, 4 oder 6 gewürfelt wird und das Ereignis A und B tritt ein, wenn eine Zwei gewürfelt wird. • Sei C “ t4u . Dann gilt t4u “ C Ď A “ t2, 4, 6u . Aus dem Ereignis, dass eine Vier gewürfelt wird, folgt, dass eine gerade Zahl gewürfelt wird. 4 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiele 1.7 ((Außentemperatur in ˝ C, vgl. Beispiel 1.4)). Sei B “ r´100, 0q , also das Ereignis Frost. • Dann ist A Y B “ p16, 22q Y r´100, 0q das Ereignis, dass eine angenehme Temperatur oder Frost herrscht. • Da A X B “ ∅ , sind die Ereignisse angenehme Temperatur und Frost miteinander unvereinbar. Anmerkungen 1.8. • Jede Zuordnung von Wahrscheinlichkeiten zu den zufälligen Ereignissen, die den Axiomen der Maßtheorie (siehe unten) genügt, ist mathematisch korrekt, aber nicht immer ein gutes mathematisches Modell für reale Versuche oder Situationen. • Erinnerung an die Axiome: Pp∅q “ 0 ; PpΩq “ 1 ; ¸ 8 8 ÿ ď P pAi q für Ai P F, Ai X Aj “ ∅ pi ­“ j, i, j P Nq . Ai “ P ˜ i“1 i“1 • Einige Folgerungen: P pAc q “ 1 ´ P pAq ; A Ď B ñ PpAq ď PpBq ; 0 ď PpAq ď 1 ; P pA Y Bq “ PpAq ` PpBq ´ P pA X Bq . Anmerkungen 1.9. • Nicht immer, z.B. bei komplexen stochastischen Modellen, wird ein Wahrscheinlichkeitsraum explizit konstruiert oder angegeben. • Ausgangspunkt für theoretische Überlegungen kann auch die Menge der zufälligen Ereignisse zu einem Zufallsversuch sein. Die grundlegende wesentliche Eigenschaft von zufälligen Ereignissen besteht darin, dass man nach der Durchführung des Zufallsversuches eindeutig entscheiden kann, ob das zufällige Ereignis eingetreten ist oder nicht. Ausgestattet mit den besonderen“ zufälligen Ereignissen (∅, Ω) und den Operationen ” (Komplementbildung, Vereinigung und Durchschnitt) besitzt die Menge der zufälligen Ereignisse zu einem Zufallsversuch die Struktur einer Booleschen Algebra. • Nach einem Satz von Stone kann man zu jeder Ereignisalgebra eine isomorphe Mengenalgebra finden, folglich kann man zufällige Ereignisse immer durch Mengen repräsentieren, so wie das in unseren Axiomen geschehen ist. 5 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 1.10 ((Einmaliges Würfeln mit Gewinnbeträgen)). F “ PpΩq Ω “ t1, 2, 3, 4, 5, 6u , Augenzahl Gewinn Spieler 1 Gewinn Spieler 2 1.2 1 1 2 3 4 5 6 3 6 2 4 4 Klassische Wahrscheinlichkeitsräume Definition 1.11. Ein Wahrscheinlicheitsraum pΩ, F, Pq heißt • klassischer Wahrscheinlichkeitsraum bzw. • Laplacescher Wahrscheinlichkeitsraum, falls (1) 0 ă card pΩq ă 8 , (2) F “ PpΩq und (3) für alle ω P Ω gilt Pptωuq “ 1 cardpΩq . Aufgabe 1.12. Sei pΩ, F, Pq ein klassischer Wahrscheinlichkeitsraum. Zeigen Sie, dass dann für jedes Ereignis A Ď Ω gilt card pAq Anzahl der für das Ereignis A günstigen Fälle“ “” . card pΩq Anzahl der möglichen Fälle“ ” Anmerkung 1.13. Die Anzahl der für das Ereignis A günstigen Fälle kann in der Regel durch kombinatorische Überlegungen ermittelt werden. PpAq “ 1.3 Bedingte Wahrscheinlichkeiten Definition 1.14. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und B P F ein Ereignis mit PpBq ą 0 . Dann wird PpA X Bq PpA |Bq :“ für A P F PpBq die bedingte Wahrscheinlichkeit des zufälligen Ereignisses A unter der Bedingung B bzw. kurz von A unter B bzw. von A gegeben B genannt. Satz 1.15. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und B ein Ereignis mit PpBq ą 0 . (1) Dann ist Pp ¨ |Bq ein Wahrscheinlichkeitsmaß auf dem messbaren Raum pΩ, Fq . 6 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (2) Insbesondere gilt die Additionsformel PpA1 Y A2 |Bq “ PpA1 |Bq ` PpA2 |Bq ´ PpA1 X A2 |Bq . (3) Seien A1 , . . . , An P F, n “ 2, 3, . . . , mit PpA1 X . . . X An´1 q ą 0 . Dann gilt die Multiplikationsformel PpA1 X . . . X An q “ “ PpA1 q PpA2 |A1 q PpA3 |A1 X A2 q . . . PpAn |A1 X . . . X An´1 q . Beispiel 1.16 ((Multiplikationsformel)). In einer Urne befinden sich zehn Kugeln, davon sieben rote und drei schwarze. Es werden vier Kugeln ohne Zurücklegen entnommen. Wie groß ist die Wahrscheinlichkeit für das Ereignis R , dass alle vier gezogenen Kugeln rot sind ? Zur Lösung dieser Aufgabe definieren wir die Ereignisse • R . . . alle vier gezogenen Kugeln sind rot und • Ri . . . die i-te gezogene Kugel ist rot, i “ 1, 2, 3, 4, und erhalten PpRq “ PpR1 X R2 X R3 X R4 q “ PpR1 q ¨ PpR2 |R1 q ¨ PpR3 |R1 X R2 q ¨ PpR4 |R1 X R2 X R3 q 1 7 6 5 4 ¨ ¨ ¨ “ “ p 16.67% . “ 10 9 8 7 6 Satz 1.17 ((Formel der totalen Wahrscheinlichkeit, Zerlegungssatz)). Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, ∅ ­“ I Ď N eine nichtleere, höchstens abzählbare Ť Indexmenge und pBn qn PI Ď F eine höchstens abzählbare Zerlegung von Ω , d.h. Bn “ Ω und nPI Bi X Bj “ ∅ für alle i ‰ j mit PpBn q ą 0 für alle n P I . Dann gilt für A P F ÿ PpAq “ PpA |Bn q PpBn q . n PI Beispiel 1.18. Drei verschiedene Firmen liefern gleichartige Teile an einen Automobilkonzern. Der Anteil der drei Firmen beträgt 60%, 30% bzw. 10% am gesamten Lieferumfang. Die Ausschussquoten der drei Zulieferer betragen 1%, 2% bzw. 3% . Wie groß ist die Ausschussquote insgesamt? Zur Lösung dieser Aufgabe definieren wir folgende Ereignisse • A . . . Teil ist Ausschuss • Fn . . . Teil wurde von der n-ten Firma geliefert, n “ 1, 2, 3 . 7 TU Bergakademie Freiberg PpAq “ 3 ÿ Wahrscheinlichkeitstheorie Sommersemester 2017 PpA |Fn q PpFn q “ n“1 “ 0.01 ¨ 0.6 ` 0.02 ¨ 0.3 ` 0.03 ¨ 0.1 “ 0.015 “ p 1.5% Aufgabe 1.19. Konstruieren Sie für das Beispiel 1.18 einen geeigneten Wahrscheinlichkeitsraum. Geben Sie die Ereignisse A und Fn , n “ 1, 2, 3 , explizit an. Satz 1.20 ((Bayessche Formel, Satz von Bayes)). Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, ∅ ­“ I Ď N eine nichtleere, höchstens abzählbare Indexmenge und pBn qn PI Ď F Ť eine höchstens abzählbare Zerlegung von Ω , d.h. Bn “ Ω und Bi X Bj “ ∅ für alle n PI i ‰ j , mit PpBn q ą 0 für alle n P I . Dann gilt für A P F mit PpAq ą 0 PpBn |Aq “ PpA |Bn q PpBn q PpA |Bn q PpBn q “ ř PpA |Bi q PpBi q PpAq für n P I . i PI Anmerkung 1.21. Man nennt in diesem Zusammenhang auch P pBn q P pBn |Aq a-priori-Wahrscheinlichkeiten und a-posteriori-Wahrscheinlichkeiten. Beispiel 1.22 ((vgl. Beispiel 1.18)). Wie groß ist die bedingte Wahrscheinlichkeit dafür, dass ein Teil von der n-ten Firma geliefert wurde unter der Bedingung, dass es Ausschuss ist ? PpA |Fn q PpFn q PpA |Fn q PpFn q “ 3 PpFn |Aq “ , n “ 1, 2, 3 ř PpAq P pA |Fi q PpFi q i“1 • PpF1 |Aq “ 0.01 ¨ 0.6 2 “ “ p 40% 0.015 5 • PpF2 |Aq “ 0.02 ¨ 0.3 2 “ “ p 40% 0.015 5 • PpF3 |Aq “ 0.03 ¨ 0.1 1 “ “ p 20% 0.015 5 1.4 Unabhängigkeit Definition 1.23. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum. Zwei Ereignisse A, B P F heißen unabhängig bezüglich des Wahrscheinlichkeitsmaßes P (oder stochastisch unabhängig), falls gilt PpA X Bq “ PpAq ¨ PpBq . Behauptung 1.24. Für unabhängige Ereignisse A und B mit PpAq ą 0 bzw. PpBq ą 0 gilt PpB|Aq “ PpBq bzw. PpA|Bq “ PpAq . 8 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 1.25. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und A, B P F zwei Ereignisse. Dann sind die folgenden Aussagen äquivalent (1) A und B sind unabhängig, (2) A und B c sind unabhängig, (3) Ac und B sind unabhängig, (4) Ac und B c sind unabhängig. Definitionen 1.26. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige Indexmenge. • Eine Familie pAi qiPI Ď F von Ereignissen heißt vollständig unabhängig, falls für jede nichtleere, endliche Teilmenge In Ď I gilt ˜ ¸ č ź P Ai “ PpAi q . iPIn iPIn • Ist I “ t1, . . . , nu so werden die Ereignisse A1 , . . . , An P F vollständig unabhängig genannt. • Für I “ N spricht man von einer vollständig unabhängigen Folge pAi qiPN Ď F von Ereignissen. • Gilt lediglich PpAi X Aj q “ PpAi q ¨ PpAj q für alle i, j P I, i ‰ j , dann heißt die Familie pAi qiPI Ď F von Ereignissen paarweise unabhängig. Beispiel 1.27. Wir betrachten den zweimaligen Wurf mit einer fairen Münze und dabei die Ereignisse • A1 . . . beim ersten Wurf wird Zahl (Z) geworfen • A2 . . . beim zweiten Wurf wird Wappen (W ) geworfen • A3 . . . beide Wurfergebnisse sind verschieden Als Grundmenge wählen wir Ω “ tpW, W q, pW, Zq, pZ, W q, pZ, Zqu . Jedes der Elementarereignisse hat die Wahrscheinlichkeit 1{4 . Folglich ist PpA1 q “ PptpZ, Zq, pZ, W quq “ 1{2 , PpA2 q “ PptpW, W q, pZ, W quq “ 1{2 und PpA3 q “ PptpW, Zq, pZ, W quq “ 1{2 . Wie man leicht sieht, ist PpAi X Aj q “ PpAi q ¨ PpAj q “ 1{4 für alle i, j P t1, 2, 3u, i ‰ j . Jedoch ist einerseits PpA1 XA2 XA3 q “ PptpZ, W quq “ 1{4 , aber andererseits PpA1 q PpA2 q PpA3 q “ 1{8 . Damit sind die Ereignisse A1 , A2 , A3 zwar paarweise unabhängig, jedoch nicht vollständig unabhängig. 9 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Definition 1.28. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, I ‰ ∅ eine beliebige Indexmenge und für jedes i P I sei Mi Ď F ein Mengensystem. Dann heißt die Familie pMi qiPI von Mengensystemen unabhängig, falls für jede mögliche Auswahl von Ereignissen Ai P Mi für alle i P I die Familie pAi qiPI von Ereignissen vollständig unabhängig ist, d.h. falls für jede nichtleere, endliche Teilmenge ti1 , ..., in u Ď I und jedes Ereignis Aik P Mik mit k “ 1, ..., n gilt P pAi1 X ... X Ain q “ PpAi1 q ¨ ... ¨ PpAin q . Anmerkungen 1.29. (1) Die Familie pMi qiPI ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist. (2) Die Unabhängigkeit bleibt bestehen, wenn man die Mengensysteme Mi verkleinert. 1.5 Zufallsvariable und Verteilung Definition 1.30. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und pΩ1 , F 1 q ein messbarer Raum. Dann wird die pF, F 1 q-messbare Abbildung X : Ω Ñ Ω1 Zufallsvariable bzw. zufälliges Element aus pΩ1 , F 1 q genannt. Man spricht von einer Zufallsvariable X von einem Wahrscheinlichkeitsraum pΩ, F, Pq in einen messbaren Raum pΩ1 , F 1 q und schreibt dafür X pΩ, F, Pq Ý Ñ pΩ1 , F 1 q oder X : pΩ, F, Pq Ñ pΩ1 , F 1 q. Anmerkung 1.31. Zufallsvariable dienen als mathematische Objekte zur Beschreibung bestimmter Eigenschaften der Ergebnisse eines Experimentes mit zufälligem Ausgang (Zufallsexperiment). Eine Zufallsvariable weist jedem möglichen Ergebnis eines Zufallsexperimentes einen gewissen Wert ω 1 P Ω1 zu. Der Wert ω 1 “ Xpωq der Zufallsvariable ist zum Beispiel das zahlenmäßige zufällige Versuchsergebnis oder eine zahlenmäßige Charakteristik des zufälligen Versuchsergebnisses. Definition 1.32. Sei X eine Zufallsvariable von einem Wahrscheinlichkeitsraum pΩ, F, Pq in einen messbaren Raum pΩ1 , F 1 q . Dann wird das durch X übertragene Wahrscheinlichkeitsmaß (Bildmaß) PX “ P ˝X ´1 Verteilungsgesetz bzw. kurz Verteilung von X genannt. Das Verteilungsgesetz PX ist ein Wahrscheinlichkeitsmaß auf dem messbaren Raum pΩ1 , F 1 q . Für B P F 1 gilt PX pBq “ PpX ´1 pBqq “ Pptω P Ω : Xpωq P Buq “: PpX P Bq. Beispiel 1.33 (und Definition). Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und X : Ω Ñ Ω mit Xpωq “ ω 10 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 die identische Abbildung. Es ist also pΩ1 , F 1 q “ pΩ, Fq und PX “ P . In diesem Fall nennt man die Zufallsvariable X unmittelbar gegeben. Behauptung 1.34. Für jedes Wahrscheinlichkeitsmaß P auf einem messbaren Raum pΩ, Fq gibt es eine Zufallsvariable mit Werten in pΩ, Fq , für die P das Verteilungsgesetz ist. Anmerkung 1.35. Oft wird für eine Zufallsvariable X von einem Wahrscheinlichkeitsraum pΩ, F, Pq in einen messbaren Raum pΩ1 , F 1 q nur das Verteilungsgesetz PX angegeben ohne den ursprünglichen Wahrscheinlichkeitsraum pΩ, F, Pq und insbesondere das Wahrscheinlichkeitsmaß P näher zu beschreiben. Man spricht dann von einem hypothetischen Wahrscheinlichkeitsraum pΩ, F, Pq. Die Existenz eines solchen Wahrscheinlichkeitsraumes ist durch eine unmittelbar gegebene Zufallsvariable stets gesichert. 1.6 Zufallsgrößen Definition 1.36. Eine Zufallsvariable X von einem Wahrscheinlichkeitsraum pΩ, F, Pq in den messbaren Raum pR, Bq wird Zufallsgröße oder reelle Zufallsvariable, reellwertige Zufallsvariable bzw. zufällige reelle Zahl genannt. Das Verteilungsgesetz PX von X ist ein Wahrscheinlichkeitsmaß auf pR, Bq und somit pR, B, PX q ein Wahrscheinlichkeitsraum. Definition 1.37. Sei X eine Zufallsgröße. Dann heißt die Funktion FX : R Ñ r0, 1s mit FX pxq :“ PX pp´8, xqq “ Pptω P Ω : Xpωq ă xuq für x P R Verteilungsfunktion der Zufallsgröße X bzw. des Verteilungsgesetzes PX . Anmerkungen 1.38. (1) An Stelle von Pptω P Ω : Xpωq ă xuq ist die Kurzschreibweise PpX ă xq gebräuchlich, also FX pxq “ PpX ă xq , analog auch für Wahrscheinlichkeiten für andere zufällige Ereignisse im Zusammenhang mit einer Zufallsgröße X . (2) Mit Hilfe der Verteilungsfunktion lässt sich die Wahrscheinlichkeit typischer Ereignisse einfach berechnen PpX ă bq “ FX pbq für b P R, PpX ě aq “ 1 ´ FX paq für a P R, Ppa ď X ă bq “ FX pbq ´ FX paq für a, b P R, a ă b. (3) Neben der oben gegebenen Definition der Verteilungsfunktion einer Zufallsgröße ist eine weitere Variante (mit geringfügig anderen Eigenschaften) verbreitet: FrX pxq “ P pX ď xq , x P R. 11 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 1.39. Die Verteilungsfunktion FX einer Zufallsgröße X hat folgende Eigenschaften (V1) FX ist monoton wachsend, (V2) FX ist linksseitig stetig, (V3) (V4) lim FX pxq “ 0 und xÑ´8 lim FX pxq “ 1 . xÑ`8 Satz 1.40. Sei X eine Zufallsgröße. Dann ist eine messbare Funktion f : R Ñ R genau dann PX -integrierbar, wenn f ˝ X P-integrierbar ist. In diesem Fall gilt ż ż f pxq PX pdxq “ f pXpωqq Ppdωq . R Ω Definition 1.41. Eine Zufallsgröße X heißt diskret, falls ihr Wertebereich WX Ď R höchstens abzählbar ist. Anmerkung 1.41. Ist eine Zufallsgröße X nur durch ihr Verteilungsgesetz (z.B. ihre Verteilungsfunktion) gegeben, nennt man sie oft diskret, wenn eine höchstens abzählbare Menge WX mit der Eigenschaft P pX P WX q “ 1 existiert. Satz 1.42 (und Definition). Das Verteilungsgesetz PX einer diskreten Zufallsgröße X ist eindeutig durch die möglichen Werte txk , : k P I Ď Nu “ WX und die (zugehörigen) Einzelwahrscheinlichkeiten pk :“ Pptω P Ω : Xpωq “ xk uq “: PpX “ xk q , bestimmt. Es gilt ÿ pk “ 1 und PX “ k PI ÿ kPI, pk δxk . k PI Die Verteilungsfunktion FX ist eine stückweise konstante Funktion mit den Sprungstellen xk und den Sprunghöhen pk , k P I . Sie hat die Darstellung ÿ FX pxq “ pk Ipxk ,8q pxq , x P R . k PI 12 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 1.43 ((Einmaliges Würfeln)). Die diskrete Zufallsgröße X beschreibe als unmittelbar gegebene Zufallsgröße das Ergebnis beim einmaligen Würfeln mit einem fairen Würfel. WX “ t1, 2, 3, 4, 5, 6u , 1 xk “ k , pk “ , k “ 1, . . . , 6 , 6 6 1ÿ δk , PX “ 6 k“1 FX pxq “ 6 1ÿ Ipk,8q pxq , 6 k“1 x P R. Beispiel 1.43 ((Fortsetzung)). Grafische Darstellung der Verteilungsfunktion FX pxq F X HxL 1 5 6 4 6 3 6 2 6 1 6 1 2 3 4 5 6 x Satz 1.44. Sei X eine diskrete Zufallsgröße. Dann ist eine Funktion f : R Ñ R genau dann PX -integrierbar, wenn f ˝ X P-integrierbar ist. In diesem Fall gilt ż ż ÿ f pXpωqq Ppdωq “ f pxq PX pdxq “ f pxk q pk . Ω k PI R Definition 1.45. Das Verteilungsgesetz PX einer Zufallsgröße X sei absolut stetig bezüglich des Lebesgue-Borel-Maßes λ auf dem messbaren Raum pR, Bq pPX Î λq . Dann wird die Zufallgröße X (absolut) stetig genannt. Jede nichtnegative, messbare Funktion d PX pxq , fX : R Ñ r0, 8s mit fX pxq “ dλ die Radon-Nikodym-Ableitung von PX bezüglich λ , wird Verteilungsdichte oder auch Dichtefunktion bzw. kurz Dichte der Zufallsgröße X bzw. des Verteilungsgesetzes PX genannt. 13 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkungen 1.46. (1) Die Dichtefunktion fX einer stetigen Zufallsgröße X ist nur λ-fast überall eindeutig bestimmt. (2) Sei f : R Ñ r0, 8s eine nichtnegative, messbare Funktion mit ż8 ż f pxq λpdxq “ R f pxq dx “ 1 . ´8 Dann ist f λ ein Wahrscheinlichkeitsmaß auf pR, Bq und für die unmittelbar gegebene Zufallsgröße X gilt PX “ f λ , d.h. X ist eine stetige Zufallsgröße mit der Dichtefunktion fX “ f . Satz 1.47. Für eine stetige Zufallsgröße X mit der Dichtefunktion fX gilt (1) ż fX pxq dx für B P B ; PX pBq “ B (2) żx FX pxq “ fX ptq dt für x P R ; ´8 (3) PpX “ xq “ 0 für alle x P R ; (4) fX “ FX1 λ-fast überall, falls FX stetig differenzierbar ist. Folgerung 1.48. Für eine stetige Zufallsgröße X mit der Dichtefunktion fX gilt ż8 ż fX pxq λpdxq “ R fX pxq dx “ 1 , ´8 żb PpX ă bq “ PpX ď bq “ FX pbq “ fX pxq dx für b P R , ´8 ż8 PpX ě aq “ PpX ą aq “ 1 ´ FX paq “ fX pxq dx für a P R , a Ppa ď X ă bq “ Ppa ă X ă bq “ Ppa ă X ď bq “ Ppa ď X ď bq żb “ FX pbq ´ FX paq “ fX pxq dx für a, b P R , a ă b . a 14 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 1.49. Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX pxq “ 1 Ira,bs pxq für b´a Dann ist $ ’ & 0 FX pxq “ ’ % ´ 8 ă a ă b ă 8. für x ď a , x´a b´a für a ă x ď b , 1 für x ą b . Beispiel 1.49 ((Fortsetzung)). Grafische Darstellung der Dichtefunktion fX pxq und der Verteilungsfunktion FX pxq fX HxL FX HxL 1 0.75 0.5 1 b-a 0.25 a b x a b x Satz 1.50. Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX und g : R Ñ R eine PX -integrierbare Funktion. Dann ist fX ¨ g λ-integrierbar, und es gilt gpxq PX pdxq “ R 1.7 ż8 ż ż gpxq fX pxq λpdxq “ R gpxq fX pxq dx. ´8 Zufallsvektoren Definition 1.51. Eine Zufallsvariable X von einem Wahrscheinlichkeitsraum pΩ, F, Pq in den messbaren Raum pRd , Bd q mit d P N wird Zufallsvektor bzw. zufälliger, reeller Vektor genannt. Das Verteilungsgesetz PX von X ist ein Wahrscheinlichkeitsmaß auf pRd , Bd q und somit pRd , Bd , PX q ein Wahrscheinlichkeitsraum. Anmerkung 1.52 (und Definitionen). Ein Zufallsvektor X kann auch als d-Tupel von Zufallsgrößen Xi , i “ 1, . . . , d , aufgefasst werden X “ pX1 , . . . , Xd qT . Für das Verteilungsgesetz PX des Zufallsvektors X verwendet man auch die Schreibweisen PX “ PX1 ,...,Xd “ PpX1 ,...,Xd q 15 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 und nennt PX1 ,...,Xd die gemeinsame Verteilung der Zufallsgrößen X1 , . . . , Xd . Die Verteilungsgesetze PXk der einzelnen Zufallsgrößen Xk , k “ 1, . . . , d , werden (eindimensionale) Randverteilungen genannt. Definition 1.53. Sei X ein Zufallsvektor. Dann heißt die Funktion FX : Rd Ñ r0, 1s mit ˜ FX p~xq “ FX1 ,...,Xd px1 , . . . , xd q :“ PX ¸ d ą p´8, xi q “ i“1 “ Pptω P Ω : X1 pωq ă x1 , . . . , Xd pωq ă xd uq “ “ PpX1 ă x1 , . . . , Xd ă xd q für ~x “ px1 , . . . , xd qT P Rd Verteilungsfunktion des Zufallsvektors X bzw. gemeinsame Verteilungsfunktion oder auch Verbundverteilungsfunktion der Zufallsgrößen X1 , . . . , Xd . Anmerkungen 1.54. Sei X ein Zufallsvektor. (1) Dann gilt für die Randverteilung PXk , k “ 1, . . . , d , PXk pBq “ PX1 ,...,Xd pR ˆ . . . ˆ R ˆ B ˆ R ˆ . . . ˆ Rq ` ˘ “ PX1 ,...,Xd Rk´1 ˆ B ˆ Rd´k für B P B . (2) Für die Verteilungsfunktion FXk der k-ten Randverteilung PXk , k “ 1, . . . , d , gilt ` ˘ FXk pxq “ PX1 ,...,Xd Rk´1 ˆ p´8, xq ˆ Rd´k “ lim FX1 ,...,Xd py, . . . , y, x, y, . . . , yq für x P R . yÑ8 Anmerkungen 1.54 ((Fortsetzung)). (3) Sei X “ pX1 , X2 qT ein zweidimensionaler Zufallsvektor und ´8 ă ai ă bi ă 8 , i “ 1, 2 . Dann gilt Ppa1 ď X1 ă b1 , a2 ď X2 ă b2 q “ PX1 ,X2 pra1 , b1 q ˆ ra2 , b2 qq “ PX pra1 , b1 q ˆ ra2 , b2 qq “ PX pp´8, b1 q ˆ p´8, b2 qq ´ PX pp´8, a1 q ˆ p´8, b2 qq ´ PX pp´8, b1 q ˆ p´8, a2 qq ` PX pp´8, a1 q ˆ p´8, a2 qq “ FX pb1 , b2 q ´ FX pa1 , b2 q ´ FX pb1 , a2 q ` FX pa1 , a2 q . 16 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 1.55. Sei X ein Zufallsvektor. Dann ist eine messbare Funktion f : Rd Ñ R genau dann PX -integrierbar, wenn f ˝ X P-integrierbar ist. In diesem Fall gilt ż ż f p~xq PX pd~xq “ f pXpωqq Ppdωq . Ω Rd Definition 1.56. Das Verteilungsgesetz PX des Zufallsvektors X sei absolut stetig bezüglich des Lebesgue-Borel-Maßes λd auf dem messbaren Raum pRd , Bd q pPX Î λd q . Dann wird der Zufallsvektor X (absolut) stetig genannt. Jede nichtnegative, messbare Funktion d PX p~xq , fX : Rd Ñ r0, 8s mit fX p~xq “ d λd die Radon-Nikodym-Ableitung von PX bezüglich λd , wird Verteilungsdichte oder auch Dichtefunktion bzw. kurz Dichte des Zufallsvektors X bzw. des Verteilungsgesetzes PX genannt. Anmerkungen 1.57. (1) Die Dichtefunktion fX eines stetigen Zufallsvektors ist nur λd -fast überall eindeutig bestimmt. (2) Sei f : Rd Ñ r0, 8s eine nichtnegative, messbare Funktion mit ż ż8 ż8 f p~xq λd pd~xq “ ... f px1 , . . . , xd q dx1 . . . dxd “ 1 . Rd ´8 ´8 Dann ist f λd ein Wahrscheinlichkeitsmaß auf pRd , Bd q und für den unmittelbar gegebenen Zufallsvektor X gilt PX “ f λd , d.h. X ist ein stetiger Zufallsvektor mit der Dichtefunktion fX “ f . Satz 1.58. Für einen stetigen Zufallsvektor X mit der Dichtefunktion fX gilt (1) ż PX pBq “ PpX P Bq “ fX p~xq d~x “ B ż “ ż ¨¨¨ fX px1 , . . . , xd q dx1 . . . dxd für B P Bd B (2) FX p~xq “ FX1 ,...,Xd px1 , . . . , xd q “ żx1 żxd “ ... fX pt1 , . . . , td q dtd . . . dt1 , ´8 ´8 17 ~x “ px1 , . . . , xd qT P Rd TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 1.58 ((Fortsetzung)). (3) Es gilt PX pBq “ 0 für niederdimensionalen Mengen B P Bd , dimpBq P t0, . . . , d ´ 1u , insbesondere PpX “ ~xq “ 0 für alle ~x P Rd . Folgerung 1.59. Sei X “ pX1 , X2 qT ein zweidimensionaler, stetiger Zufallsvektor mit der Dichtefunktion fX und ´8 ă ai ă bi ă 8 , i “ 1, 2 . Dann gilt Ppa1 ă X1 ă b1 , a2 ă X2 ă b2 q “ Ppa1 ď X1 ă b1 , a2 ă X2 ă b2 q .. . “ Ppa1 ď X1 ď b1 , a2 ď X2 ď b2 q “FX pb1 , b2 q ´ FX pa1 , b2 q ´ FX pb1 , a2 q ` FX pa1 , a2 q żb1 żb2 “ fX px1 , x2 q dx2 dx1 . a1 a2 Anmerkungen 1.60. Sei X ein stetiger Zufallsvektor mit der Dichtefunktion fX . (1) Dann gilt für die Randverteilung PXk , k “ 1, . . . , d , und B P B ` ˘ PXk pBq “ PX1 ,...,Xd Rk´1 ˆ B ˆ Rd´k “ ż ż ż “ . . . fX px1 , . . . , xd q dx1 . . . dxk´1 dxk`1 . . . dxd dxk . B R R (2) Die Komponenten Xk des Zufallsvektors X sind stetige Zufallsgrößen und für die Verteilungsdichte fXk der k-ten Randverteilung PXk , k “ 1, . . . , d , gilt ż ż fXk pxk q “ . . . fX px1 , . . . , xd q dx1 . . . dxk´1 dxk`1 . . . dxd R für xk P R R λ-fast überall. Anmerkungen 1.60 ((Fortsetzung)). (3) Die Umkehrung von (2) gilt nicht. Es gibt z.B. stetige Zufallsgrößen X1 , X2 , so dass pX1 , X2 qT kein stetiger Zufallsvektor ist. Satz 1.61. Sei X ein stetiger Zufallsvektor mit der Dichtefunktion fX und g : Rd Ñ R eine PX -integrierbare Funktion. Dann ist fX ¨ g λd -integrierbar, und es gilt ż ż gp~xq PX pd~xq “ gp~xq fX p~xq λd pd~xq “ Rd Rd ż8 ż8 ... “ ´8 gpx1 , . . . , xd q fX px1 , . . . , xd q dx1 . . . dxd . ´8 18 TU Bergakademie Freiberg 1.8 Wahrscheinlichkeitstheorie Sommersemester 2017 Unabhängigkeit von Zufallsvariablen Definitionen 1.62. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige Indexmenge. Für i P I sei pΩ1i , Fi1 q ein messbarer Raum und Xi eine Zufallsvariable X i pΩ, F, Pq ÝÑ pΩ1i , Fi1 q , iPI. • Dann heißt die Familie `pXi qiPI von ˘ Zufallsvariablen unabhängig, falls die Familie von Urbild-σ-Algebren Xi´1 pFi1 q iPI unabhängig ist. • Ist I “ t1, . . . , nu so spricht man direkt von unabhängigen Zufallsvariablen X1 , . . . , X n . • Für I “ N spricht man von einer unabhängigen Folge pXi qiPN von Zufallsvariablen. Anmerkung 1.63. (1) Eine Familie von Zufallsvariablen ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist. (2) Es genügt daher, Bedingungen für die Unabhängigkeit von Zufallsvariablen X1 , . . . , Xn zu finden. Sind diese für jede endliche Teilfamilie einer Familie von Zufallsvariablen erfüllt, so ist die gesamte Familie unabhängig. Satz 1.64. Seien Xi Zufallsvariable von demselben Wahrscheinlichkeitsraum pΩ, F, Pq in den messbaren Raum pΩ1i , Fi1 q X i pΩ1i , Fi1 q, pΩ, F, Pq ÝÑ i “ 1, . . . , n . Die Zufallsvariablen X1 , . . . , Xn sind genau dann unabhängig, wenn PX1 ,...,Xn “ n â PXi . i“1 Folgerung 1.65. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige Indexmenge. Für i P I sei pΩ1i , Fi1 q ein messbarer Raum und Xi eine Zufallsvariable X i pΩ, F, Pq ÝÑ pΩ1i , Fi1 q . Die Familie pXi qiPI von Zufallsvariablen ist genau dann unabhängig, wenn für jede nichtleere, endliche Teilmenge In “ ti1 , . . . , in u Ď I gilt PXi1 ,...,Xin “ n â j“1 19 PXij . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 1.66. Seien Xi Zufallsgrößen auf demselben Wahrscheinlichkeitsraum pΩ, F, Pq X i pΩ, F, Pq ÝÑ pR, Bq , i “ 1, . . . , n . Die Zufallsgrößen X1 , . . . , Xn sind genau dann unabhängig, wenn für alle px1 , . . . , xn q P Rn gilt n ź FX1 ,...,Xn px1 , . . . , xn q “ FXi pxi q . i“1 Folgerung 1.67. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige Indexmenge. Für i P I sei Xi eine Zufallsgröße X i pΩ, F, Pq ÝÑ pR, Bq . Die Familie pXi qiPI von Zufallsgrößen ist genau dann unabhängig, wenn für jede nichtleere, endliche Teilmenge In “ ti1 , . . . , in u Ď I und alle px1 , . . . , xn q P Rn gilt FXi1 ,...,Xin px1 , . . . , xn q “ n ź FXij pxj q . j“1 Satz 1.68. Seien Xi stetige Zufallsgrößen auf demselben Wahrscheinlichkeitsraum pΩ, F, Pq mit den Dichtefunktionen fXi X i pR, Bq , pΩ, F, Pq ÝÑ i “ 1, . . . , n . Die Zufallsgrößen X1 , . . . , Xn sind genau dann unabhängig, wenn für die gemeinsame Dichtefunktion fX1 ,...,Xn für λn -fast alle px1 , . . . , xn q P Rn gilt fX1 ,...,Xn px1 , . . . , xn q “ n ź fXi pxi q . i“1 Folgerung 1.69. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige Indexmenge. Für i P I sei Xi eine stetige Zufallsgröße X i pΩ, F, Pq ÝÑ pR, Bq . Die Familie pXi qiPI von Zufallsgrößen ist genau dann unabhängig, wenn für jede nichtleere, endliche Teilmenge In “ ti1 , . . . , in u Ď I und λn -fast alle px1 , . . . , xn q P Rn gilt fXi1 ,...,Xin px1 , . . . , xn q “ n ź j“1 20 fXij pxj q . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 1.70. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, I ‰ ∅ eine beliebige Indexmenge und pXi qiPI eine unabhängige Familie von Zufallsvariablen X i pΩ, F, Pq ÝÑ pΩ1i , Fi1 q , iPI. Für i P I sei pΩ2i , Fi2 q ein messbarer Raum und Yi eine Zufallsvariable Y i pΩ1i , Fi1 , PXi q Ý Ñ pΩ2i , Fi2 q . Dann ist pYi ˝ Xi qiPI eine unabhängige Familie von Zufallsvariablen Y ˝X i i pΩ, F, Pq ÝÝ ÝÑ pΩ2i , Fi2 q , 1.9 iPI. Symmetrie Definition 1.71. Die Zufallsgröße X bzw. deren Verteilungsgesetz PX heißt symmetrisch, falls X und ´X dieselbe Verteilung besitzen, d.h. PX “ P´X . Die Zufallsgröße X bzw. deren Verteilungsgesetz PX heißt symmetrisch bezüglich des Symmetriezentrums c P R bzw. kurz symmetrisch bezüglich c P R , falls X ´ c symmetrisch ist. Satz 1.72. Sei X eine stetige Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann sind die folgenden Aussagen äquivalent (1) Die Verteilung von X ist symmetrisch. (2) Für die Verteilungsfunktion FX von X gilt FX p´xq “ 1 ´ FX pxq für alle x P R . (3) Für die Verteilungsdichte fX von X gilt fX p´xq “ fX pxq λ-fast überall . Beispiel 1.73. Die stetige Zufallsgröße X besitze die Verteilungsdichte fX pxq “ 1 1 . π 1 ` x2 Offensichtlich ist die Verteilung von X symmetrisch. 21 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Aufgabe 1.74. (1) Zeigen Sie, dass eine stetige Zufallsgröße X genau dann symmetrisch bezüglich c P R ist, wenn für die Verteilungsfunktion FX von X gilt FX pc ´ xq “ 1 ´ FX pc ` xq für alle x P R . (2) Zeigen Sie, dass eine stetige Zufallsgröße X genau dann symmetrisch bezüglich c P R ist, wenn für die Verteilungsdichte fX von X gilt fX pc ´ xq “ fX pc ` xq λ-fast überall . 2 2.1 Kenngrößen für Zufallsgrößen Erwartungswert Definition 2.1. Sei X eine Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Falls X bezüglich P integrierbar ist, d.h. ż |Xpωq| Ppdωq ă 8 Ω so sagt man, dass der Erwartungswert der Zufallsgröße X existiert und nennt die Größe ż ż E pXq :“ Xpωq Ppdωq “ X d P Ω Ω den Erwartungswert der Zufallsgröße X. (Bem. Obige Bedingung wird auch durch E p|X|q ă 8 ausgedrückt.) Satz 2.2. Der Erwartungswert der Zufallsgröße X existiert genau dann, wenn ż |x| PX pdxq ă 8. R Existiert der Erwartungswert E pXq, so gilt ż ż E pXq “ Xpωq Ppdωq “ x PX pdxq. Ω R Satz 2.3. Der Erwartungswert der diskreten Zufallsgröße X mit dem Wertebereich WX “ txk ukPIĎN und den Einzelwahrscheinlichkeiten tpk ukPI existiert genau dann, wenn ÿ |xk | pk ă 8. k PI Existiert der Erwartungswert E pXq, so gilt E pXq “ ÿ k PI 22 xk p k . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 2.4 ((Einmaliges Würfeln)). Für die diskrete Zufallsgröße X aus Beispiel 1.43 mit xk “ k, 1 pk “ , 6 k “ 1, . . . , 6, gilt E pXq “ 6 ÿ k k“1 1 7 “ “ 3.5 6 2 Satz 2.5. Der Erwartungswert der stetigen Zufallsgröße X mit der Dichtefunktion fX existiert genau dann, wenn ż |x| fX pxq dx ă 8. R Existiert der Erwartungswert E pXq, so gilt ż E pXq “ x fX pxq dx. R Beispiel 2.6. Für die stetige Zufallsgröße X aus Beispiel 1.49 mit der Dichtefunktion fX pxq “ 1 Ira,bs pxq für b´a ´8ăaăbă8 gilt ż E pXq “ 1 x fX pxq dx “ b´a żb x dx “ a`b . 2 a R Beispiel 2.7. Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX pxq “ λe´λx Ir0,8q pxq für λ ą 0. Dann ist ż8 ż E pXq “ x λe´λx dx “ x fX pxq dx “ 1 . λ 0 R Beispiel 2.8 ((Gegenbeispiel)). Die symmetrische, stetige Zufallsgröße X aus Beispiel 1.73 besitzt die Dichtefunktion 1 1 fX pxq “ . π 1 ` x2 Der Erwartungswert E pXq existiert in diesem Fall nicht. Anmerkung 2.9 ((Geometrische Interpretation des Erwartungswertes einer stetigen Zufallsgröße)). Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX . Dann ist E pXq P R gerade die x-Koordinate des Schwerpunktes der Fläche zwischen der x-Achse und dem Graph der Funktion fX ě 0. 23 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkung 2.10 ((Bedeutung des Erwartungswertes)). • wichtigste Kenngröße einer Zufallsgröße • wichtigster Lageparameter einer Zufallsgröße • durchschnittlicher Wert, Mittelwert einer Zufallsgröße • Zentrum, Schwerpunkt der Verteilung einer Zufallsgröße • Grundlage zur Definition weiterer Kenngrößen Definition 2.11. Es sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und E eine Eigenschaft, so dass für alle Elementarereignisse ω P Ω definiert ist, ob ω diese Eigenschaft besitzt oder nicht. Dann sagt man, die Eigenschaft E gilt P-fast sicher (abgekürzt P-f.s.) auf Ω bzw. P-fast sicher alle ω P Ω besitzen die Eigenschaft E, falls es ein Ereignis N P F mit PpN q “ 0 gibt, so dass tω P Ω : ω besitzt Eigenschaft E nichtu Ď N. Ein Ereignis A P F tritt P-fast sicher ein bzw. ist P-fast sicher, wenn PpAc q “ 0 bzw. PpAq “ 1. Definition 2.12. Sei X eine Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann spricht man von einer nichtnegativen Zufallsgröße X, wenn X ě 0 P-fast sicher. Aufgabe 2.13. (1) Zeigen Sie, dass eine Zufallsgröße X genau dann nichtnegativ ist, wenn FX pxq “ 0 für alle x ď 0. (2) Zeigen Sie, dass eine stetige Zufallsgröße X mit der Dichtefunktion fX genau dann nichtnegativ ist, wenn fX Ip´8,0q “ 0 λ-fast überall. Satz 2.14. (1) Sei X eine Zufallsgröße, deren Erwartungswert existiert. Dann gilt | E pXq | ď E p|X|q . (2) Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren Erwartungswert existiert, und es gelte X ď Y P-fast sicher. Dann gilt E pXq ď E pY q . 24 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (3) Seien X1 , . . . , Xn Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren Erwartungswert existiert, sowie ci P R, i “ 1, . . . , n reelle Zahlen. Dann existiert auch E pc1 X1 ` . . . ` cn Xn q, und es gilt ˜ ¸ n n ÿ ÿ E ci X i “ ci E pXi q . i“1 i“1 Satz 2.15. (1) Für c P R sei X “ c P-fast sicher, d.h. X ist eine P-fast sicher konstante Zufallsgröße. Dann existiert E pXq, und es gilt E pXq “ c. (2) Sei A P F. Dann existiert der Erwartungswert der Zufallsgröße X “ IA , und es gilt E pXq “ PpAq. (3) Sei X eine Zufallsgröße, und es gelte ´8 ă a ď X ď b ă 8 P-fast sicher. Dann existiert E pXq, und es gilt a ď E pXq ď b. (4) Sei X eine nichtnegative Zufallsgröße, deren Erwartungswert existiert. Dann gilt E pXq “ 0 genau dann, wenn X “ 0 P-fast sicher. Satz 2.16. Sei X eine nichtnegative Zufallsgröße, deren Erwartungswert existiert. Dann gilt ż8 E pXq “ p1 ´ FX pxqq dx. 0 Beispiel 2.17. Die Zufallsgröße X aus Beispiel 2.7 ist nichtnegativ und besitzt die Verteilungsfunktion ` ˘ FX pxq “ 1 ´ e´λx Ip0,8q pxq für λ ą 0. Man kann ihren Erwartungswert also auch gemäß ż8 ż8 1 E pXq “ p1 ´ FX pxqq dx “ e´λx dx “ λ 0 0 berechnen. Satz 2.18 ((Multiplikationssatz)). Seien X1 , . . . , Xn unabhängige Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren Erwartungswert existiert. Dann existiert auch E pX1 ¨ . . . ¨ Xn q, und es gilt ˜ ¸ n n ź ź E Xi “ E pXi q . i“1 i“1 25 TU Bergakademie Freiberg 2.2 Wahrscheinlichkeitstheorie Sommersemester 2017 Momente Definition 2.19. Sei X eine Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Falls ż |Xpωq|p Ppdωq ă 8 für p P N, Ω so sagt man, dass das p-te Moment der Zufallsgröße X existiert und nennt die Größe ż ż p µp :“ µp pXq :“ X pωq Ppdωq “ X p d P . Ω Ω das (gewöhnliche) Moment der Ordnung p bzw. das p-te (gewöhnliche) Moment der Zufallsgröße X. Für p “ 1 schreibt man kurz µ :“ µpXq :“ µ1 pXq. Anmerkung 2.20. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann existiert der Erwartungswert der Zufallsgröße Y “ X p , und es gilt E pY q “ E pX p q “ µp pXq. Für p “ 1 gilt insbesondere E pXq “ µpXq. Folglich kann man einerseits den Erwartungswert der Zufallsgröße als spezielles Moment und andererseits die Momente als Erwartungswerte spezieller Funktionen von der Zufallsgröße auffassen. Satz 2.21. Das p-te Moment der Zufallsgröße X existiert genau dann, wenn ż |x|p PX pdxq ă 8 für p P N. R Existiert das p-te Moment µp pXq, so gilt ż ż p p µp pXq “ E pX q “ X pωq Ppdωq “ xp PX pdxq. Ω R Satz 2.22. Das p-te Moment der diskreten Zufallsgröße X mit dem Wertebereich WX “ txk uk PIĎN und ÿ |xk |p pk ă 8 für p P N. k PI Existiert das p-te Moment µp pXq, so gilt µp pXq “ ÿ k PI 26 xpk pk . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 2.23 ((Einmaliges Würfeln)). Für die diskrete Zufallsgröße X aus Beispiel 1.43 mit 1 xk “ k, pk “ , k “ 1, . . . , 6, 6 gilt 6 ÿ 1 1 µp pXq “ E pX p q “ k p “ p1 ` 2p ` 3p ` 4p ` 5p ` 6p q . 6 6 k“1 Für p “ 2 ergibt sich ` µ2 pXq “ E X 2 ˘ 6 1 ÿ 2 91 “ k “ . 6 k“1 6 Satz 2.24. Das p-te Moment der stetigen Zufallsgröße X mit der Dichtefunktion fX existiert genau dann, wenn ż |x|p fX pxq dx ă 8 für p P N. R Existiert das p-te Moment µp pXq, so gilt ż xp fX pxq dx. µp pXq “ R Beispiel 2.25. Für die stetige Zufallsgröße X mit der Dichtefunktion fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0 gilt µp pXq “ p! λp für p P N. Satz 2.26. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p “ 2, 3, . . . , existiert. (1) Dann existieren auch alle Momente µq pXq, q “ 1, . . . , p ´ 1, niedrigerer Ordnung und somit insbesondere E pXq. (2) Dann gilt ż |X ´ c|p d P ă 8 für alle c P R. Ω Definition 2.27. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann heißt ż νp :“ νp pXq :“ pX ´ E pXqqp d P für p P N Ω das zentrale Moment der Ordnung p bzw. das p-te zentrale Moment der Zufallsgröße X. 27 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkung 2.28 (und Definition). Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann existiert das p-te Moment der zentrierten Zufallsgröße Y “ X ´E pXq, und es gilt µp pY q “ νp pXq “ E ppX ´ E pXqqp q . Das p-te zentrale Moment νp pXq der Zufallsgröße X ist also gerade das (gewöhnliche) pte Moment der zentrierten Zufallsgröße X ´ E pXq und kann zugleich als Erwartungswert spezieller Funktionen von der Zufallsgröße aufgefasst werden. Satz 2.29. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann existiert für a, b P R auch νp paX ` bq, und es gilt νp paX ` bq “ ap νp pXq. Folgerung 2.30 (und Definition). Zentrale Momente einer Zufallsgröße sind invariant gegenüber Verschiebungen (translationsinvariant). Satz 2.31. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann gilt für p “ 2, 3, 4 ν2 “ µ2 ´ µ21 , ν3 “ µ3 ´ 3µ2 µ1 ` 2µ31 , ν4 “ µ4 ´ 4µ3 µ1 ` 6µ2 µ21 ´ 3µ41 , und allgemein νp “ µ p ` p´1 ÿˆ q“2 ˙ p µq p´µqp´q ` p´1qp´1 pp ´ 1qµp q für p P N. Satz 2.32. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann gilt für p “ 2, 3, 4 µ2 “ ν2 ` µ21 , µ3 “ ν3 ` 3ν2 µ1 ` µ31 , µ4 “ ν4 ` 4ν3 µ1 ` 6ν2 µ21 ` µ41 , und allgemein µ p “ νp ` p´1 ÿˆ q“2 ˙ p νq µp´q ` µp q für p P N. Beispiel 2.33. Für die Zufallsgröße X mit der Dichtefunktion fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0 gilt ν2 pXq “ 1 , λ2 ν3 pXq “ 28 2 , λ3 ν4 pXq “ 9 . λ4 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 2.34. Sei X eine symmetrische Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann gilt (1) µp pXq “ 0, falls p ungerade; (2) νp pXq “ µp pXq. Anmerkungen 2.35. • Neben den gewöhnlichen und zentralen Momenten spielen auch absolute Momente E p|X|p q bzw. absolute zentrale Momente E p|X ´ E pXq |p q eine Rolle, zum Teil auch nicht nur für Werte p P N . • Für eine nichtnegative Zufallsgröße X mit existierendem p-ten Moment (p ě 1) gilt ż8 p µp pXq “ E pX q “ p PpX ě tqtp´1 dt . 0 2.3 Variabilitätskenngrößen Definition 2.36. Sei X eine Zufallsgröße, deren zweites Moment existiert. Das zweite zentrale Moment ν2 pXq der Zufallsgröße X wird Varianz der Zufallsgröße X genannt und man schreibt dafür ` ˘ σ 2 :“ σ 2 pXq :“ Var pXq :“ ν2 pXq “ E pX ´ E pXqq2 ě 0. Anmerkung 2.37 ((Bedeutung der Varianz)). • mittlere quadratische Abweichung einer Zufallsgröße von ihrem Erwartungswert • Je größer die Varianz, desto weiter sind die Werte der Zufallsgröße X um E pXq herum verteilt. • Je kleiner die Varianz, desto stärker konzentriert sich die Verteilung um den Erwartungswert herum. • beschreibt die Variabilität, das Streuverhalten einer Zufallsgröße • wichtigste Variabilitätskenngröße, wichtigster Streuungsparameter Beispiel 2.38. Für die stetige Zufallsgröße X aus Beispiel 2.6 mit der Dichtefunktion fX pxq “ 1 Ira,bs pxq für b´a ´8ăaăbă8 gilt ż ˆ Var pXq “ a`b x´ 2 ˙2 R 29 fX pxq dx “ pa ´ bq2 . 12 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 2.39. (1) Für c P R sei X “ c P-fast sicher. Dann existiert Var pXq, und es gilt Var pXq “ 0. (2) Sei X eine Zufallsgröße, deren zweites Moment existiert. Dann gilt ` ˘ Var pXq “ E X 2 ´ E pXq2 . Insbesondere folgt ` ˘ E pXq2 ď E X 2 . (3) Sei X eine Zufallsgröße, deren zweites Moment existiert. Dann gilt für a, b P R Var paX ` bq “ a2 Var pXq . Somit ist die Varianz eine translationsinvariante Kenngröße. Definition 2.40. (1) Sei X eine Zufallsgröße, deren zweites Moment existiert. Dann heißt b ` a ˘ σ :“ σpXq :“ sd pXq :“ Var pXq “ E pX ´ E pXqq2 ě 0 Standardabweichung der Zufallsgröße X. (2) Für eine Zufallsgröße X mit existierendem zweiten Moment und Var pXq ą 0 ist X̃ :“ X ´ E pXq sd pXq die Standardisierung von X. Anmerkungen 2.41. (1) Die Maßeinheit der Varianz einer Zufallsgröße X ist das Quadrat der Maßeinheit von X. Diese Maßeinheit ist häufig schwer oder nicht zu interpretieren. (2) Die Standardabweichung einer Zufallsgröße X hat hingegen dieselbe Maßeinheit wie X und ist deshalb einfacher zu interpretieren. (3) Die Standardabweichung einer Zufallsgröße ist eine translationsinvariante Kenngröße. (4) Für a, b P R gilt sd paX ` bq “ |a| sd pXq . (5) Für die Standardisierung X̃ von X gelten ´ ¯ ´ ¯ E X̃ “ 0 , Var X̃ “ 1 , 30 ´ ¯ sd X̃ “ 1 . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 2.42. Für die stetige Zufallsgröße X aus Beispiel 2.38 mit der Dichtefunktion fX pxq “ 1 Ira,bs pxq für b´a ´8ăaăbă8 gilt sd pXq “ b´a ? . 2 3 Definition 2.43. Sei X eine Zufallsgröße, deren zweites Moment existiert, und es gelte E pXq ‰ 0. Dann heißt sd pXq cv pXq :“ E pXq (Pearsonscher) Variationskoeffizient der Zufallsgröße X. Anmerkungen 2.44. (1) Der Variationskoeffizient ist eine dimensionslose Kenngröße. (2) Für a ą 0 gilt cv paXq “ cv pXq . Der Variationskoeffizient ist folglich eine skaleninvariante Kenngröße. (3) Teilweise wird der Variationskoeffizient nur für nichtnegative Zufallsgrößen oder auch durch die Beziehung sd pXq ě0 cv pXq :“ |E pXq| definiert. Anmerkung 2.45 ((Bedeutung des Variationskoeffizienten)). • Als relative Kenngröße ist der Variationskoeffizient besonders zum Vergleich der Variabilität verschiedener Zufallsgrößen bzw. Verteilungen geeignet. Beispiel 2.46. Für die Zufallsgröße X mit der Dichtefunktion fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0 gilt (vgl. Beispiele 2.7 und 2.33) cv pXq ” 1 für alle λ ą 0. Der Variationskoeffizient ist folglich unabhängig vom Parameter λ ą 0. 31 TU Bergakademie Freiberg 2.4 Wahrscheinlichkeitstheorie Sommersemester 2017 Schiefe und Wölbung Definition 2.47. Sei X eine Zufallsgröße, deren drittes Moment existiert mit Var pXq ą 0. Dann heißt ν3 pXq ν3 pXq “ 3{2 γ pXq :“ 3 σ pXq ν2 pXq (Charliersche) Schiefe der Zufallsgröße X. Satz 2.48. Sei X eine Zufallsgröße, deren drittes Moment existiert mit Var pXq ą 0. (1) Dann existiert für a ‰ 0 und b P R auch γ paX ` bq, und es gilt γ paX ` bq “ sign paq γ pXq . (2) Ist X̃ die Standardisierung der Zufallsgröße X , dann gilt ´ ¯ γ pXq “ µ3 X̃ . Anmerkungen 2.49. (1) Die Schiefe ist eine dimensionslose Kenngröße. (2) Die Schiefe ist eine translationsinvariante Kenngröße. (3) Die Schiefe ist eine skaleninvariante Kenngröße. Anmerkung 2.50 ((Bedeutung der Schiefe)). • Die Schiefe beschreibt die Asymmetrie einer Verteilung. • Symmetrische Verteilungen haben die Schiefe 0. • Eine rechtsschiefe (auch: linkssteile) Verteilung hat eine positive Schiefe. • Hingegen ist die Schiefe einer linksschiefen (auch: rechtssteilen) Verteilung negativ. Beispiel 2.51. Für die Zufallsgröße X aus Beispiel 2.33 mit der Dichtefunktion fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0 gilt γ pXq ” 2 für alle λ ą 0. Die Schiefe ist somit unabhängig vom Parameter λ ą 0. 32 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Definition 2.52. Sei X eine Zufallsgröße, deren viertes Moment existiert mit Var pXq ą 0. Dann heißt ν4 pXq ν4 pXq κpXq :“ 4 “ 2 σ pXq ν2 pXq Wölbung oder Kurtosis der Zufallsgröße X. Die Größe εpXq :“ κpXq ´ 3 heißt Exzess der Zufallsgröße X. Satz 2.53. Sei X eine Zufallsgröße, deren viertes Moment existiert mit Var pXq ą 0. (1) Dann existiert für a ‰ 0 und b P R auch κ paX ` bq, und es gelten κ paX ` bq “ κ pXq und ε paX ` bq “ ε pXq . (2) Ist X̃ die Standardisierung der Zufallsgröße X , dann gilt ´ ¯ γ pXq “ µ4 X̃ . Anmerkungen 2.54. (1) Wölbung und Exzess sind dimensionslose, translationsinvariante und skaleninvariante Kenngrößen. (2) Der Exzess einer Zufallsgröße beschreibt die Abweichung der Wölbung im Vergleich zu einer Normalverteilung mit demselben Erwartungswert und derselben Varianz. So werden Dichtefunktionen unterteilt in • normalgipflig (εpXq “ 0); • steilgipflig (εpXq ą 0) bzw. • flachgipflig (εpXq ă 0). 2.5 Kovarianz und Korrelationskoeffizient Definition 2.55. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Dann heißt Cov pX, Y q :“ E ppX ´ E pXqqpY ´ E pY qqq Kovarianz der Zufallsgrößen X und Y . 33 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 2.56. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. (1) Offensichtlich ist Cov pX, Y q “ Cov pY, Xq . (2) Es gilt Cov pX, Y q “ E pXY q ´ E pXq E pY q . (3) Für a, b, c, d P R gilt Cov paX ` b, cY ` dq “ ac Cov pX, Y q . Insbesondere ist die Kovarianz eine translationsinvariante Kenngröße. (4) Speziell gilt Cov pX, Xq “ Var pXq . Satz 2.57. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. (1) Dann existiert auch Var pX ` Y q, und es gilt Var pX ` Y q “ Var pXq ` Var pY q ` 2 Cov pX, Y q . (2) Sind die Zufallsgrößen X und Y unabhängig, dann gilt Cov pX, Y q “ 0 und Var pX ` Y q “ Var pXq ` Var pY q . Aufgabe 2.58. Seien Xi und Yi , i “ 1, 2, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Zeigen Sie, dass dann gilt Cov pX1 ` X2 , Y1 ` Y2 q “ “ Cov pX1 , Y1 q ` Cov pX1 , Y2 q ` Cov pX2 , Y1 q ` Cov pX2 , Y2 q . Definitionen 2.59. • Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0. Dann heißt % :“ %pX, Y q :“ Corr pX, Y q :“ a Cov pX, Y q Cov pX, Y q “ sd pXq sd pY q Var pXq Var pY q – (Pearsonscher) Korrelationskoeffizient bzw. – (gewöhnlicher) Korrelationskoeffizient 34 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 der Zufallsgrößen X und Y . • Ist der Korrelationskoeffizient positiv (negativ), so nennt man die Zufallsgrößen X und Y positiv (negativ) korreliert. • Für Corr pX, Y q “ 0 heißen die Zufallsgrößen X und Y unkorreliert. Satz 2.60. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0. (1) Offensichtlich ist Corr pX, Y q “ Corr pY, Xq. (2) Für a ­“ 0, b, c ­“ 0, d P R gilt Corr paX ` b, cY ` dq “ sign pacq Corr pX, Y q . (3) Speziell gilt für a ­“ 0, b P R, dass Corr pX, aX ` bq “ sign paq. (4) Ist X̃ bzw. Ỹ die Standardisierung von X bzw. Y , dann gilt ´ ¯ Corr pX, Y q “ E X̃ ¨ Ỹ . Anmerkungen 2.61. (1) Die Maßeinheit der Kovarianz Cov pX, Y q zweier Zufallsgrößen X und Y ist das Produkt der Maßeinheiten von X und Y . Diese Maßeinheit ist häufig schwer oder nicht zu interpretieren. (2) Der Korrelationskoeffizient ist hingegen eine dimensionslose Kenngröße. (3) Der Korrelationskoeffizient ist eine translationsinvariante Kenngröße. (4) Der Korrelationskoeffizient ist eine skaleninvariante Kenngröße. Satz 2.62. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0. (1) Es gilt ´1 ď Corr pX, Y q ď 1. (2) Es gilt |Corr pX, Y q| “ 1 genau dann, wenn Konstanten a ‰ 0 und b P R existieren mit Y “ aX ` b P-f.s. Anmerkung 2.63 ((Bedeutung des Korrelationskoeffizienten)). • Der Korrelationskoeffizient ist ein Maß für die Stärke des linearen Zusammenhangs zwischen zwei Zufallsgrößen. 35 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 2.64. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0. Sind die Zufallsgrößen X und Y unabhängig, dann gilt Corr pX, Y q “ 0. Beispiel 2.65. Sei X eine diskrete Zufallsgröße mit dem Wertebereich WX “ t´1, 0, 1uund den Einzelwahrscheinlichkeiten 1 PpX “ ´1q “ PpX “ 0q “ PpX “ 1q “ . 3 Offensichtlich sind die Zufallsgrößen X und Y “ X 2 abhängig. Jedoch ist Corr pX, Y q “ 0. Definition 2.66. Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor und die Erwartungswerte E pXi q der einzelnen Komponenten Xi , i “ 1, . . . , d, mögen existieren. Dann versteht man unter dem Erwartungswert E pXq des Zufallsvektors X (auch: Erwartungswertvektor) den Vektor der Erwartungswerte pE pX1 q , . . . , E pXd qqT . Definition 2.67. Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor und die zweiten Momente der einzelnen Komponenten Xi , i “ 1, . . . , d, mögen existieren. Dann heißt die Matrix Σ “ pσi,j qdi,j“1 mit σi,j “ Cov pXi , Xj q , i, j “ 1, . . . , d, Kovarianzmatrix des Zufallsvektors X. Satz 2.68 (und Definition). Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor und die zweiten Momente der einzelnen Komponenten Xi , i “ 1, . . . , d, mögen existieren. Dann gilt (1) Die Kovarianzmatrix ist eine reelle symmetrische Matrix. (2) Die Kovarianzmatrix ist positiv semidefinit, d.h. ~xT Σ ~x ě 0 für alle ~x P Rd . Beispiel 2.69. Seien X1 und X2 Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Weiterhin sei σ12 “ Var pX1 q ą 0 und σ22 “ Var pX2 q ą 0 , sowie % “ Corr pX1 , X2 q . Dann hat die Kovarianzmatrix Σ die Gestalt ˆ 2 ˙ σ1 % σ1 σ2 Σ“ . % σ1 σ2 σ22 Sind X1 und X2 unkorreliert, d.h. % “ 0, dann ist die Kovarianzmatrix Σ eine Diagonalmatrix ˆ 2 ˙ σ1 0 Σ“ . 0 σ22 36 TU Bergakademie Freiberg 3 Wahrscheinlichkeitstheorie Sommersemester 2017 Transformationen von Zufallsgrößen Problem Seien X1 , . . . , Xd Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit bekanntem Verteilungsgesetz PX1 ,...,Xd und g : Rd Ñ R eine messbare Funktion. Welche Verteilung hat dann die Zufallsgröße Y “ gpX1 , . . . , Xd q ? Gesucht ist also PY oder FY bzw. speziell fY 3.1 oder yk P WY und PpY “ yk q . Die Verteilungsfunktion unter Transformationen Satz 3.1. Seien X1 , . . . , Xd Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq und g : Rd Ñ R eine messbare Funktion. Dann gilt für die Zufallsgröße Y “ gpX1 , . . . , Xd q PY “ PX1 ,...,Xd ˝g ´1 “ P ˝pX1 , . . . , Xd q´1 ˝ g ´1 und somit FY pyq “ PX1 ,...,Xd pg ´1 pp´8, yqqq “ PppX1 , . . . , Xd q´1 pg ´1 pp´8, yqqqq . Beispiel 3.2. Sei X eine stetige Zufallsgröße. Dann gilt für die Zufallsgröße Y “ X 2 # ` ? ˘ ` ? ˘ FX ` y ´ FX ´ y für y ą 0 , FY pyq “ 0 für y ď 0 . Satz 3.3. Sei X eine Zufallsgröße und g : R Ñ R eine streng monoton wachsende stetige Funktion mit m “ inf gpxq und M “ sup gpxq. xPR xPR Dann gilt für die Zufallsgröße Y “ gpXq $ für y ď m , ’ & 0 FX pg ´1 pyqq für m ă y ă M , FY pyq “ ’ % 1 für y ě M . Beispiele 3.4. Sei X eine Zufallsgröße. Dann gilt (1) ˆ FaX`b pyq “ FX y´b a ˙ für a ą 0 ; (2) # FeX pyq “ 0 für y ď 0 , FX pln yq für y ą 0 . 37 TU Bergakademie Freiberg 3.2 Wahrscheinlichkeitstheorie Sommersemester 2017 Transformationssatz für Dichten Satz 3.5 ((Transformationssatz für Dichten)). Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit der Dichtefunktion fX bezüglich des Lebesgue-Borel-Maßes auf pRd , Bd q . • Für eine offene Menge D Ď Rd gelte ż fX p~xq d~x “ 1 . D • Die Abbildung g : D Ñ Rd sei injektiv und stetig. • Die inverse Abbildung g ´1 : Wg Ñ Rd sei stetig partiell differenzierbar. Satz 3.5 ((Fortsetzung)). • Für die Determinante der Jacobi-Matrix gelte ´1 Bg1 p~y q . . . Bg1´1 p~y q By1 Byd .. .. Jg´1 p~y q “ . . ‰ 0 für alle ~y P Wg . ´1 Bg´1 Bg d d p~y q p~y q . . . By1 Byd Dann ist Y “ gpXq ebenfalls ein stetiger Zufallsvektor und besitzt die Dichtefunktion fY p~y q “ fX pg ´1 p~y qq |Jg´1 p~y q| IWg p~y q . Anmerkung 3.6. Ist die Abbildung g : D Ñ Rd stetig differenzierbar, so kann in der 1 Behauptung von Satz 3.5 Jg´1 p~y q durch Jg pg´1 ersetzt werden, wobei p~ y qq Bg1 Bg1 Bx p~xq . . . Bx p~xq 1 d . .. Jg p~xq “ .. . ‰ 0 für alle ~x P D . Bg d p~xq . . . Bgd p~xq Bx1 Bxd Beispiel 3.7. Sei X “ pX1 , X2 qT ein stetiger Zufallsvektor mit der Dichtefunktion fX1 ,X2 . Die Abbildung g : R2 Ñ R2 sei gegeben durch g1 px1 , x2 q “ x1 ` x2 und g2 px1 , x2 q “ x2 . Dann besitzt der Zufallsvektor Y “ pY1 , Y2 qT “ pg1 pX1 , X2 q, g2 pX1 , X2 qqT “ pX1 ` X2 , X2 qT die Dichtefunktion fY1 ,Y2 py1 , y2 q “ fX1 ,X2 py1 ´ y2 , y2 q . Insbesondere ergibt sich für die Randverteilung von Y1 “ X1 ` X2 ż fX1 `X2 py1 q “ fX1 ,X2 py1 ´ y2 , y2 q dy2 . R 38 TU Bergakademie Freiberg 3.3 Wahrscheinlichkeitstheorie Sommersemester 2017 Summen unabhängiger Zufallsgrößen Satz 3.8 (und Definition). Seien P1 und P2 zwei Wahrscheinlichkeitsmaße auf dem messbaren Raum pR, Bq. Dann wird durch ż ż IB px1 ` x2 q P1 pdx1 q P2 pdx2 q für B P B pP1 ˚ P2 qpBq :“ żR R P1 pB ´ x2 q P2 pdx2 q “ żR P2 pB ´ x1 q P1 pdx1 q “ R ein Wahrscheinlichkeitsmaß auf pR, Bq definiert. Dieses Maß P1 ˚ P2 wird die Faltung der Wahrscheinlichkeitsmaße P1 und P2 genannt. Beispiel 3.9. Für die Dirac-Maße δx1 und δx2 auf pR, Bq, x1 , x2 P R , gilt δx1 ˚ δx2 “ δx1 `x2 . Anmerkung 3.10. Offensichtlich lässt sich die Definition der Faltung auf endliche viele Wahrscheinlichkeitsmaße P1 , . . . , Pn verallgemeinern ż ż pP1 ˚ . . . ˚ Pn qpBq :“ . . . IB px1 ` . . . ` xn q P1 pdx1 q . . . Pn pdxn q R R für B P B . Wie man leicht sieht, ist die Faltungsoperation sowohl assoziativ als auch kommutativ. Satz 3.11. Seien X1 und X2 unabhängige Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann gilt PX1 `X2 “ PX1 ˚ PX2 und insbesondere ż FX1 `X2 pxq “ ż FX1 px ´ x2 q PX2 pdx2 q “ R FX2 px ´ x1 q PX1 pdx1 q . R Satz 3.12. Es seien X1 und X2 unabhängige stetige Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit den Dichtefunktionen fX1 bzw. fX2 . Dann ist X1 ` X2 ebenfalls eine stetige Zufallsgröße und besitzt die Dichtefunktion ż fX1 `X2 pxq “ fX1 px ´ x2 qfX2 px2 q dx2 żR fX2 px ´ x1 qfX1 px1 q dx1 . “ R 39 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 3.13. Die Zufallsgrößen X1 und X2 seien unabhängig und mögen dieselbe Verteilungsfunktion ` ˘ FX pxq “ 1 ´ e´λx Ip0,8q pxq , x P R, λ ą 0 , (vgl. Beispiel 2.17) besitzen. Dann gilt “ ‰ FX1 `X2 pxq “ 1 ´ p1 ` λxq e´λx Ip0,8q pxq und fX1 `X2 pxq “ λ2 x e´λx Ir0,8q pxq . 3.4 Minimum und Maximum unabhängiger Zufallsgrößen Satz 3.14. Seien X1 , . . . , Xd unabhängige Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit der Verteilungsfunktion FXi pxq , i “ 1, . . . , d . Dann gilt für die Zufallsgrößen Xmax “ max tX1 , . . . , Xd u FXmax pxq “ d ź bzw. Xmin “ min tX1 , . . . , Xd u FXi pxq bzw. FXmin pxq “ 1 ´ i“1 d ź p1 ´ FXi pxqq . i“1 Definitionen 3.15. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige Indexmenge. Für i P I sei Xi eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq. • Dann heißt die Familie pXi qiPI von Zufallsgrößen identisch verteilt, falls PXi “ PXj für alle i, j P I . • Ist I “ t1, . . . , nu so werden die Zufallsgrößen X1 , . . . , Xn identisch verteilt genannt. • Für I “ N spricht man von einer identisch verteilten Folge pXi qiPN von Zufallsgrößen. • Ist eine Familie pXi qiPI von identisch verteilten Zufallsgrößen zugleich auch noch eine Familie von unabhängigen Zufallsgrößen, so spricht man von einer unabhängigen, identisch verteilten Familie von Zufallsgrößen und verwendet dafür die Abkürzung i.i.d. ( independent and identically distributed“). ” Folgerung 3.16. Seien X1 , . . . , Xd i.i.d. Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit der Verteilungsfunktion FX . Dann gilt für die Zufallsgrößen Xmax “ max tX1 , . . . , Xd u FXmax pxq “ pFX pxqqd bzw. Xmin “ min tX1 , . . . , Xd u bzw. FXmin pxq “ 1 ´ p1 ´ FX pxqqd . 40 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Sind die Zufallsgrößen Xi außerdem stetig und die Verteilungsfunktion FX stetig differenzierbar, so gilt für die Dichtefunktionen fXmax pxq “ d pFX pxqqd´1 fX pxq bzw. fXmin pxq “ d p1 ´ FX pxqqd´1 fX pxq , wobei fX “ FX1 λ-fast überall. Beispiel 3.17. Die i.i.d. Zufallsgrößen X1 , . . . , Xd mögen die Verteilungsfunktion ` ˘ FX pxq “ 1 ´ e´λx Ip0,8q pxq , x P R , λ ą 0 , besitzen (vgl. Beispiel 2.17). Dann gilt ˘d´1 ´λx ` e Ir0,8q pxq fXmax pxq “ λd 1 ´ e´λx bzw. fXmin pxq “ λd e´λdx Ir0,8q pxq , d.h. das Minimum Xmin hat dieselbe Art von Verteilung wie die Zufallsgrößen X1 , . . . , Xd , jedoch nicht mit dem Parameter λ ą 0 , sondern mit dem Parameter λd . Anmerkung 3.18 ((Anwendung in der Zuverlässigkeitstheorie)). (1) Ausfallwahrscheinlichkeit von in Reihe geschalteten Bauelementen Ñ Minimum (2) Ausfallwahrscheinlichkeit von parallel geschalteten Bauelementen Ñ Maximum (3) Berechnung der Ausfallwahrscheinlichkeit von komplexen Systemen Ñ Kombination beider Situationen 4 Ausgewählte diskrete Verteilungen Bestimmungsstücke und Kenngrößen einer diskreten Zufallsgröße Sei X eine diskrete Zufallsgröße mit dem Wertebereich WX “ txk ukPI und den Einzelwahrscheinlichkeiten ppk qkPI mit einer Indexmenge ∅ ­“ I Ď N . Dann gilt (vgl. die Sätze 1.42 und 2.22) ÿ ÿ ÿ pk “ 1 , P X “ pk δxk , FX pxq “ pk Ipxk ,8q pxq , x P R , kPI kPI µp pXq “ kPI ÿ xpk pk für p P N , kPI falls µp pXq existiert. Insbesondere ist (vgl. die Sätze 2.3 und 1.44) ÿ ÿ pxk ´ E pXqq2 pk . E pXq “ xk pk und Var pXq “ kPI kPI 41 TU Bergakademie Freiberg 4.1 Wahrscheinlichkeitstheorie Sommersemester 2017 Einpunktverteilung Definition 4.1. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Einpunktverteilung im Punkt c P R , falls X “ c P-fast sicher. Man spricht in diesem Fall auch von einer entarteten Verteilung im Punkt c P R . Bestimmungsstücke und Kenngrößen Die Zufallsgröße X besitze eine Einpunktverteilung im Punkt c P R . Dann gilt (vgl. Sätze 2.15 (1) und 2.39 (1)) WX “ tcu , p “ PpX “ cq “ 1 , PX “ δc , FX pxq “ Ipc,8q pxq , E pXq “ c , µp pXq “ cp 4.2 Var pXq “ 0 , für p P N . Zweipunktverteilung Definition 4.2. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Zweipunktverteilung, falls X nur zwei verschiedene Werte x1 P R und x2 P R annehmen kann. Modellvorstellung Die Zweipunktverteilung wird als Modell für Zufallsexperimente benutzt, bei denen es nur zwei mögliche Versuchsausgänge gibt. Bestimmungsstücke und Kenngrößen Die Zufallsgröße X besitze eine Zweipunktverteilung. Dann gilt WX “ tx1 , x2 u , pk “ PpX “ xk q , PX “ p1 δx1 ` p2 δx2 , k “ 1, 2 , p1 ` p2 “ 1 , FX pxq “ p1 Ipx1 ,8q pxq ` p2 Ipx2 ,8q pxq , E pXq “ p1 x1 ` p2 x2 , Var pXq “ px1 ´ x2 q2 p1 p2 , µp pXq “ p1 xp1 ` p2 xp2 für p P N . Für eine eigentliche Zweipunktverteilung gelten 0 ă p1 ă 1 , 0 ă p2 ă 1 . 42 TU Bergakademie Freiberg 4.3 Wahrscheinlichkeitstheorie Sommersemester 2017 Bernoulli-Verteilung Definition 4.3. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Bernoulli-Verteilung mit dem Parameter p P r0, 1s , falls X nur die Werte 0 und 1 annehmen kann mit PpX “ 1q “ p . Hierfür schreibt man auch X „ B ppq . Anmerkung Die Bernoulli-Verteilung ist eine spezielle Zweipunktverteilung. Es gilt x1 “ 0 , x2 “ 1 , p1 “ 1 ´ p und p2 “ p . Modellvorstellung und Definitionen • Die Bernoulli-Verteilung wird für die Beschreibung von Zufallsexperimenten benutzt, bei denen das Eintreten eines festen Ereignisses A P F mit PpAq “ p P r0, 1s untersucht wird. Dabei wird die Zufallsgröße X “ IA betrachtet. – Das Ereignis A tritt ein (Erfolg) : X “ 1 . – Das Ereignis A tritt nicht ein (Misserfolg) : X “ 0 . • Diese Art von Experiment nennt man Bernoulli-Experiment. • Die Wahrscheinlichkeit p “ PpX “ 1q “ PpAq wird Erfolgswahrscheinlichkeit genannt. Beispiele • Auftreten von Zahl beim Wurf einer idealen Münze pp “ 0.5q . • Beim Werfen eines Kronverschlusses fällt der Verschluss auf die glatte Seite pp « 0.6q . • Ein zufällig heruntergefallenes Marmeladenbrötchen landet auf der Marmeladenseite (gefühlt: p “ 1) . • Ziehen eines Loses auf dem Rummel (Niete oder Gewinn). • Ein zufällig aus einem Warenposten ausgewähltes Werkstück ist Ausschuss. Bestimmungsstücke und Kenngrößen Es sei X „ B ppq eine mit dem Parameter p P r0, 1s Bernoulli-verteilte Zufallsgröße. Dann gilt WX “ t0, 1u , p “ PpX “ 1q , 1 ´ p “ PpX “ 0q , 43 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie PX “ p1 ´ pqδ0 ` pδ1 , E pXq “ p , Sommersemester 2017 $ für x ď 0 , ’ & 0 1 ´ p für 0 ă x ď 1 , FX pxq “ ’ % 1 für x ą 1, Var pXq “ pp1 ´ pq , µq pXq “ p für q P N . 4.4 Gleichverteilung Definition 4.4. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine diskrete Gleichverteilung, falls X endlich viele Werte x1 , . . . , xn P R , xi ‰ xj , i, j P t1, . . . , nu , jeweils mit der gleichen Wahrscheinlichkeit annimmt. Hierfür schreibt man auch X „ U tx1 , . . . , xn u . Modellvorstellung Bei einem Zufallsexperiment sind endlich viele Versuchsausgänge möglich. Jeder Versuchsausgang hat dieselbe Wahrscheinlichkeit. Beispiel • Einmaliges Würfeln mit einem idealen Würfel. Bestimmungsstücke und Kenngrößen Es sei X „ U tx1 , . . . , xn u eine diskret gleichverteilte Zufallsgröße. Dann gilt WX “ tx1 , . . . , xn u , n 1 ÿ PX “ δx , n k“1 k E pXq “ n 1 ÿ xk , n k“1 pk “ PpX “ xk q “ 1 , n k “ 1, . . . , n , n 1 ÿ FX pxq “ Ipx ,8q pxq , n k“1 k µp pXq “ 44 n 1 ÿ p x n k“1 k für p P N . TU Bergakademie Freiberg 4.5 Wahrscheinlichkeitstheorie Sommersemester 2017 Hypergeometrische Verteilung Definition 4.5. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine hypergeometrische Verteilung mit den Parametern N P N , K P t0, . . . , N u und n P t1, . . . , N u , falls X die Werte k P tkmin , . . . , kmax u Ď t0, . . . , nu mit den Einzelwahrscheinlichkeiten `K ˘`N ´K ˘ pk “ PpX “ kq “ k `Nn´k ˘ n annimmt, wobei kmin “ max t0, n ` K ´ N u und kmax “ min tK, nu . Hierfür schreibt man auch X „ Hyp pn, K, N q . Modellvorstellung: Urnenmodell ohne Zurücklegen • In einem nicht einsehbaren Gefäß (Urne) befinden sich N P N gleichartige Objekte (z.B. Kugeln). • Davon besitzen K , K “ 0, . . . , N, dieser Objekte eine spezielle Eigenschaft (z.B. rote Kugeln), die sie von den anderen N ´ K Objekten (z.B. weiße Kugeln) unterscheiden. • Die Objekte in der Urne sind gut durchmischt, so dass jedes Objekt die gleiche Chance hat, entnommen zu werden. • Nun werden nacheinander insgesamt n Objekte, n P t1, . . . , N u , entnommen (ohne das jeweils gezogene Objekt vor der nächsten Entnahme wieder in die Urne zurückzulegen) und gezählt, wieviele der entnommenen Objekte die spezielle Eigenschaft aufweisen. Beispiel (Lotto 6 aus 49) Von den N “ 49 Kugeln besitzen K “ 6 die spezielle Eigenschaft, dass sie die von einem `49˘ Spieler getippten Zahlen sind. Es werden n “ 6 Kugeln gezogen. Folglich gibt es “ 13 983 816 mögliche Ziehungsergebnisse. 6 • Es gibt nur einen Sechser, dessen Wahrscheinlichkeit ist 1{13 983 816 “ 0.00000007151 . Die weiteren Wahrscheinlichkeiten sind: • Fünfer : 0.00001845 , • Vierer : 0.00096862 und • Dreier : 0.017650404 . Anwendung • statistische Qualitätskontrolle (Stichprobenziehung ohne Zurücklegen, z.B. bei zerstörender Prüfung von Werkstücken) 45 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Bestimmungsstücke und Kenngrößen Es sei X „ Hyp pn, K, N q eine mit den Parametern N P N , K P t0, . . . , N u und n P t1, . . . , N u hypergeometrisch verteilte Zufallsgröße. Dann gilt WX “ tmax t0, n ` K ´ N u , . . . , min tK, nuu , `K ˘`N ´K ˘ pk “ PpX “ kq “ k `Nn´k ˘ , k P WX , n K E pXq “ n , N 4.6 K Var pXq “ n N ˆ K 1´ N ˙ N ´n . N ´1 Binomialverteilung Definition 4.6. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Binomialverteilung mit den Parametern n P N und p P r0, 1s , falls X die Werte k P t0, . . . , nu mit den Einzelwahrscheinlichkeiten ˆ ˙ n k pk “ PpX “ kq “ p p1 ´ pqn´k k annimmt. Hierfür schreibt man auch X „ B pn; pq . Modellvorstellung: Urnenmodell mit Zurücklegen • In einer Urne befinden sich N P N gleichartige Objekte (z.B. Kugeln). • Darunter befinden sich Objekte mit einer speziellen Eigenschaft (z.B. rote Kugeln), die sie von den anderen Objekten (z.B. weiße Kugeln) unterscheiden. • Der Anteil der Objekte mit der speziellen Eigenschaft sei p ¨ 100% , p P r0, 1s . • Die Objekte in der Urne sind gut durchmischt, so dass jedes Objekt die gleiche Chance hat, entnommen zu werden. • Nun wird ein Objekt aus der Urne entnommen und registiert, um welche Art von Objekt es sich handelt. • Anschließend wird das Objekt wieder in die Urne zurückgelegt und die Objekte wieder gut durchmischt. • Dieser Vorgang wird n-mal nacheinander ausgeführt und gezählt, wie oft ein Objekt mit der speziellen Eigenschaft gezogen wurde. 46 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkungen und Definition (1) Die Binomialverteilung beschreibt die n-malige unabhängige Durchführung eines Bernoulli-Experiments. (2) Diese Vorgehensweise nennt man auch Bernoulli-Schema. (3) Die binomialverteilte Zufallsgröße X gibt an, wieviele Erfolge bei der n-maligen unabhängigen Durchführung eines Bernoulli-Experiments eingetreten sind, d.h. wie häufig dabei das betrachtete Ereignis A eingetreten ist. Anwendung • statistische Qualitätskontrolle (Stichprobenziehung mit Zurücklegen, z.B. bei zerstörungsfreier Prüfung von Werkstücken) Bestimmungsstücke und Kenngrößen Es sei X „ B pn; pq eine mit den Parametern n P N und p P r0, 1s binomialverteilte Zufallsgröße. Dann gilt ˆ ˙ n k p p1 ´ pqn´k , k “ 0, . . . , n , WX “ t0, . . . , nu , pk “ PpX “ kq “ k PX “ n ÿ pk δk , FX pxq “ k“0 E pXq “ np , n ÿ pk Ipk,8q pxq , k“0 Var pXq “ npp1 ´ pq , 1 ´ 2p . γ pXq “ a npp1 ´ pq Spezialfall Die Bernoulli-Verteilung ist eine spezielle Binomialverteilung. Es gilt B ppq “ B p1; pq für p P r0, 1s . Satz 4.6.1 Seien Xi „ B ppq , i “ 1, . . . , n , i.i.d. Bernoulli-verteilte Zufallsgrößen mit dem Parameter p P r0, 1s . Dann gilt X1 ` . . . ` Xn „ B pn; pq . Satz 4.6.2 Seien X1 „ B pn1 ; pq und X2 „ B pn2 ; pq zwei unabhängige, binomialverteilte Zufallsgrößen. Dann gilt X1 ` X2 „ B pn1 ` n2 ; pq . 47 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Vergleich von hypergeometrischer `Verteilung und Binomialverteilung ˘ K Es sei X „ Hyp pn, K, N q und Y „ B n; N . Dann gilt einerseits E pXq “ E pY q “ n K N und andererseits K Var pXq “ n N ˆ K 1´ N ˙ N ´n K ďn N ´1 N ˆ K 1´ N ˙ “ Var pY q . Satz 4.6.3 Für N Ñ 8 und K Ñ 8 mit K Ñ p P r0, 1s gilt N `K ˘`N ´K ˘ ˆ ˙ n k k n´k `N ˘ Ñ p p1 ´ pqn´k für k “ 0, . . . , n , n P N , k n d.h. die Einzelwahrscheinlichkeiten der hypergeometrischen Verteilung konvergieren unter den oben genannten Bedingungen gegen die Einzelwahrscheinlichkeiten der Binomialverteilung. Anmerkung Für große Werte von N P N kann die hypergeometrische Verteilung Hyp pn, K, N q durch approximiert werden. die Binomialverteilung B pn; pq mit p “ K N 4.7 Geometrische Verteilung Definition 4.7. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine geometrische Verteilung mit dem Parameter p P p0, 1q , falls X die Werte k P N mit den Einzelwahrscheinlichkeiten pk “ PpX “ kq “ pp1 ´ pqk´1 annimmt. Hierfür schreibt man auch X „ Geo ppq . Modellvorstellung Die geometrische Verteilung beschreibt die Anzahl der Versuche im Bernoulli-Schema bis zum ersten Erfolg, d.h. wieviele Versuche durchgeführt werden müssen, bis zum ersten Mal das betrachtete Ereignis A , der Erfolg, eintritt. Anwendung • Versicherungsmathematik (Risikobestimmung) 48 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Bestimmungsstücke und Kenngrößen Es sei X „ Geo ppq eine mit dem Parameter p P p0, 1q geometrisch verteilte Zufallsgröße. Dann gilt WX “ N , pk “ PpX “ kq “ pp1 ´ pqk´1 für k P N , PX “ 8 ÿ pk δk , FX pxq “ k“1 E pXq “ 1 , p 8 ÿ pk Ipk,8q pxq , k“1 Var pXq “ 1´p , p2 2´p ą 0. γ pXq “ ? 1´p Satz und Definition Es sei X „ Geo ppq eine mit dem Parameter p P p0, 1q geometrisch verteilte Zufallsgröße. Dann gilt PpX ě n ` k | X ą nq “ PpX ě kq für alle n, k P N . Diese Eigenschaft der geometrischen Verteilung wird Gedächtnislosigkeit genannt. Anmerkungen • Von der geometrischen Verteilung gibt es eine Variante, bei der nicht die Anzahl der Versuche bis zum ersten Erfolg im Bernoulli-Schema, sondern die Anzahl der Misserfolge vor dem ersten Erfolg gezählt werden. • Dies führt zu einer Verschiebung des Wertebereiches der Zufallsgröße und natürlich auch anderen Einzelwahrscheinlichkeiten. • Folglich unterscheiden sich auch Momente und damit im Zusammenhang stehende Kenngrößen der beiden Varianten dieser Verteilung. • In einigen Lehrbüchern bzw. Formelsammlungen wird beim Übergang von der Betrachtung der Anzahl der Versuche zur Anzahl der Misserfolge auch von der Erfolgswahrscheinlichkeit zur Misserfolgswahrscheinlichkeit übergegangen, d.h. p und 1 ´ p wechseln die Plätze. 4.8 Negative Binomialverteilung Definition 4.8. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine negative Binomialverteilung mit den Parametern n P N und p P p0, 1q , falls X die Werte k P tn, n ` 1, . . .u mit den Einzelwahrscheinlichkeiten ˆ ˙ k´1 n pk “ PpX “ kq “ p p1 ´ pqk´n n´1 annimmt. Hierfür schreibt man auch X „ NB pn; pq . 49 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Modellvorstellung Die negative Binomialverteilung beschreibt die Anzahl der erforderlichen Versuche im Bernoulli-Schema bis zum n-ten Erfolg. Anwendung • Versicherungsmathematik (Schadenzahlverteilung) Bestimmungsstücke und Kenngrößen Es sei X „ NB pn; pq eine mit den Parametern n P N und p P p0, 1q negativ binomialverteilte Zufallsgröße. Dann gilt ˆ ˙ k´1 n WX “ tn, n ` 1, . . .u , pk “ p p1 ´ pqk´n , k “ n, n ` 1, . . . , n´1 PX “ 8 ÿ pk δk , FX pxq “ k“n E pXq “ n , p Var pXq “ n 8 ÿ pk Ipk,8q pxq , k“n 1´p , p2 2´p γ pXq “ a ą 0. np1 ´ pq Aufgabe 4.8.1 Seien Xi „ Geo ppq , i “ 1, . . . , n, i.i.d. geometrisch verteilte Zufallsgrößen mit dem Parameter p P p0, 1q . Zeigen Sie, dass dann gilt X1 ` . . . ` Xn „ NB pn; pq . Spezialfall Die geometrische Verteilung ist eine spezielle negative Binomialverteilung. Es gilt Geo ppq “ NB p1; pq für p P p0, 1q . Aufgabe 4.8.2 Seien X1 „ NB pn1 ; pq und X2 „ NB pn2 ; pq zwei unabhängige, negativ binomialverteilte Zufallsgrößen. Zeigen Sie, dass dann gilt X1 ` X2 „ NB pn1 ` n2 ; pq . 50 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkung • Von der negativen Binomialverteilung gibt es – in Analogie zur geometrischen Verteilung – eine Variante, bei der nicht die Anzahl der Versuche bis zum n-ten Erfolg im Bernoulli-Schema, sondern die Anzahl der Misserfolge vor dem n-ten Erfolg gezählt werden. • Dies führt analog zu einer Verschiebung des Wertebereiches der Zufallsgröße und ebenso anderen Einzelwahrscheinlichkeiten. • Folglich unterscheiden sich auch Momente und damit im Zusammenhang stehende Kenngrößen der beiden Varianten dieser Verteilung. • In einigen Lehrbüchern bzw. Formelsammlungen wird beim Übergang von der Betrachtung der Anzahl der Versuche zur Anzahl der Misserfolge auch von der Erfolgswahrscheinlichkeit zur Misserfolgswahrscheinlichkeit übergegangen, d.h. p und 1 ´ p wechseln die Plätze. 4.9 Poisson-Verteilung Definition 4.9. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Poisson-Verteilung mit dem Parameter λ ą 0 , falls X die Werte k P t0, 1, 2, . . .u mit den Einzelwahrscheinlichkeiten pk “ PpX “ kq “ λk ´λ e k! annimmt. Hierfür schreibt man auch X „ Π pλq . Modellvorstellung und Definition • Die Poisson-Verteilung beschreibt die Anzahl von Ereignissen, die mit konstanter Rate und unabhängig voneinander in einem festen Zeitintervall oder räumlichen Gebiet eintreten. • Sie beschreibt näherungsweise die Anzahl der Erfolge bei sehr vielen Versuchen im Bernoulli-Schema, wenn die Erfolgswahrscheinlichkeit im einzelnen BernoulliExperiment sehr klein ist. • Die Poisson-Verteilung wird deshalb auch die Verteilung der seltenen Ereignisse genannt. 51 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anwendungen • Physik (radioaktiver Zerfall, Anzahl emittierter Teilchen) • Versicherungsmathematik (Schadenzahlverteilung) • Operations Research (Verteilung der Anzahl der Ankünfte bei Warteschlangenmodellen) Bestimmungsstücke und Kenngrößen Es sei X „ Π pλq eine mit dem Parameter λ ą 0 Poisson-verteilte Zufallsgröße. Dann gilt λk ´λ WX “ t0, 1, . . .u , pk “ PpX “ kq “ e , k “ 0, 1, . . . , k! PX “ 8 ÿ pk δk , FX pxq “ k“0 E pXq “ λ , 8 ÿ pk Ipk,8q pxq , k“0 Var pXq “ λ , 1 γ pXq “ ? ą 0 . λ Aufgabe Seien X1 „ Π pλ1 q und X2 „ Π pλ2 q zwei unabhängige, Poisson-verteilte Zufallsgrößen. Zeigen Sie, dass dann gilt X1 ` X2 „ Π pλ1 ` λ2 q . Satz 4.9.1 Seien X1 „ Π pλ1 q und X2 „ Π pλ2 q zwei unabhängige, Poisson-verteilte Zufallsgrößen. Dann gilt ˆ ˙ n k p p1 ´ pqn´k für alle k “ 0, . . . , n PpX1 “ k | X1 ` X2 “ nq “ k mit p“ λ1 . λ1 ` λ2 Satz 4.9.2 Für pn P r0, 1s mit lim npn “ λ ą 0 gilt nÑ8 ˆ ˙ n k λk ´λ e pn p1 ´ pn qn´k ÝÝÝÑ nÑ8 k! k für k “ 0, 1, . . . , d.h. die Einzelwahrscheinlichkeiten der Binomialverteilung konvergieren unter den oben genannten Bedingungen gegen die Einzelwahrscheinlichkeiten der Poisson-Verteilung. 52 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkungen (1) Für große Werte von n P N kann die Binomialverteilung B pn; pq durch die PoissonVerteilung Π pλq mit λ “ np approximiert werden. (2) Für große Werte von N P N und n ď N kann die hypergeometrische Verteilung approximiert werden. Hyp pn, K, N q durch die Poisson-Verteilung Π pλq mit λ “ n K N 5 Ausgewählte stetige Verteilungen Bestimmungsstücke und Kenngrößen Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX . Dann gilt (vgl. die Sätze 1.47 (2) und 2.24) żx FX pxq “ fX ptq dt für x P R , ´8 ż xp fX pxq dx für p P N , µp pXq “ R falls µp pXq existiert. Insbesondere ist (vgl. die Sätze 2.5 und 1.50) ż ż E pXq “ xfX pxq dx und Var pXq “ px ´ E pXqq2 fX pxq dx . R 5.1 R Gleichverteilung Definition 5.1. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine stetige Gleichverteilung auf dem Intervall ra, bs , ´8 ă a ă b ă `8 , falls ihre Dichtefunktion durch fX pxq “ 1 Ira,bs pxq , b´a x P R, gegeben ist. Hierfür schreibt man auch X „ Ura, bs . Für die Gleichverteilung auf einem Intervall ist auch die Bezeichnung Rechteckverteilung gebräuchlich. 53 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Bedeutung der Parameter • a und b sind Lageparameter bzw. Verschiebungsparameter. • Sie begrenzen den Bereich, in dem die Wahrscheinlichkeitsmasse liegt. Anmerkungen (1) Die Gleichverteilung lässt sich auf einfache Weise von einem abgeschlossenen Intervall ra, bs auf eine beliebige messbare Menge B P B mit 0 ă λpBq ă 8 (insbesondere z.B. halboffene und offene beschränkte Intervalle) verallgemeinern. Dazu verwendet man die Dichtefunktion 1 IB pxq für x P R . fX pxq “ λpBq (2) Auch auf den mehrdimensionalen Fall eines gleichverteilten stetigen Zufallsvektors X bezüglich einer messbaren Menge B P Bd mit 0 ă λd pBq ă 8 kann die Gleichverteilung verallgemeinert werden. Dazu verwendet man in analoger Weise die Dichtefunktion fX p~xq “ 1 IB p~xq für ~x P Rd . λd pBq Anwendung • geometrische Wahrscheinlichkeiten Bestimmungsstücke und Kenngrößen Sei X „ Ura, bs eine auf dem Intervall ra, bs gleichverteilte Zufallsgröße. Dann gilt (vgl. Beispiele 1.49, 2.6 und 2.38) FX pxq “ x´a Ira,bs pxq ` Ipb,8q pxq , b´a a`b E pXq “ , 2 pb ´ aq2 Var pXq “ , 12 bp`1 ´ ap`1 µp pXq “ pb ´ aqpp ` 1q x P R, γ pXq “ 0 , für p P N . Satz 5.1.1 Sei X „ Ura, bs eine auf dem Intervall ra, bs gleichverteilte Zufallsgröße. Dann gilt für c, d P R, c ‰ 0 , # Urac ` d, bc ` ds für c ą 0 , cX ` d „ Urbc ` d, ac ` ds für c ă 0 , d.h. die Familie der Gleichverteilungen auf abgeschlossenen beschränkten Intervallen ist abgeschlossen bezüglich (nicht entarteter) linearer Transformationen. 54 TU Bergakademie Freiberg 5.2 Wahrscheinlichkeitstheorie Sommersemester 2017 Cauchy-Verteilung Definition 5.2. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Cauchy-Verteilung mit den Parametern µ P R und λ ą 0 , falls ihre Dichtefunktion durch 1 λ fX pxq “ , x P R, 2 π λ ` px ´ µq2 gegeben ist. Hierfür schreibt man auch X „ C pµ; λq . Bedeutung der Parameter • µ ist ein Lageparameter bzw. Verschiebungsparameter. • λ ist ein Skalenparameter (Stauchung bzw. Streckung der x-Achse) bzw. Streuungsparameter. Bestimmungsstücke und Kenngrößen Sei X „ C pµ; λq eine mit den Parametern µ P R und λ ą 0 Cauchy-verteilte Zufallsgröße. Dann gilt ´x ´ µ¯ 1 1 , x P R. FX pxq “ ` arctan 2 π λ Sämtliche Momente und davon abgeleitete Kenngrößen existieren nicht. Aufgabe Sei X „ C pµ; λq eine mit den Parametern µ P R und λ ą 0 Cauchy-verteilte Zufallsgröße. Zeigen Sie, dass dann für a, b P R, a ‰ 0 , gilt aX ` b „ C paµ ` b; |a|λq , d.h. die Familie der Cauchy-Verteilungen ist abgeschlossen bezüglich (nicht entarteter) linearer Transformationen. Anmerkung Mit Hilfe von charakteristischen Funktionen (später) kann folgendes leicht gezeigt werden. Seien X1 „ C pµ1 ; λ1 q und X2 „ C pµ2 ; λ2 q unabhängige Zufallsgrößen. Dann gilt X1 ` X2 „ C pµ1 ` µ2 ; λ1 ` λ2 q , d.h. die Familie der Cauchy-Verteilungen ist abgeschlossen bezüglich der Faltung, und X1 ´ X2 „ C pµ1 ´ µ2 ; λ1 ` λ2 q . 55 TU Bergakademie Freiberg 5.3 Wahrscheinlichkeitstheorie Sommersemester 2017 Normalverteilung Definitionen 5.3. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Normalverteilung mit den Parametern µ P R und σ 2 ą 0 , falls ihre Dichtefunktion durch px´µq2 1 x P R, fX pxq “ ? e´ 2σ2 , 2πσ gegeben ist. Hierfür schreibt man auch ` ˘ X „ N µ; σ 2 . Der spezielle Fall N p0; 1q wird Standardnormalverteilung genannt. (Manchmal ist es günstig, die Einpunktverteilung im Punkt µ P R als Normalverteilung mit den Parametern µ und σ 2 “ 0 zu betrachten, dies ist dann keine stetige Verteilung mehr.) Bedeutung der Parameter • µ ist ein Lageparameter bzw. Verschiebungsparameter. • σ 2 ist ein Skalenparameter bzw. Streuungsparameter. Anwendung • Bei der summarischen Überlagerung vieler kleiner unabhängiger Einflüsse kann die daraus resultierende Größe annähernd durch eine normalverteilte Zufallsgröße modelliert werden. • Beschreibung von Messfehlern in der Messtechnik. • Zufällige Abweichung von Nennwerten, z.B. von Abmessungen von Werkstücken. • Zentrale Bedeutung als Grenzverteilung bei Grenzwertsätzen für Summen von Zufallsgrößen. • Zentrale Verteilung der parametrischen Statistik. Bestimmungsstücke und Kenngrößen Sei X „ N pµ; σ 2 q eine mit den Parametern µ P R und σ 2 ą 0 normalverteilte Zufallsgröße. Dann gilt żx ´x ´ µ¯ t2 1 mit Φpxq “ ? e´ 2 dt , x P R , FX pxq “ Φ σ 2π ´8 E pXq “ µ , Var pXq “ σ 2 , 56 γ pXq “ 0, TU Bergakademie Freiberg ν2p´1 pXq “ 0 , Wahrscheinlichkeitstheorie ν2p pXq “ p2p ´ 1q!! σ 2p Sommersemester 2017 für p P N . Aufgabe 5.3.1 Sei X „ N pµ; σ 2 q eine mit den Parametern µ P R und σ 2 ą 0 normalverteilte Zufallsgröße. Zeigen Sie, dass dann für a, b P R, a ‰ 0, gilt ` ˘ aX ` b „ N aµ ` b; a2 σ 2 , d.h. die Familie der Normalverteilungen ist abgeschlossen bezüglich (nicht entarteter) linearer Transformationen. Folgerung (1) Ist X „ N p0; 1q , so folgt für µ, σ P R, σ ‰ 0, dass ` ˘ σX ` µ „ N µ; σ 2 . (2) Ist X „ N pµ; σ 2 q , so ist X ´µ „ N p0; 1q . σ Satz 5.3.2 Seien X1 „ N pµ1 ; σ12 q und X2 „ N pµ2 ; σ22 q unabhängige Zufallsgrößen. Dann gilt ` ˘ X1 ` X2 „ N µ1 ` µ2 ; σ12 ` σ22 , d.h. die Familie der Normalverteilungen ist abgeschlossen bezüglich der Faltung, und ` ˘ X1 ´ X2 „ N µ1 ´ µ2 ; σ12 ` σ22 . Satz 5.3.3 Sei X „ N p0; 1q eine standardnormalverteilte Zufallsgröße. (1) Für beliebige t ą 0 gilt ˆ ˙ 1 1 1 1 1 ´t2 {2 2 ? ´ 3 e´t {2 ď 1 ´ Φptq “ PpX ą tq ď ? e . 2π t t 2π t (2) Für beliebige beschränkte stetig differenzierbare Funktionen g : R Ñ R gilt E pg 1 pXqq “ E pXgpXqq . 57 TU Bergakademie Freiberg 5.4 Wahrscheinlichkeitstheorie Sommersemester 2017 Mehrdimensionale Normalverteilung ~ “ pX1 , . . . , Xd qT auf einem WahrDefinition 5.4. Ein d-dimensionaler Zufallsvektor X scheinlichkeitsraum pΩ, F, Pq besitzt eine d-dimensionale Standardnormalverteilung, falls die Komponenten Xi , i “ 1, . . . , d , unabhängige standardnormalverteilte Zufallsgrößen sind. Man schreibt in diesem Fall ´ ¯ ~ „ N ~0; Id , X wobei Id die d-dimensionale Einheitsmatrix bezeichnet. Satz 5.4.1 ´ ¯ ~ „ N ~0; Id . Dann ist X ~ ein stetiger Zufallsvektor mit Dichtefunktion Sei X 1 T 1 1 1 2 e´ 2 ~x ~x “ a e´ 2 }~x} , fX~ p~xq “ a d d p2πq p2πq ~x P Rd , (} ¨ } bezeichnet die Euklidische Norm in Rd ). Außerdem gelten für den Erwartungswertvektor und die Kovarianzmatrix ´ ¯ ´ ¯ ~ “ ~0 , ~ “ Id . E X Cov X Definition 5.4.2 ~ “ pX1 , . . . , Xn qT besitzt eine Normalverteilung, Ein n-dimensionaler Zufallsvektor X ~ , einen Vektor µ falls für einen d-dimensionalen standardnormalverteilten Zufallsvektor Z ~P n R und eine n ˆ d´Matrix A gilt ~ “µ ~. X ~ ` AZ Satz und Bezeichnung 5.4.3 ~ “ pX1 , . . . , Xn qT aus Definition 5.4.2 gilt Für den n-dimensionalen Zufallsvektor X ´ ¯ ´ ¯ ~ “µ ~ “ AAT . E X ~, Cov X Man schreibt in diesem Fall ` ˘ ~ „N µ X ~ ; AAT . Definition und Satz 5.4.4 T ~ Gilt für den ´ ¯n-dimensionalen Zufallsvektor X “ pX1 , . . . , Xn q aus Definition 5.4.2 d “ ~ “ AAT “ Σ mit detpΣq “ ~ eine n-dimensionale n , Cov X ­ 0 , dann besitzt X ~ ist ein stetiger Zufallsvektor mit nichtentartete Normalverteilung N p~µ; Σq und X Dichtefunktion " * 1 1 T ´1 fX~ p~xq “ a exp ´ p~x ´ µ ~ q Σ p~x ´ µ ~ q , ~x P Rn . n 2 p2πq detpΣq 58 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Σ ist dann eine reelle, symmetrische und positiv definite Matrix. Aufgabe 5.4.5 ~ „ N p~µ; Σq ein mit den Parametern µ Sei X ~ P Rn und Σ P Rnˆn normalverteilter n-dimensionaler Zufallsvektor, A1 P Rmˆn und ~b P Rm . Zeigen Sie, dass dann für den ~ ` ~b gilt m-dimensionalen Zufallsvektor Y~ “ A1 X ´ ¯ Y~ „ N A1 µ ~ ` ~b; A1 ΣAT1 . Spezialfall n “ 2 ~ “ pX1 , X2 qT ein nichtentarteter zweidimensionaler normalverteilter Zufallsvektor auf Sei X einem Wahrscheinlichkeitsraum pΩ, F, Pq mit den Parametern µ ~ “ pµ1 , µ2 qT P R2 und 2ˆ2 Σ P R . Die Kovarianzmatrix Σ hat die Gestalt (vgl. Beispiel 2.69) ˙ ˆ 2 % σ1 σ2 σ1 , wobei Σ“ % σ1 σ2 σ22 σ12 “ Var pX1 q ą 0 , σ22 “ Var pX2 q ą 0 und % “ Corr pX1 , X2 q P p´1, `1q . Dann ist ´1 Σ 1 “ detpΣq ˆ ´% σ1 σ2 σ22 ´% σ1 σ2 σ12 ˙ mit ˘ ` detpΣq “ σ12 σ22 1 ´ %2 . Spezialfall n “ 2 (Fortsetzung) Hieraus folgt für px1 , x2 qT P R2 " 1 1 a fX1 ,X2 px1 , x2 q “ exp ´ ˆ 2 2p1 ´ %2 q 2πσ1 σ2 1 ´ % „ px1 ´ µ1 q2 px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2 ˆ ´ 2% ` σ12 σ1 σ2 σ22 Herleitung: Für den Vorfaktor ergibt sich 1 1 a a “ . p2πqd detpΣq 2πσ1 σ2 1 ´ %2 59 * TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Für die Bestimmung des Arguments der Exponentialfunktion betrachtet man zunächst das Produkt ˆ ˙ˆ ˙ 1 ´% σ1 σ2 σ22 x1 ´ µ1 ´1 Σ p~x ´ µ ~q “ σ12 x2 ´ µ 2 detpΣq ´% σ1 σ2 1 “ 2 2 σ1 σ2 p1 ´ %2 q ˆ ˙ σ22 px1 ´ µ1 q ´ % σ1 σ2 px2 ´ µ2 q ´% σ1 σ2 px1 ´ µ1 q ` σ12 px2 ´ µ2 q ¨ ˛ x2 ´ µ 2 x1 ´ µ 1 ´% 1 ˚ σ12 σ1 σ2 ‹ ˚ ‹. “ ˝ 2 x1 ´ µ 1 x2 ´ µ 2 ‚ 1´% ´% ` σ1 σ2 σ22 Somit ergibt sich insgesamt ˛ x1 ´ µ 1 x2 ´ µ 2 ´% ˘ 1 ˚ 1 1` σ12 σ1 σ2 ‹ ‹“ ˚ ´ p~x ´ µ ~ qT Σ´1 p~x ´ µ ~ q “ ´ px1 ´ µ1 q px2 ´ µ2 q ˝ x1 ´ µ 1 x2 ´ µ 2 ‚ 2 2 1 ´ %2 ´% ` σ1 σ2 σ22 ¨ “´ 1 1 2 1 ´ %2 « px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2 px1 ´ µ1 q2 px1 ´ µ1 qpx2 ´ µ2 q ´% ` ´% σ12 σ1 σ2 σ1 σ2 σ22 ff « ff px1 ´ µ1 q2 px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2 1 “´ ´ 2% ` . 2p1 ´ %2 q σ12 σ1 σ2 σ22 Satz 5.4.6 ~ “ pX1 , X2 qT ein zweidimensionaler, normalverteilter Zufallsvektor mit den ParameSei X tern µ ~ “ pµ1 , µ2 qT P R2 und ˆ 2 ˙ σ1 %σ1 σ2 Σ“ . %σ1 σ2 σ22 Dann gilt (1) Xi „ N pµi ; σi2 q für i “ 1, 2 . (2) X1 und X2 sind genau dann unabhängig, wenn sie unkorreliert sind. (3) Für beliebige a1 , a2 P R gilt ˘ ` Y :“ a1 X1 ` a2 X2 „ N a1 µ1 ` a2 µ2 ; a21 σ12 ` a22 σ22 ` 2a1 a2 σ1 σ2 . 60 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beweis. (zu 1) Für die Randverteilung von X2 gilt ż fX1 ,X2 px1 , x2 q dx1 “ fX2 px2 q “ R ż “ R 2πσ1 σ2 1 a 1 ´ %2 " exp ´ 1 px1 ´ µ1 q2 px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2 ` ´ 2% 2p1 ´ %2 q σ1 σ2 σ12 σ22 „ * dx1 . Zwecks einer quadratischen Ergänzung wird der Ausdruck in eckigen Klammern im Argument der Exponentialfunktion entsprechend erweitert px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2 px1 ´ µ1 q2 ´ 2% ` σ1 σ2 σ12 σ22 2 2 px1 ´ µ1 q2 px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2 2 px2 ´ µ2 q 2 px2 ´ µ2 q “ ´ 2% ` % ´ % ` σ1 σ2 σ12 σ22 σ22 σ22 ˆ ˙2 x 1 ´ µ1 x2 ´ µ2 px2 ´ µ2 q2 “ ´% ` p1 ´ %2 q . σ1 σ2 σ22 r. . .s “ Somit erhält man fX2 px2 q “ «ˆ ff+ # ˙ ż 2 1 x 1 ´ µ1 x 2 ´ µ2 2 px ´ µ q 1 2 2 a ´% ` p1 ´ %2 q dx1 exp ´ “ 2p1 ´ %2 q σ1 σ2 σ22 2πσ1 σ2 1 ´ %2 R “? * " 1 1 px2 ´ µ2 q2 ˆ exp ´ 2 σ22 2πσ2 ż ˆ R $ ´ ¯ ˛2 , ¨ σ ’ / 1 & . x1 ´ µ1 ` % σ2 px2 ´ µ2 q 1 1 ˝ ‚ a exp ´ dx1 ? 2 ’ / σ1 2πσ1 1 ´ %2 % 2p1 ´ % q - $ ´ ´ ¯¯2 , σ / ’ " * ż 1 & x1 ´ µ1 ` % σ px2 ´ µ2 q . 1 px2 ´ µ2 q2 1 1 2 a exp ´ dx1 “? exp ´ ? / ’ 2 σ22 2σ12 p1 ´ %2 q 2πσ2 2πσ1 1 ´ %2 % R Der Integrand ist gerade die Dichtefunktion einer Normalverteilung mit den Parametern σ1 µ “ µ1 ` % px2 ´ µ2 q und σ 2 “ σ12 p1 ´ %2 q . σ2 Deshalb ist der Wert des Integrals stets 1, und man erhält * " 1 1 px2 ´ µ2 q2 , exp ´ fX2 px2 q “ ? 2 σ22 2πσ2 ` ˘ d.h. X2 „ N µ2 ; σ22 . Ganz analog kann man zeigen, dass die Randverteilung von X1 ebenfalls ` ˘ eine Normalverteilung ist, und zwar X1 „ N µ1 ; σ12 . 61 TU Bergakademie Freiberg 5.5 Wahrscheinlichkeitstheorie Sommersemester 2017 Logarithmische Normalverteilung Definition 5.5. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine logarithmische Normalverteilung bzw. Log-Normalverteilung mit den Parametern µ P R und σ 2 ą 0 , falls ihre Dichtefunktion durch pln x´µq2 1 fX pxq “ ? e´ 2σ2 Ip0,8q pxq , 2πσx x P R, gegeben ist. Hierfür schreibt man auch ` ˘ X „ LogN µ; σ 2 . Satz 5.5.1 Sei Y „ N pµ; σ 2 q eine normalverteilte Zufallsgröße. Dann gilt ` ˘ X “ eY „ LogN µ; σ 2 . Anwendung • Bei der multiplikativen Überlagerung vieler (kleiner) unabhängiger Einflüsse kann die daraus resultierende Größe annähernd durch eine logarithmisch normalverteilte Zufallsgröße modelliert werden. • Ingenieurwissenschaften (Korngrößenverteilung). • Versicherungsmathematik (Schadenzahlverteilung, Schadenhöheverteilung). • Finanzmathematik (Einkommensverteilung). Bestimmungsstücke und Kenngrößen Sei X „ LogN pµ; σ 2 q eine mit den Parametern µ P R und σ 2 ą 0 logarithmisch normalverteilte Zufallsgröße. Dann gilt für x P R ˆ FX pxq “ Φ lnpxq ´ µ σ ˙ 1 Ip0,8q pxq mit Φpxq “ ? 2π żx t2 e´ 2 dt , ´8 E pXq “ eµ` σ2 2 , ´ 2 ¯ 2 Var pXq “ eσ ´1 e2µ`σ , ¯ ´ 2 a p2 σ 2 2 σ σ γ pXq “ e ´1 e `2 ą 0 und µp pXq “ epµ` 2 62 für p P N . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Bedeutung der Parameter • Wie man der Übersicht der Bestimmungsstücke und Kenngrößen entnehmen kann, treten die Parameter µ und σ 2 häufig gemeinsam in den Formeln für die Kenngrößen auf. Durch diese Kopplung ist es nicht möglich, eine klare Zuordnung etwa zu Lageoder Streuungsparametern vorzunehmen. • So wirkt der Parameter µ im Unterschied zur Normalverteilung hier nicht wie ein Lagebzw. Verschiebungsparameter, sondern eher wie ein nichtlinearer Skalenparameter. • Der Parameter σ 2 kann hingegen als Formparameter interpretiert werden, da er die Gestalt der Dichtefunktion wesentlich beeinflusst. 5.6 Exponentialverteilung Definition 5.6. Eine stetige Zufallsgröße T auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Exponentialverteilung mit dem Parameter λ ą 0 , falls ihre Dichtefunktion durch fT ptq “ λ e´λt Ir0,8q ptq , t P R, gegeben ist. Hierfür schreibt man auch T „ Exp pλq . Bedeutung des Parameters • λ ist ein Skalenparameter. Bestimmungsstücke und Kenngrößen Die Zufallsgröße T besitze eine Exponentialverteilung mit dem Parameter λ ą 0 . Dann gilt (vgl. Beispiele 2.17, 2.25, 2.7, 2.33, 2.51) ` ˘ FT ptq “ 1 ´ e´λt Ip0,8q ptq , t P R, µp pT q “ E pT q “ 1 , λ p! λp für p P N , Var pT q “ 1 , λ2 γ pT q ” 2 . Satz 5.6.1 Es sei T „ Exp pλq eine mit dem Parameter λ ą 0 exponentialverteilte Zufallsgröße. Dann gilt PpT ě t0 ` t | T ą t0 q “ PpT ě tq für alle t0 , t ą 0 , d.h. die Exponentialverteilung besitzt die Eigenschaft der Gedächtnislosigkeit. 63 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anmerkung 5.6.2 • Die Exponentialverteilung ist das stetige Analogon zur geometrischen Verteilung. Anwendung • Zuverlässigkeitstheorie (Beschreibung der Lebensdauer von nicht alternden technischen Systemen). • Operations Research – Betriebsdauer zwischen Systemausfällen; – Zeit zwischen dem Eintreffen aufeinanderfolgender Kunden; – Zeit zwischen aufeinanderfolgender Telefonanrufen. • Versicherungsmathematik (Verteilung der Schadenhöhe). Satz 5.6.3 Seien Ti „ Exp pλq , i “ 1, . . . , d , i.i.d. exponentialverteilte Zufallsgrößen mit dem Parameter λ ą 0 . Dann gilt (vgl. Beispiel 3.17) mintT1 , . . . , Td u „ Exp pλdq . 5.7 Gammaverteilung Definition 5.7. Eine stetige Zufallsgröße T auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Gammaverteilung mit den Parametern λ ą 0 und p ą 0 , falls ihre Dichtefunktion durch λp p´1 ´λt t e Ip0,8q ptq , t P R, fT ptq “ Γppq gegeben ist. Hierfür schreibt man auch T „ Γ pλ; pq . Definition Gammafunktion Die Gammafunktion Γpxq ist für x ą 0 durch das uneigentliche Integral erster Art ż8 tx´1 e´t dt Γpxq :“ 0 64 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 definiert. Die unvollständige Gammafunktion der unteren Grenze Γpx, yq ist gegeben durch ż8 Γpx, yq :“ tx´1 e´t dt für x ą 0 und y ą 0 . y Eigenschaften der Gammafunktion lim Γpx, yq “ Γpxq für alle x ą 0 . y0 ˆ ˙ ? 1 “ π Γpx ` 1q “ x Γpxq , Γp1q “ 1 und Γ 2 Γpn ` 1q “ n! für n P N . sowie Bedeutung der Parameter • λ ist ein Skalenparameter. • p ist ein Struktur- bzw. Formparameter. Bestimmungsstücke und Kenngrößen Die Zufallsgröße T besitze eine Gammaverteilung mit den Parametern λ ą 0 und p ą 0 . Dann gilt ˙ ˆ Γpp, λtq Ip0,8q ptq , t P R, FT ptq “ 1 ´ Γppq p p 2 E pT q “ , Var pT q “ 2 , γ pT q “ ? ą 0 , λ λ p q ś Γpp ` qq µq pT q “ q “ λ Γppq pp ` l ´ 1q l“1 λq für q P N . Anwendung • Zuverlässigkeitstheorie (Beschreibung der Lebensdauer von technischen Systemen) Spezialfall Die Exponentialverteilung ist eine spezielle Gammaverteilung. Es gilt Exp pλq “ Γ pλ; 1q für λ ą 0 . Anmerkung Mit Hilfe der charakteristischen Funktionen kann leicht gezeigt werden: Seien T1 „ Γ pλ; p1 q und T2 „ Γ pλ; p2 q unabhängige Zufallsgrößen. Dann gilt T1 ` T2 „ Γ pλ; p1 ` p2 q , d.h. die Familie der Gammaverteilungen ist abgeschlossen bezüglich der Faltung. 65 TU Bergakademie Freiberg 5.8 Wahrscheinlichkeitstheorie Sommersemester 2017 Erlang-Verteilung Definition 5.8. Die Gammaverteilung mit den Parametern λ ą 0 und p “ n P N wird Erlang-Verteilung mit den Parametern λ ą 0 und n P N genannt. Eine Erlang-verteilte Zufallsgröße T besitzt folglich die Dichtefunktion fT ptq “ λn tn´1 e´λt Ip0,8q ptq , pn ´ 1q! t P R. Hierfür schreibt man auch T „ Erl pλ; nq . Anmerkung Seien T1 „ Erl pλ; n1 q und T2 „ Erl pλ; n2 q unabhängige Zufallsgrößen. Dann gilt T1 ` T2 „ Erl pλ; n1 ` n2 q , d.h. die Familie der Erlang-Verteilungen ist abgeschlossen bezüglich der Faltung. Aufgabe Seien Ti „ Exp pλq , i “ 1, . . . , n , i.i.d. exponentialverteilte Zufallsgrößen mit dem Parameter λ ą 0 . Zeigen Sie, dass dann gilt T1 ` . . . ` Tn „ Erl pλ; nq , d.h. die Summe unabhängiger, exponentialverteilter Zufallsgrößen ist Erlang-verteilt. 5.9 Chi-Quadrat-Verteilung Definition 5.9. Die Gammaverteilung mit den Parametern λ “ 12 und p “ n2 , n P N , wird χ2 -Verteilung mit n Freiheitsgraden genannt. Eine mit n Freiheitsgraden χ2 -verteilte Zufallsgröße T besitzt folglich die Dichtefunktion fT ptq “ t n 1 ` n ˘ t 2 ´1 e´ 2 Ip0,8q ptq , 2 Γ 2 n 2 t P R. Hierfür schreibt man auch T „ χ2n . Folgerung Seien T1 „ χ2n1 und T2 „ χ2n2 unabhängige Zufallsgrößen. Dann gilt T1 ` T2 „ χ2n1 `n2 , d.h. die Familie der χ2 -Verteilungen ist abgeschlossen bezüglich der Faltung. 66 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Bestimmungsstücke und Kenngrößen Die Zufallsgröße T besitze eine χ2 -Verteilung mit n Freiheitsgraden. Dann gilt ? 2 2 Var pT q “ 2n , γ pT q “ ? ą 0 , E pT q “ n , n µq pT q “ q ź pn ` 2pl ´ 1qq für q P N . l“1 Satz Seien Xi „ N p0; 1q , i “ 1, . . . , n , i.i.d. standardnormalverteilte Zufallsgrößen. Dann gilt X12 ` . . . ` Xn2 „ χ2n , d.h. die Summe der Quadrate unabhängiger, standardnormalverteilter Zufallsgrößen ist χ2 verteilt mit n Freiheitsgraden. 5.10 Weibull-Verteilung Definition 5.10. Eine stetige Zufallsgröße T auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt eine Weibull-Verteilung mit den Parametern λ ą 0 und p ą 0 , falls ihre Dichtefunktion durch p fT ptq “ p λp tp´1 e´pλtq Ip0,8q ptq , t P R, gegeben ist. Hierfür schreibt man auch T „ Wei pλ; pq . Bedeutung der Parameter • λ ist ein Skalenparameter. • p ist ein Struktur- bzw. Formparameter. Bestimmungsstücke und Kenngrößen Die Zufallsgröße T besitze eine Weibull-Verteilung mit den Parametern λ ą 0 und p ą 0 . Dann gilt ` p˘ FT ptq “ 1 ´ e´pλtq Ip0,8q ptq , t P R, ´ ¯ Γ E pT q “ 1 p , λp Var pT q “ ´ Γ µq pT q “ ´ ¯2 ´ ¯ 2p Γ p`q p λq ¯ 2 p ´Γ 1 p λ2 p2 ´ ¯ qΓ “ q p pλq 67 für q P N . , TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Anwendung • Zuverlässigkeitstheorie (Beschreibung der Lebensdauer von technischen Systemen). • Festigkeit spröder Materialien. • Partikelgrößenverteilung in der mechanischen Verfahrenstechnik. • Grenzverteilung geeignet normierter Minima ( Verteilung des schwächsten Kettenglieds“). ” Anmerkungen (1) In einigen Lehrbüchern bzw. Formelsammlungen wird als Dichtefunktion der WeibullVerteilung p fT ptq “ p λ tp´1 e´λt Ip0,8q ptq , t P R, an Stelle von p fT ptq “ p λp tp´1 e´pλtq Ip0,8q ptq , t P R, angegeben. Dadurch erfolgt jedoch eine Kopplung der beiden Parameter λ und p , so dass λ nicht mehr als Skalenparameter interpretiert werden kann. (2) Die Weibull-Verteilung wird in der Verfahrenstechnik auch als RRSB-Verteilung (nach Rosin, Rammler, Sperling und Bennet) bezeichnet. Spezialfall Die Exponentialverteilung ist eine spezielle Weibull-Verteilung. Es gilt Exp pλq “ Wei pλ; 1q 5.11 für λ ą 0 . Rayleigh-Verteilung Definition 5.11. Die Weibull-Verteilung mit den Parametern λ “ ?12σ , σ ą 0 , und p “ 2 wird Rayleigh-Verteilung mit dem Parameter σ 2 ą 0 genannt. Eine mit dem Parameter σ 2 ą 0 Rayleigh-verteilte Zufallsgröße besitzt folglich die Dichtefunktion fT ptq “ 1 ´ t22 t e 2σ Ip0,8q ptq , σ2 Hierfür schreibt man auch ` ˘ T „ Ray σ 2 . 68 t P R. TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Bestimmungsstücke und Kenngrößen Die Zufallsgröße T besitze eine Rayleigh-Verteilung mit dem Parameter σ 2 ą 0 . Dann gilt ˙ ˆ 2 ´ t2 FT ptq “ 1 ´ e 2σ Ip0,8q ptq , t P R , c E pT q “ π σ, 2 π¯ 2 Var pT q “ 2 ´ σ . 2 ´ Satz Seien X1 „ N p0; σ 2 q und X2 „ N p0; σ 2 q unabhängige Zufallsgrößen. Dann gilt b ` ˘ X12 ` X22 „ Ray σ 2 . 6 6.1 Bedingte Verteilungen und bedingte Erwartungswerte Zufälliges Ereignis mit positiver Wahrscheinlichkeit als Bedingung Definition 6.1 ((und Behauptung)). Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq und B P F ein zufälliges Ereignis mit PpBq ą 0 . PpA X Bq die bedingte Wahrscheinlichkeit von A unter Für A P F ist PpA|Bq :“ PpBq der Bedingung B (auch: gegeben B“). ” Die Abbildung F Q A ÞÑ PB pAq “ PpA|Bq P r0; 1s Ă R definiert ein Wahrscheinlichkeitsmaß auf pΩ, F, Pq, welches absolut stetig bezüglich P ist und die Radon-Nikodym-Ableitung d PB 1 pωq “ ¨ IB pωq , dP PpBq ω P Ω, besitzt. Definition 6.2 ((und Behauptung)). Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq, ein zufälliges Ereignis B P F mit PpBq ą 0 und eine Zufallsvariable X : Ω Ñ Ω1 mit Werten im messbaren Raum pΩ1 , F 1 q . Die Abbildung F 1 Q A1 ÞÑ PX|B pA1 q :“ P ptX P A1 u X Bq PpBq ist ein Wahrscheinlichkeitsmaß auf pΩ1 , F 1 q, die bedingte Verteilung der Zufallsvariable X unter der Bedingung B bzw. kurz die bedingte Verteilung von X unter B. 69 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Definitionen 6.3. Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq, ein zufälliges Ereignis B P F mit PpBq ą 0 und eine Zufallsgröße X : Ω Ñ R . • Die Funktion R Q x ÞÑ FX|B pxq :“ PX|B pp´8; xqq “ P ptX ă xu X Bq , PpBq x P R, ist die bedingte Verteilungsfunktion der Zufallsgröße X unter der Bedingung B bzw. kurz bedingte Verteilungsfunktion von X unter B. • Falls existiert, ist ż E pX|Bq :“ x PX|B pdxq P R R der bedingte Erwartungswert der Zufallsgröße X unter der Bedingung B. Anmerkung 6.4. Mit den Bezeichnungen der vorigen Definitionen gilt: Existiert E pXq , dann existiert auch E pX|Bq und es gilt ż ż 1 E pX|Bq “ X d P “ X d PB . PpBq B Ω Satz 6.5 ((und Definition)). Sei pX, Y qT ein stetiger Zufallsvektor mit gemeinsamer Dichtefunktion fX,Y und B P B mit PpY P Bq ą 0 . Dann ist die bedingte Verteilung PX|Y PB von X unter Y P B absolut stetig bezüglich λ und die bedingte Dichte von X unter Y P B ist ż d PX|Y PB 1 pxq “ fX,Y px, yq dy , x P R . fX|Y PB pxq “ dλ PpY P Bq B 6.2 Höchstens abzählbare Zerlegung als Bedingung Anmerkung 6.6. In vielen Situationen kann (muss) man mit bedingenden Ereignissen rechnen, die aber noch nicht bekannt sind. Dann sind bedingte Wahrscheinlichkeiten und Erwartungswerte als Zufallsgrößen zu modellieren. Die wird hier zuerst für den (technisch einfacheren) Fall diskreter Zufallsgrößen behandelt. Voraussetzung 6.7. Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq und eine diskrete Zufallsgröße Y auf pΩ, F, Pq mit Wertebereich tyk ; k P J Ă Nu , so dass für alle k P J gilt: PpY “ yk q ą 0 . Definitionen 6.8. Unter Voraussetzung 6.7 sei A P F und X eine Zufallsgröße auf pΩ, F, Pq mit E p|X|q ă 8 . 70 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (i) Die bedingte Wahrscheinlichkeit von A gegeben Y (bezüglich Y ) ist die Zufallsgröße PpA|Y q auf pΩ, F, Pq, definiert durch PpA|Y qpωq “ PpA|tY “ yk uq “ PpA X tY “ yk uq PpY “ yk q für ω P tY “ yk u, k P J. (ii) Der bedingte Erwartungswert von X gegeben Y (oder bezüglich Y ) ist die Zufallsgröße E pX|Y q auf pΩ, F, Pq, definiert durch ż 1 X dP E pX|Y q pωq “ E pX|tY “ yk uq “ PpY “ yk q tY “yk u für ω P tY “ yk u, k P J. Anmerkung 6.9. Mit den Ereignissen Bk :“ tω P Ω : Y pωq “ yk u, k P J, ist eine höchstens abzählbare Zerlegung des Grundraumes ď Z :“ tBk ; k P Ju mit Bk “ Ω ; Bk X B` “ ∅ , k, ` P J, k ­“ `, kPJ und die dazugehörige σ´Algebra # A“ + ď Bj ; J0 Ă J “ σpY q jPJ0 verbunden. Definition 6.10. Unter Voraussetzung 6.7 definiert man mit den obigen Bezeichnungen die bedingte Wahrscheinlichkeit von A bezüglich Z bzw. bezüglich σpY q als PpA|Zq :“ PpA|Aq :“ PpA|σpY qq :“ PpA|Y q . Analog definiert man den bedingten Erwartungswert von X bezüglich Z bzw. bezüglich σpY q als E pX|Zq :“ E pX|Aq :“ E pX|σpY qq :“ E pX|Y q . Da dies eine Zufallsgröße ist, spricht man auch von der bedingten Erwartung von X bezüglich Z. Satz 6.11. Mit Definition 6.10 gilt für A P F mit der Indikatorfunktion IA : Ω Ñ t0; 1u PpA|Y q “ E pIA |Y q . Anmerkung 6.12. Diese Beziehung ist die Entsprechung zu PpAq “ E pIA q und zeigt, dass die Eigenschaften bedingter Wahrscheinlichkeiten aus denen bedingter Erwartungen abgeleitet werden können. Der nachfolgende Satz ist der Schlüssel zur Definition bedingter Erwartungen (und Wahrscheinlichkeiten) bezüglich beliebiger Teil-σ-Algebren von F . 71 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 6.13. Unter den Voraussetzungen zu Definition 6.10 gilt für eine Zufallsgröße X mit E p|X|q ă 8 : (i) Die Zufallsgröße E pX|Y q ist eindeutig gekennzeichnet durch die beiden Bedingungen (a) E pX|Y q ist messbar bezüglich A “ σpY q ; (b) für beliebige B P A “ σpY q gilt ż ż E pX|Y q d P “ Xd P . B B (ii) Es existiert eine messbare Funktion ψ : R Ñ R , so dass gilt E pX|Y q pωq “ ψpY pωqq , ω P Ω. Beispiel 6.14. Gegeben sei ein diskreter Zufallsvektor pX, Y qT mit ˘ ` P pX, Y qT “ pxi , yj qT “ pij , i “ 1, . . . , M ; j “ 1, . . . , N ; wobei pij ą 0 für beliebige i “ 1, . . . , M ; j “ 1, . . . , N gelte. 6.3 Teil-Sigma-Algebra als Bedingung Anmerkung 6.15. Die Definition von bedingten Wahrscheinlichkeiten bzw. Erwartungen ist schwieriger, wenn als Bedingung tY “ yu mit PpY “ yq “ 0 für ein y P R berücksichtigt werden muss, z.B. für eine stetige Zufallsgröße Y . Dies ist notwendig und möglich mit Hilfe der Aussagen in (i) von Satz 6.13. Beispiel 6.16. Gegeben sei eine Zufallsgröße Y „ U r0; 1s . In Abhängigkeit der Realisierung y von Y werden n unabhängige Bernoulli-Experimente mit Erfolgswahrscheinlichkeit y durchgeführt, X sei die zufällige Anzahl der sich einstellenden Erfolge. Dann sollte intuitiv gelten ˆ ˙ n k PpX “ k|Y “ yq “ y p1 ´ yqn´k für k “ 0, . . . , n . k Definition 6.17. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, A eine Teil-σ-Algebra von F , X und XA Zufallsgrößen auf pΩ, F, Pq mit E p|X|q ă 8, sowie (a) XA ist A-messbar und (b) für beliebige A P A gilt E pXIA q “ E pXA IA q . 72 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Dann heißt XA bedingte Erwartung von X gegeben A (oder bedingter Erwartungswert unter der Bedingung A, etc. und wird durch E pX|Aq bezeichnet. Im Fall A “ σpY q mit einer Zufallsvariable Y schreibt man auch E pX|Y q . Für X “ IB mit B P F heißt E pX|Aq “ E pIB |Aq “: PpB|Aq bedingte Wahrscheinlichkeit von B unter der Bedingung A. Satz 6.18 ((Korrektheit)). Erfüllen die Zufallsgrößen XA und X̃A die Bedingungen (i) und (ii) in Definition 6.17, dann gilt XA “ X̃A P ´f.s.. (Zufallsgrößen mit dieser Eigenschaft werden Versionen der bedingten Erwartung von X gegeben A genannt.) Satz 6.19 ((Existenz)). Unter den Voraussetzungen von Definition 6.17 existiert E pX|Aq . Satz 6.20. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, A eine Teil-σ-Algebra von F , X1 und X2 Zufallsgrößen auf pΩ, F, Pq mit endlichem Erwartungswert mit PpX1 “ X2 q “ 1 . Dann gilt E pX1 |Aq “ E pX2 |Aq P ´f.s.. Satz 6.21 ((und Definition)). Unter den Voraussetzungen von Definition 6.17 sei A “ σpY q für eine Zufallsgröße Y mit Verteilung PY . Dann existiert eine PY -f.s. eindeutig definierte messbare Funktion g : R Ñ R , so dass E pX|Y q pωq “ gpY pωqq P ´f.s. gilt. Eine solche Funktion wird bezeichnet mit gpyq “ E pX|Y “ yq und bedingter Erwartungswert von X unter der Bedingung tY “ yu genannt. Im Fall X “ IB , B P F , wird gpY q “ E pIB |Y “ yq “ PpB|Y “ yq als bedingte Wahrscheinlichkeit von B unter der Bedingung Y “ y bezeichnet. Satz 6.22 ((Faktorisierungslemma, Satz von Doob-Dynkin)). Seien Y, Z Zufallsgrößen auf pΩ, F, Pq und Z sei messbar bezüglich σpY q. Dann existiert eine messbare Funktion g : R Ñ R mit Z “ gpY q und die Funktionswerte von g sind für alle y P WY “ tY pωq ; ω P Ωu eindeutig bestimmt. Satz 6.23. Unter den Voraussetzungen zu Satz 6.21 wird eine Funktion R Q y ÞÑ gpyq “ E pX|Y “ yq PY -f.s. eindeutig durch die Bedingung ż ż @B P B : Xpωq Ppdωq “ gpyq PY pdyq Y ´1 pBq B definiert. Im Fall X “ IA , A P F, lautet die Bedingung ż @ B P B : P pA X tY P Buq “ PpA|Y “ yq PY pdyq. B 73 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 6.24 ((und Definition)). Sei pX, Y qT ein stetiger Zufallsvektor mit gemeinsamer Dichtefunktion fX,Y und h : R Ñ R eine messbare Funktion, so dass E p|hpXq|q ă 8 . Dann ist mit der bedingten Dichte von X unter Y # fX,Y px,yq , falls fY pyq ą 0 ; fY pyq fX|Y px|yq “ 0, sonst die Zufallsgröße ż hpxqfX|Y px|Y q dx R eine Version von E phpXq|Y q , der bedingten Erwartung von hpXq unter Y , d.h. ż E phpXq|Y “ yq “ hpxqfX|Y px|yq dx für PY -fast alle y P R . R Anmerkung 6.25. Die bedingte Dichte fX|Y px|yq ergibt sich für stetige fX,Y durch einen Grenzprozess: für A P B mit PpX P Aq ą 0 und y0 P R, h ą 0 , mit Ppy0 ď Y ď y0 `hq ą 0 gilt PpX P A|y0 ď Y ď y0 ` hq “ y0ş`h ş fX,Y px, yq dx dy y0 A y0ş`h ş y0 ş fX,Y px, yq dx A Ñ ş fX,Y px, yq dx dy fX,Y px, yq dx ph Ñ 0q . R R Satz 6.26. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit E p|X|q ă 8 und A eine Teil-σ-Algebra von F . (i) @ c P R : E pcX|Aq “ c E pX|Aq P-f.s. . (ii) E pE pX|Aqq “ E pXq . (iii) Ist X A-messbar, gilt E pX|Aq “ X P-f.s. . (iv) Ist A1 eine Teil-σ-Algebra von A gilt die Turmeigenschaft E pE pX|Aq |A1 q “ E pX|A1 q P ´f.s. . (v) Ist Y eine weitere Zufallsgröße auf pΩ, F, Pq mit E p|Y |q ă 8 , dann gilt E pX ` Y |Aq “ E pX|Aq ` E pY |Aq 74 P ´f.s. . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 6.27. Seien Y, X, Xi , i P N, Zufallsgrößen auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit endlichen Erwartungswerten sowie A eine Teil-σ-Algebra von F. (i) Y ě X P ´f.s. E pY |Aq ě E pX|Aq ñ P ´f.s. (ii) (Satz über monotone Konvergenz) @ i P N : Xi`1 ě Xi P ´f.s. ; X “ lim Xi lim E pXi |Aq “ E pX|Aq ñ P ´f.s. iÑ8 P ´f.s. iÑ8 (iii) (Lemma von Fatou) ´ ¯ @ i P N : Xi ě 0 P ´f.s. ; E lim inf Xi ă 8 iÑ8 ´ ¯ ñ E lim inf Xi |A ď lim inf E pXi |Aq P ´f.s. iÑ8 iÑ8 Satz 6.27 ((Fortsetzung)). (iv) (Satz über dominierte Konvergenz) @ i P N : |Xi | ď Y P ´f.s. ; X “ lim Xi iÑ8 lim E pXi |Aq “ E pX|Aq ñ iÑ8 P ´f.s. P ´f.s. (v) (Ungleichung von Jensen) g : R Ñ R konvex, E p|X|q ` E p|gpXq|q ă 8 E pgpXq|Aq ě g pE pX|Aqq ñ P ´f.s. Folgerung 6.28. Seien X, Xi , i P N, Zufallsgrößen auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit endlichen Erwartungswerten sowie A eine Teil-σ-Algebra von F. E pX|Aq ě 0 P ´f.s. ˇ ˘ ` ˇA (ii) Es gilt |E pX|Aq| ď Eˇ |X| P ´f.s. und allgemeiner für p ě 1 E p|X|p q ă 8 ` ˘ p |E pX|Aq| ď E |X|p ˇA P ´f.s. (i) X ě 0 P ´f.s. ñ (iii) lim E p|Xi ´ X|q “ 0 iÑ8 ñ ñ lim E p| E pXi |Aq ´ E pX|Aq |q “ 0 . iÑ8 Satz 6.29. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit E p|X|q ă 8 und A eine Teil-σ-Algebra von F. (i) Sind X und A unabhängig, dann gilt E pX|Aq “ E pXq (ii) Für B P A gilt E pXIB |Aq “ IB E pX|Aq P ´f.s. . P ´f.s. . (iii) Für eine A-messbare Zufallsgröße Y mit E p|XY |q ă 8 gilt E pXY |Aq “ Y E pX|Aq 75 P ´f.s. . TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (iv) Sei g : R2 Ñ R` messbar, die Zufallsgröße Y sei A-messbar, X sei unabhängig von A und es gelte E pgpX, Y qq ă 8 . Es bezeichne für y P R Gpyq :“ E pgpX, yqq . Dann ist G : R Ñ R` eine messbare Funktion und es gilt E pgpX, Y q|Aq “ GpY q P ´f.s. . Satz 6.30. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit E p|X|2 q ă 8 , A eine Teil-σ-Algebra von F , H “ L2 pΩ, F, Pq , H1 :“ L2 pΩ, A, P |A q und πA : H Ñ H1 der Operator der orthogonalen Projektion auf H1 . Dann gilt E pX|Aq “ πA X P ´f.s. und insbesondere ` ˘ E pX ´ E pX|Aqq2 ` ˘ “ inftE pX ´ Y q2 : Y : Ω Ñ R, Y ist A ´ messbaru . Satz 6.31. Sei pX, X1 , . . . , Xn qT ein Gaussscher (d.h. normalverteilter) Zufallsvektor auf dem Wahrscheinlichkeitsraum pΩ, F, Pq und A “ σpX1 , . . . , Xn q . Dann gilt E pX|Aq “ a ` b1 X1 ` . . . ` bn Xn P ´f.s., wobei pa, b1 , . . . , bn q eine (beliebige) Lösung des linearen Gleichungssystems E pXq “ a ` b1 E pX1 q ` . . . ` bn E pXn q E pXXi q “ a E pXi q ` b1 E pX1 Xi q ` . . . ` bn E pXn Xi q , i “ 1, . . . , n, ist. Dieses lineare Gleichungssystem besitzt mindestens eine Lösung. T Folgerung 6.32. Sei ein ~ “ 1 , X2 q ˆ pX ˙ normalverteilter Zufallsvektor mit Parametern µ 2 σ % σ σ 1 2 1 pµ1 , µ2 qT P R2 , Σ “ mit σ12 σ22 ą 0, |%| ă 1 . Dann gelten für x1 P R , x2 P R % σ1 σ2 σ22 $ ´ ´ ¯¯2 , ’ / σ 2 & x2 ´ µ2 ` % σ px1 ´ µ1 q . 1 1 exp ´ , fX2 |X1 px2 |x1 q “ a ’ / 2p1 ´ %2 qσ22 2πp1 ´ %2 qσ2 % - ¯ ´ d.h. X2 |X1 “ x1 „ N µ2 ` % σσ12 px1 ´ µ1 q; p1 ´ %2 qσ22 , sowie E pX2 |X1 q “ a ` bX1 P ´f.s. mit b “ % σ2 , a “ µ2 ´ bµ1 , σ1 d.h. E pX2 |X1 q „ N pµ2 ; %2 σ22 q , E ppX2 ´ E pX2 |X1 qq2 q “ p1 ´ %2 qσ22 . 76 TU Bergakademie Freiberg 7 7.1 Wahrscheinlichkeitstheorie Sommersemester 2017 Grenzwertsätze Charakteristische Funktionen Definition 7.1. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq. Die komplexwertige Funktion ϕX einer reellen Variablen mit ż ż ż ` itX ˘ itX ϕX ptq :“ E e “ e d P “ cosptXq d P `i sinptXq d P Ω Ω Ω für t P R heißt charakteristische Funktion der Zufallsgröße X (bzw. der Verteilung PX ). Anmerkung 7.2. ϕX ptq existiert für beliebige t P R , da | eitx | ď 1 gilt und die Funktion messbar ist. Satz 7.3. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq. (i) Es gilt für t P R ż ż ż itx e ϕX ptq “ PX pdxq “ żR żR eitx dFX pxq “ “ R cosptxq PX pdxq ` i sinptxq PX pdxq żR cosptxq dFX pxq ` i sinptxq dFX pxq. R R (ii) Für eine diskrete Zufallsgröße X mit möglichen Werten pxk ; k P Jq und Einzelwahrscheinlichkeiten ppk ; k P Jq gilt ÿ ÿ ÿ ϕX ptq “ eitxk pk “ cosptxk qpk ` i sinptxk qpk . kPJ kPJ kPJ (iii) Für eine stetige Zufallsgröße X mit Dichtefunktion fX gilt ż ż ż itx ϕX ptq “ e fX pxq dx “ cosptxqfX pxq dx ` i sinptxqfX pxq dx. R R R Beispiele 7.4. a) Besitzt die Zufallsgröße X eine Einpunktverteilung in c P R , dann gilt ϕX ptq “ eitc “ cosptcq ` i sinptcq , t P R. b) Ist die Zufallsgröße X exponentialverteilt mit Parameter λ ą 0 , dann gilt ϕX ptq “ λ , λ ´ it 77 t P R. TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 7.5. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX . Dann gelten: (i) ϕX p0q “ 1 ; (ii) |ϕX ptq| ď 1 , t P R; (iii) ϕX p´tq “ ϕ´X ptq “ ϕX ptq , t P R; (iv) für a, b P R ist ϕaX`b ptq “ eitb ϕX patq , t P R; (v) ϕX ist gleichmäßig stetig auf R ; (vi) für beliebige n P N , t1 , . . . , tn P R , z1 , . . . , zn P C gilt n ÿ ϕX ptk ´ t` qzk z` ě 0 k,`“1 (d.h., ϕX ist eine positiv semidefinite oder nichtnegativ definite Funktion auf R). Satz 7.6. Für unabhängige Zufallsgrößen X, Y auf pΩ, F, Pq mit charakteristischen Funktionen ϕX , ϕY gilt (i) ϕX`Y ptq “ ϕX ptq ¨ ϕY ptq , t P R; (ii) ϕX´Y ptq “ ϕX ptq ¨ ϕY ptq , t P R; (iii) sind die Zufallsgrößen X1 , . . . , Xn mit n P N unabhängig und identisch verteilt, dann gilt für die Zufallsgröße Sn :“ X1 ` . . . ` Xn ϕSn ptq “ pϕX1 ptqqn , t P R. Satz 7.7. Die charakteristische Funktion einer Zufallsgröße bestimmt deren Verteilungsgesetz eindeutig, d.h. aus ϕX ptq “ ϕY ptq , t P R, für Zufallsgrößen X und Y folgt PX “ PY . (Die Zufallsgrößen dürfen prinzipiell auch auf unterschiedlichen Wahrscheinlichkeitsräumen definiert sein.) Satz 7.8. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX , Verteilungsfunktion FX und Verteilung PX . Es gelten: ż 1 1 T e´ita ´ e´itb ϕX ptq dt “ PX ppa; bqq ` PX pta, buq ; (i) lim T Ñ8 2π ´T it 2 78 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (ii) sind a und b Stetigkeitsstellen von FX , dann ist ż 1 T e´ita ´ e´itb ϕX ptq dt “ FX pbq ´ FX paq ; lim T Ñ8 2π ´T it ż |ϕX ptq| dt ă 8 , dann ist X eine stetige Zufallsgröße mit gleichmäßig (iii) falls zusätzlich R stetiger Dichtefunktion fX und 1 fX pxq “ 2π ż e´itx ϕX ptq dt , x P R. R Satz 7.9. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX . Dann ist X genau dann symmetrisch, wenn die charakteristische Funktion reellwertig ist, d.h. es gilt ϕX ptq P R für beliebige t P R . Beispiele 7.10. Für t P R gilt für eine diskrete Zufallsgröße X a) X „ Utx1 , . . . , xn u ñ n 1 ÿ itxk ϕX ptq “ e ; n k“1 b) X „ B pn; pq ñ ` ` ˘˘n ϕX ptq “ 1 ´ p 1 ´ eit ; c) X „ Geo ppq ñ ϕX ptq “ d) X „ Geoo ppq f) X „ Π pλq ñ ñ p ; 1 ´ p1 ´ pq eit ˙n ˆ p eit ; ϕX ptq “ 1 ´ p1 ´ pq eit ϕX ptq “ ñ e) X „ NB pn; pq p eit ; 1 ´ p1 ´ pq eit ϕX ptq “ eλpe it ´1q . Beispiele 7.11. Für t P R gilt für eine stetige Zufallsgröße X a) X „ Ura; bs ñ eitb ´ eita ϕX ptq “ ; pb ´ aqit b) X „ C pµ; λq ñ ϕX ptq “ eiµt´λ|t| ; ` ˘ 1 2 2 c) X „ N µ; σ 2 ñ ϕX ptq “ eiµt´ 2 σ t ; d) X „ Exp pλq ñ e) X „ Γ pλ; pq ñ λ ; λ ´ it ˆ ˙p λ ϕX ptq “ ; λ ´ it ϕX ptq “ 79 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie ˆ f) X „ Erl pλ; nq ϕX ptq “ ñ λ λ ´ it Sommersemester 2017 ˙n . Satz 7.12. Seien X1 , . . . , XN unabhängige Zufallsgrößen auf pΩ, F, Pq und SN “ X1 ` . . . ` XN . Dann gelten (i) Xi „ B pni ; pq (ii) Xi „ Geo ppq SN „ NB pN ; pq ; ñ (iii) Xi „ NB pni ; pq (iv) Xi „ Π pλi q SN „ B pn1 ` . . . ` nN ; pq ; ñ SN „ NB pn1 ` . . . ` nN ; pq ; ñ SN „ Π pλ1 ` . . . ` λN q ; ñ Satz 7.12 ((Fortsetzung)). (v) Xi „ N pµi ; σi2 q ñ 2 q und SN „ N pµ1 ` . . . ` µN ; σ12 ` . . . ` σN X1 ´ X2 „ N pµ1 ´ µ2 ; σ12 ` σ22 q ; (vi) Xi „ Γ pλ; pi q ñ SN „ Γ pλ; p1 ` . . . ` pN q ; (vii) Xi „ Exp pλq ñ SN „ Erl pλ; N q ; (viii) Xi „ Erl pλ; ni q ñ SN „ Erl pλ; n1 ` . . . ` nN q ; (ix) Xi „ C pµi ; λi q ñ SN „ C pµ1 ` . . . ` µN ; λ1 ` . . . ` λN q und X1 ´ X2 „ C pµ1 ´ µ2 ; λ1 ` λ2 q . Satz 7.13. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX . (i) Falls E p|X|p q ă 8 mit p P N , dann ist (a) ϕX p-fach differenzierbar auf R mit ż ż ppq p itX ϕX ptq “ piXq e dP “ pixqp eitx PX pdxq , Ω R ppq (b) µp pXq “ E pX p q “ p´iqp ϕX p0q ; p ÿ pitqp pitqq (c) ϕX ptq “ µq pXq ` Rp ptq , q! p! q“0 t P R, wobei |Rp ptq| ď 2 E p|X|p q und lim Rp ptq “ 0 gelten. tÑ0 p2nq (ii) Falls ϕX p0q existiert für ein n P N , dann gilt E p|X|2n q ă 8 . 80 t P R; TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 ~ “ pX1 , . . . , Xn qT ein Zufallsvektor auf pΩ, F, Pq. Definition 7.14. Sei X Die komplexwertige Funktion ϕX~ von n reellen Variablen ~t “ pt1 , . . . , tn q P Rn mit ´ ¯ ` ˘ ` ipt1 X1 `...`tn Xn q ˘ ~ i~tX ~ ϕX~ t “ ϕX~ pt1 , . . . , tn q :“ E e “E e ~ (bzw. der Verteilung P ~ ). heißt charakteristische Funktion des Zufallsvektors X X Anmerkungen 7.15. • Die Eigenschaften von charakteristischen Funktionen von Zufallsvektoren entsprechen zum großen Teil den Eigenschaften von charakteristischen Funktionen von Zufallsgrößen. ~ “ pX1 , . . . , Xn qT mit charakteristischer Funktion ϕ ~ • Für einen Zufallsvektor X X erhält man die charakteristische Funktion zum Beispiel von der ersten Komponente X1 , indem in ϕX~ alle Variablen außer der ersten Null gesetzt werden, d.h. ϕX1 ptq “ ϕX~ pt, 0, . . . , 0q , t P R; entsprechende Aussagen gelten für die anderen Komponenten bzw. andere Teilvektoren. ~ “ pX1 , . . . , Xn qT ein Zufallsvektor auf pΩ, F, Pq mit charakteristischer Satz 7.16. Sei X Funktion ϕX~ . Dann sind die Zufallsgrößen X1 , . . . , Xn genau dann vollständig unabhängig, wenn gilt ϕX~ pt1 , t2 , . . . , tn q “ ϕX1 pt1 q ¨ ϕX2 pt2 q ¨ . . . ¨ ϕXn ptn q . ~ “ pX1 , . . . , Xn qT auf pΩ, F, Pq ist genau dann norSatz 7.17. Ein Zufallsvektor X malverteilt mit Erwartungswertvektor µ ~ “ pµ1 , . . . , µn qT und Kovarianzmatrix Σ , d.h. ~ „ N p~µ; Σq , falls für ~t “ pt1 , . . . , tn q P Rn gilt X ~ 1~ ~T ϕX~ p~tq “ ei t µ~ ´ 2 t Σ t . Anmerkungen 7.18. • Dies kann als alternative Definition von normalverteilten Zufallsvektoren genutzt werden. • Sind die Komponenten unkorreliert, dann sind sie auch unabhängig. 81 TU Bergakademie Freiberg 7.2 Wahrscheinlichkeitstheorie Sommersemester 2017 Konvergenzbegriffe für Folgen von Zufallsgrößen Definition 7.19. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Man sagt, die Folge von Zufallsgrößen pXn qnPN konvergiert P-fast sicher gegen X, falls ´! )¯ P ω P Ω : lim Xn pωq “ Xpωq “ 1 nÑ8 und schreibt dafür P -f.s. Xn ÝÝÝÑ X. nÑ8 Anmerkung 7.20. Die P-fast sichere Konvergenz einer Folge von Zufallsgrößen ist ein Spezialfall der in der Maß- und Integrationstheorie eingeführten µ-fast überall Konvergenz einer Folge von messbaren Abbildungen für den Fall eines Wahrscheinlichkeitsmaßes µ “ P. Definition 7.21. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, und es existiere E pX p q bzw. E pXnp q für 1 ď p ă 8 und n P N. Man sagt, die Folge pXn qnPN konvergiert im p-ten Mittel gegen X, falls ż lim |Xn pωq ´ Xpωq|p Ppdωq “ 0 nÑ8 Ω und schreibt dafür Lp pPq Xn ÝÝÝÑ X nÑ8 Lp bzw. Xn ÝÝÝÑ X. nÑ8 Anmerkung 7.22. Die Konvergenz im p-ten Mittel einer Folge von Zufallsgrößen ist ein Spezialfall der in der Maß- und Integrationstheorie eingeführten Konvergenz im p-ten Mittel einer Folge von messbaren Abbildungen für den Fall eines Wahrscheinlichkeitsmaßes µ “ P. Definition 7.23. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Man sagt, die Folge von Zufallsgrößen pXn qnPN konvergiert in Wahrscheinlichkeit oder stochastisch gegen X, wenn für alle ε ą 0 gilt lim P ptω P Ω : |Xn pωq ´ Xpωq| ě εuq “ 0 nÑ8 und schreibt dafür P Xn ÝÝÝÑ X. nÑ8 Anmerkung 7.24. Die Konvergenz in Wahrscheinlichkeit einer Folge von Zufallsgrößen ist ein Spezialfall der in der Maß- und Integrationstheorie eingeführten Konvergenz einer Folge von messbaren Abbildungen dem Maße nach für den Fall eines Wahrscheinlichkeitsmaßes µ “ P. Anmerkungen 7.25. Für die P-fast sichere Konvergenz, die Konvergenz im p-ten Mittel und die stochastische Konvergenz gelten: 82 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 • Sind zusätzlich Xn1 , n P N , Zufallsgrößen auf pΩ, F, Pq und gilt PpXn “ Xn1 q “ 1 , n P N , dann folgen aus der Konvergenz der Zufallsgrößen Xn gegen X auch die entsprechende Konvergenz für n Ñ 8 der Zufallsgrößen Xn1 gegen eine Zufallsgröße X 1 auf pΩ, F, Pq und auch PpX 1 “ Xq “ 1 . Insbesondere sind für diese Konvergenzarten die Grenzwerte P-fast sicher eindeutig bestimmt. • Für diese Konvergenzarten können äquivalente Cauchy-Bedingungen formuliert werden. • Diese Konvergenzarten sind verträglich mit der linearen Struktur, d.h. die Folge pXn qnPN konvergiert genau dann gegen X , wenn die Folge der Zufallsgrößen pXn ´XqnPN gegen 0 konvergiert. Definition 7.26. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Man sagt, die Folge von Zufallsgrößen pXn qnPN konvergiert in Verteilung gegen X bzw. die Folge von Verteilungsgesetzen pPXn qnPN konvergiert schwach gegen PX , wenn für jede stetige beschränkte Funktion g : R Ñ R gilt ż ż ´ ¯ lim g d PXn “ g d PX bzw. lim E pgpXn qq “ E pgpXqq nÑ8 nÑ8 R R und schreibt dafür d Xn ÝÝÝÑ X nÑ8 bzw. PXn ùùùñ PX . nÑ8 Anmerkung 7.27. Die Verteilungskonvergenz kann auch betrachtet werden, wenn die Zufallsgrößen Xn , n P N , auf unterschiedlichen Wahrscheinlichkeitsräumen definiert sind, da nur die Verteilungen im Bildraum wesentlich sind. Satz 7.28. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann konvergiert die Folge pXn qnPN genau dann in Verteilung gegen X, wenn lim FXn pxq “ FX pxq nÑ8 für alle Stetigkeitsstellen x P R von FX pxq. Beispiel 7.29. Sei pcn qnPN eine streng monoton wachsende Folge von reellen Zahlen mit lim cn “ c P R nÑ8 und es gelte für Zufallsgrößen Xn auf pΩ, F, Pq : P pXn “ cn q “ 1 , n P N . Dann konvergiert die Folge pXn qnPN in Verteilung gegen eine Zufallsgröße X mit PpX “ cq “ 1 , aber für die entsprechenden Verteilungsfunktionen gilt FXn pcq “ 1 , n P N , FX pcq “ 0 , d.h. lim FXn pcq “ 1 ­“ FX pcq “ 0 . nÑ8 83 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 7.30 ((Stetigkeitssatz)). Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. (i) Dann konvergiert die Folge pXn qnPN genau dann in Verteilung gegen X, wenn gilt lim ϕXn ptq “ ϕX ptq für alle t P R. nÑ8 (ii) Gilt für die Folge der charakteristischen Funktionen lim ϕXn ptq “ ψptq , t P R, nÑ8 wobei die Grenzfunktion ψ an der Stelle 0 stetig ist oder die Konvergenz gleichmäßig auf endlichen Teilintervallen von R erfolgt, dann ist ψ die charakteristische Funktion einer Zufallsgröße und die Folge pXn qnPN konvergiert in Verteilung gegen diese Zufallsgröße. Beispiele 7.31. (1) Satz 4.6.3 Hyp pn, K, N q ùùùùùùùùùùùñ B pn; pq. N Ñ8, KÑ8, (2) Satz 4.9.2 K Ñp N B pn; pn q ùùùùùùùùñ Π pλq. nÑ8, npn Ñλ Beispiel 7.32. Seien Ti „ Exp pλq, i “ 1, . . . , n, i.i.d. exponentialverteilte Zufallsgrößen mit dem Parameter λ ą 0. Dann gilt d mintT1 , . . . , Tn u ÝÝÝÑ 0 nÑ8 und PYn ùùùñ Exp pλq nÑ8 sowie für Yn “ n mintT1 , . . . , Tn u 1 1 d maxtT1 , . . . , Tn u ÝÝÝÑ . nÑ8 λ ln n Aufgabe 7.33. Seien Xi , i P N, i.i.d. Zufallsgrößen mit der Verteilungsfunktion FX pxq “ xp Ip0,1s pxq ` Ip1,8q pxq mit p ą 0. Zeigen Sie, dass dann gilt d mintX1 , . . . , Xn u ÝÝÝÑ 0 nÑ8 und PYn ùùùñ Wei pλ; pq nÑ8 für ? p n Yn “ mintX1 , . . . , Xn u mit λ ą 0. λ 84 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 7.34. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann folgt aus P Xn ÝÝÝÑ X nÑ8 stets d Xn ÝÝÝÑ X nÑ8 bzw. PXn ùùùñ PX . nÑ8 ` ˘ Beispiel 7.35 ((Gegenbeispiel für die Umkehrung von Satz 7.34)). Es sei X „ B 21 eine Bernoulli-verteilte Zufallsgröße und Xn “ 1 ´ X für alle n P N. Dann besitzen X und Xn dieselbe Verteilung und trivialerweise gilt d Xn ÝÝÝÑ X nÑ8 bzw. PXn ùùùñ PX . nÑ8 Andererseits ist |Xpωq ´ Xn pωq| “ 1 für alle ω P Ω und somit kann die Folge pXn qnPN von Zufallsgrößen nicht in Wahrscheinlichkeit gegen X konvergieren. Satz 7.36. Seien Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, und es gelte d Xn ÝÝÝÑ c bzw. PXn ùùùñ δc für ein c P R. nÑ8 nÑ8 Dann folgt P Xn ÝÝÝÑ c. nÑ8 Übersicht: Zusammenhänge zwischen den Konvergenzbegriffen (gleichmäßig) Xn ÝÝÝÝÝÝÝÑ X nÑ8 § § đ (punktweise) Xn ÝÝÝÝÝÝÝÑ X nÑ8 § § đ P -f.s. Xn ÝÝÝÑ X nÑ8 §İ § §Teilfolge đ§ P Xn ÝÝÝÑ X nÑ8 §İ §§ đ §X”c Lp pPq Xn ÝÝÝÑ X nÑ8 §İ § § lim }Xn }p “}X}p ,1ďpă8 đ §n8 P Xn ÝÝÝÑ X nÑ8 d Xn ÝÝÝÑ X nÑ8 85 TU Bergakademie Freiberg 7.3 Wahrscheinlichkeitstheorie Sommersemester 2017 Gesetze der großen Zahlen Anmerkung 7.37. • Grenzwertsätze betreffen asymptotische Aussagen über Verteilungen einer Folge von Zufallsvariablen, hier über Partialsummen Sn “ X1 ` . . . ` Xn für eine Folge pXk qkPN von Zufallsgrößen auf pΩ, F, Pq. • Man spricht von schwachen Gesetzen, wenn die stochastische Konvergenz vorliegt. • Man spricht von starken Gesetzen, wenn die fast sichere Konvergenz vorliegt. • Die Partialsummen Sn müssen noch geeignet normiert werden, damit eine Grenzwert (hier eine entartete Zufallsgröße, also eine reelle Konstante) existiert (z.B. wächst die Varianz mit größer werdendem n falls sie existiert und die Zufallsgrößen Xk unabhängig sind). Satz 7.38 ((Schwaches Gesetz der großen Zahlen von Tschebyschew)). Sei pXk qkPN eine n ÿ 2 Xk . i.i.d. Folge von Zufallsgrößen auf pΩ, F, Pq mit E pX1 q ă 8 und für n P N sei Sn :“ k“1 Dann gilt 1 P Sn ´ E pX1 q ÝÝÝÑ 0 nÑ8 n ˆ bzw. ˙ 1 P Sn ÝÝÝÑ E pX1 q . nÑ8 n Folgerung 7.39 ((Schwaches Gesetz der großen Zahlen von Bernoulli)). Sei pXk qkPN eine n ÿ i.i.d. Folge von Zufallsgrößen auf pΩ, F, Pq mit Xk „ B ppq und für n P N sei Sn :“ Xk . k“1 Dann gilt 1 P Sn ÝÝÝÑ p . nÑ8 n Anmerkung 7.40. Diese Aussage liefert in der axiomatischen Wahrscheinlichkeitstheorie die theoretische Begründung für die Häufigkeitsinterpretation des Wahrscheinlichkeitsbegriffs. Satz 7.41 ((Schwaches Gesetz der großen Zahlen)). Sei pXk qkPN eine i.i.d. Folge von n ÿ Zufallsgrößen auf pΩ, F, Pq mit E p|X1 |q ă 8 und für n P N sei Sn :“ Xk . k“1 Dann gilt 1 P Sn ´ E pX1 q ÝÝÝÑ 0 nÑ8 n ˆ bzw. 86 ˙ 1 P Sn ÝÝÝÑ E pX1 q . nÑ8 n TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Satz 7.42 ((Starkes Gesetz der großen Zahlen von Kolmogorow)). Sei pXk qkPN eine i.i.d. n ÿ Folge von Zufallsgrößen auf pΩ, F, Pq und für n P N sei Sn :“ Xk . k“1 ˆ Dann konvergiert die Folge der Zufallsgrößen 1 Sn n ˙ genau dann fast sicher, falls nPN E p|X1 |q ă 8 ist und in diesem Fall gilt 1 P -f.s. Sn ´ E pX1 q ÝÝÝÑ 0 nÑ8 n 7.4 ˆ bzw. ˙ 1 P -f.s. Sn ÝÝÝÑ E pX1 q . nÑ8 n Zentrale Grenzwertsätze Anmerkung 7.43. • Inhalt des zentralen Grenzwertsatzes ist die Verteilungskonvergenz von geeignet normierten Summen Sn “ X1 ` . . . ` Xn einer Folge pXk qkPN von unabhängigen Zufallsgrößen auf pΩ, F, Pq. • Hier wird nur der wichtigste grundlegende zentrale Grenzwertsatz behandelt, die Voraussetzungen in dem Satz können in verschiedener Hinsicht stark abgeschwächt werden. Satz 7.44 ((Zentraler Grenzwertsatz von Lindeberg-Levy)). Sei pXk qkPN eine i.i.d. Folge von Zufallsgrößen auf pΩ, F, Pq mit E pX12 q ă 8 , Var pX1 q ą 0 und für n P N sei n ÿ Sn :“ Xk . k“1 Sn ´ n E pX1 q Dann gilt für die standardisierten Partialsummen Zn :“ a n Var pX1 q PZn ùùùñ N p0; 1q , d.h. żx u2 1 lim PpZn ă xq “ Φpxq “ ? e´ 2 du , nÑ8 2π ´8 nÑ8 x P R. Folgerung 7.45 ((Zentraler Grenzwertsatz von Moivre-Laplace)). Sei pSn qnPN eine Folge von Zufallsgrößen auf pΩ, F, Pq mit Sn „ B pn; pq , n P N, 0 ă p ă 1 . Sn ´ np Dann gilt für die standardisierten Partialsummen Zn :“ a npp1 ´ pq PZn ùùùñ N p0; 1q , d.h. żx u2 1 lim PpZn ă xq “ Φpxq “ ? e´ 2 du , nÑ8 2π ´8 nÑ8 87 x P R. TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 7.46. Seien Xi „ Ur´1, `1s , i P N , i.i.d. Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann gilt PZn ùùùñ N p0; 1q nÑ8 für c Zn “ 3 Sn . n Satz 7.47 ((Berry-Esseen-Ungleichung)). Sei pXi qiPN eine Folge von i.i.d. Zufallsgrößen, deren dritten Momente existieren, wobei Var pXi q ą 0 . Dann gilt ` ˘ 3 1 E |X1 ´ E pX1 q| sup |FZn pxq ´ Φpxq| ď ? 2 xPR n Var pX1 q3{2 für 8 8.1 Sn ´ n E pX1 q Zn “ a . n Var pX1 q Elemente der mathematischen Statistik Einige Grundbegriffe Anmerkungen 8.1. (i) In vielen praktischen Fällen sind Verteilungsfunktionen von Zufallsgrößen nicht (exakt) bekannt (nicht theoretisch berechenbar), aber es sind Daten verfügbar, die Informationen über die unbekannte Verteilungsfunktion liefern. Eine analoge Situation gilt auch für allgemeinere Zufallsvariable. (ii) In der klassischen“ ( Fisherschen“) mathematischen Statistik geht man oft von einer ” ” Verteilungsfunktion einer Zufallsgröße mit unbekannten exakten (wahren)“ Parame” tern aus. (iii) In der Bayesschen Statistik werden alle unbekannten Größen, insbesondere auch unbekannte Parameter einer Verteilungsfunktion, als Zufallsgrößen mit einer Verteilung modelliert. (iv) In gewisser Weise sind die Aufgabenstellungen der mathematischen Statistik invers zu den Aufgabenstellungen der Wahrscheinlichkeitstheorie. Definition 8.2. Gegeben sei ein messbarer Raum pΩ, Fq , eine F ´ B-messbare Abbildung X : Ω Ñ R und eine Familie pPθ qθPΘ , Θ Ď Rd , d P N , von Wahrscheinlichkeitsmaßen auf pΩ, Fq . 88 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (i) Dann nennt man pΩ, F, pPθ qθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X . Die Verteilungsfunktion von X unter dem Wahrscheinlichkeitsmaß Pθ (θ P Θ) werde mit FX|θ bezeichnet. (ii) Die F ´ BpRn q-messbare Abbildung X pnq “ pX1 , . . . , Xn q : Ω Ñ Rn heißt mathematische Stichprobe vom Umfang n aus der Grundgesamtheit X, falls für beliebige θ P Θ die Zufallsgrößen X1 , . . . , Xn unabhängig und identisch verteilt mit der Verteilungsfunktion FX|θ sind. (iii) Für jedes ω P Ω wird xpnq “ px1 , . . . , xn q “ X pnq pωq P Rn Realisierung der mathematischen Stichprobe oder konkrete Stichprobe vom Umfang n genannt. Beispiel 8.3. • Die Grundgesamtheit X beschreibe ein Bernoulli-Experiment. • Wir betrachten ein Bernoulli-Schema, d.h. die n-malige, unabhängige Wiederholung eines Bernoulli-Experiments. Beschreibt Xi den Ausgang des i-ten Experiments, d.h. Xi “ 1 bei Erfolg und Xi “ 0 bei Misserfolg, so ist das n-Tupel pX1 , . . . , Xn q eine mathematische Stichprobe vom Umfang n aus der Grundgesamtheit X . • Jede Realisierung, d.h. jedes n-Tupel aus Nullen und Einsen, z.B. xp5q “ p1, 0, 1, 1, 0q , ist eine konkrete Stichprobe. Definition 8.4. Sei X pnq eine mathematische Stichprobe vom Umfang n aus einer Grundgesamtheit X auf pΩ, F, pPθ qθPΘ q . (i) Für eine nicht von θ abhängige messbare Funktion T̃n : Rn Ñ R nennt man die messbare Abbildung Tn “ T̃n pX pnq q “ T̃n pX1 , . . . , Xn q : Ω Ñ R eine Stichprobenfunktion. (ii) Für jede Realisierung xpnq “ X pnq pωq , ω P Ω , ist Tn pωq “ T̃n pX1 pωq, . . . , Xn pωqq “ T̃n px1 , . . . , xn q P R eine Realisierung der Stichprobenfunktion Tn . Beispiele 8.5 (und Definitionen). Sei X pnq eine mathematische Stichprobe vom Umfang n aus einer Grundgesamtheit X . Dann nennt man die Stichprobenfunktion (i) ` ˘ 1 X n “ X n X pnq :“ pX1 ` . . . ` Xn q n Stichprobenmittelwert, 89 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (ii) allgemeiner für p P N ` ˘ 1 Mnp “ Mnp X pnq :“ pX1p ` . . . ` Xnp q n p-tes Stichprobenmoment und (iii) Sn2 “ Sn2 ` X pnq ˘ n ˘2 1 ÿ` :“ Xi ´ X n n ´ 1 i“1 Stichprobenstreuung. Beispiele 8.5 (und Definitionen (Fortsetzung)). (iv) Für jedes x P R definiert man die Stichprobenfunktion n ´ ¯` ˘ 1ÿ pnq p p :“ Ip´8,xq pXi q Fn pxq “ Fn pxq X n i“1 und nennt die Abbildung Fpn p¨q : R Ñ r0, 1s empirische Verteilungsfunktion. Anmerkungen 8.6. (1) Für jedes ω P Ω und damit jede Realisierung px1 , . . . , xn q “ pX1 pωq, . . . , Xn pωqq der mathematischen Stichprobe X pnq ergibt sich für jedes x P R eine Realisierung n n ´ ¯ 1ÿ 1ÿ p Ip´8,xq pXi pωqq “ Ip´8,xq pxi q Fn pxq pωq “ n i“1 n i“1 1 “ card pti P t1, . . . , nu : xi ă xuq n der Stichprobenfunktion Fpn pxq . ´ ¯ p Die Funktion Fn p¨q pωq : R Ñ r0, 1s besitzt für jedes ω P Ω die Eigenschaften einer Verteilungsfunktion. Anmerkungen 8.6 ((Fortsetzung)). (2) Für alle x P R gilt ´ ¯ Eθ Fpn pxq “ FX|θ pxq und ´ ¯ 1 Varθ Fpn pxq “ FX|θ pxqp1 ´ FX|θ pxqq . n 90 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 (3) Aus dem starken Gesetz der großen Zahlen folgt P -f.s. Fpn pxq ÝÝθÝÝÑ FX|θ pxq für jedes x P R. nÑ8 Satz 8.7 ((Hauptsatz der mathematischen Statistik, Satz von Glivenko-Cantelli)). Sei X pnq eine mathematische Stichprobe vom Umfang n aus einer Grundgesamtheit X , so gilt ˇ ˇ ˇp ˇ P -f.s. sup ˇFn pxq ´ FX|θ pxqˇ ÝÝθÝÝÑ 0 . nÑ8 xPR Anmerkungen 8.8. (i) Wichtige Aufgabenstellungen in der mathematischen Statistik sind unter anderem • die Bestimmung unbekannter Parameter der Verteilung einer Grundgesamtheit, d.h. die Parameterschätzung, wobei hier Punkt- oder Bereichsschätzungen genutzt werden; • die Überprüfung, ob bestimmte Hypothesen (Annahmen) über unbekannte Parameter (oder andere Eigenschaften) angenommen oder abgelehnt werden sollten; dies wird durch statistische Tests oder Signifikanztests realisiert. (ii) Zu beachten ist, dass im Allgemeinen keine Aussagen mit 100%-iger Sicherheit getroffen werden können. Es müssen in der Regel Fehlerwahrscheinlichkeiten mit berücksichtigt werden. 8.2 Punktschätzungen von Parametern Definitionen 8.9. • Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und g : Θ Ñ R eine Funktion. Unter einer Punktschätzung`bzw.˘kurz einem Schätzer pn “ G pn X pnq . für gpθq versteht man eine Stichprobenfunktion G • Für jedes ω P Ω und damit jede Realisierung px1 , . . . , xn q “ pX1 pωq, . . . , Xn pωqq der mathematischen Stichprobe X pnq ist pn pωq “ G pn pX1 pωq, . . . , Xn pωqq “ G pn px1 , . . . , xn q P R gpn :“ G eine Realisierung der Schätzfunktion. Diese nennt man den Schätzwert für gpθq anhand der konkreten Stichprobe px1 , . . . , xn q. Definitionen 8.10 ((Eigenschaften von Schätzern)). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und g : Θ Ñ R eine Funktion. 91 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 ´ ¯ pn für gpθq heißt erwartungstreu, wenn für alle θ P Θ Eθ G pn existiert • Ein Schätzer G und gilt ż ´ ¯ p pn d Pθ “ gpθq. Eθ Gn :“ G Ω • Die Differenz ´ ¯ pn ´ gpθq Eθ G nennt man die Verzerrung, den systematischen Fehler oder auch den Bias des pn . Schätzers G Definitionen 8.10 ((Eigenschaften von Schätzern, Fortsetzung)). pn , p˚ besser als G pn und G p˚ zwei erwartungstreue Schätzer für gpθq, so heißt G • Sind G n n falls für alle θ P Θ gilt ´ ¯ ´ ¯ pn . p˚ ď Varθ G Varθ G n • Falls für alle θ P Θ gilt ´ ¯ pn “ gpθq, lim Eθ G nÑ8 ´ ¯ pn so nennt man die Folge G von Schätzern für gpθq asymptotisch erwartungsnPN treu. Definitionen 8.10 ((Eigenschaften von Schätzern, Fortsetzung)). ´ ¯ pn • Die Folge G von Schätzern für gpθq heißt (schwach) konsistent, falls für alle nPN θ P Θ gilt θ pn ÝÝPÝ G Ñ gpθq. nÑ8 ´ ¯ pn • Die Folge G von Schätzern für gpθq heißt stark konsistent, falls für alle θ P Θ nPN gilt Pθ ´f.s. pn Ý G ÝÝÝÑ gpθq. nÑ8 Beispiel 8.11 (und Definition). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X, und es existiere Eθ p|X|p q, p P N, für alle θ P Θ. Dann ist das p-te Stichprobenmoment n 1ÿ p ppq Mn “ X n i“1 i 92 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 ein erwartungstreuer Schätzer für ż X p d Pθ p gpθq “ Eθ pX q “ Ω ´ ¯ ppq und die Folge Mn ist stark konsistent. nPN Beispiel 8.12. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X, und es existiere Eθ pX 2 q für alle θ P Θ. Dann ist die Stichprobenstreuung Sn2 n ˘2 1 ÿ` Xi ´ X n “ n ´ 1 i“1 ein erwartungstreuer Schätzer für ż pX ´ Eθ pXqq2 d Pθ gpθq “ Varθ pXq “ Ω und die Folge pSn2 qnPN ist stark konsistent. Definition 8.13. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundp gesamtheit ´X und ¯ g : Θ Ñ R eine Funktion. Existiert für einen Schätzer Gn das zweite p2 für alle θ P Θ, so heißt Moment Eθ G n ˆ´ ¯2 ˙ pn ´ gpθq Eθ G pn für gpθq. mittlerer quadratischer Fehler des Schätzers G p˚ den gleichmäßig besten Schätzer in einer gewissen Menge Man nennt den Schätzer G n G von Schätzern für gpθq, wenn ˆ´ ˆ´ ¯2 ˙ ¯2 ˙ ˚ p p Eθ Gn ´ gpθq ď Eθ Gn ´ gpθq pn P G und alle θ P Θ. gilt für alle G Satz 8.14. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtp heit X und´g : Θ ¯ Ñ R eine Funktion. Existiert für einen Schätzer Gn für gpθq das zweite p2 für alle θ P Θ, so gilt für den mittleren quadratischen Fehler Moment Eθ G n ˆ´ ¯2 ˙ ´ ¯ ´ ´ ¯ ¯2 p pn ` Eθ G pn ´ gpθq . Eθ Gn ´ gpθq “ Varθ G 93 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beweis. ˆ´ ˆ´ ¯2 ˙ ´ ¯ ´ ¯ ¯2 ˙ p p p p Eθ Gn ´ gpθq “ Eθ Gn ´ Eθ Gn ` Eθ Gn ´ gpθq ˆ´ ´ ¯¯2 ´ ´ ¯¯ ´ ´ ¯ ¯ ´ ´ ¯ ¯2 ˙ p p p p p p “ Eθ Gn ´ Eθ Gn ` 2 Gn ´ Eθ Gn Eθ Gn ´ gpθq ` Eθ Gn ´ gpθq ˆ´ ´ ¯¯2 ˙ ´ ´ ¯ ¯ ´ ´ ¯¯ p n ´ Eθ G pn pn ´ gpθq Eθ G p n ´ Eθ G pn ` “ Eθ G ` 2 Eθ G ˆ´ ´ ¯ ¯2 ˙ pn ´ gpθq ` Eθ Eθ G ¯2 ´ ¯ ´ ´ ¯ ¯´ ´ ¯ ´ ´ ¯¯¯ ´ ´ ¯ pn ´ gpθq p n ` 2 Eθ G pn ´ gpθq Eθ G pn ´ Eθ Eθ G pn ` Eθ G “ Var G jh n l “0 ´ ¯ ´ ´ ¯ ¯2 p n ` Eθ G pn ´ gpθq . “ Var G Beispiel 8.15. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und es existiere Eθ pX 2 q für alle θ P Θ. p~a “ Für` jeden˘ Vektor ~a “ pa1 , . . . , an qT P Rn mit a1 ` . . . ` an “ 1 ist der Schätzer G n p~a X pnq “ a1 X1 ` . . . ` an Xn ein erwartungstreuer Schätzer für gpθq “ Eθ pXq. G n Es gilt ´ ¯ p~a “ pa2 ` . . . ` a2 q Varθ pXq . Varθ G n 1 n Da a21 ` . . . ` a2n unter der Nebenbedingung a1 ` . . . ` an “ 1 minimal wird, wenn ai “ n1 für alle i “ 1, . . . , n gilt, ist X n der beste lineare erwartungstreue Schätzer für gpθq “ Eθ pXq (BLUE: best linear unbiased estimator“). ” Satz 8.16. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamt´ ¯ pn heit X und g : Θ Ñ R eine Funktion. Für eine Folge G von Schätzern für gpθq existiere nPN ´ ¯ p2 für alle θ P Θ und alle n P N. Ist diese Folge asymptotisch erdas zweite Moment Eθ G n wartungstreu und gilt ´ ¯ pn “ 0 für alle θ P Θ, lim Varθ G nÑ8 so ist sie konsistent. Definition 8.17 ((Momentenmethode)). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und es existiere Eθ pX p q, p P N, für alle θ P Θ Ď Rd , d P N. 94 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Hat der Parameter θj , die j-te Komponente von θ, j “ 1, . . . , d, eine Darstellung der Form θj “ hj pµ1 pXq, . . . , µp pXqq mit einer stetigen Funktion hj : Rp Ñ R, so nennt man ˘ ` MM x θj n “ hj Mnp1q , . . . , Mnppq den Momentenschätzer bzw. den nach der Momentenmethode konstruierten Schätzer für θj , j “ 1, . . . , d. Beispiel 8.18. Gegeben sei eine exponentialverteilte Grundgesamtheit X „ Exp pλq, θ “ λ, Θ “ p0, 8q Ď R. 1 µ1 pXq “ . θ Folglich erhält man die Darstellung 1 θ“ . µ1 pXq Also ist θpnM M “ 1 p1q Mn der Momentenschätzer für θ. Beispiel 8.19. Gegeben sei eine normalverteilte Grundgesamtheit X „ N pµ; σ 2 q, θ “ pθ1 , θ2 qT “ pµ, σ 2 qT , Θ “ R ˆ p0, 8q Ď R2 . Dann gilt µ1 pXq “ θ1 und µ2 pXq “ θ12 ` θ2 . Folglich erhält man die Darstellungen θ1 “ µ1 pXq und θ2 “ µ2 pXq ´ µ1 pXq2 . Also sind MM x θ1 n “ Mnp1q und ˘2 ` MM x θ2 n “ Mnp2q ´ Mnp1q die Momentenschätzer für θ1 und θ2 . Satz 8.20. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und es existiere Eθ pX p q, p P N, für alle θ P Θ Ď Rd , d P N. ´ MM ¯ Dann ist die Folge x θj n der Momentenschätzer für den Parameter θj , die j-te KomnPN ponente von θ, j “ 1, . . . , d, stark konsistent. 95 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Folgerung 8.21. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und es existiere Eθ pX p q, p P N, für alle θ P Θ Ď Rd , d P N. Weiterhin sei g : Θ Ñ R eine stetige Funktion. ´ ¯ pn Dann ist die Folge G mit nPN ´ MM ¯ MM pn “ g x G θ1 n , . . . , x θd n eine stark konsistente Folge von Schätzern für gpθq. Definitionen 8.22 ((Maximum-Likelihood-Methode)). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X mit Wertebereich WX und X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X. • Für den Fall, dass X eine diskrete Grundgesamtheit ist, definieren wir Ln : Rn ˆ Θ Ñ r0, 8q gemäß n ź Ln px1 , . . . , xn , θq :“ Pθ pX “ xi q. i“1 • Für den Fall, dass X eine stetige Grundgesamtheit mit der Dichtefunktion fθ ist, d.h. dpPθ ˝X ´1 q , definieren wir Ln : Rn ˆ Θ Ñ r0, 8q gemäß fθ “ dλ n ź Ln px1 , . . . , xn , θq :“ fθ pxi q. i“1 Die Funktion Ln wird Likelihood-Funktion genannt. Definitionen 8.22 ((Maximum-Likelihood-Methode, Fortsetzung)). Die j-te Komponente ` ˘ ML x θj n , j “ 1, . . . , d, des d-dimensionalen zufälligen Vektors Tn X pnq mit Tn : Rn Ñ Rd nennt man Maximum-Likelihood-Schätzer für den Parameter θj , die j-te Komponente von θ, wenn für alle px1 , . . . , xn q P pWX qn gilt Tn px1 , . . . , xn q P arg max Ln px1 , . . . , xn , θq. θPΘ Anmerkungen 8.23 (und Definition). (1) Für jedes ω P Ω und damit jede Realisierung px1 , . . . , xn q “ pX1 pωq, . . . , Xn pωqq der mathematischen Stichprobe X pnq liefert der Vektor der Maximum-Likelihood-Schätzer denjenigen Wert θp “ Tn px1 , . . . , xn q als Schätzwert für θ, der die Realisierung genau dieser Stichprobe am wahrscheinlichsten macht. (2) Ist die Likelihood-Funktion differenzierbar, so erfüllt der Vektor der Maximum-Likelihood-Schätzer die sogenannten Maximum-Likelihood-Gleichungen B log Ln px1 , . . . , xn , θ1 , . . . , θd q “ 0 für j “ 1, . . . , d. Bθj 96 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Beispiel 8.24. Gegeben sei eine normalverteilte Grundgesamtheit X „ N pµ; σ 2 q, θ “ pθ1 , θ2 qT “ pµ, σ 2 qT , Θ “ R ˆ p0, 8q Ď R2 . Dann sind n ML x θ1 n “ X n und ˘2 ML 1 ÿ` x θ2 n “ Xi ´ X n n i“1 die Maximum-Likelihood-Schätzer für θ1 und θ2 und stimmen mit den Momentenschätzern überein. Folglich sind ´ M L¯ ´ M L¯ x x θ1 n und θ2 n nPN nPN stark konsistente Folgen von Schätzern. Während n´1 2 Sn nur asymptotisch erwartungstreu. n ML x θ1 n ML erwartungstreu ist, ist x θ2 n “ Herleitung: Es ist X „ N pµ; σ 2 q mit µ P R und σ 2 ą 0. Folglich ist θ “ pθ1 , θ2 qT “ pµ, σ 2 qT und Θ “ R ˆ p0, 8q. Die zugehörige Dichtefunktion ist * " 1 px ´ θ1 q2 fθ pxq “ ? . exp ´ 2θ2 2πθ2 Als Likelihood-Funktion ergibt sich Ln px1 , . . . , xn , θ1 , θ2 q “ n ź # fθ pxi q “ p2πθ2 q i“1 ´n 2 n 1 ÿ exp ´ pxi ´ θ1 q2 2θ2 i“1 bzw. als Log-Likelihood-Funktion n 1 ÿ n pxi ´ θ1 q2 . ln Ln px1 , . . . , xn , θ1 , θ2 q “ ´ lnp2πθ2 q ´ 2 2θ2 i“1 Aus n B 1 ÿ ! pxi ´ θ1 q “ 0 ln Ln px1 , . . . , xn , θ1 , θ2 q “ Bθ1 θ2 i“1 ergibt sich n θ1 “ 1ÿ xi n i“1 als Lösung und somit ist ML x θ1 n “ X n “ Mnp1q der Maximum-Likelihood-Schätzer für θ1 . Aus n B n 1 ÿ ! ln Ln px1 , . . . , xn , θ1 , θ2 q “ ´ ` 2 pxi ´ θ1 q2 “ 0 Bθ2 2θ2 2θ2 i“1 97 + TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 ergibt sich n 1ÿ pxi ´ θ1 q2 θ2 “ n i“1 als Lösung und somit ist n ˘2 ` ˘2 n ´ 1 2 ML 1 ÿ` x Xi ´ X n “ Mnp2q ´ Mnp1q “ Sn θ2 n “ n i“1 n der Maximum-Likelihood-Schätzer für θ2 . Beide Konstruktionsmethoden liefern also in diesem Fall dasselbe Resultat. ´ M L¯ ´ M L¯ Die starke Konsistenz der Folgen x θ1 n und x θ2 n folgt unmittelbar aus Beispiel nPN nPN 8.11. ML Ebenfalls aus Beispiel 8.11 folgt die Erwartungstreue von x θ1 . n Nach Beispiel 8.12 ist die Stichprobenstreuung Sn2 eine erwartungstreuer Schätzer für gpθq “ Varθ pXq “ θ2 . Folglich gilt ˆ ˙ ´ M L¯ n ´ 1 n ´ 1 ` 2˘ n ´ 1 2 Eθ x θ2 n “ Eθ Sn “ Eθ Sn “ θ2 n n n ML und x θ2 n ist ein asymptotisch erwartungstreuer Schätzer für θ2 . 8.3 Bereichsschätzungen von Parametern Anmerkung 8.25. Die Genauigkeit einer Punktschätzung kann z.B. mit Hilfe der Varianz des Schätzers bzw. des mittleren quadratischen Fehlers quantifiziert werden. Explizitere Aussagen dazu können getroffen werden, wenn statt einer Punktschätzung eine Bereichsschätzung durchgeführt wird. Aus mathematischer Sicht ergibt sich dabei die im Allgemeinen nicht einfach zu lösende Aufgabe, Funktionen der mathematischen Stichprobe zu bestimmen, für die eine bekannte, von weiteren unbekannten Parametern nicht abhängige Verteilung berechenbar ist. Definition 8.26. Ein Konfidenzintervall (auch Vertrauensbereich) ist ein in Lage und/oder Breite zufälliger Bereich, der den unbekannten (reellen) Parameter θ mit Wahrscheinlichkeit 1 ´ α überdeckt. Der Wert 1 ´ α wird Konfidenzniveau genannt. Anmerkungen 8.27. • Typische Werte für α sind 0.05, 0.1 oder 0.01. • Man unterscheidet drei Arten von Konfidenzintervallen: – zentral oder beidseitig begrenzt (θ̂n;α{2 ď θ ď θ̂n;1´α{2 ); 98 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 – einseitig, oben begrenzt (θ ď θ̂n;1´α ); – einseitig, unten begrenzt (θ̂n;α ď θ). Anmerkung 8.28. Für normalverteilte Grundgesamtheiten spielen sowohl bei Konfidenzintervallen, als auch bei statistischen Tests neben der χ2 -Verteilung auch die t-Verteilung, die auch Student- oder Gosset-Verteilung genannt wird, eine große Rolle. Die Dichtefunktion einer t-verteilten Zufallsgröße mit dem Parameter n P N ( Anzahl der ” Freiheitsgrade“) ist ˘ ˆ ` ˙´ n`1 2 Γ n`1 x2 2` ˘ 1 ` , x P R. f pxq “ ? n nπ Γ n2 Sind X1 , . . . , Xn unabhängige und identisch normalverteilte Zufallsgrößen mit Parametern µ P R und σ 2 ą 0 , dann ist die Zufallsgröße Xn ´ µ? n Y :“ Sn t-verteilt mit n ´ 1 Freiheitsgraden. Satz 8.29. Für eine normalverteilte Grundgesamtheit mit unbekannten Parametern µ P R und σ 2 ą 0 sind die zweiseitigen Konfidenzintervalle Sn Sn X n ´ ? tn´1;1´α{2 ď µ ď X n ` ? tn´1;1´α{2 n n bzw. pn ´ 1qSn2 pn ´ 1qSn2 2 ď σ ď . χ2n´1;1´α{2 χ2n´1;α{2 Dabei sind tn´1;γ bzw. χ2n´1;γ jeweils γ-Quantile der t- bzw. χ2 -Verteilung mit n ´ 1 Freiheitsgraden. 8.4 Statistische Tests Anmerkung 8.30. Ein statistischer Test ist ein Verfahren zur Überprüfung einer statistischen Hypothese (eine Behauptung über Eigenschaften von Zufallsgrößen, z.B. etwa über einen Parameter der Verteilung) auf der Basis einer Stichprobe. Das Vorgehen dazu soll an einem kleinen Beispiel erläutert werden. Beispiel 8.31 ((Abfüllmenge Waschmittelpackungen)). Bei einem Verbrauchertest für Waschmittel werde auch die Abfüllmenge kontrolliert. Dabei ergaben sich bei 10 zufällig ausgewählten 5 kg Packungen einer bestimmten Sorte folgende Abfüllmengen (in kg): 4.6 , 4.95 , 4.8 , 4.9 , 4.75 , 5.05 , 4.9 , 5.1 , 4.85 , 4.95 . Ist auf der Basis dieser Beobachtungswerte die Auffassung vertretbar, dass die Packungen im Mittel weniger Waschmittel als angegeben enthalten ? 99 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 • Wir modellieren die tatsächliche Abfüllmenge (in kg) einer Waschmittelpackung als Zufallsgröße X , die als normalverteilt mit unbekannten Parametern angenommen wird. • Berechnete Schätzwerte für den Erwartungswert, die Standardabweichung und die Varianz der Merkmalsgröße sind: x “ 4.885 , s “ 0.145 , s2 “ 0.0211 . • Zu überprüfen ist eigentlich die Richtigkeit der Vermutung, dass der Erwartungswert kleiner ist als der Sollwert µ0 “ 5 . Dies kann aber nicht einfach aus der Tatsache x “ 4.885 ă 5 “ µ0 gefolgert werden, da die auftretenden zufälligen Schwankungen berücksichtigt werden müssen. • Aus mathematischen Gründen ist die direkte Überprüfung nicht möglich, deshalb wird geprüft, ob der Erwartungswert gleich dem Sollwert µ0 “ 5 ist, oder ob man im Gegensatz dazu von einem kleineren Erwartungswert ausgehen kann (muss). Testablauf Beispiel Waschmittelpackungen I 1. Aufstellen der Hypothesen H0 : µ “ 5 H1 : µ ă 5 2. Festlegen des Signifikanzniveaus α α “ 0.05 3. Auswahl der Testgröße (Prüfgröße) T T “ X ´ µ0 ? n, S unter H0 besitzt diese Zufallsgröße eine t´Verteilung mit n ´ 1 Freiheitsgraden. Im x ´ µ0 ? 4.885 ´ 5 ? Beispiel ist t “ n“ 10 “ ´2.508 . s 0.145 Testablauf Beispiel Waschmittelpackungen II 4. Festlegung des kritischen Bereiches K K “ tt P R : t ă tn´1;α u “ p´8; t9;0.05 q “ p´8; ´t9,0.95 q K “ p´8, ´1.833q . 100 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 5. Entscheidung t “ ´2.508, K “ p´8, ´1.833q ñ t P K , die Hypothese H0 wird abgelehnt (verworfen) und die Auffassung ist vertretbar, dass die Packungen im Mittel weniger Waschmittel als angegeben enthalten. Man kann auch sagen: die Abfüllmengen sind signifikant zu gering. Ausblick: Module, die auf der Grundvorlesung Stochastik aufbauen • Stochastische Finanzmarktmodelle – Teil 1, ungerade WS, 5.Mm+5.BWM – Teil 2, gerade SS, 6.Mm+6.BWM • Angewandte Statistik – Teil 1, ungerade WS, 5.Mm+5.BWM – Teil 2, gerade SS, 6.Mm+6.BWM • Finanz- und Versicherungsmathematik (gerade SS, 6.Mm+6.BWM+2.MWM) • Stochastische Prozesse – Stochastische Prozesse, gerade WS, 5.Mm+5.BWM – Stochastische Analysis, ungerade SS, 6.Mm+6.BWM • Zeitreihenanalyse in den Wirtschaftswissenschaften, SS, BWM Ausblick: Module für die weitere Vertiefung • Stochastische Geometrie und räumliche Statistik – Stochastische Geometrie, ungerade WS, 7.Mm – Räumliche Statistik, gerade SS, 8.Mm • Theoretische Statistik – Schätz- und Testtheorie, gerade WS, 7.Mm+1.MWM – Asymptotische und algorithmische Statistik, ungerade SS, 8.Mm+2.MWM • Statistische Analysemethoden für Mathematiker – Multivariate Statistik, gerade WS, 7.Mm+1.MWM – Zeitreihenanalyse, ungerade SS, 8.Mm+2.MWM • Aktuelle Themen aus der Stochastik, WS, Mm 101 TU Bergakademie Freiberg Wahrscheinlichkeitstheorie Sommersemester 2017 Inhaltsverzeichnis 0 Organisatorisches 2 1 Grundbegriffe 1.1 Ereignisse und Wahrscheinlichkeiten . 1.2 Klassische Wahrscheinlichkeitsräume 1.3 Bedingte Wahrscheinlichkeiten . . . . 1.4 Unabhängigkeit . . . . . . . . . . . . 1.5 Zufallsvariable und Verteilung . . . . 1.6 Zufallsgrößen . . . . . . . . . . . . . 1.7 Zufallsvektoren . . . . . . . . . . . . 1.8 Unabhängigkeit von Zufallsvariablen 1.9 Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 6 6 8 10 11 15 19 21 2 Kenngrößen für Zufallsgrößen 2.1 Erwartungswert . . . . . . . . . . . . 2.2 Momente . . . . . . . . . . . . . . . . 2.3 Variabilitätskenngrößen . . . . . . . . 2.4 Schiefe und Wölbung . . . . . . . . . 2.5 Kovarianz und Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 22 26 29 32 33 . . . . 37 37 38 39 40 . . . . . . . . . 41 42 42 43 44 45 46 48 49 51 . . . . 53 53 55 56 58 3 Transformationen von Zufallsgrößen 3.1 Die Verteilungsfunktion unter Transformationen . . . 3.2 Transformationssatz für Dichten . . . . . . . . . . . . 3.3 Summen unabhängiger Zufallsgrößen . . . . . . . . . 3.4 Minimum und Maximum unabhängiger Zufallsgrößen 4 Ausgewählte diskrete Verteilungen 4.1 Einpunktverteilung . . . . . . . . . 4.2 Zweipunktverteilung . . . . . . . . 4.3 Bernoulli-Verteilung . . . . . . . 4.4 Gleichverteilung . . . . . . . . . . . 4.5 Hypergeometrische Verteilung . . . 4.6 Binomialverteilung . . . . . . . . . 4.7 Geometrische Verteilung . . . . . . 4.8 Negative Binomialverteilung . . . . 4.9 Poisson-Verteilung . . . . . . . . . 5 Ausgewählte stetige Verteilungen 5.1 Gleichverteilung . . . . . . . . . . . 5.2 Cauchy-Verteilung . . . . . . . . . 5.3 Normalverteilung . . . . . . . . . . 5.4 Mehrdimensionale Normalverteilung . . . . . . . . . . . . . 102 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TU Bergakademie Freiberg 5.5 5.6 5.7 5.8 5.9 5.10 5.11 Wahrscheinlichkeitstheorie Logarithmische Normalverteilung Exponentialverteilung . . . . . . . Gammaverteilung . . . . . . . . . Erlang-Verteilung . . . . . . . . Chi-Quadrat-Verteilung . . . . . . Weibull-Verteilung . . . . . . . Rayleigh-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sommersemester 2017 . . . . . . . 62 63 64 66 66 67 68 6 Bedingte Verteilungen und bedingte Erwartungswerte 6.1 Zufälliges Ereignis mit positiver Wahrscheinlichkeit als Bedingung . . . . . . 6.2 Höchstens abzählbare Zerlegung als Bedingung . . . . . . . . . . . . . . . . . 6.3 Teil-Sigma-Algebra als Bedingung . . . . . . . . . . . . . . . . . . . . . . . . 69 69 70 72 7 Grenzwertsätze 7.1 Charakteristische Funktionen . . 7.2 Konvergenzbegriffe für Folgen von 7.3 Gesetze der großen Zahlen . . . . 7.4 Zentrale Grenzwertsätze . . . . . . . . . 77 77 82 86 87 . . . . 88 88 91 98 99 . . . . . . . . Zufallsgrößen . . . . . . . . . . . . . . . . 8 Elemente der mathematischen Statistik 8.1 Einige Grundbegriffe . . . . . . . . . . . 8.2 Punktschätzungen von Parametern . . . 8.3 Bereichsschätzungen von Parametern . . 8.4 Statistische Tests . . . . . . . . . . . . . 103 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .