Wahrscheinlichkeitstheorie

Werbung
Stochastik für Mathematiker Teil 2:
Wahrscheinlichkeitstheorie
Sommersemester 2017
Prof. Dr. Hans-Jörg Starkloff
Stand: 12. Juli 2017
1
TU Bergakademie Freiberg
0
Wahrscheinlichkeitstheorie
Sommersemester 2017
Organisatorisches
Informationen
• Vorlesung:
Dienstag
Mittwoch ungerade Wochen
7:30-9:00 PRÜ-1103
14:00-15:30 PRÜ-1103
• Lesender: Prof. Dr. Hans-Jörg Starkloff
• Kontaktdaten: http: // www. mathe. tu-freiberg. de/ sto/ mitarbeiter/ hans-joerg-starkloff
• Website zur Vorlesung: http: // www. mathe. tu-freiberg. de/ wt
• Übung: Mittwoch, 9:15-10:45, PRÜ-1103
• Übungsleiter: Dr. Udo Lorz
• Kontaktdaten: http: // www. mathe. tu-freiberg. de/ dek/ mitarbeiter/ udo-lorz
• Website zur Übung: http: // www. mathe. tu-freiberg. de/ wt-ue
Literatur
• Bauer, H.: Wahrscheinlichkeitstheorie. Verlag Walter de Gruyter, 5. Auflage, 2002.
(E-Book TUBAF, 2011)
• Hesse, C.: Wahrscheinlichkeitstheorie – Eine Einführung mit Beispielen und Anwendungen. Vieweg-Teubner-Verlag, 2. Auflage, 2009. (1. Auflage TUBAF)
• Klenke, A.: Wahrscheinlichkeitstheorie.
Springer-Verlag, 3. Auflage, 2013. (E-Book TUBAF)
• Brokate, M., Henze, N., Hettlich, F., Meister, A., Schranz-Kirlinger,G., Sonar,T.: Grundwissen Mathematikstudium – Höhere Analysis, Numerik und Stochastik. SpringerVerlag, 2016, Kapitel 19-24. (E-Book TUBAF)
2
TU Bergakademie Freiberg
1
Wahrscheinlichkeitstheorie
Sommersemester 2017
Grundbegriffe
1.1
Ereignisse und Wahrscheinlichkeiten
Anmerkungen 1.1.
• Die Wahrscheinlichkeitstheorie liefert Methoden zur mathematischen Untersuchung
von Versuchen, Beobachtungen, Situationen, etc., bei denen man die Ergebnisse nicht
genau (vorher-)berechnen kann, aber eine Quantifizierung der vorhandenen Unsicherheit möglich und nützlich ist.
• Eine Möglichkeit dieser Unsicherheitsquantifizierung besteht in der Nutzung stochastischer Modelle (oft auch in Verbindung mit statistischen Modellen). Dabei werden
Wahrscheinlichkeiten als Maßzahlen für die Chancen des Eintretens von bestimmten
zufälligen Ereignissen und darauf aufbauende Konzepte genutzt.
• Der Wahrscheinlichkeitsbegriff ist dabei aus dem Begriff der relativen Häufigkeit für
das Eintreten von zufälligen Ereignissen bei unabhängigen und gleichartigen Wiederholungen von Zufallsversuchen entstanden.
Anmerkungen 1.1 ((Fortsetzung)).
• Die Einbettung der Wahrscheinlichkeitstheorie in die Mathematik erfolgt durch ihre
Grundlegung mit Hilfe der Maß- und Integrationstheorie und durch vielfältige Verflechtungen mit anderen mathematischen Teilgebieten.
• Dies wurde erstmalig umfassend und konsequent 1933 in dem Buch von A. N. Kolmogorow (Kolmogoroff, Kolmogorov) Grundbegriffe der Wahrscheinlichkeits”
rechnung“ realisiert.
• Das mathematische Modell eines zufälligen Versuchs ist ein Wahrscheinlichkeitsraum.
Definitionen 1.2. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum.
• Die Elemente ω P Ω werden Elementarereignisse genannt.
• Die messbaren Mengen A P F heißen (zufällige) Ereignisse.
• Ein Ereignis A P F tritt ein, falls eines seiner Elementarereignisse ω P A eintritt.
• PpAq P r0, 1s ist die Wahrscheinlichkeit für das Eintreten des Ereignisses A P F .
• Das Ereignis ∅ P F wird unmögliches Ereignis genannt. Es gilt Pp∅q “ 0 .
• Das Ereignis Ω P F heißt sicheres Ereignis. Es gilt PpΩq “ 1.
3
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 1.3 ((Einmaliges Würfeln)).
Ω “ t1, 2, 3, 4, 5, 6u ,
F “ PpΩq
Das Ereignis A “ t2, 4, 6u tritt ein, wenn eine gerade Zahl gewürfelt wird.
Beispiel 1.4 ((Außentemperatur in ˝ C)).
Ω “ r´100, 100s,
F “BXΩ
Das Ereignis A “ p16, 22q tritt ein, wenn eine (angenehme) Temperatur zwischen 16˝ C und
22˝ C herrscht.
Definitionen 1.5. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und A, B P F .
• Das Ereignis Ac P F wird das zum Ereignis A P F komplementäre (oder auch
entgegengesetzte) Ereignis genannt. Es tritt genau dann ein, wenn A nicht eintritt.
• Das Ereignis A Y B tritt ein, wenn das Ereignis A oder das Ereignis B oder beide
Ereignisse A und B eintreten. Man sagt, das Ereignis A oder B tritt ein.
• Das Ereignis A X B tritt ein, wenn sowohl das Ereignis A als auch das Ereignis B
eintritt. Man sagt, das Ereignis A und B tritt ein.
• Es gelte A X B “ ∅ . Dann heißen die Ereignisse A und B unvereinbar, denn sie
können nicht zugleich eintreten.
• Es gelte A Ď B . Dann sagt man aus A folgt B oder das Ereignis A zieht das
Ereignis B nach sich.
Beispiele 1.6 ((Einmaliges Würfeln, vgl. Beispiel 1.3)).
• Das komplementäre Ereignis Ac “ t1, 3, 5u besteht darin, dass eine ungerade Zahl
gewürfelt wird.
• Sei B “ t1, 2u . Dann folgt
A Y B “ t1, 2, 4, 6u und A X B “ t2u .
Das Ereignis A oder B tritt ein, wenn eine der Zahlen 1, 2, 4 oder 6 gewürfelt wird
und das Ereignis A und B tritt ein, wenn eine Zwei gewürfelt wird.
• Sei C “ t4u . Dann gilt
t4u “ C Ď A “ t2, 4, 6u .
Aus dem Ereignis, dass eine Vier gewürfelt wird, folgt, dass eine gerade Zahl gewürfelt
wird.
4
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiele 1.7 ((Außentemperatur in ˝ C, vgl. Beispiel 1.4)).
Sei B “ r´100, 0q , also das Ereignis Frost.
• Dann ist A Y B “ p16, 22q Y r´100, 0q das Ereignis, dass eine angenehme Temperatur
oder Frost herrscht.
• Da A X B “ ∅ , sind die Ereignisse angenehme Temperatur und Frost miteinander
unvereinbar.
Anmerkungen 1.8.
• Jede Zuordnung von Wahrscheinlichkeiten zu den zufälligen Ereignissen, die den Axiomen der Maßtheorie (siehe unten) genügt, ist mathematisch korrekt, aber nicht immer
ein gutes mathematisches Modell für reale Versuche oder Situationen.
• Erinnerung an die Axiome:
Pp∅q “ 0 ; PpΩq “ 1 ;
¸
8
8
ÿ
ď
P pAi q für Ai P F, Ai X Aj “ ∅ pi ­“ j, i, j P Nq .
Ai “
P
˜
i“1
i“1
• Einige Folgerungen:
P pAc q “ 1 ´ P pAq ; A Ď B ñ PpAq ď PpBq ; 0 ď PpAq ď 1 ;
P pA Y Bq “ PpAq ` PpBq ´ P pA X Bq .
Anmerkungen 1.9.
• Nicht immer, z.B. bei komplexen stochastischen Modellen, wird ein Wahrscheinlichkeitsraum explizit konstruiert oder angegeben.
• Ausgangspunkt für theoretische Überlegungen kann auch die Menge der zufälligen Ereignisse zu einem Zufallsversuch sein. Die grundlegende wesentliche Eigenschaft von
zufälligen Ereignissen besteht darin, dass man nach der Durchführung des Zufallsversuches eindeutig entscheiden kann, ob das zufällige Ereignis eingetreten ist oder nicht.
Ausgestattet mit den besonderen“ zufälligen Ereignissen (∅, Ω) und den Operationen
”
(Komplementbildung, Vereinigung und Durchschnitt) besitzt die Menge der zufälligen
Ereignisse zu einem Zufallsversuch die Struktur einer Booleschen Algebra.
• Nach einem Satz von Stone kann man zu jeder Ereignisalgebra eine isomorphe Mengenalgebra finden, folglich kann man zufällige Ereignisse immer durch Mengen repräsentieren, so wie das in unseren Axiomen geschehen ist.
5
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 1.10 ((Einmaliges Würfeln mit Gewinnbeträgen)).
F “ PpΩq
Ω “ t1, 2, 3, 4, 5, 6u ,
Augenzahl
Gewinn Spieler 1
Gewinn Spieler 2
1.2
1
1
2 3 4 5 6
3
6
2
4 4
Klassische Wahrscheinlichkeitsräume
Definition 1.11. Ein Wahrscheinlicheitsraum pΩ, F, Pq heißt
• klassischer Wahrscheinlichkeitsraum bzw.
• Laplacescher Wahrscheinlichkeitsraum,
falls
(1) 0 ă card pΩq ă 8 ,
(2) F “ PpΩq und
(3) für alle ω P Ω gilt Pptωuq “
1
cardpΩq
.
Aufgabe 1.12. Sei pΩ, F, Pq ein klassischer Wahrscheinlichkeitsraum. Zeigen Sie, dass dann
für jedes Ereignis A Ď Ω gilt
card pAq
Anzahl der für das Ereignis A günstigen Fälle“
“”
.
card pΩq
Anzahl der möglichen Fälle“
”
Anmerkung 1.13. Die Anzahl der für das Ereignis A günstigen Fälle kann in der Regel
durch kombinatorische Überlegungen ermittelt werden.
PpAq “
1.3
Bedingte Wahrscheinlichkeiten
Definition 1.14. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und B P F ein Ereignis mit
PpBq ą 0 . Dann wird
PpA X Bq
PpA |Bq :“
für A P F
PpBq
die bedingte Wahrscheinlichkeit des zufälligen Ereignisses A unter der Bedingung B
bzw. kurz von A unter B bzw. von A gegeben B genannt.
Satz 1.15. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und B ein Ereignis mit PpBq ą 0 .
(1) Dann ist Pp ¨ |Bq ein Wahrscheinlichkeitsmaß auf dem messbaren Raum pΩ, Fq .
6
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(2) Insbesondere gilt die Additionsformel
PpA1 Y A2 |Bq “ PpA1 |Bq ` PpA2 |Bq ´ PpA1 X A2 |Bq .
(3) Seien A1 , . . . , An P F, n “ 2, 3, . . . , mit PpA1 X . . . X An´1 q ą 0 . Dann gilt die
Multiplikationsformel
PpA1 X . . . X An q “
“ PpA1 q PpA2 |A1 q PpA3 |A1 X A2 q . . . PpAn |A1 X . . . X An´1 q .
Beispiel 1.16 ((Multiplikationsformel)). In einer Urne befinden sich zehn Kugeln, davon
sieben rote und drei schwarze. Es werden vier Kugeln ohne Zurücklegen entnommen. Wie
groß ist die Wahrscheinlichkeit für das Ereignis R , dass alle vier gezogenen Kugeln rot sind ?
Zur Lösung dieser Aufgabe definieren wir die Ereignisse
• R . . . alle vier gezogenen Kugeln sind rot und
• Ri . . . die i-te gezogene Kugel ist rot, i “ 1, 2, 3, 4,
und erhalten
PpRq “ PpR1 X R2 X R3 X R4 q
“ PpR1 q ¨ PpR2 |R1 q ¨ PpR3 |R1 X R2 q ¨ PpR4 |R1 X R2 X R3 q
1
7 6 5 4
¨ ¨ ¨ “ “
p 16.67% .
“
10 9 8 7
6
Satz 1.17 ((Formel der totalen Wahrscheinlichkeit, Zerlegungssatz)). Sei pΩ, F, Pq ein
Wahrscheinlichkeitsraum, ∅ ­“ I Ď N eine nichtleere, höchstens abzählbare
Ť Indexmenge
und pBn qn PI Ď F eine höchstens abzählbare Zerlegung von Ω , d.h.
Bn “ Ω und
nPI
Bi X Bj “ ∅ für alle i ‰ j mit PpBn q ą 0 für alle n P I . Dann gilt für A P F
ÿ
PpAq “
PpA |Bn q PpBn q .
n PI
Beispiel 1.18. Drei verschiedene Firmen liefern gleichartige Teile an einen Automobilkonzern. Der Anteil der drei Firmen beträgt 60%, 30% bzw. 10% am gesamten Lieferumfang.
Die Ausschussquoten der drei Zulieferer betragen 1%, 2% bzw. 3% . Wie groß ist die Ausschussquote insgesamt?
Zur Lösung dieser Aufgabe definieren wir folgende Ereignisse
• A . . . Teil ist Ausschuss
• Fn . . . Teil wurde von der n-ten Firma geliefert, n “ 1, 2, 3 .
7
TU Bergakademie Freiberg
PpAq “
3
ÿ
Wahrscheinlichkeitstheorie
Sommersemester 2017
PpA |Fn q PpFn q “
n“1
“ 0.01 ¨ 0.6 ` 0.02 ¨ 0.3 ` 0.03 ¨ 0.1 “ 0.015 “
p 1.5%
Aufgabe 1.19. Konstruieren Sie für das Beispiel 1.18 einen geeigneten Wahrscheinlichkeitsraum. Geben Sie die Ereignisse A und Fn , n “ 1, 2, 3 , explizit an.
Satz 1.20 ((Bayessche Formel, Satz von Bayes)). Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, ∅ ­“ I Ď N eine nichtleere, höchstens abzählbare
Indexmenge und pBn qn PI Ď F
Ť
eine höchstens abzählbare Zerlegung von Ω , d.h.
Bn “ Ω und Bi X Bj “ ∅ für alle
n PI
i ‰ j , mit PpBn q ą 0 für alle n P I . Dann gilt für A P F mit PpAq ą 0
PpBn |Aq “
PpA |Bn q PpBn q
PpA |Bn q PpBn q
“ ř
PpA |Bi q PpBi q
PpAq
für n P I .
i PI
Anmerkung 1.21. Man nennt in diesem Zusammenhang auch
P pBn q
P pBn |Aq
a-priori-Wahrscheinlichkeiten und
a-posteriori-Wahrscheinlichkeiten.
Beispiel 1.22 ((vgl. Beispiel 1.18)). Wie groß ist die bedingte Wahrscheinlichkeit dafür,
dass ein Teil von der n-ten Firma geliefert wurde unter der Bedingung, dass es Ausschuss
ist ?
PpA |Fn q PpFn q
PpA |Fn q PpFn q
“ 3
PpFn |Aq “
, n “ 1, 2, 3
ř
PpAq
P pA |Fi q PpFi q
i“1
• PpF1 |Aq “
0.01 ¨ 0.6 2
“ “
p 40%
0.015
5
• PpF2 |Aq “
0.02 ¨ 0.3 2
“ “
p 40%
0.015
5
• PpF3 |Aq “
0.03 ¨ 0.1 1
“ “
p 20%
0.015
5
1.4
Unabhängigkeit
Definition 1.23. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum. Zwei Ereignisse A, B P F
heißen unabhängig bezüglich des Wahrscheinlichkeitsmaßes P (oder stochastisch unabhängig), falls gilt
PpA X Bq “ PpAq ¨ PpBq .
Behauptung 1.24. Für unabhängige Ereignisse A und B mit PpAq ą 0 bzw. PpBq ą 0
gilt
PpB|Aq “ PpBq bzw. PpA|Bq “ PpAq .
8
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 1.25. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und A, B P F zwei Ereignisse. Dann
sind die folgenden Aussagen äquivalent
(1) A und B sind unabhängig,
(2) A und B c sind unabhängig,
(3) Ac und B sind unabhängig,
(4) Ac und B c sind unabhängig.
Definitionen 1.26. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige
Indexmenge.
• Eine Familie pAi qiPI Ď F von Ereignissen heißt vollständig unabhängig, falls
für jede nichtleere, endliche Teilmenge In Ď I gilt
˜
¸
č
ź
P
Ai “
PpAi q .
iPIn
iPIn
• Ist I “ t1, . . . , nu so werden die Ereignisse A1 , . . . , An P F vollständig unabhängig genannt.
• Für I “ N spricht man von einer vollständig unabhängigen Folge pAi qiPN Ď F
von Ereignissen.
• Gilt lediglich PpAi X Aj q “ PpAi q ¨ PpAj q für alle i, j P I, i ‰ j , dann heißt die
Familie pAi qiPI Ď F von Ereignissen paarweise unabhängig.
Beispiel 1.27. Wir betrachten den zweimaligen Wurf mit einer fairen Münze und dabei die
Ereignisse
• A1 . . . beim ersten Wurf wird Zahl (Z) geworfen
• A2 . . . beim zweiten Wurf wird Wappen (W ) geworfen
• A3 . . . beide Wurfergebnisse sind verschieden
Als Grundmenge wählen wir Ω “ tpW, W q, pW, Zq, pZ, W q, pZ, Zqu . Jedes der Elementarereignisse hat die Wahrscheinlichkeit 1{4 . Folglich ist PpA1 q “ PptpZ, Zq, pZ, W quq “ 1{2 ,
PpA2 q “ PptpW, W q, pZ, W quq “ 1{2 und PpA3 q “ PptpW, Zq, pZ, W quq “ 1{2 . Wie man
leicht sieht, ist PpAi X Aj q “ PpAi q ¨ PpAj q “ 1{4 für alle i, j P t1, 2, 3u, i ‰ j . Jedoch ist einerseits PpA1 XA2 XA3 q “ PptpZ, W quq “ 1{4 , aber andererseits PpA1 q PpA2 q PpA3 q “ 1{8 .
Damit sind die Ereignisse A1 , A2 , A3 zwar paarweise unabhängig, jedoch nicht vollständig
unabhängig.
9
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Definition 1.28. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, I ‰ ∅ eine beliebige Indexmenge und für jedes i P I sei Mi Ď F ein Mengensystem. Dann heißt die Familie
pMi qiPI von Mengensystemen unabhängig, falls für jede mögliche Auswahl von Ereignissen Ai P Mi für alle i P I die Familie pAi qiPI von Ereignissen vollständig unabhängig
ist, d.h. falls für jede nichtleere, endliche Teilmenge ti1 , ..., in u Ď I und jedes Ereignis
Aik P Mik mit k “ 1, ..., n gilt
P pAi1 X ... X Ain q “ PpAi1 q ¨ ... ¨ PpAin q .
Anmerkungen 1.29.
(1) Die Familie pMi qiPI ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist.
(2) Die Unabhängigkeit bleibt bestehen, wenn man die Mengensysteme Mi verkleinert.
1.5
Zufallsvariable und Verteilung
Definition 1.30. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und pΩ1 , F 1 q ein messbarer
Raum. Dann wird die pF, F 1 q-messbare Abbildung X : Ω Ñ Ω1 Zufallsvariable bzw.
zufälliges Element aus pΩ1 , F 1 q genannt. Man spricht von einer Zufallsvariable X von
einem Wahrscheinlichkeitsraum pΩ, F, Pq in einen messbaren Raum pΩ1 , F 1 q und schreibt
dafür
X
pΩ, F, Pq Ý
Ñ pΩ1 , F 1 q oder X : pΩ, F, Pq Ñ pΩ1 , F 1 q.
Anmerkung 1.31. Zufallsvariable dienen als mathematische Objekte zur Beschreibung bestimmter Eigenschaften der Ergebnisse eines Experimentes mit zufälligem Ausgang (Zufallsexperiment). Eine Zufallsvariable weist jedem möglichen Ergebnis eines Zufallsexperimentes
einen gewissen Wert ω 1 P Ω1 zu. Der Wert ω 1 “ Xpωq der Zufallsvariable ist zum Beispiel das zahlenmäßige zufällige Versuchsergebnis oder eine zahlenmäßige Charakteristik des
zufälligen Versuchsergebnisses.
Definition 1.32. Sei X eine Zufallsvariable von einem Wahrscheinlichkeitsraum pΩ, F, Pq
in einen messbaren Raum pΩ1 , F 1 q . Dann wird das durch X übertragene Wahrscheinlichkeitsmaß (Bildmaß)
PX “ P ˝X ´1
Verteilungsgesetz bzw. kurz Verteilung von X genannt. Das Verteilungsgesetz PX ist
ein Wahrscheinlichkeitsmaß auf dem messbaren Raum pΩ1 , F 1 q . Für B P F 1 gilt
PX pBq “ PpX ´1 pBqq “ Pptω P Ω : Xpωq P Buq “: PpX P Bq.
Beispiel 1.33 (und Definition). Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und
X : Ω Ñ Ω mit Xpωq “ ω
10
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
die identische Abbildung. Es ist also
pΩ1 , F 1 q “ pΩ, Fq und
PX “ P .
In diesem Fall nennt man die Zufallsvariable X unmittelbar gegeben.
Behauptung 1.34. Für jedes Wahrscheinlichkeitsmaß P auf einem messbaren Raum
pΩ, Fq gibt es eine Zufallsvariable mit Werten in pΩ, Fq , für die P das Verteilungsgesetz
ist.
Anmerkung 1.35. Oft wird für eine Zufallsvariable X von einem Wahrscheinlichkeitsraum
pΩ, F, Pq in einen messbaren Raum pΩ1 , F 1 q nur das Verteilungsgesetz PX angegeben ohne
den ursprünglichen Wahrscheinlichkeitsraum pΩ, F, Pq und insbesondere das Wahrscheinlichkeitsmaß P näher zu beschreiben. Man spricht dann von einem hypothetischen Wahrscheinlichkeitsraum pΩ, F, Pq. Die Existenz eines solchen Wahrscheinlichkeitsraumes ist
durch eine unmittelbar gegebene Zufallsvariable stets gesichert.
1.6
Zufallsgrößen
Definition 1.36. Eine Zufallsvariable X von einem Wahrscheinlichkeitsraum pΩ, F, Pq in
den messbaren Raum pR, Bq wird Zufallsgröße oder reelle Zufallsvariable, reellwertige
Zufallsvariable bzw. zufällige reelle Zahl genannt. Das Verteilungsgesetz PX von X ist
ein Wahrscheinlichkeitsmaß auf pR, Bq und somit pR, B, PX q ein Wahrscheinlichkeitsraum.
Definition 1.37. Sei X eine Zufallsgröße. Dann heißt die Funktion
FX : R Ñ r0, 1s
mit
FX pxq :“ PX pp´8, xqq “ Pptω P Ω : Xpωq ă xuq für x P R
Verteilungsfunktion der Zufallsgröße X bzw. des Verteilungsgesetzes PX .
Anmerkungen 1.38.
(1) An Stelle von Pptω P Ω : Xpωq ă xuq ist die Kurzschreibweise PpX ă xq gebräuchlich,
also FX pxq “ PpX ă xq , analog auch für Wahrscheinlichkeiten für andere zufällige
Ereignisse im Zusammenhang mit einer Zufallsgröße X .
(2) Mit Hilfe der Verteilungsfunktion lässt sich die Wahrscheinlichkeit typischer Ereignisse
einfach berechnen
PpX ă bq “ FX pbq für b P R,
PpX ě aq “ 1 ´ FX paq für a P R,
Ppa ď X ă bq “ FX pbq ´ FX paq für a, b P R, a ă b.
(3) Neben der oben gegebenen Definition der Verteilungsfunktion einer Zufallsgröße ist eine
weitere Variante (mit geringfügig anderen Eigenschaften) verbreitet:
FrX pxq “ P pX ď xq ,
x P R.
11
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 1.39. Die Verteilungsfunktion FX einer Zufallsgröße X hat folgende Eigenschaften
(V1) FX ist monoton wachsend,
(V2) FX ist linksseitig stetig,
(V3)
(V4)
lim FX pxq “ 0 und
xÑ´8
lim FX pxq “ 1 .
xÑ`8
Satz 1.40. Sei X eine Zufallsgröße. Dann ist eine messbare Funktion f : R Ñ R genau
dann PX -integrierbar, wenn f ˝ X P-integrierbar ist. In diesem Fall gilt
ż
ż
f pxq PX pdxq “ f pXpωqq Ppdωq .
R
Ω
Definition 1.41. Eine Zufallsgröße X heißt diskret, falls ihr Wertebereich WX Ď R
höchstens abzählbar ist.
Anmerkung 1.41. Ist eine Zufallsgröße X nur durch ihr Verteilungsgesetz (z.B. ihre
Verteilungsfunktion) gegeben, nennt man sie oft diskret, wenn eine höchstens abzählbare
Menge WX mit der Eigenschaft
P pX P WX q “ 1
existiert.
Satz 1.42 (und Definition). Das Verteilungsgesetz PX einer diskreten Zufallsgröße X ist
eindeutig durch die möglichen Werte txk , : k P I Ď Nu “ WX und die (zugehörigen)
Einzelwahrscheinlichkeiten
pk :“ Pptω P Ω : Xpωq “ xk uq “: PpX “ xk q ,
bestimmt. Es gilt
ÿ
pk “ 1 und
PX “
k PI
ÿ
kPI,
pk δxk .
k PI
Die Verteilungsfunktion FX ist eine stückweise konstante Funktion mit den Sprungstellen
xk und den Sprunghöhen pk , k P I . Sie hat die Darstellung
ÿ
FX pxq “
pk Ipxk ,8q pxq , x P R .
k PI
12
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 1.43 ((Einmaliges Würfeln)). Die diskrete Zufallsgröße X beschreibe als unmittelbar gegebene Zufallsgröße das Ergebnis beim einmaligen Würfeln mit einem fairen
Würfel.
WX “ t1, 2, 3, 4, 5, 6u ,
1
xk “ k , pk “ , k “ 1, . . . , 6 ,
6
6
1ÿ
δk ,
PX “
6 k“1
FX pxq “
6
1ÿ
Ipk,8q pxq ,
6 k“1
x P R.
Beispiel 1.43 ((Fortsetzung)). Grafische Darstellung der Verteilungsfunktion FX pxq
F X HxL
1
5
6
4
6
3
6
2
6
1
6
1
2
3
4
5
6
x
Satz 1.44. Sei X eine diskrete Zufallsgröße. Dann ist eine Funktion f : R Ñ R genau
dann PX -integrierbar, wenn f ˝ X P-integrierbar ist. In diesem Fall gilt
ż
ż
ÿ
f pXpωqq Ppdωq “ f pxq PX pdxq “
f pxk q pk .
Ω
k PI
R
Definition 1.45. Das Verteilungsgesetz PX einer Zufallsgröße X sei absolut stetig
bezüglich des Lebesgue-Borel-Maßes λ auf dem messbaren Raum pR, Bq pPX Î λq .
Dann wird die Zufallgröße X (absolut) stetig genannt. Jede nichtnegative, messbare
Funktion
d PX
pxq ,
fX : R Ñ r0, 8s mit fX pxq “
dλ
die Radon-Nikodym-Ableitung von PX bezüglich λ , wird Verteilungsdichte oder auch
Dichtefunktion bzw. kurz Dichte der Zufallsgröße X bzw. des Verteilungsgesetzes PX
genannt.
13
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkungen 1.46.
(1) Die Dichtefunktion fX einer stetigen Zufallsgröße X ist nur λ-fast überall eindeutig
bestimmt.
(2) Sei f : R Ñ r0, 8s eine nichtnegative, messbare Funktion mit
ż8
ż
f pxq λpdxq “
R
f pxq dx “ 1 .
´8
Dann ist f λ ein Wahrscheinlichkeitsmaß auf pR, Bq und für die unmittelbar gegebene
Zufallsgröße X gilt
PX “ f λ ,
d.h. X ist eine stetige Zufallsgröße mit der Dichtefunktion fX “ f .
Satz 1.47. Für eine stetige Zufallsgröße X mit der Dichtefunktion fX gilt
(1)
ż
fX pxq dx für B P B ;
PX pBq “
B
(2)
żx
FX pxq “
fX ptq dt für x P R ;
´8
(3) PpX “ xq “ 0 für alle x P R ;
(4) fX “ FX1 λ-fast überall, falls FX stetig differenzierbar ist.
Folgerung 1.48. Für eine stetige Zufallsgröße X mit der Dichtefunktion fX gilt
ż8
ż
fX pxq λpdxq “
R
fX pxq dx “ 1 ,
´8
żb
PpX ă bq “ PpX ď bq “ FX pbq “
fX pxq dx für b P R ,
´8
ż8
PpX ě aq “ PpX ą aq “ 1 ´ FX paq “
fX pxq dx für a P R ,
a
Ppa ď X ă bq “ Ppa ă X ă bq “ Ppa ă X ď bq “ Ppa ď X ď bq
żb
“ FX pbq ´ FX paq “ fX pxq dx für a, b P R , a ă b .
a
14
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 1.49. Sei X eine stetige Zufallsgröße mit der Dichtefunktion
fX pxq “
1
Ira,bs pxq für
b´a
Dann ist
$
’
& 0
FX pxq “
’
%
´ 8 ă a ă b ă 8.
für x ď a ,
x´a
b´a
für a ă x ď b ,
1
für x ą b .
Beispiel 1.49 ((Fortsetzung)). Grafische Darstellung der Dichtefunktion fX pxq und der
Verteilungsfunktion FX pxq
fX HxL
FX HxL
1
0.75
0.5
1
b-a
0.25
a
b
x
a
b
x
Satz 1.50. Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX und g : R Ñ R
eine PX -integrierbare Funktion. Dann ist fX ¨ g λ-integrierbar, und es gilt
gpxq PX pdxq “
R
1.7
ż8
ż
ż
gpxq fX pxq λpdxq “
R
gpxq fX pxq dx.
´8
Zufallsvektoren
Definition 1.51. Eine Zufallsvariable X von einem Wahrscheinlichkeitsraum pΩ, F, Pq
in den messbaren Raum pRd , Bd q mit d P N wird Zufallsvektor bzw. zufälliger, reeller
Vektor genannt. Das Verteilungsgesetz PX von X ist ein Wahrscheinlichkeitsmaß auf
pRd , Bd q und somit pRd , Bd , PX q ein Wahrscheinlichkeitsraum.
Anmerkung 1.52 (und Definitionen). Ein Zufallsvektor X kann auch als d-Tupel von
Zufallsgrößen Xi , i “ 1, . . . , d , aufgefasst werden
X “ pX1 , . . . , Xd qT .
Für das Verteilungsgesetz PX des Zufallsvektors X verwendet man auch die Schreibweisen
PX “ PX1 ,...,Xd “ PpX1 ,...,Xd q
15
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
und nennt PX1 ,...,Xd die gemeinsame Verteilung der Zufallsgrößen X1 , . . . , Xd . Die
Verteilungsgesetze PXk der einzelnen Zufallsgrößen Xk , k “ 1, . . . , d , werden (eindimensionale) Randverteilungen genannt.
Definition 1.53. Sei X ein Zufallsvektor. Dann heißt die Funktion
FX : Rd Ñ r0, 1s
mit
˜
FX p~xq “ FX1 ,...,Xd px1 , . . . , xd q :“ PX
¸
d
ą
p´8, xi q “
i“1
“ Pptω P Ω : X1 pωq ă x1 , . . . , Xd pωq ă xd uq “
“ PpX1 ă x1 , . . . , Xd ă xd q für ~x “ px1 , . . . , xd qT P Rd
Verteilungsfunktion des Zufallsvektors X bzw. gemeinsame Verteilungsfunktion
oder auch Verbundverteilungsfunktion der Zufallsgrößen X1 , . . . , Xd .
Anmerkungen 1.54. Sei X ein Zufallsvektor.
(1) Dann gilt für die Randverteilung PXk , k “ 1, . . . , d ,
PXk pBq “ PX1 ,...,Xd pR ˆ . . . ˆ R ˆ B ˆ R ˆ . . . ˆ Rq
`
˘
“ PX1 ,...,Xd Rk´1 ˆ B ˆ Rd´k
für B P B .
(2) Für die Verteilungsfunktion FXk der k-ten Randverteilung PXk , k “ 1, . . . , d , gilt
`
˘
FXk pxq “ PX1 ,...,Xd Rk´1 ˆ p´8, xq ˆ Rd´k
“ lim FX1 ,...,Xd py, . . . , y, x, y, . . . , yq für x P R .
yÑ8
Anmerkungen 1.54 ((Fortsetzung)).
(3) Sei X “ pX1 , X2 qT ein zweidimensionaler Zufallsvektor und ´8 ă ai ă bi ă 8 , i “
1, 2 . Dann gilt
Ppa1 ď X1 ă b1 , a2 ď X2 ă b2 q
“ PX1 ,X2 pra1 , b1 q ˆ ra2 , b2 qq “ PX pra1 , b1 q ˆ ra2 , b2 qq
“ PX pp´8, b1 q ˆ p´8, b2 qq ´ PX pp´8, a1 q ˆ p´8, b2 qq
´ PX pp´8, b1 q ˆ p´8, a2 qq ` PX pp´8, a1 q ˆ p´8, a2 qq
“ FX pb1 , b2 q ´ FX pa1 , b2 q ´ FX pb1 , a2 q ` FX pa1 , a2 q .
16
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 1.55. Sei X ein Zufallsvektor. Dann ist eine messbare Funktion f : Rd Ñ R genau
dann PX -integrierbar, wenn f ˝ X P-integrierbar ist. In diesem Fall gilt
ż
ż
f p~xq PX pd~xq “ f pXpωqq Ppdωq .
Ω
Rd
Definition 1.56. Das Verteilungsgesetz PX des Zufallsvektors X sei absolut stetig
bezüglich des Lebesgue-Borel-Maßes λd auf dem messbaren Raum pRd , Bd q pPX Î λd q .
Dann wird der Zufallsvektor X (absolut) stetig genannt. Jede nichtnegative, messbare
Funktion
d PX
p~xq ,
fX : Rd Ñ r0, 8s mit fX p~xq “
d λd
die Radon-Nikodym-Ableitung von PX bezüglich λd , wird Verteilungsdichte oder auch
Dichtefunktion bzw. kurz Dichte des Zufallsvektors X bzw. des Verteilungsgesetzes PX
genannt.
Anmerkungen 1.57.
(1) Die Dichtefunktion fX eines stetigen Zufallsvektors ist nur λd -fast überall eindeutig
bestimmt.
(2) Sei f : Rd Ñ r0, 8s eine nichtnegative, messbare Funktion mit
ż
ż8
ż8
f p~xq λd pd~xq “
...
f px1 , . . . , xd q dx1 . . . dxd “ 1 .
Rd
´8
´8
Dann ist f λd ein Wahrscheinlichkeitsmaß auf pRd , Bd q und für den unmittelbar gegebenen Zufallsvektor X gilt
PX “ f λd ,
d.h. X ist ein stetiger Zufallsvektor mit der Dichtefunktion fX “ f .
Satz 1.58. Für einen stetigen Zufallsvektor X mit der Dichtefunktion fX gilt
(1)
ż
PX pBq “ PpX P Bq “
fX p~xq d~x “
B
ż
“
ż
¨¨¨
fX px1 , . . . , xd q dx1 . . . dxd
für B P Bd
B
(2)
FX p~xq “ FX1 ,...,Xd px1 , . . . , xd q “
żx1
żxd
“
...
fX pt1 , . . . , td q dtd . . . dt1 ,
´8
´8
17
~x “ px1 , . . . , xd qT P Rd
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 1.58 ((Fortsetzung)).
(3) Es gilt PX pBq “ 0 für niederdimensionalen Mengen B P Bd , dimpBq P t0, . . . , d ´ 1u ,
insbesondere
PpX “ ~xq “ 0 für alle ~x P Rd .
Folgerung 1.59. Sei X “ pX1 , X2 qT ein zweidimensionaler, stetiger Zufallsvektor mit der
Dichtefunktion fX und ´8 ă ai ă bi ă 8 , i “ 1, 2 . Dann gilt
Ppa1 ă X1 ă b1 , a2 ă X2 ă b2 q
“ Ppa1 ď X1 ă b1 , a2 ă X2 ă b2 q
..
.
“ Ppa1 ď X1 ď b1 , a2 ď X2 ď b2 q
“FX pb1 , b2 q ´ FX pa1 , b2 q ´ FX pb1 , a2 q ` FX pa1 , a2 q
żb1 żb2
“
fX px1 , x2 q dx2 dx1 .
a1 a2
Anmerkungen 1.60. Sei X ein stetiger Zufallsvektor mit der Dichtefunktion fX .
(1) Dann gilt für die Randverteilung PXk , k “ 1, . . . , d , und B P B
`
˘
PXk pBq “ PX1 ,...,Xd Rk´1 ˆ B ˆ Rd´k “
ż ż
ż
“
. . . fX px1 , . . . , xd q dx1 . . . dxk´1 dxk`1 . . . dxd dxk .
B R
R
(2) Die Komponenten Xk des Zufallsvektors X sind stetige Zufallsgrößen und für die
Verteilungsdichte fXk der k-ten Randverteilung PXk , k “ 1, . . . , d , gilt
ż
ż
fXk pxk q “ . . . fX px1 , . . . , xd q dx1 . . . dxk´1 dxk`1 . . . dxd
R
für xk P R
R
λ-fast überall.
Anmerkungen 1.60 ((Fortsetzung)).
(3) Die Umkehrung von (2) gilt nicht. Es gibt z.B. stetige Zufallsgrößen X1 , X2 , so dass
pX1 , X2 qT kein stetiger Zufallsvektor ist.
Satz 1.61. Sei X ein stetiger Zufallsvektor mit der Dichtefunktion fX und g : Rd Ñ R
eine PX -integrierbare Funktion. Dann ist fX ¨ g λd -integrierbar, und es gilt
ż
ż
gp~xq PX pd~xq “ gp~xq fX p~xq λd pd~xq “
Rd
Rd
ż8
ż8
...
“
´8
gpx1 , . . . , xd q fX px1 , . . . , xd q dx1 . . . dxd .
´8
18
TU Bergakademie Freiberg
1.8
Wahrscheinlichkeitstheorie
Sommersemester 2017
Unabhängigkeit von Zufallsvariablen
Definitionen 1.62. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige
Indexmenge. Für i P I sei pΩ1i , Fi1 q ein messbarer Raum und Xi eine Zufallsvariable
X
i
pΩ, F, Pq ÝÑ
pΩ1i , Fi1 q ,
iPI.
• Dann heißt die Familie `pXi qiPI von
˘ Zufallsvariablen unabhängig, falls die Familie
von Urbild-σ-Algebren Xi´1 pFi1 q iPI unabhängig ist.
• Ist I “ t1, . . . , nu so spricht man direkt von unabhängigen Zufallsvariablen
X1 , . . . , X n .
• Für I “ N spricht man von einer unabhängigen Folge pXi qiPN von Zufallsvariablen.
Anmerkung 1.63.
(1) Eine Familie von Zufallsvariablen ist genau dann unabhängig, wenn jede endliche Teilfamilie unabhängig ist.
(2) Es genügt daher, Bedingungen für die Unabhängigkeit von Zufallsvariablen X1 , . . . , Xn
zu finden. Sind diese für jede endliche Teilfamilie einer Familie von Zufallsvariablen
erfüllt, so ist die gesamte Familie unabhängig.
Satz 1.64. Seien Xi Zufallsvariable von demselben Wahrscheinlichkeitsraum pΩ, F, Pq in
den messbaren Raum pΩ1i , Fi1 q
X
i
pΩ1i , Fi1 q,
pΩ, F, Pq ÝÑ
i “ 1, . . . , n .
Die Zufallsvariablen X1 , . . . , Xn sind genau dann unabhängig, wenn
PX1 ,...,Xn “
n
â
PXi .
i“1
Folgerung 1.65. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige
Indexmenge. Für i P I sei pΩ1i , Fi1 q ein messbarer Raum und Xi eine Zufallsvariable
X
i
pΩ, F, Pq ÝÑ
pΩ1i , Fi1 q .
Die Familie pXi qiPI von Zufallsvariablen ist genau dann unabhängig, wenn für jede nichtleere,
endliche Teilmenge In “ ti1 , . . . , in u Ď I gilt
PXi1 ,...,Xin “
n
â
j“1
19
PXij .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 1.66. Seien Xi Zufallsgrößen auf demselben Wahrscheinlichkeitsraum pΩ, F, Pq
X
i
pΩ, F, Pq ÝÑ
pR, Bq ,
i “ 1, . . . , n .
Die Zufallsgrößen X1 , . . . , Xn sind genau dann unabhängig, wenn für alle px1 , . . . , xn q P Rn
gilt
n
ź
FX1 ,...,Xn px1 , . . . , xn q “
FXi pxi q .
i“1
Folgerung 1.67. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige
Indexmenge. Für i P I sei Xi eine Zufallsgröße
X
i
pΩ, F, Pq ÝÑ
pR, Bq .
Die Familie pXi qiPI von Zufallsgrößen ist genau dann unabhängig, wenn für jede nichtleere,
endliche Teilmenge In “ ti1 , . . . , in u Ď I und alle px1 , . . . , xn q P Rn gilt
FXi1 ,...,Xin px1 , . . . , xn q “
n
ź
FXij pxj q .
j“1
Satz 1.68. Seien Xi stetige Zufallsgrößen auf demselben Wahrscheinlichkeitsraum pΩ, F, Pq
mit den Dichtefunktionen fXi
X
i
pR, Bq ,
pΩ, F, Pq ÝÑ
i “ 1, . . . , n .
Die Zufallsgrößen X1 , . . . , Xn sind genau dann unabhängig, wenn für die gemeinsame Dichtefunktion fX1 ,...,Xn für λn -fast alle px1 , . . . , xn q P Rn gilt
fX1 ,...,Xn px1 , . . . , xn q “
n
ź
fXi pxi q .
i“1
Folgerung 1.69. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige
Indexmenge. Für i P I sei Xi eine stetige Zufallsgröße
X
i
pΩ, F, Pq ÝÑ
pR, Bq .
Die Familie pXi qiPI von Zufallsgrößen ist genau dann unabhängig, wenn für jede nichtleere,
endliche Teilmenge In “ ti1 , . . . , in u Ď I und λn -fast alle px1 , . . . , xn q P Rn gilt
fXi1 ,...,Xin px1 , . . . , xn q “
n
ź
j“1
20
fXij pxj q .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 1.70. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, I ‰ ∅ eine beliebige Indexmenge
und pXi qiPI eine unabhängige Familie von Zufallsvariablen
X
i
pΩ, F, Pq ÝÑ
pΩ1i , Fi1 q ,
iPI.
Für i P I sei pΩ2i , Fi2 q ein messbarer Raum und Yi eine Zufallsvariable
Y
i
pΩ1i , Fi1 , PXi q Ý
Ñ
pΩ2i , Fi2 q .
Dann ist pYi ˝ Xi qiPI eine unabhängige Familie von Zufallsvariablen
Y ˝X
i
i
pΩ, F, Pq ÝÝ
ÝÑ
pΩ2i , Fi2 q ,
1.9
iPI.
Symmetrie
Definition 1.71. Die Zufallsgröße X bzw. deren Verteilungsgesetz PX heißt symmetrisch, falls X und ´X dieselbe Verteilung besitzen, d.h.
PX “ P´X .
Die Zufallsgröße X bzw. deren Verteilungsgesetz PX heißt symmetrisch bezüglich des
Symmetriezentrums c P R bzw. kurz symmetrisch bezüglich c P R , falls X ´ c
symmetrisch ist.
Satz 1.72. Sei X eine stetige Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq.
Dann sind die folgenden Aussagen äquivalent
(1) Die Verteilung von X ist symmetrisch.
(2) Für die Verteilungsfunktion FX von X gilt
FX p´xq “ 1 ´ FX pxq für alle x P R .
(3) Für die Verteilungsdichte fX von X gilt
fX p´xq “ fX pxq λ-fast überall .
Beispiel 1.73. Die stetige Zufallsgröße X besitze die Verteilungsdichte
fX pxq “
1 1
.
π 1 ` x2
Offensichtlich ist die Verteilung von X symmetrisch.
21
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Aufgabe 1.74.
(1) Zeigen Sie, dass eine stetige Zufallsgröße X genau dann symmetrisch bezüglich c P R
ist, wenn für die Verteilungsfunktion FX von X gilt
FX pc ´ xq “ 1 ´ FX pc ` xq für alle x P R .
(2) Zeigen Sie, dass eine stetige Zufallsgröße X genau dann symmetrisch bezüglich c P R
ist, wenn für die Verteilungsdichte fX von X gilt
fX pc ´ xq “ fX pc ` xq λ-fast überall .
2
2.1
Kenngrößen für Zufallsgrößen
Erwartungswert
Definition 2.1. Sei X eine Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Falls
X bezüglich P integrierbar ist, d.h.
ż
|Xpωq| Ppdωq ă 8
Ω
so sagt man, dass der Erwartungswert der Zufallsgröße X existiert und nennt die Größe
ż
ż
E pXq :“ Xpωq Ppdωq “ X d P
Ω
Ω
den Erwartungswert der Zufallsgröße X.
(Bem. Obige Bedingung wird auch durch E p|X|q ă 8 ausgedrückt.)
Satz 2.2. Der Erwartungswert der Zufallsgröße X existiert genau dann, wenn
ż
|x| PX pdxq ă 8.
R
Existiert der Erwartungswert E pXq, so gilt
ż
ż
E pXq “ Xpωq Ppdωq “ x PX pdxq.
Ω
R
Satz 2.3. Der Erwartungswert der diskreten Zufallsgröße X mit dem Wertebereich WX “
txk ukPIĎN und den Einzelwahrscheinlichkeiten tpk ukPI existiert genau dann, wenn
ÿ
|xk | pk ă 8.
k PI
Existiert der Erwartungswert E pXq, so gilt
E pXq “
ÿ
k PI
22
xk p k .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 2.4 ((Einmaliges Würfeln)). Für die diskrete Zufallsgröße X aus Beispiel 1.43 mit
xk “ k,
1
pk “ ,
6
k “ 1, . . . , 6,
gilt
E pXq “
6
ÿ
k
k“1
1
7
“ “ 3.5
6
2
Satz 2.5. Der Erwartungswert der stetigen Zufallsgröße X mit der Dichtefunktion fX existiert genau dann, wenn
ż
|x| fX pxq dx ă 8.
R
Existiert der Erwartungswert E pXq, so gilt
ż
E pXq “
x fX pxq dx.
R
Beispiel 2.6. Für die stetige Zufallsgröße X aus Beispiel 1.49 mit der Dichtefunktion
fX pxq “
1
Ira,bs pxq für
b´a
´8ăaăbă8
gilt
ż
E pXq “
1
x fX pxq dx “
b´a
żb
x dx “
a`b
.
2
a
R
Beispiel 2.7. Sei X eine stetige Zufallsgröße mit der Dichtefunktion
fX pxq “ λe´λx Ir0,8q pxq für λ ą 0.
Dann ist
ż8
ż
E pXq “
x λe´λx dx “
x fX pxq dx “
1
.
λ
0
R
Beispiel 2.8 ((Gegenbeispiel)). Die symmetrische, stetige Zufallsgröße X aus Beispiel 1.73
besitzt die Dichtefunktion
1 1
fX pxq “
.
π 1 ` x2
Der Erwartungswert E pXq existiert in diesem Fall nicht.
Anmerkung 2.9 ((Geometrische Interpretation des Erwartungswertes einer stetigen Zufallsgröße)). Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX . Dann ist E pXq P R
gerade die x-Koordinate des Schwerpunktes der Fläche zwischen der x-Achse und dem Graph
der Funktion fX ě 0.
23
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkung 2.10 ((Bedeutung des Erwartungswertes)).
• wichtigste Kenngröße einer Zufallsgröße
• wichtigster Lageparameter einer Zufallsgröße
• durchschnittlicher Wert, Mittelwert einer Zufallsgröße
• Zentrum, Schwerpunkt der Verteilung einer Zufallsgröße
• Grundlage zur Definition weiterer Kenngrößen
Definition 2.11. Es sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und E eine Eigenschaft, so
dass für alle Elementarereignisse ω P Ω definiert ist, ob ω diese Eigenschaft besitzt oder
nicht. Dann sagt man, die Eigenschaft E gilt P-fast sicher (abgekürzt P-f.s.) auf Ω bzw.
P-fast sicher alle ω P Ω besitzen die Eigenschaft E, falls es ein Ereignis N P F mit
PpN q “ 0 gibt, so dass
tω P Ω : ω besitzt Eigenschaft E nichtu Ď N.
Ein Ereignis A P F tritt P-fast sicher ein bzw. ist P-fast sicher, wenn PpAc q “ 0 bzw.
PpAq “ 1.
Definition 2.12. Sei X eine Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq.
Dann spricht man von einer nichtnegativen Zufallsgröße X, wenn
X ě 0 P-fast sicher.
Aufgabe 2.13.
(1) Zeigen Sie, dass eine Zufallsgröße X genau dann nichtnegativ ist, wenn
FX pxq “ 0 für alle x ď 0.
(2) Zeigen Sie, dass eine stetige Zufallsgröße X mit der Dichtefunktion fX genau dann
nichtnegativ ist, wenn
fX Ip´8,0q “ 0 λ-fast überall.
Satz 2.14.
(1) Sei X eine Zufallsgröße, deren Erwartungswert existiert. Dann gilt
| E pXq | ď E p|X|q .
(2) Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren Erwartungswert existiert, und es gelte X ď Y P-fast sicher. Dann gilt
E pXq ď E pY q .
24
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(3) Seien X1 , . . . , Xn Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren Erwartungswert existiert, sowie ci P R, i “ 1, . . . , n reelle Zahlen. Dann existiert auch
E pc1 X1 ` . . . ` cn Xn q, und es gilt
˜
¸
n
n
ÿ
ÿ
E
ci X i “
ci E pXi q .
i“1
i“1
Satz 2.15.
(1) Für c P R sei X “ c P-fast sicher, d.h. X ist eine P-fast sicher konstante Zufallsgröße.
Dann existiert E pXq, und es gilt
E pXq “ c.
(2) Sei A P F. Dann existiert der Erwartungswert der Zufallsgröße X “ IA , und es gilt
E pXq “ PpAq.
(3) Sei X eine Zufallsgröße, und es gelte ´8 ă a ď X ď b ă 8 P-fast sicher. Dann existiert
E pXq, und es gilt
a ď E pXq ď b.
(4) Sei X eine nichtnegative Zufallsgröße, deren Erwartungswert existiert. Dann gilt E pXq “
0 genau dann, wenn X “ 0 P-fast sicher.
Satz 2.16. Sei X eine nichtnegative Zufallsgröße, deren Erwartungswert existiert. Dann gilt
ż8
E pXq “ p1 ´ FX pxqq dx.
0
Beispiel 2.17. Die Zufallsgröße X aus Beispiel 2.7 ist nichtnegativ und besitzt die Verteilungsfunktion
`
˘
FX pxq “ 1 ´ e´λx Ip0,8q pxq für λ ą 0.
Man kann ihren Erwartungswert also auch gemäß
ż8
ż8
1
E pXq “ p1 ´ FX pxqq dx “ e´λx dx “
λ
0
0
berechnen.
Satz 2.18 ((Multiplikationssatz)). Seien X1 , . . . , Xn unabhängige Zufallsgrößen auf einem
Wahrscheinlichkeitsraum pΩ, F, Pq, deren Erwartungswert existiert. Dann existiert auch
E pX1 ¨ . . . ¨ Xn q, und es gilt
˜
¸
n
n
ź
ź
E
Xi “
E pXi q .
i“1
i“1
25
TU Bergakademie Freiberg
2.2
Wahrscheinlichkeitstheorie
Sommersemester 2017
Momente
Definition 2.19. Sei X eine Zufallsgröße auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Falls
ż
|Xpωq|p Ppdωq ă 8 für p P N,
Ω
so sagt man, dass das p-te Moment der Zufallsgröße X existiert und nennt die Größe
ż
ż
p
µp :“ µp pXq :“ X pωq Ppdωq “ X p d P .
Ω
Ω
das (gewöhnliche) Moment der Ordnung p bzw. das p-te (gewöhnliche) Moment
der Zufallsgröße X. Für p “ 1 schreibt man kurz
µ :“ µpXq :“ µ1 pXq.
Anmerkung 2.20. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert.
Dann existiert der Erwartungswert der Zufallsgröße Y “ X p , und es gilt
E pY q “ E pX p q “ µp pXq.
Für p “ 1 gilt insbesondere
E pXq “ µpXq.
Folglich kann man einerseits den Erwartungswert der Zufallsgröße als spezielles Moment und
andererseits die Momente als Erwartungswerte spezieller Funktionen von der Zufallsgröße
auffassen.
Satz 2.21. Das p-te Moment der Zufallsgröße X existiert genau dann, wenn
ż
|x|p PX pdxq ă 8 für p P N.
R
Existiert das p-te Moment µp pXq, so gilt
ż
ż
p
p
µp pXq “ E pX q “ X pωq Ppdωq “ xp PX pdxq.
Ω
R
Satz 2.22. Das p-te Moment der diskreten Zufallsgröße X mit dem Wertebereich WX “
txk uk PIĎN und
ÿ
|xk |p pk ă 8 für p P N.
k PI
Existiert das p-te Moment µp pXq, so gilt
µp pXq “
ÿ
k PI
26
xpk pk .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 2.23 ((Einmaliges Würfeln)). Für die diskrete Zufallsgröße X aus Beispiel 1.43
mit
1
xk “ k, pk “ , k “ 1, . . . , 6,
6
gilt
6
ÿ
1
1
µp pXq “ E pX p q “
k p “ p1 ` 2p ` 3p ` 4p ` 5p ` 6p q .
6
6
k“1
Für p “ 2 ergibt sich
`
µ2 pXq “ E X
2
˘
6
1 ÿ 2 91
“
k “ .
6 k“1
6
Satz 2.24. Das p-te Moment der stetigen Zufallsgröße X mit der Dichtefunktion fX existiert
genau dann, wenn
ż
|x|p fX pxq dx ă 8 für p P N.
R
Existiert das p-te Moment µp pXq, so gilt
ż
xp fX pxq dx.
µp pXq “
R
Beispiel 2.25. Für die stetige Zufallsgröße X mit der Dichtefunktion
fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0
gilt
µp pXq “
p!
λp
für p P N.
Satz 2.26. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p “ 2, 3, . . . , existiert.
(1) Dann existieren auch alle Momente µq pXq, q “ 1, . . . , p ´ 1, niedrigerer Ordnung und
somit insbesondere E pXq.
(2) Dann gilt
ż
|X ´ c|p d P ă 8 für alle c P R.
Ω
Definition 2.27. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann
heißt
ż
νp :“ νp pXq :“ pX ´ E pXqqp d P für p P N
Ω
das zentrale Moment der Ordnung p bzw. das p-te zentrale Moment der Zufallsgröße
X.
27
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkung 2.28 (und Definition). Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P
N, existiert. Dann existiert das p-te Moment der zentrierten Zufallsgröße Y “ X ´E pXq,
und es gilt
µp pY q “ νp pXq “ E ppX ´ E pXqqp q .
Das p-te zentrale Moment νp pXq der Zufallsgröße X ist also gerade das (gewöhnliche) pte Moment der zentrierten Zufallsgröße X ´ E pXq und kann zugleich als Erwartungswert
spezieller Funktionen von der Zufallsgröße aufgefasst werden.
Satz 2.29. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann
existiert für a, b P R auch νp paX ` bq, und es gilt
νp paX ` bq “ ap νp pXq.
Folgerung 2.30 (und Definition). Zentrale Momente einer Zufallsgröße sind invariant gegenüber Verschiebungen (translationsinvariant).
Satz 2.31. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann gilt
für p “ 2, 3, 4
ν2 “ µ2 ´ µ21 ,
ν3 “ µ3 ´ 3µ2 µ1 ` 2µ31 ,
ν4 “ µ4 ´ 4µ3 µ1 ` 6µ2 µ21 ´ 3µ41 ,
und allgemein
νp “ µ p `
p´1
ÿˆ
q“2
˙
p
µq p´µqp´q ` p´1qp´1 pp ´ 1qµp
q
für p P N.
Satz 2.32. Sei X eine Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann gilt
für p “ 2, 3, 4
µ2 “ ν2 ` µ21 ,
µ3 “ ν3 ` 3ν2 µ1 ` µ31 ,
µ4 “ ν4 ` 4ν3 µ1 ` 6ν2 µ21 ` µ41 ,
und allgemein
µ p “ νp `
p´1
ÿˆ
q“2
˙
p
νq µp´q ` µp
q
für p P N.
Beispiel 2.33. Für die Zufallsgröße X mit der Dichtefunktion
fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0
gilt
ν2 pXq “
1
,
λ2
ν3 pXq “
28
2
,
λ3
ν4 pXq “
9
.
λ4
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 2.34. Sei X eine symmetrische Zufallsgröße, deren p-tes Moment µp pXq, p P N, existiert. Dann gilt
(1)
µp pXq “ 0,
falls p ungerade;
(2)
νp pXq “ µp pXq.
Anmerkungen 2.35.
• Neben den gewöhnlichen und zentralen Momenten spielen auch absolute Momente
E p|X|p q bzw. absolute zentrale Momente E p|X ´ E pXq |p q eine Rolle, zum Teil auch
nicht nur für Werte p P N .
• Für eine nichtnegative Zufallsgröße X mit existierendem p-ten Moment (p ě 1) gilt
ż8
p
µp pXq “ E pX q “ p
PpX ě tqtp´1 dt .
0
2.3
Variabilitätskenngrößen
Definition 2.36. Sei X eine Zufallsgröße, deren zweites Moment existiert. Das zweite zentrale Moment ν2 pXq der Zufallsgröße X wird Varianz der Zufallsgröße X genannt und man
schreibt dafür
`
˘
σ 2 :“ σ 2 pXq :“ Var pXq :“ ν2 pXq “ E pX ´ E pXqq2 ě 0.
Anmerkung 2.37 ((Bedeutung der Varianz)).
• mittlere quadratische Abweichung einer Zufallsgröße von ihrem Erwartungswert
• Je größer die Varianz, desto weiter sind die Werte der Zufallsgröße X um E pXq herum
verteilt.
• Je kleiner die Varianz, desto stärker konzentriert sich die Verteilung um den Erwartungswert herum.
• beschreibt die Variabilität, das Streuverhalten einer Zufallsgröße
• wichtigste Variabilitätskenngröße, wichtigster Streuungsparameter
Beispiel 2.38. Für die stetige Zufallsgröße X aus Beispiel 2.6 mit der Dichtefunktion
fX pxq “
1
Ira,bs pxq für
b´a
´8ăaăbă8
gilt
ż ˆ
Var pXq “
a`b
x´
2
˙2
R
29
fX pxq dx “
pa ´ bq2
.
12
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 2.39.
(1) Für c P R sei X “ c P-fast sicher. Dann existiert Var pXq, und es gilt
Var pXq “ 0.
(2) Sei X eine Zufallsgröße, deren zweites Moment existiert. Dann gilt
` ˘
Var pXq “ E X 2 ´ E pXq2 .
Insbesondere folgt
` ˘
E pXq2 ď E X 2 .
(3) Sei X eine Zufallsgröße, deren zweites Moment existiert. Dann gilt für a, b P R
Var paX ` bq “ a2 Var pXq .
Somit ist die Varianz eine translationsinvariante Kenngröße.
Definition 2.40.
(1) Sei X eine Zufallsgröße, deren zweites Moment existiert. Dann heißt
b `
a
˘
σ :“ σpXq :“ sd pXq :“ Var pXq “ E pX ´ E pXqq2 ě 0
Standardabweichung der Zufallsgröße X.
(2) Für eine Zufallsgröße X mit existierendem zweiten Moment und Var pXq ą 0 ist
X̃ :“
X ´ E pXq
sd pXq
die Standardisierung von X.
Anmerkungen 2.41.
(1) Die Maßeinheit der Varianz einer Zufallsgröße X ist das Quadrat der Maßeinheit von
X. Diese Maßeinheit ist häufig schwer oder nicht zu interpretieren.
(2) Die Standardabweichung einer Zufallsgröße X hat hingegen dieselbe Maßeinheit wie X
und ist deshalb einfacher zu interpretieren.
(3) Die Standardabweichung einer Zufallsgröße ist eine translationsinvariante Kenngröße.
(4) Für a, b P R gilt sd paX ` bq “ |a| sd pXq .
(5) Für die Standardisierung X̃ von X gelten
´ ¯
´ ¯
E X̃ “ 0 ,
Var X̃ “ 1 ,
30
´ ¯
sd X̃ “ 1 .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 2.42. Für die stetige Zufallsgröße X aus Beispiel 2.38 mit der Dichtefunktion
fX pxq “
1
Ira,bs pxq für
b´a
´8ăaăbă8
gilt
sd pXq “
b´a
? .
2 3
Definition 2.43. Sei X eine Zufallsgröße, deren zweites Moment existiert, und es gelte
E pXq ‰ 0. Dann heißt
sd pXq
cv pXq :“
E pXq
(Pearsonscher) Variationskoeffizient der Zufallsgröße X.
Anmerkungen 2.44.
(1) Der Variationskoeffizient ist eine dimensionslose Kenngröße.
(2) Für a ą 0 gilt
cv paXq “ cv pXq .
Der Variationskoeffizient ist folglich eine skaleninvariante Kenngröße.
(3) Teilweise wird der Variationskoeffizient nur für nichtnegative Zufallsgrößen oder auch
durch die Beziehung
sd pXq
ě0
cv pXq :“
|E pXq|
definiert.
Anmerkung 2.45 ((Bedeutung des Variationskoeffizienten)).
• Als relative Kenngröße ist der Variationskoeffizient besonders zum Vergleich der Variabilität verschiedener Zufallsgrößen bzw. Verteilungen geeignet.
Beispiel 2.46. Für die Zufallsgröße X mit der Dichtefunktion
fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0
gilt (vgl. Beispiele 2.7 und 2.33)
cv pXq ” 1 für alle λ ą 0.
Der Variationskoeffizient ist folglich unabhängig vom Parameter λ ą 0.
31
TU Bergakademie Freiberg
2.4
Wahrscheinlichkeitstheorie
Sommersemester 2017
Schiefe und Wölbung
Definition 2.47. Sei X eine Zufallsgröße, deren drittes Moment existiert mit Var pXq ą 0.
Dann heißt
ν3 pXq
ν3 pXq
“ 3{2
γ pXq :“ 3
σ pXq
ν2 pXq
(Charliersche) Schiefe der Zufallsgröße X.
Satz 2.48. Sei X eine Zufallsgröße, deren drittes Moment existiert mit Var pXq ą 0.
(1) Dann existiert für a ‰ 0 und b P R auch γ paX ` bq, und es gilt
γ paX ` bq “ sign paq γ pXq .
(2) Ist X̃ die Standardisierung der Zufallsgröße X , dann gilt
´ ¯
γ pXq “ µ3 X̃ .
Anmerkungen 2.49.
(1) Die Schiefe ist eine dimensionslose Kenngröße.
(2) Die Schiefe ist eine translationsinvariante Kenngröße.
(3) Die Schiefe ist eine skaleninvariante Kenngröße.
Anmerkung 2.50 ((Bedeutung der Schiefe)).
• Die Schiefe beschreibt die Asymmetrie einer Verteilung.
• Symmetrische Verteilungen haben die Schiefe 0.
• Eine rechtsschiefe (auch: linkssteile) Verteilung hat eine positive Schiefe.
• Hingegen ist die Schiefe einer linksschiefen (auch: rechtssteilen) Verteilung negativ.
Beispiel 2.51. Für die Zufallsgröße X aus Beispiel 2.33 mit der Dichtefunktion
fX pxq “ λ e´λx Ir0,8q pxq für λ ą 0
gilt
γ pXq ” 2 für alle λ ą 0.
Die Schiefe ist somit unabhängig vom Parameter λ ą 0.
32
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Definition 2.52. Sei X eine Zufallsgröße, deren viertes Moment existiert mit Var pXq ą 0.
Dann heißt
ν4 pXq
ν4 pXq
κpXq :“ 4
“ 2
σ pXq
ν2 pXq
Wölbung oder Kurtosis der Zufallsgröße X.
Die Größe
εpXq :“ κpXq ´ 3
heißt Exzess der Zufallsgröße X.
Satz 2.53. Sei X eine Zufallsgröße, deren viertes Moment existiert mit Var pXq ą 0.
(1) Dann existiert für a ‰ 0 und b P R auch κ paX ` bq, und es gelten
κ paX ` bq “ κ pXq
und ε paX ` bq “ ε pXq .
(2) Ist X̃ die Standardisierung der Zufallsgröße X , dann gilt
´ ¯
γ pXq “ µ4 X̃ .
Anmerkungen 2.54.
(1) Wölbung und Exzess sind dimensionslose, translationsinvariante und skaleninvariante
Kenngrößen.
(2) Der Exzess einer Zufallsgröße beschreibt die Abweichung der Wölbung im Vergleich
zu einer Normalverteilung mit demselben Erwartungswert und derselben Varianz. So
werden Dichtefunktionen unterteilt in
• normalgipflig (εpXq “ 0);
• steilgipflig (εpXq ą 0) bzw.
• flachgipflig (εpXq ă 0).
2.5
Kovarianz und Korrelationskoeffizient
Definition 2.55. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq,
deren zweites Moment existiert. Dann heißt
Cov pX, Y q :“ E ppX ´ E pXqqpY ´ E pY qqq
Kovarianz der Zufallsgrößen X und Y .
33
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 2.56. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren
zweites Moment existiert.
(1) Offensichtlich ist
Cov pX, Y q “ Cov pY, Xq .
(2) Es gilt
Cov pX, Y q “ E pXY q ´ E pXq E pY q .
(3) Für a, b, c, d P R gilt
Cov paX ` b, cY ` dq “ ac Cov pX, Y q .
Insbesondere ist die Kovarianz eine translationsinvariante Kenngröße.
(4) Speziell gilt
Cov pX, Xq “ Var pXq .
Satz 2.57. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren
zweites Moment existiert.
(1) Dann existiert auch Var pX ` Y q, und es gilt
Var pX ` Y q “ Var pXq ` Var pY q ` 2 Cov pX, Y q .
(2) Sind die Zufallsgrößen X und Y unabhängig, dann gilt
Cov pX, Y q “ 0 und
Var pX ` Y q “ Var pXq ` Var pY q .
Aufgabe 2.58. Seien Xi und Yi , i “ 1, 2, Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq, deren zweites Moment existiert. Zeigen Sie, dass dann gilt
Cov pX1 ` X2 , Y1 ` Y2 q “
“ Cov pX1 , Y1 q ` Cov pX1 , Y2 q ` Cov pX2 , Y1 q ` Cov pX2 , Y2 q .
Definitionen 2.59.
• Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0. Dann heißt
% :“ %pX, Y q :“ Corr pX, Y q :“ a
Cov pX, Y q
Cov pX, Y q
“
sd pXq sd pY q
Var pXq Var pY q
– (Pearsonscher) Korrelationskoeffizient bzw.
– (gewöhnlicher) Korrelationskoeffizient
34
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
der Zufallsgrößen X und Y .
• Ist der Korrelationskoeffizient positiv (negativ), so nennt man die Zufallsgrößen X und
Y positiv (negativ) korreliert.
• Für Corr pX, Y q “ 0 heißen die Zufallsgrößen X und Y unkorreliert.
Satz 2.60. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren
zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0.
(1) Offensichtlich ist Corr pX, Y q “ Corr pY, Xq.
(2) Für a ­“ 0, b, c ­“ 0, d P R gilt
Corr paX ` b, cY ` dq “ sign pacq Corr pX, Y q .
(3) Speziell gilt für a ­“ 0, b P R, dass Corr pX, aX ` bq “ sign paq.
(4) Ist X̃ bzw. Ỹ die Standardisierung von X bzw. Y , dann gilt
´
¯
Corr pX, Y q “ E X̃ ¨ Ỹ .
Anmerkungen 2.61.
(1) Die Maßeinheit der Kovarianz Cov pX, Y q zweier Zufallsgrößen X und Y ist das Produkt der Maßeinheiten von X und Y . Diese Maßeinheit ist häufig schwer oder nicht zu
interpretieren.
(2) Der Korrelationskoeffizient ist hingegen eine dimensionslose Kenngröße.
(3) Der Korrelationskoeffizient ist eine translationsinvariante Kenngröße.
(4) Der Korrelationskoeffizient ist eine skaleninvariante Kenngröße.
Satz 2.62. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren
zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0.
(1) Es gilt
´1 ď Corr pX, Y q ď 1.
(2) Es gilt |Corr pX, Y q| “ 1 genau dann, wenn Konstanten a ‰ 0 und b P R existieren mit
Y “ aX ` b P-f.s.
Anmerkung 2.63 ((Bedeutung des Korrelationskoeffizienten)).
• Der Korrelationskoeffizient ist ein Maß für die Stärke des linearen Zusammenhangs
zwischen zwei Zufallsgrößen.
35
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 2.64. Seien X und Y Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq, deren
zweites Moment existiert. Weiterhin sei Var pXq ą 0 und Var pY q ą 0. Sind die Zufallsgrößen
X und Y unabhängig, dann gilt
Corr pX, Y q “ 0.
Beispiel 2.65. Sei X eine diskrete Zufallsgröße mit dem Wertebereich WX “ t´1, 0, 1uund
den Einzelwahrscheinlichkeiten
1
PpX “ ´1q “ PpX “ 0q “ PpX “ 1q “ .
3
Offensichtlich sind die Zufallsgrößen X und Y “ X 2 abhängig. Jedoch ist Corr pX, Y q “ 0.
Definition 2.66. Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor und die Erwartungswerte E pXi q
der einzelnen Komponenten Xi , i “ 1, . . . , d, mögen existieren. Dann versteht man unter
dem Erwartungswert E pXq des Zufallsvektors X (auch: Erwartungswertvektor) den
Vektor der Erwartungswerte
pE pX1 q , . . . , E pXd qqT .
Definition 2.67. Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor und die zweiten Momente der
einzelnen Komponenten Xi , i “ 1, . . . , d, mögen existieren. Dann heißt die Matrix
Σ “ pσi,j qdi,j“1
mit σi,j “ Cov pXi , Xj q ,
i, j “ 1, . . . , d,
Kovarianzmatrix des Zufallsvektors X.
Satz 2.68 (und Definition). Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor und die zweiten Momente der einzelnen Komponenten Xi , i “ 1, . . . , d, mögen existieren. Dann gilt
(1) Die Kovarianzmatrix ist eine reelle symmetrische Matrix.
(2) Die Kovarianzmatrix ist positiv semidefinit, d.h.
~xT Σ ~x ě 0 für alle ~x P Rd .
Beispiel 2.69. Seien X1 und X2 Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq,
deren zweites Moment existiert. Weiterhin sei σ12 “ Var pX1 q ą 0 und σ22 “ Var pX2 q ą 0 ,
sowie % “ Corr pX1 , X2 q .
Dann hat die Kovarianzmatrix Σ die Gestalt
ˆ 2
˙
σ1
% σ1 σ2
Σ“
.
% σ1 σ2
σ22
Sind X1 und X2 unkorreliert, d.h. % “ 0, dann ist die Kovarianzmatrix Σ eine Diagonalmatrix
ˆ 2
˙
σ1 0
Σ“
.
0 σ22
36
TU Bergakademie Freiberg
3
Wahrscheinlichkeitstheorie
Sommersemester 2017
Transformationen von Zufallsgrößen
Problem
Seien X1 , . . . , Xd Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit bekanntem
Verteilungsgesetz PX1 ,...,Xd und g : Rd Ñ R eine messbare Funktion. Welche Verteilung hat
dann die Zufallsgröße
Y “ gpX1 , . . . , Xd q ?
Gesucht ist also
PY
oder FY
bzw. speziell
fY
3.1
oder yk P WY
und
PpY “ yk q .
Die Verteilungsfunktion unter Transformationen
Satz 3.1. Seien X1 , . . . , Xd Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
und g : Rd Ñ R eine messbare Funktion. Dann gilt für die Zufallsgröße Y “ gpX1 , . . . , Xd q
PY “ PX1 ,...,Xd ˝g ´1 “ P ˝pX1 , . . . , Xd q´1 ˝ g ´1
und somit
FY pyq “ PX1 ,...,Xd pg ´1 pp´8, yqqq “ PppX1 , . . . , Xd q´1 pg ´1 pp´8, yqqqq .
Beispiel 3.2. Sei X eine stetige Zufallsgröße. Dann gilt für die Zufallsgröße Y “ X 2
#
` ? ˘
` ? ˘
FX ` y ´ FX ´ y für y ą 0 ,
FY pyq “
0
für y ď 0 .
Satz 3.3. Sei X eine Zufallsgröße und g : R Ñ R eine streng monoton wachsende stetige
Funktion mit
m “ inf gpxq und M “ sup gpxq.
xPR
xPR
Dann gilt für die Zufallsgröße Y “ gpXq
$
für y ď m ,
’
& 0
FX pg ´1 pyqq für m ă y ă M ,
FY pyq “
’
%
1
für y ě M .
Beispiele 3.4. Sei X eine Zufallsgröße. Dann gilt
(1)
ˆ
FaX`b pyq “ FX
y´b
a
˙
für a ą 0 ;
(2)
#
FeX pyq “
0
für y ď 0 ,
FX pln yq für y ą 0 .
37
TU Bergakademie Freiberg
3.2
Wahrscheinlichkeitstheorie
Sommersemester 2017
Transformationssatz für Dichten
Satz 3.5 ((Transformationssatz für Dichten)). Sei X “ pX1 , . . . , Xd qT ein Zufallsvektor
auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit der Dichtefunktion fX bezüglich des
Lebesgue-Borel-Maßes auf pRd , Bd q .
• Für eine offene Menge D Ď Rd gelte
ż
fX p~xq d~x “ 1 .
D
• Die Abbildung g : D Ñ Rd sei injektiv und stetig.
• Die inverse Abbildung g ´1 : Wg Ñ Rd sei stetig partiell differenzierbar.
Satz 3.5 ((Fortsetzung)).
• Für die Determinante der Jacobi-Matrix gelte
´1
Bg1 p~y q . . . Bg1´1 p~y q
By1
Byd
..
.. Jg´1 p~y q “ .
. ‰ 0 für alle ~y P Wg .
´1
Bg´1
Bg
d
d
p~y q
p~y q . . .
By1
Byd
Dann ist Y “ gpXq ebenfalls ein stetiger Zufallsvektor und besitzt die Dichtefunktion
fY p~y q “ fX pg ´1 p~y qq |Jg´1 p~y q| IWg p~y q .
Anmerkung 3.6. Ist die Abbildung g : D Ñ Rd stetig differenzierbar, so kann in der
1
Behauptung von Satz 3.5 Jg´1 p~y q durch Jg pg´1
ersetzt werden, wobei
p~
y qq
Bg1
Bg1
Bx p~xq . . . Bx
p~xq
1
d
.
.. Jg p~xq “ ..
. ‰ 0 für alle ~x P D .
Bg
d p~xq . . . Bgd p~xq
Bx1
Bxd
Beispiel 3.7. Sei X “ pX1 , X2 qT ein stetiger Zufallsvektor mit der Dichtefunktion fX1 ,X2 .
Die Abbildung g : R2 Ñ R2 sei gegeben durch
g1 px1 , x2 q “ x1 ` x2 und g2 px1 , x2 q “ x2 .
Dann besitzt der Zufallsvektor
Y “ pY1 , Y2 qT “ pg1 pX1 , X2 q, g2 pX1 , X2 qqT “ pX1 ` X2 , X2 qT
die Dichtefunktion
fY1 ,Y2 py1 , y2 q “ fX1 ,X2 py1 ´ y2 , y2 q .
Insbesondere ergibt sich für die Randverteilung von Y1 “ X1 ` X2
ż
fX1 `X2 py1 q “ fX1 ,X2 py1 ´ y2 , y2 q dy2 .
R
38
TU Bergakademie Freiberg
3.3
Wahrscheinlichkeitstheorie
Sommersemester 2017
Summen unabhängiger Zufallsgrößen
Satz 3.8 (und Definition). Seien P1 und P2 zwei Wahrscheinlichkeitsmaße auf dem messbaren Raum pR, Bq. Dann wird durch
ż ż
IB px1 ` x2 q P1 pdx1 q P2 pdx2 q für B P B
pP1 ˚ P2 qpBq :“
żR
R
P1 pB ´ x2 q P2 pdx2 q
“
żR
P2 pB ´ x1 q P1 pdx1 q
“
R
ein Wahrscheinlichkeitsmaß auf pR, Bq definiert. Dieses Maß P1 ˚ P2 wird die Faltung der
Wahrscheinlichkeitsmaße P1 und P2 genannt.
Beispiel 3.9. Für die Dirac-Maße δx1 und δx2 auf pR, Bq, x1 , x2 P R , gilt
δx1 ˚ δx2 “ δx1 `x2 .
Anmerkung 3.10. Offensichtlich lässt sich die Definition der Faltung auf endliche viele
Wahrscheinlichkeitsmaße P1 , . . . , Pn verallgemeinern
ż
ż
pP1 ˚ . . . ˚ Pn qpBq :“ . . . IB px1 ` . . . ` xn q P1 pdx1 q . . . Pn pdxn q
R
R
für B P B .
Wie man leicht sieht, ist die Faltungsoperation sowohl assoziativ als auch kommutativ.
Satz 3.11. Seien X1 und X2 unabhängige Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann gilt
PX1 `X2 “ PX1 ˚ PX2
und insbesondere
ż
FX1 `X2 pxq “
ż
FX1 px ´ x2 q PX2 pdx2 q “
R
FX2 px ´ x1 q PX1 pdx1 q .
R
Satz 3.12. Es seien X1 und X2 unabhängige stetige Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq mit den Dichtefunktionen fX1 bzw. fX2 . Dann ist X1 ` X2 ebenfalls
eine stetige Zufallsgröße und besitzt die Dichtefunktion
ż
fX1 `X2 pxq “ fX1 px ´ x2 qfX2 px2 q dx2
żR
fX2 px ´ x1 qfX1 px1 q dx1 .
“
R
39
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 3.13. Die Zufallsgrößen X1 und X2 seien unabhängig und mögen dieselbe
Verteilungsfunktion
`
˘
FX pxq “ 1 ´ e´λx Ip0,8q pxq , x P R, λ ą 0 ,
(vgl. Beispiel 2.17) besitzen. Dann gilt
“
‰
FX1 `X2 pxq “ 1 ´ p1 ` λxq e´λx Ip0,8q pxq
und
fX1 `X2 pxq “ λ2 x e´λx Ir0,8q pxq .
3.4
Minimum und Maximum unabhängiger Zufallsgrößen
Satz 3.14. Seien X1 , . . . , Xd unabhängige Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq mit der Verteilungsfunktion FXi pxq , i “ 1, . . . , d . Dann gilt für die Zufallsgrößen
Xmax “ max tX1 , . . . , Xd u
FXmax pxq “
d
ź
bzw. Xmin “ min tX1 , . . . , Xd u
FXi pxq bzw. FXmin pxq “ 1 ´
i“1
d
ź
p1 ´ FXi pxqq .
i“1
Definitionen 3.15. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum und I ‰ ∅ eine beliebige
Indexmenge. Für i P I sei Xi eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq.
• Dann heißt die Familie pXi qiPI von Zufallsgrößen identisch verteilt, falls PXi “
PXj für alle i, j P I .
• Ist I “ t1, . . . , nu so werden die Zufallsgrößen X1 , . . . , Xn identisch verteilt
genannt.
• Für I “ N spricht man von einer identisch verteilten Folge pXi qiPN von Zufallsgrößen.
• Ist eine Familie pXi qiPI von identisch verteilten Zufallsgrößen zugleich auch noch eine Familie von unabhängigen Zufallsgrößen, so spricht man von einer unabhängigen,
identisch verteilten Familie von Zufallsgrößen und verwendet dafür die Abkürzung
i.i.d. ( independent and identically distributed“).
”
Folgerung 3.16. Seien X1 , . . . , Xd i.i.d. Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq mit der Verteilungsfunktion FX . Dann gilt für die Zufallsgrößen
Xmax “ max tX1 , . . . , Xd u
FXmax pxq “ pFX pxqqd
bzw. Xmin “ min tX1 , . . . , Xd u
bzw. FXmin pxq “ 1 ´ p1 ´ FX pxqqd .
40
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Sind die Zufallsgrößen Xi außerdem stetig und die Verteilungsfunktion FX stetig differenzierbar, so gilt für die Dichtefunktionen
fXmax pxq “ d pFX pxqqd´1 fX pxq
bzw.
fXmin pxq “ d p1 ´ FX pxqqd´1 fX pxq ,
wobei fX “ FX1 λ-fast überall.
Beispiel 3.17. Die i.i.d. Zufallsgrößen X1 , . . . , Xd mögen die Verteilungsfunktion
`
˘
FX pxq “ 1 ´ e´λx Ip0,8q pxq , x P R , λ ą 0 ,
besitzen (vgl. Beispiel 2.17). Dann gilt
˘d´1 ´λx
`
e
Ir0,8q pxq
fXmax pxq “ λd 1 ´ e´λx
bzw.
fXmin pxq “ λd e´λdx Ir0,8q pxq ,
d.h. das Minimum Xmin hat dieselbe Art von Verteilung wie die Zufallsgrößen X1 , . . . , Xd ,
jedoch nicht mit dem Parameter λ ą 0 , sondern mit dem Parameter λd .
Anmerkung 3.18 ((Anwendung in der Zuverlässigkeitstheorie)).
(1) Ausfallwahrscheinlichkeit von in Reihe geschalteten Bauelementen
Ñ Minimum
(2) Ausfallwahrscheinlichkeit von parallel geschalteten Bauelementen
Ñ Maximum
(3) Berechnung der Ausfallwahrscheinlichkeit von komplexen Systemen
Ñ Kombination beider Situationen
4
Ausgewählte diskrete Verteilungen
Bestimmungsstücke und Kenngrößen einer diskreten Zufallsgröße
Sei X eine diskrete Zufallsgröße mit dem Wertebereich WX “ txk ukPI und den Einzelwahrscheinlichkeiten ppk qkPI mit einer Indexmenge ∅ ­“ I Ď N . Dann gilt (vgl. die Sätze
1.42 und 2.22)
ÿ
ÿ
ÿ
pk “ 1 , P X “
pk δxk , FX pxq “
pk Ipxk ,8q pxq , x P R ,
kPI
kPI
µp pXq “
kPI
ÿ
xpk
pk
für p P N ,
kPI
falls µp pXq existiert. Insbesondere ist (vgl. die Sätze 2.3 und 1.44)
ÿ
ÿ
pxk ´ E pXqq2 pk .
E pXq “
xk pk und Var pXq “
kPI
kPI
41
TU Bergakademie Freiberg
4.1
Wahrscheinlichkeitstheorie
Sommersemester 2017
Einpunktverteilung
Definition 4.1. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine Einpunktverteilung im Punkt c P R , falls X “ c P-fast sicher.
Man spricht in diesem Fall auch von einer entarteten Verteilung im Punkt c P R .
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße X besitze eine Einpunktverteilung im Punkt c P R . Dann gilt (vgl. Sätze
2.15 (1) und 2.39 (1))
WX “ tcu ,
p “ PpX “ cq “ 1 ,
PX “ δc ,
FX pxq “ Ipc,8q pxq ,
E pXq “ c ,
µp pXq “ cp
4.2
Var pXq “ 0 ,
für p P N .
Zweipunktverteilung
Definition 4.2. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine Zweipunktverteilung, falls X nur zwei verschiedene Werte x1 P R und x2 P R
annehmen kann.
Modellvorstellung
Die Zweipunktverteilung wird als Modell für Zufallsexperimente benutzt, bei denen es nur
zwei mögliche Versuchsausgänge gibt.
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße X besitze eine Zweipunktverteilung. Dann gilt
WX “ tx1 , x2 u ,
pk “ PpX “ xk q ,
PX “ p1 δx1 ` p2 δx2 ,
k “ 1, 2 ,
p1 ` p2 “ 1 ,
FX pxq “ p1 Ipx1 ,8q pxq ` p2 Ipx2 ,8q pxq ,
E pXq “ p1 x1 ` p2 x2 ,
Var pXq “ px1 ´ x2 q2 p1 p2 ,
µp pXq “ p1 xp1 ` p2 xp2
für p P N .
Für eine eigentliche Zweipunktverteilung gelten 0 ă p1 ă 1 , 0 ă p2 ă 1 .
42
TU Bergakademie Freiberg
4.3
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bernoulli-Verteilung
Definition 4.3. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine Bernoulli-Verteilung mit dem Parameter p P r0, 1s , falls X nur die Werte 0 und
1 annehmen kann mit PpX “ 1q “ p .
Hierfür schreibt man auch
X „ B ppq .
Anmerkung
Die Bernoulli-Verteilung ist eine spezielle Zweipunktverteilung. Es gilt
x1 “ 0 ,
x2 “ 1 ,
p1 “ 1 ´ p und p2 “ p .
Modellvorstellung und Definitionen
• Die Bernoulli-Verteilung wird für die Beschreibung von Zufallsexperimenten benutzt, bei denen das Eintreten eines festen Ereignisses A P F mit PpAq “ p P r0, 1s
untersucht wird. Dabei wird die Zufallsgröße X “ IA betrachtet.
– Das Ereignis A tritt ein (Erfolg) : X “ 1 .
– Das Ereignis A tritt nicht ein (Misserfolg) : X “ 0 .
• Diese Art von Experiment nennt man Bernoulli-Experiment.
• Die Wahrscheinlichkeit p “ PpX “ 1q “ PpAq wird Erfolgswahrscheinlichkeit
genannt.
Beispiele
• Auftreten von Zahl beim Wurf einer idealen Münze pp “ 0.5q .
• Beim Werfen eines Kronverschlusses fällt der Verschluss auf die glatte Seite pp « 0.6q .
• Ein zufällig heruntergefallenes Marmeladenbrötchen landet auf der Marmeladenseite
(gefühlt: p “ 1) .
• Ziehen eines Loses auf dem Rummel (Niete oder Gewinn).
• Ein zufällig aus einem Warenposten ausgewähltes Werkstück ist Ausschuss.
Bestimmungsstücke und Kenngrößen
Es sei X „ B ppq eine mit dem Parameter p P r0, 1s Bernoulli-verteilte Zufallsgröße.
Dann gilt
WX “ t0, 1u ,
p “ PpX “ 1q ,
1 ´ p “ PpX “ 0q ,
43
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
PX “ p1 ´ pqδ0 ` pδ1 ,
E pXq “ p ,
Sommersemester 2017
$
für x ď 0 ,
’
& 0
1 ´ p für 0 ă x ď 1 ,
FX pxq “
’
%
1
für x ą 1,
Var pXq “ pp1 ´ pq ,
µq pXq “ p für q P N .
4.4
Gleichverteilung
Definition 4.4. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine diskrete Gleichverteilung, falls X endlich viele Werte x1 , . . . , xn P R , xi ‰ xj , i, j P
t1, . . . , nu , jeweils mit der gleichen Wahrscheinlichkeit annimmt. Hierfür schreibt man auch
X „ U tx1 , . . . , xn u .
Modellvorstellung
Bei einem Zufallsexperiment sind endlich viele Versuchsausgänge möglich. Jeder Versuchsausgang hat dieselbe Wahrscheinlichkeit.
Beispiel
• Einmaliges Würfeln mit einem idealen Würfel.
Bestimmungsstücke und Kenngrößen
Es sei X „ U tx1 , . . . , xn u eine diskret gleichverteilte Zufallsgröße. Dann gilt
WX “ tx1 , . . . , xn u ,
n
1 ÿ
PX “
δx ,
n k“1 k
E pXq “
n
1 ÿ
xk ,
n k“1
pk “ PpX “ xk q “
1
,
n
k “ 1, . . . , n ,
n
1 ÿ
FX pxq “
Ipx ,8q pxq ,
n k“1 k
µp pXq “
44
n
1 ÿ p
x
n k“1 k
für p P N .
TU Bergakademie Freiberg
4.5
Wahrscheinlichkeitstheorie
Sommersemester 2017
Hypergeometrische Verteilung
Definition 4.5. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine hypergeometrische Verteilung mit den Parametern N P N , K P t0, . . . , N u und
n P t1, . . . , N u , falls X die Werte k P tkmin , . . . , kmax u Ď t0, . . . , nu mit den Einzelwahrscheinlichkeiten
`K ˘`N ´K ˘
pk “ PpX “ kq “
k
`Nn´k
˘
n
annimmt, wobei kmin “ max t0, n ` K ´ N u und kmax “ min tK, nu . Hierfür schreibt man
auch
X „ Hyp pn, K, N q .
Modellvorstellung: Urnenmodell ohne Zurücklegen
• In einem nicht einsehbaren Gefäß (Urne) befinden sich N P N gleichartige Objekte
(z.B. Kugeln).
• Davon besitzen K , K “ 0, . . . , N, dieser Objekte eine spezielle Eigenschaft (z.B. rote
Kugeln), die sie von den anderen N ´ K Objekten (z.B. weiße Kugeln) unterscheiden.
• Die Objekte in der Urne sind gut durchmischt, so dass jedes Objekt die gleiche Chance
hat, entnommen zu werden.
• Nun werden nacheinander insgesamt n Objekte, n P t1, . . . , N u , entnommen (ohne das
jeweils gezogene Objekt vor der nächsten Entnahme wieder in die Urne zurückzulegen)
und gezählt, wieviele der entnommenen Objekte die spezielle Eigenschaft aufweisen.
Beispiel (Lotto 6 aus 49)
Von den N “ 49 Kugeln besitzen K “ 6 die spezielle Eigenschaft, dass sie die von
einem
`49˘ Spieler getippten Zahlen sind. Es werden n “ 6 Kugeln gezogen. Folglich gibt es
“ 13 983 816 mögliche Ziehungsergebnisse.
6
• Es gibt nur einen Sechser, dessen Wahrscheinlichkeit ist 1{13 983 816 “ 0.00000007151 .
Die weiteren Wahrscheinlichkeiten sind:
• Fünfer : 0.00001845 ,
• Vierer : 0.00096862 und
• Dreier : 0.017650404 .
Anwendung
• statistische Qualitätskontrolle (Stichprobenziehung ohne Zurücklegen, z.B. bei zerstörender Prüfung von Werkstücken)
45
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bestimmungsstücke und Kenngrößen
Es sei X „ Hyp pn, K, N q eine mit den Parametern N P N , K P t0, . . . , N u und n P
t1, . . . , N u hypergeometrisch verteilte Zufallsgröße. Dann gilt
WX “ tmax t0, n ` K ´ N u , . . . , min tK, nuu ,
`K ˘`N ´K ˘
pk “ PpX “ kq “
k
`Nn´k
˘
,
k P WX ,
n
K
E pXq “ n ,
N
4.6
K
Var pXq “ n
N
ˆ
K
1´
N
˙
N ´n
.
N ´1
Binomialverteilung
Definition 4.6. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine Binomialverteilung mit den Parametern n P N und p P r0, 1s , falls X die Werte
k P t0, . . . , nu mit den Einzelwahrscheinlichkeiten
ˆ ˙
n k
pk “ PpX “ kq “
p p1 ´ pqn´k
k
annimmt. Hierfür schreibt man auch
X „ B pn; pq .
Modellvorstellung: Urnenmodell mit Zurücklegen
• In einer Urne befinden sich N P N gleichartige Objekte (z.B. Kugeln).
• Darunter befinden sich Objekte mit einer speziellen Eigenschaft (z.B. rote Kugeln), die
sie von den anderen Objekten (z.B. weiße Kugeln) unterscheiden.
• Der Anteil der Objekte mit der speziellen Eigenschaft sei p ¨ 100% , p P r0, 1s .
• Die Objekte in der Urne sind gut durchmischt, so dass jedes Objekt die gleiche Chance
hat, entnommen zu werden.
• Nun wird ein Objekt aus der Urne entnommen und registiert, um welche Art von
Objekt es sich handelt.
• Anschließend wird das Objekt wieder in die Urne zurückgelegt und die Objekte wieder
gut durchmischt.
• Dieser Vorgang wird n-mal nacheinander ausgeführt und gezählt, wie oft ein Objekt
mit der speziellen Eigenschaft gezogen wurde.
46
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkungen und Definition
(1) Die Binomialverteilung beschreibt die n-malige unabhängige Durchführung eines Bernoulli-Experiments.
(2) Diese Vorgehensweise nennt man auch Bernoulli-Schema.
(3) Die binomialverteilte Zufallsgröße X gibt an, wieviele Erfolge bei der n-maligen unabhängigen Durchführung eines Bernoulli-Experiments eingetreten sind, d.h. wie häufig dabei das betrachtete Ereignis A eingetreten ist.
Anwendung
• statistische Qualitätskontrolle (Stichprobenziehung mit Zurücklegen, z.B. bei zerstörungsfreier Prüfung von Werkstücken)
Bestimmungsstücke und Kenngrößen
Es sei X „ B pn; pq eine mit den Parametern n P N und p P r0, 1s binomialverteilte
Zufallsgröße. Dann gilt
ˆ ˙
n k
p p1 ´ pqn´k , k “ 0, . . . , n ,
WX “ t0, . . . , nu , pk “ PpX “ kq “
k
PX “
n
ÿ
pk δk ,
FX pxq “
k“0
E pXq “ np ,
n
ÿ
pk Ipk,8q pxq ,
k“0
Var pXq “ npp1 ´ pq ,
1 ´ 2p
.
γ pXq “ a
npp1 ´ pq
Spezialfall
Die Bernoulli-Verteilung ist eine spezielle Binomialverteilung. Es gilt
B ppq “ B p1; pq
für p P r0, 1s .
Satz 4.6.1
Seien Xi „ B ppq , i “ 1, . . . , n , i.i.d. Bernoulli-verteilte Zufallsgrößen mit dem Parameter
p P r0, 1s . Dann gilt
X1 ` . . . ` Xn „ B pn; pq .
Satz 4.6.2
Seien X1 „ B pn1 ; pq und X2 „ B pn2 ; pq zwei unabhängige, binomialverteilte Zufallsgrößen.
Dann gilt
X1 ` X2 „ B pn1 ` n2 ; pq .
47
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Vergleich von hypergeometrischer `Verteilung
und Binomialverteilung
˘
K
Es sei X „ Hyp pn, K, N q und Y „ B n; N . Dann gilt einerseits
E pXq “ E pY q “ n
K
N
und andererseits
K
Var pXq “ n
N
ˆ
K
1´
N
˙
N ´n
K
ďn
N ´1
N
ˆ
K
1´
N
˙
“ Var pY q .
Satz 4.6.3
Für N Ñ 8 und K Ñ 8 mit K
Ñ p P r0, 1s gilt
N
`K ˘`N ´K ˘
ˆ ˙
n k
k
n´k
`N ˘
Ñ
p p1 ´ pqn´k für k “ 0, . . . , n , n P N ,
k
n
d.h. die Einzelwahrscheinlichkeiten der hypergeometrischen Verteilung konvergieren unter
den oben genannten Bedingungen gegen die Einzelwahrscheinlichkeiten der Binomialverteilung.
Anmerkung
Für große Werte von N P N kann die hypergeometrische Verteilung Hyp pn, K, N q durch
approximiert werden.
die Binomialverteilung B pn; pq mit p “ K
N
4.7
Geometrische Verteilung
Definition 4.7. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine geometrische Verteilung mit dem Parameter p P p0, 1q , falls X die Werte k P N
mit den Einzelwahrscheinlichkeiten
pk “ PpX “ kq “ pp1 ´ pqk´1
annimmt. Hierfür schreibt man auch
X „ Geo ppq .
Modellvorstellung
Die geometrische Verteilung beschreibt die Anzahl der Versuche im Bernoulli-Schema bis
zum ersten Erfolg, d.h. wieviele Versuche durchgeführt werden müssen, bis zum ersten Mal
das betrachtete Ereignis A , der Erfolg, eintritt.
Anwendung
• Versicherungsmathematik (Risikobestimmung)
48
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bestimmungsstücke und Kenngrößen
Es sei X „ Geo ppq eine mit dem Parameter p P p0, 1q geometrisch verteilte Zufallsgröße.
Dann gilt
WX “ N ,
pk “ PpX “ kq “ pp1 ´ pqk´1 für k P N ,
PX “
8
ÿ
pk δk ,
FX pxq “
k“1
E pXq “
1
,
p
8
ÿ
pk Ipk,8q pxq ,
k“1
Var pXq “
1´p
,
p2
2´p
ą 0.
γ pXq “ ?
1´p
Satz und Definition
Es sei X „ Geo ppq eine mit dem Parameter p P p0, 1q geometrisch verteilte Zufallsgröße.
Dann gilt
PpX ě n ` k | X ą nq “ PpX ě kq für alle n, k P N .
Diese Eigenschaft der geometrischen Verteilung wird Gedächtnislosigkeit genannt.
Anmerkungen
• Von der geometrischen Verteilung gibt es eine Variante, bei der nicht die Anzahl der
Versuche bis zum ersten Erfolg im Bernoulli-Schema, sondern die Anzahl der
Misserfolge vor dem ersten Erfolg gezählt werden.
• Dies führt zu einer Verschiebung des Wertebereiches der Zufallsgröße und natürlich
auch anderen Einzelwahrscheinlichkeiten.
• Folglich unterscheiden sich auch Momente und damit im Zusammenhang stehende
Kenngrößen der beiden Varianten dieser Verteilung.
• In einigen Lehrbüchern bzw. Formelsammlungen wird beim Übergang von der Betrachtung der Anzahl der Versuche zur Anzahl der Misserfolge auch von der Erfolgswahrscheinlichkeit zur Misserfolgswahrscheinlichkeit übergegangen, d.h. p und 1 ´ p
wechseln die Plätze.
4.8
Negative Binomialverteilung
Definition 4.8. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine negative Binomialverteilung mit den Parametern n P N und p P p0, 1q , falls X
die Werte k P tn, n ` 1, . . .u mit den Einzelwahrscheinlichkeiten
ˆ
˙
k´1 n
pk “ PpX “ kq “
p p1 ´ pqk´n
n´1
annimmt. Hierfür schreibt man auch
X „ NB pn; pq .
49
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Modellvorstellung
Die negative Binomialverteilung beschreibt die Anzahl der erforderlichen Versuche im Bernoulli-Schema bis zum n-ten Erfolg.
Anwendung
• Versicherungsmathematik (Schadenzahlverteilung)
Bestimmungsstücke und Kenngrößen
Es sei X „ NB pn; pq eine mit den Parametern n P N und p P p0, 1q negativ binomialverteilte Zufallsgröße. Dann gilt
ˆ
˙
k´1 n
WX “ tn, n ` 1, . . .u , pk “
p p1 ´ pqk´n , k “ n, n ` 1, . . . ,
n´1
PX “
8
ÿ
pk δk ,
FX pxq “
k“n
E pXq “
n
,
p
Var pXq “ n
8
ÿ
pk Ipk,8q pxq ,
k“n
1´p
,
p2
2´p
γ pXq “ a
ą 0.
np1 ´ pq
Aufgabe 4.8.1
Seien Xi „ Geo ppq , i “ 1, . . . , n, i.i.d. geometrisch verteilte Zufallsgrößen mit dem Parameter p P p0, 1q . Zeigen Sie, dass dann gilt
X1 ` . . . ` Xn „ NB pn; pq .
Spezialfall
Die geometrische Verteilung ist eine spezielle negative Binomialverteilung. Es gilt
Geo ppq “ NB p1; pq
für p P p0, 1q .
Aufgabe 4.8.2
Seien X1 „ NB pn1 ; pq und X2 „ NB pn2 ; pq zwei unabhängige, negativ binomialverteilte
Zufallsgrößen. Zeigen Sie, dass dann gilt
X1 ` X2 „ NB pn1 ` n2 ; pq .
50
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkung
• Von der negativen Binomialverteilung gibt es – in Analogie zur geometrischen Verteilung – eine Variante, bei der nicht die Anzahl der Versuche bis zum n-ten Erfolg
im Bernoulli-Schema, sondern die Anzahl der Misserfolge vor dem n-ten Erfolg gezählt werden.
• Dies führt analog zu einer Verschiebung des Wertebereiches der Zufallsgröße und ebenso
anderen Einzelwahrscheinlichkeiten.
• Folglich unterscheiden sich auch Momente und damit im Zusammenhang stehende
Kenngrößen der beiden Varianten dieser Verteilung.
• In einigen Lehrbüchern bzw. Formelsammlungen wird beim Übergang von der Betrachtung der Anzahl der Versuche zur Anzahl der Misserfolge auch von der Erfolgswahrscheinlichkeit zur Misserfolgswahrscheinlichkeit übergegangen, d.h. p und 1 ´ p
wechseln die Plätze.
4.9
Poisson-Verteilung
Definition 4.9. Eine Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq besitzt
eine Poisson-Verteilung mit dem Parameter λ ą 0 , falls X die Werte k P t0, 1, 2, . . .u
mit den Einzelwahrscheinlichkeiten
pk “ PpX “ kq “
λk ´λ
e
k!
annimmt. Hierfür schreibt man auch
X „ Π pλq .
Modellvorstellung und Definition
• Die Poisson-Verteilung beschreibt die Anzahl von Ereignissen, die mit konstanter
Rate und unabhängig voneinander in einem festen Zeitintervall oder räumlichen Gebiet
eintreten.
• Sie beschreibt näherungsweise die Anzahl der Erfolge bei sehr vielen Versuchen im
Bernoulli-Schema, wenn die Erfolgswahrscheinlichkeit im einzelnen BernoulliExperiment sehr klein ist.
• Die Poisson-Verteilung wird deshalb auch die Verteilung der seltenen Ereignisse genannt.
51
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anwendungen
• Physik (radioaktiver Zerfall, Anzahl emittierter Teilchen)
• Versicherungsmathematik (Schadenzahlverteilung)
• Operations Research (Verteilung der Anzahl der Ankünfte bei Warteschlangenmodellen)
Bestimmungsstücke und Kenngrößen
Es sei X „ Π pλq eine mit dem Parameter λ ą 0 Poisson-verteilte Zufallsgröße. Dann
gilt
λk ´λ
WX “ t0, 1, . . .u ,
pk “ PpX “ kq “
e , k “ 0, 1, . . . ,
k!
PX “
8
ÿ
pk δk ,
FX pxq “
k“0
E pXq “ λ ,
8
ÿ
pk Ipk,8q pxq ,
k“0
Var pXq “ λ ,
1
γ pXq “ ? ą 0 .
λ
Aufgabe
Seien X1 „ Π pλ1 q und X2 „ Π pλ2 q zwei unabhängige, Poisson-verteilte Zufallsgrößen.
Zeigen Sie, dass dann gilt
X1 ` X2 „ Π pλ1 ` λ2 q .
Satz 4.9.1
Seien X1 „ Π pλ1 q und X2 „ Π pλ2 q zwei unabhängige, Poisson-verteilte Zufallsgrößen.
Dann gilt
ˆ ˙
n k
p p1 ´ pqn´k für alle k “ 0, . . . , n
PpX1 “ k | X1 ` X2 “ nq “
k
mit
p“
λ1
.
λ1 ` λ2
Satz 4.9.2
Für pn P r0, 1s mit lim npn “ λ ą 0 gilt
nÑ8
ˆ ˙
n k
λk ´λ
e
pn p1 ´ pn qn´k ÝÝÝÑ
nÑ8 k!
k
für k “ 0, 1, . . . ,
d.h. die Einzelwahrscheinlichkeiten der Binomialverteilung konvergieren unter den oben genannten Bedingungen gegen die Einzelwahrscheinlichkeiten der Poisson-Verteilung.
52
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkungen
(1) Für große Werte von n P N kann die Binomialverteilung B pn; pq durch die PoissonVerteilung Π pλq mit λ “ np approximiert werden.
(2) Für große Werte von N P N und n ď N kann die hypergeometrische Verteilung
approximiert werden.
Hyp pn, K, N q durch die Poisson-Verteilung Π pλq mit λ “ n K
N
5
Ausgewählte stetige Verteilungen
Bestimmungsstücke und Kenngrößen
Sei X eine stetige Zufallsgröße mit der Dichtefunktion fX . Dann gilt
(vgl. die Sätze 1.47 (2) und 2.24)
żx
FX pxq “
fX ptq dt für x P R ,
´8
ż
xp fX pxq dx für p P N ,
µp pXq “
R
falls µp pXq existiert. Insbesondere ist (vgl. die Sätze 2.5 und 1.50)
ż
ż
E pXq “ xfX pxq dx und Var pXq “ px ´ E pXqq2 fX pxq dx .
R
5.1
R
Gleichverteilung
Definition 5.1. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine stetige Gleichverteilung auf dem Intervall ra, bs , ´8 ă a ă b ă `8 , falls
ihre Dichtefunktion durch
fX pxq “
1
Ira,bs pxq ,
b´a
x P R,
gegeben ist. Hierfür schreibt man auch
X „ Ura, bs .
Für die Gleichverteilung auf einem Intervall ist auch die Bezeichnung Rechteckverteilung
gebräuchlich.
53
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bedeutung der Parameter
• a und b sind Lageparameter bzw. Verschiebungsparameter.
• Sie begrenzen den Bereich, in dem die Wahrscheinlichkeitsmasse liegt.
Anmerkungen
(1) Die Gleichverteilung lässt sich auf einfache Weise von einem abgeschlossenen Intervall
ra, bs auf eine beliebige messbare Menge B P B mit 0 ă λpBq ă 8 (insbesondere z.B.
halboffene und offene beschränkte Intervalle) verallgemeinern. Dazu verwendet man die
Dichtefunktion
1
IB pxq für x P R .
fX pxq “
λpBq
(2) Auch auf den mehrdimensionalen Fall eines gleichverteilten stetigen Zufallsvektors X
bezüglich einer messbaren Menge B P Bd mit 0 ă λd pBq ă 8 kann die Gleichverteilung
verallgemeinert werden. Dazu verwendet man in analoger Weise die Dichtefunktion
fX p~xq “
1
IB p~xq für ~x P Rd .
λd pBq
Anwendung
• geometrische Wahrscheinlichkeiten
Bestimmungsstücke und Kenngrößen
Sei X „ Ura, bs eine auf dem Intervall ra, bs gleichverteilte Zufallsgröße. Dann gilt (vgl.
Beispiele 1.49, 2.6 und 2.38)
FX pxq “
x´a
Ira,bs pxq ` Ipb,8q pxq ,
b´a
a`b
E pXq “
,
2
pb ´ aq2
Var pXq “
,
12
bp`1 ´ ap`1
µp pXq “
pb ´ aqpp ` 1q
x P R,
γ pXq “ 0 ,
für p P N .
Satz 5.1.1
Sei X „ Ura, bs eine auf dem Intervall ra, bs gleichverteilte Zufallsgröße. Dann gilt für
c, d P R, c ‰ 0 ,
#
Urac ` d, bc ` ds für c ą 0 ,
cX ` d „
Urbc ` d, ac ` ds für c ă 0 ,
d.h. die Familie der Gleichverteilungen auf abgeschlossenen beschränkten Intervallen ist abgeschlossen bezüglich (nicht entarteter) linearer Transformationen.
54
TU Bergakademie Freiberg
5.2
Wahrscheinlichkeitstheorie
Sommersemester 2017
Cauchy-Verteilung
Definition 5.2. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine Cauchy-Verteilung mit den Parametern µ P R und λ ą 0 , falls ihre
Dichtefunktion durch
1
λ
fX pxq “
, x P R,
2
π λ ` px ´ µq2
gegeben ist. Hierfür schreibt man auch
X „ C pµ; λq .
Bedeutung der Parameter
• µ ist ein Lageparameter bzw. Verschiebungsparameter.
• λ ist ein Skalenparameter (Stauchung bzw. Streckung der x-Achse) bzw. Streuungsparameter.
Bestimmungsstücke und Kenngrößen
Sei X „ C pµ; λq eine mit den Parametern µ P R und λ ą 0 Cauchy-verteilte Zufallsgröße.
Dann gilt
´x ´ µ¯
1 1
, x P R.
FX pxq “ ` arctan
2 π
λ
Sämtliche Momente und davon abgeleitete Kenngrößen existieren nicht.
Aufgabe
Sei X „ C pµ; λq eine mit den Parametern µ P R und λ ą 0 Cauchy-verteilte Zufallsgröße.
Zeigen Sie, dass dann für a, b P R, a ‰ 0 , gilt
aX ` b „ C paµ ` b; |a|λq ,
d.h. die Familie der Cauchy-Verteilungen ist abgeschlossen bezüglich (nicht entarteter)
linearer Transformationen.
Anmerkung
Mit Hilfe von charakteristischen Funktionen (später) kann folgendes leicht gezeigt werden.
Seien X1 „ C pµ1 ; λ1 q und X2 „ C pµ2 ; λ2 q unabhängige Zufallsgrößen. Dann gilt
X1 ` X2 „ C pµ1 ` µ2 ; λ1 ` λ2 q ,
d.h. die Familie der Cauchy-Verteilungen ist abgeschlossen bezüglich der Faltung, und
X1 ´ X2 „ C pµ1 ´ µ2 ; λ1 ` λ2 q .
55
TU Bergakademie Freiberg
5.3
Wahrscheinlichkeitstheorie
Sommersemester 2017
Normalverteilung
Definitionen 5.3. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine Normalverteilung mit den Parametern µ P R und σ 2 ą 0 , falls ihre Dichtefunktion durch
px´µq2
1
x P R,
fX pxq “ ?
e´ 2σ2 ,
2πσ
gegeben ist. Hierfür schreibt man auch
`
˘
X „ N µ; σ 2 .
Der spezielle Fall N p0; 1q wird Standardnormalverteilung genannt.
(Manchmal ist es günstig, die Einpunktverteilung im Punkt µ P R als Normalverteilung
mit den Parametern µ und σ 2 “ 0 zu betrachten, dies ist dann keine stetige Verteilung
mehr.)
Bedeutung der Parameter
• µ ist ein Lageparameter bzw. Verschiebungsparameter.
• σ 2 ist ein Skalenparameter bzw. Streuungsparameter.
Anwendung
• Bei der summarischen Überlagerung vieler kleiner unabhängiger Einflüsse kann die daraus resultierende Größe annähernd durch eine normalverteilte Zufallsgröße modelliert
werden.
• Beschreibung von Messfehlern in der Messtechnik.
• Zufällige Abweichung von Nennwerten, z.B. von Abmessungen von Werkstücken.
• Zentrale Bedeutung als Grenzverteilung bei Grenzwertsätzen für Summen von Zufallsgrößen.
• Zentrale Verteilung der parametrischen Statistik.
Bestimmungsstücke und Kenngrößen
Sei X „ N pµ; σ 2 q eine mit den Parametern µ P R und σ 2 ą 0 normalverteilte Zufallsgröße.
Dann gilt
żx
´x ´ µ¯
t2
1
mit Φpxq “ ?
e´ 2 dt , x P R ,
FX pxq “ Φ
σ
2π
´8
E pXq “ µ ,
Var pXq “ σ 2 ,
56
γ pXq “ 0,
TU Bergakademie Freiberg
ν2p´1 pXq “ 0 ,
Wahrscheinlichkeitstheorie
ν2p pXq “ p2p ´ 1q!! σ 2p
Sommersemester 2017
für p P N .
Aufgabe 5.3.1
Sei X „ N pµ; σ 2 q eine mit den Parametern µ P R und σ 2 ą 0 normalverteilte Zufallsgröße.
Zeigen Sie, dass dann für a, b P R, a ‰ 0, gilt
`
˘
aX ` b „ N aµ ` b; a2 σ 2 ,
d.h. die Familie der Normalverteilungen ist abgeschlossen bezüglich (nicht entarteter) linearer
Transformationen.
Folgerung
(1) Ist X „ N p0; 1q , so folgt für µ, σ P R, σ ‰ 0, dass
`
˘
σX ` µ „ N µ; σ 2 .
(2) Ist X „ N pµ; σ 2 q , so ist
X ´µ
„ N p0; 1q .
σ
Satz 5.3.2
Seien X1 „ N pµ1 ; σ12 q und X2 „ N pµ2 ; σ22 q unabhängige Zufallsgrößen. Dann gilt
`
˘
X1 ` X2 „ N µ1 ` µ2 ; σ12 ` σ22 ,
d.h. die Familie der Normalverteilungen ist abgeschlossen bezüglich der Faltung, und
`
˘
X1 ´ X2 „ N µ1 ´ µ2 ; σ12 ` σ22 .
Satz 5.3.3
Sei X „ N p0; 1q eine standardnormalverteilte Zufallsgröße.
(1) Für beliebige t ą 0 gilt
ˆ
˙
1
1
1
1 1 ´t2 {2
2
?
´ 3 e´t {2 ď 1 ´ Φptq “ PpX ą tq ď ?
e
.
2π t t
2π t
(2) Für beliebige beschränkte stetig differenzierbare Funktionen g : R Ñ R gilt
E pg 1 pXqq “ E pXgpXqq .
57
TU Bergakademie Freiberg
5.4
Wahrscheinlichkeitstheorie
Sommersemester 2017
Mehrdimensionale Normalverteilung
~ “ pX1 , . . . , Xd qT auf einem WahrDefinition 5.4. Ein d-dimensionaler Zufallsvektor X
scheinlichkeitsraum pΩ, F, Pq besitzt eine d-dimensionale Standardnormalverteilung,
falls die Komponenten Xi , i “ 1, . . . , d , unabhängige standardnormalverteilte Zufallsgrößen
sind. Man schreibt in diesem Fall
´
¯
~ „ N ~0; Id ,
X
wobei Id die d-dimensionale Einheitsmatrix bezeichnet.
Satz 5.4.1 ´
¯
~ „ N ~0; Id . Dann ist X
~ ein stetiger Zufallsvektor mit Dichtefunktion
Sei X
1 T
1
1
1
2
e´ 2 ~x ~x “ a
e´ 2 }~x} ,
fX~ p~xq “ a
d
d
p2πq
p2πq
~x P Rd ,
(} ¨ } bezeichnet die Euklidische Norm in Rd ).
Außerdem gelten für den Erwartungswertvektor und die Kovarianzmatrix
´ ¯
´ ¯
~ “ ~0 ,
~ “ Id .
E X
Cov X
Definition 5.4.2
~ “ pX1 , . . . , Xn qT besitzt eine Normalverteilung,
Ein n-dimensionaler Zufallsvektor X
~ , einen Vektor µ
falls für einen d-dimensionalen standardnormalverteilten Zufallsvektor Z
~P
n
R und eine n ˆ d´Matrix A gilt
~ “µ
~.
X
~ ` AZ
Satz und Bezeichnung 5.4.3
~ “ pX1 , . . . , Xn qT aus Definition 5.4.2 gilt
Für den n-dimensionalen Zufallsvektor X
´ ¯
´ ¯
~ “µ
~ “ AAT .
E X
~,
Cov X
Man schreibt in diesem Fall
`
˘
~ „N µ
X
~ ; AAT .
Definition und Satz 5.4.4
T
~
Gilt für den
´ ¯n-dimensionalen Zufallsvektor X “ pX1 , . . . , Xn q aus Definition 5.4.2 d “
~ “ AAT “ Σ mit detpΣq “
~ eine n-dimensionale
n , Cov X
­ 0 , dann besitzt X
~ ist ein stetiger Zufallsvektor mit
nichtentartete Normalverteilung N p~µ; Σq und X
Dichtefunktion
"
*
1
1
T ´1
fX~ p~xq “ a
exp ´ p~x ´ µ
~ q Σ p~x ´ µ
~ q , ~x P Rn .
n
2
p2πq detpΣq
58
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Σ ist dann eine reelle, symmetrische und positiv definite Matrix.
Aufgabe 5.4.5
~ „ N p~µ; Σq ein mit den Parametern µ
Sei X
~ P Rn und Σ P Rnˆn normalverteilter
n-dimensionaler Zufallsvektor, A1 P Rmˆn und ~b P Rm . Zeigen Sie, dass dann für den
~ ` ~b gilt
m-dimensionalen Zufallsvektor Y~ “ A1 X
´
¯
Y~ „ N A1 µ
~ ` ~b; A1 ΣAT1 .
Spezialfall n “ 2
~ “ pX1 , X2 qT ein nichtentarteter zweidimensionaler normalverteilter Zufallsvektor auf
Sei X
einem Wahrscheinlichkeitsraum pΩ, F, Pq mit den Parametern µ
~ “ pµ1 , µ2 qT P R2 und
2ˆ2
Σ P R . Die Kovarianzmatrix Σ hat die Gestalt (vgl. Beispiel 2.69)
˙
ˆ 2
% σ1 σ2
σ1
, wobei
Σ“
% σ1 σ2
σ22
σ12 “ Var pX1 q ą 0 ,
σ22 “ Var pX2 q ą 0 und
% “ Corr pX1 , X2 q P p´1, `1q .
Dann ist
´1
Σ
1
“
detpΣq
ˆ
´% σ1 σ2
σ22
´% σ1 σ2
σ12
˙
mit
˘
`
detpΣq “ σ12 σ22 1 ´ %2 .
Spezialfall n “ 2 (Fortsetzung)
Hieraus folgt für px1 , x2 qT P R2
"
1
1
a
fX1 ,X2 px1 , x2 q “
exp ´
ˆ
2
2p1 ´ %2 q
2πσ1 σ2 1 ´ %
„
px1 ´ µ1 q2
px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2
ˆ
´
2%
`
σ12
σ1 σ2
σ22
Herleitung: Für den Vorfaktor ergibt sich
1
1
a
a
“
.
p2πqd detpΣq
2πσ1 σ2 1 ´ %2
59
*
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Für die Bestimmung des Arguments der Exponentialfunktion betrachtet man zunächst das
Produkt
ˆ
˙ˆ
˙
1
´% σ1 σ2
σ22
x1 ´ µ1
´1
Σ p~x ´ µ
~q “
σ12
x2 ´ µ 2
detpΣq ´% σ1 σ2
1
“ 2 2
σ1 σ2 p1 ´ %2 q
ˆ
˙
σ22 px1 ´ µ1 q ´ % σ1 σ2 px2 ´ µ2 q
´% σ1 σ2 px1 ´ µ1 q ` σ12 px2 ´ µ2 q
¨
˛
x2 ´ µ 2
x1 ´ µ 1
´%
1 ˚
σ12
σ1 σ2 ‹
˚
‹.
“
˝
2
x1 ´ µ 1 x2 ´ µ 2 ‚
1´%
´%
`
σ1 σ2
σ22
Somit ergibt sich insgesamt
˛
x1 ´ µ 1
x2 ´ µ 2
´%
˘ 1 ˚
1
1`
σ12
σ1 σ2 ‹
‹“
˚
´ p~x ´ µ
~ qT Σ´1 p~x ´ µ
~ q “ ´ px1 ´ µ1 q px2 ´ µ2 q
˝
x1 ´ µ 1 x2 ´ µ 2 ‚
2
2
1 ´ %2
´%
`
σ1 σ2
σ22
¨
“´
1 1
2 1 ´ %2
«
px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2
px1 ´ µ1 q2
px1 ´ µ1 qpx2 ´ µ2 q
´%
`
´%
σ12
σ1 σ2
σ1 σ2
σ22
ff
«
ff
px1 ´ µ1 q2
px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2
1
“´
´ 2%
`
.
2p1 ´ %2 q
σ12
σ1 σ2
σ22
Satz 5.4.6
~ “ pX1 , X2 qT ein zweidimensionaler, normalverteilter Zufallsvektor mit den ParameSei X
tern µ
~ “ pµ1 , µ2 qT P R2 und
ˆ 2
˙
σ1
%σ1 σ2
Σ“
.
%σ1 σ2
σ22
Dann gilt
(1) Xi „ N pµi ; σi2 q für i “ 1, 2 .
(2) X1 und X2 sind genau dann unabhängig, wenn sie unkorreliert sind.
(3) Für beliebige a1 , a2 P R gilt
˘
`
Y :“ a1 X1 ` a2 X2 „ N a1 µ1 ` a2 µ2 ; a21 σ12 ` a22 σ22 ` 2a1 a2 σ1 σ2 .
60
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beweis. (zu 1) Für die Randverteilung von X2 gilt
ż
fX1 ,X2 px1 , x2 q dx1 “
fX2 px2 q “
R
ż
“
R
2πσ1 σ2
1
a
1 ´ %2
"
exp ´
1
px1 ´ µ1 q2
px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2
`
´
2%
2p1 ´ %2 q
σ1 σ2
σ12
σ22
„
*
dx1 .
Zwecks einer quadratischen Ergänzung wird der Ausdruck in eckigen Klammern im Argument der
Exponentialfunktion entsprechend erweitert
px1 ´ µ1 qpx2 ´ µ2 q px2 ´ µ2 q2
px1 ´ µ1 q2
´
2%
`
σ1 σ2
σ12
σ22
2
2
px1 ´ µ1 q2
px1 ´ µ1 qpx2 ´ µ2 q
px2 ´ µ2 q2
2 px2 ´ µ2 q
2 px2 ´ µ2 q
“
´
2%
`
%
´
%
`
σ1 σ2
σ12
σ22
σ22
σ22
ˆ
˙2
x 1 ´ µ1
x2 ´ µ2
px2 ´ µ2 q2
“
´%
` p1 ´ %2 q
.
σ1
σ2
σ22
r. . .s “
Somit erhält man
fX2 px2 q “
«ˆ
ff+
#
˙
ż
2
1
x 1 ´ µ1
x 2 ´ µ2 2
px
´
µ
q
1
2
2
a
´%
` p1 ´ %2 q
dx1
exp ´
“
2p1 ´ %2 q
σ1
σ2
σ22
2πσ1 σ2 1 ´ %2
R
“?
*
"
1
1 px2 ´ µ2 q2
ˆ
exp ´
2
σ22
2πσ2
ż
ˆ
R
$
´
¯ ˛2 ,
¨
σ
’
/
1
&
.
x1 ´ µ1 ` % σ2 px2 ´ µ2 q
1
1
˝
‚
a
exp ´
dx1
?
2
’
/
σ1
2πσ1 1 ´ %2
% 2p1 ´ % q
-
$ ´
´
¯¯2 ,
σ
/
’
"
*
ż
1
& x1 ´ µ1 ` % σ px2 ´ µ2 q
.
1 px2 ´ µ2 q2
1
1
2
a
exp ´
dx1
“?
exp
´
?
/
’
2
σ22
2σ12 p1 ´ %2 q
2πσ2
2πσ1 1 ´ %2
%
R
Der Integrand ist gerade die Dichtefunktion einer Normalverteilung mit den Parametern
σ1
µ “ µ1 ` % px2 ´ µ2 q und σ 2 “ σ12 p1 ´ %2 q .
σ2
Deshalb ist der Wert des Integrals stets 1, und man erhält
*
"
1
1 px2 ´ µ2 q2
,
exp ´
fX2 px2 q “ ?
2
σ22
2πσ2
`
˘
d.h. X2 „ N µ2 ; σ22 . Ganz analog kann man zeigen, dass die Randverteilung von X1 ebenfalls
`
˘
eine Normalverteilung ist, und zwar X1 „ N µ1 ; σ12 .
61
TU Bergakademie Freiberg
5.5
Wahrscheinlichkeitstheorie
Sommersemester 2017
Logarithmische Normalverteilung
Definition 5.5. Eine stetige Zufallsgröße X auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine logarithmische Normalverteilung bzw. Log-Normalverteilung mit den
Parametern µ P R und σ 2 ą 0 , falls ihre Dichtefunktion durch
pln x´µq2
1
fX pxq “ ?
e´ 2σ2 Ip0,8q pxq ,
2πσx
x P R,
gegeben ist. Hierfür schreibt man auch
`
˘
X „ LogN µ; σ 2 .
Satz 5.5.1
Sei Y „ N pµ; σ 2 q eine normalverteilte Zufallsgröße. Dann gilt
`
˘
X “ eY „ LogN µ; σ 2 .
Anwendung
• Bei der multiplikativen Überlagerung vieler (kleiner) unabhängiger Einflüsse kann die
daraus resultierende Größe annähernd durch eine logarithmisch normalverteilte Zufallsgröße modelliert werden.
• Ingenieurwissenschaften (Korngrößenverteilung).
• Versicherungsmathematik (Schadenzahlverteilung, Schadenhöheverteilung).
• Finanzmathematik (Einkommensverteilung).
Bestimmungsstücke und Kenngrößen
Sei X „ LogN pµ; σ 2 q eine mit den Parametern µ P R und σ 2 ą 0 logarithmisch
normalverteilte Zufallsgröße. Dann gilt für x P R
ˆ
FX pxq “ Φ
lnpxq ´ µ
σ
˙
1
Ip0,8q pxq mit Φpxq “ ?
2π
żx
t2
e´ 2 dt ,
´8
E pXq “ eµ`
σ2
2
,
´ 2
¯
2
Var pXq “ eσ ´1 e2µ`σ ,
¯
´ 2
a
p2 σ 2
2
σ
σ
γ pXq “ e ´1 e `2 ą 0 und µp pXq “ epµ` 2
62
für p P N .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bedeutung der Parameter
• Wie man der Übersicht der Bestimmungsstücke und Kenngrößen entnehmen kann,
treten die Parameter µ und σ 2 häufig gemeinsam in den Formeln für die Kenngrößen
auf. Durch diese Kopplung ist es nicht möglich, eine klare Zuordnung etwa zu Lageoder Streuungsparametern vorzunehmen.
• So wirkt der Parameter µ im Unterschied zur Normalverteilung hier nicht wie ein Lagebzw. Verschiebungsparameter, sondern eher wie ein nichtlinearer Skalenparameter.
• Der Parameter σ 2 kann hingegen als Formparameter interpretiert werden, da er die
Gestalt der Dichtefunktion wesentlich beeinflusst.
5.6
Exponentialverteilung
Definition 5.6. Eine stetige Zufallsgröße T auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine Exponentialverteilung mit dem Parameter λ ą 0 , falls ihre Dichtefunktion
durch
fT ptq “ λ e´λt Ir0,8q ptq ,
t P R,
gegeben ist. Hierfür schreibt man auch
T „ Exp pλq .
Bedeutung des Parameters
• λ ist ein Skalenparameter.
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße T besitze eine Exponentialverteilung mit dem Parameter λ ą 0 . Dann
gilt (vgl. Beispiele 2.17, 2.25, 2.7, 2.33, 2.51)
`
˘
FT ptq “ 1 ´ e´λt Ip0,8q ptq ,
t P R,
µp pT q “
E pT q “
1
,
λ
p!
λp
für p P N ,
Var pT q “
1
,
λ2
γ pT q ” 2 .
Satz 5.6.1
Es sei T „ Exp pλq eine mit dem Parameter λ ą 0 exponentialverteilte Zufallsgröße. Dann
gilt
PpT ě t0 ` t | T ą t0 q “ PpT ě tq für alle t0 , t ą 0 ,
d.h. die Exponentialverteilung besitzt die Eigenschaft der Gedächtnislosigkeit.
63
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anmerkung 5.6.2
• Die Exponentialverteilung ist das stetige Analogon zur geometrischen Verteilung.
Anwendung
• Zuverlässigkeitstheorie (Beschreibung der Lebensdauer von nicht alternden technischen
Systemen).
• Operations Research
– Betriebsdauer zwischen Systemausfällen;
– Zeit zwischen dem Eintreffen aufeinanderfolgender Kunden;
– Zeit zwischen aufeinanderfolgender Telefonanrufen.
• Versicherungsmathematik (Verteilung der Schadenhöhe).
Satz 5.6.3
Seien Ti „ Exp pλq , i “ 1, . . . , d , i.i.d. exponentialverteilte Zufallsgrößen mit dem Parameter
λ ą 0 . Dann gilt (vgl. Beispiel 3.17)
mintT1 , . . . , Td u „ Exp pλdq .
5.7
Gammaverteilung
Definition 5.7. Eine stetige Zufallsgröße T auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine Gammaverteilung mit den Parametern λ ą 0 und p ą 0 , falls ihre Dichtefunktion durch
λp p´1 ´λt
t e Ip0,8q ptq ,
t P R,
fT ptq “
Γppq
gegeben ist. Hierfür schreibt man auch
T „ Γ pλ; pq .
Definition Gammafunktion
Die Gammafunktion Γpxq ist für x ą 0 durch das uneigentliche Integral erster Art
ż8
tx´1 e´t dt
Γpxq :“
0
64
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
definiert. Die unvollständige Gammafunktion der unteren Grenze Γpx, yq ist gegeben
durch
ż8
Γpx, yq :“ tx´1 e´t dt für x ą 0 und y ą 0 .
y
Eigenschaften der Gammafunktion
lim Γpx, yq “ Γpxq für alle x ą 0 .
y0
ˆ ˙
?
1
“ π
Γpx ` 1q “ x Γpxq , Γp1q “ 1 und Γ
2
Γpn ` 1q “ n! für n P N .
sowie
Bedeutung der Parameter
• λ ist ein Skalenparameter.
• p ist ein Struktur- bzw. Formparameter.
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße T besitze eine Gammaverteilung mit den Parametern λ ą 0 und p ą 0 .
Dann gilt
˙
ˆ
Γpp, λtq
Ip0,8q ptq ,
t P R,
FT ptq “ 1 ´
Γppq
p
p
2
E pT q “ ,
Var pT q “ 2 ,
γ pT q “ ? ą 0 ,
λ
λ
p
q
ś
Γpp ` qq
µq pT q “ q
“
λ Γppq
pp ` l ´ 1q
l“1
λq
für q P N .
Anwendung
• Zuverlässigkeitstheorie (Beschreibung der Lebensdauer von technischen Systemen)
Spezialfall
Die Exponentialverteilung ist eine spezielle Gammaverteilung. Es gilt
Exp pλq “ Γ pλ; 1q
für λ ą 0 .
Anmerkung
Mit Hilfe der charakteristischen Funktionen kann leicht gezeigt werden:
Seien T1 „ Γ pλ; p1 q und T2 „ Γ pλ; p2 q unabhängige Zufallsgrößen. Dann gilt
T1 ` T2 „ Γ pλ; p1 ` p2 q ,
d.h. die Familie der Gammaverteilungen ist abgeschlossen bezüglich der Faltung.
65
TU Bergakademie Freiberg
5.8
Wahrscheinlichkeitstheorie
Sommersemester 2017
Erlang-Verteilung
Definition 5.8. Die Gammaverteilung mit den Parametern λ ą 0 und p “ n P N wird
Erlang-Verteilung mit den Parametern λ ą 0 und n P N genannt. Eine Erlang-verteilte
Zufallsgröße T besitzt folglich die Dichtefunktion
fT ptq “
λn
tn´1 e´λt Ip0,8q ptq ,
pn ´ 1q!
t P R.
Hierfür schreibt man auch
T „ Erl pλ; nq .
Anmerkung
Seien T1 „ Erl pλ; n1 q und T2 „ Erl pλ; n2 q unabhängige Zufallsgrößen. Dann gilt
T1 ` T2 „ Erl pλ; n1 ` n2 q ,
d.h. die Familie der Erlang-Verteilungen ist abgeschlossen bezüglich der Faltung.
Aufgabe
Seien Ti „ Exp pλq , i “ 1, . . . , n , i.i.d. exponentialverteilte Zufallsgrößen mit dem Parameter
λ ą 0 . Zeigen Sie, dass dann gilt
T1 ` . . . ` Tn „ Erl pλ; nq ,
d.h. die Summe unabhängiger, exponentialverteilter Zufallsgrößen ist Erlang-verteilt.
5.9
Chi-Quadrat-Verteilung
Definition 5.9. Die Gammaverteilung mit den Parametern λ “ 12 und p “ n2 , n P N , wird
χ2 -Verteilung mit n Freiheitsgraden genannt. Eine mit n Freiheitsgraden χ2 -verteilte
Zufallsgröße T besitzt folglich die Dichtefunktion
fT ptq “
t
n
1
` n ˘ t 2 ´1 e´ 2 Ip0,8q ptq ,
2 Γ 2
n
2
t P R.
Hierfür schreibt man auch
T „ χ2n .
Folgerung
Seien T1 „ χ2n1 und T2 „ χ2n2 unabhängige Zufallsgrößen. Dann gilt
T1 ` T2 „ χ2n1 `n2 ,
d.h. die Familie der χ2 -Verteilungen ist abgeschlossen bezüglich der Faltung.
66
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße T besitze eine χ2 -Verteilung mit n Freiheitsgraden. Dann gilt
?
2 2
Var pT q “ 2n ,
γ pT q “ ? ą 0 ,
E pT q “ n ,
n
µq pT q “
q
ź
pn ` 2pl ´ 1qq für q P N .
l“1
Satz
Seien Xi „ N p0; 1q , i “ 1, . . . , n , i.i.d. standardnormalverteilte Zufallsgrößen. Dann gilt
X12 ` . . . ` Xn2 „ χ2n ,
d.h. die Summe der Quadrate unabhängiger, standardnormalverteilter Zufallsgrößen ist χ2 verteilt mit n Freiheitsgraden.
5.10
Weibull-Verteilung
Definition 5.10. Eine stetige Zufallsgröße T auf einem Wahrscheinlichkeitsraum pΩ, F, Pq
besitzt eine Weibull-Verteilung mit den Parametern λ ą 0 und p ą 0 , falls ihre
Dichtefunktion durch
p
fT ptq “ p λp tp´1 e´pλtq Ip0,8q ptq ,
t P R,
gegeben ist. Hierfür schreibt man auch
T „ Wei pλ; pq .
Bedeutung der Parameter
• λ ist ein Skalenparameter.
• p ist ein Struktur- bzw. Formparameter.
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße T besitze eine Weibull-Verteilung mit den Parametern λ ą 0 und
p ą 0 . Dann gilt
`
p˘
FT ptq “ 1 ´ e´pλtq Ip0,8q ptq ,
t P R,
´ ¯
Γ
E pT q “
1
p
,
λp
Var pT q “
´
Γ
µq pT q “
´ ¯2
´ ¯
2p Γ
p`q
p
λq
¯
2
p
´Γ
1
p
λ2 p2
´ ¯
qΓ
“
q
p
pλq
67
für q P N .
,
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Anwendung
• Zuverlässigkeitstheorie (Beschreibung der Lebensdauer von technischen Systemen).
• Festigkeit spröder Materialien.
• Partikelgrößenverteilung in der mechanischen Verfahrenstechnik.
• Grenzverteilung geeignet normierter Minima
( Verteilung des schwächsten Kettenglieds“).
”
Anmerkungen
(1) In einigen Lehrbüchern bzw. Formelsammlungen wird als Dichtefunktion der WeibullVerteilung
p
fT ptq “ p λ tp´1 e´λt Ip0,8q ptq ,
t P R,
an Stelle von
p
fT ptq “ p λp tp´1 e´pλtq Ip0,8q ptq ,
t P R,
angegeben. Dadurch erfolgt jedoch eine Kopplung der beiden Parameter λ und p , so
dass λ nicht mehr als Skalenparameter interpretiert werden kann.
(2) Die Weibull-Verteilung wird in der Verfahrenstechnik auch als RRSB-Verteilung (nach
Rosin, Rammler, Sperling und Bennet) bezeichnet.
Spezialfall
Die Exponentialverteilung ist eine spezielle Weibull-Verteilung. Es gilt
Exp pλq “ Wei pλ; 1q
5.11
für λ ą 0 .
Rayleigh-Verteilung
Definition 5.11. Die Weibull-Verteilung mit den Parametern λ “ ?12σ , σ ą 0 , und
p “ 2 wird Rayleigh-Verteilung mit dem Parameter σ 2 ą 0 genannt. Eine mit dem
Parameter σ 2 ą 0 Rayleigh-verteilte Zufallsgröße besitzt folglich die Dichtefunktion
fT ptq “
1 ´ t22
t e 2σ Ip0,8q ptq ,
σ2
Hierfür schreibt man auch
` ˘
T „ Ray σ 2 .
68
t P R.
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Bestimmungsstücke und Kenngrößen
Die Zufallsgröße T besitze eine Rayleigh-Verteilung mit dem Parameter σ 2 ą 0 . Dann
gilt
˙
ˆ
2
´ t2
FT ptq “ 1 ´ e 2σ Ip0,8q ptq , t P R ,
c
E pT q “
π
σ,
2
π¯ 2
Var pT q “ 2 ´
σ .
2
´
Satz
Seien X1 „ N p0; σ 2 q und X2 „ N p0; σ 2 q unabhängige Zufallsgrößen. Dann gilt
b
` ˘
X12 ` X22 „ Ray σ 2 .
6
6.1
Bedingte Verteilungen und bedingte Erwartungswerte
Zufälliges Ereignis mit positiver Wahrscheinlichkeit als Bedingung
Definition 6.1 ((und Behauptung)). Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq
und B P F ein zufälliges Ereignis mit PpBq ą 0 .
PpA X Bq
die bedingte Wahrscheinlichkeit von A unter
Für A P F ist PpA|Bq :“
PpBq
der Bedingung B (auch: gegeben B“).
”
Die Abbildung
F Q A ÞÑ PB pAq “ PpA|Bq P r0; 1s Ă R
definiert ein Wahrscheinlichkeitsmaß auf pΩ, F, Pq, welches absolut stetig bezüglich P ist
und die Radon-Nikodym-Ableitung
d PB
1
pωq “
¨ IB pωq ,
dP
PpBq
ω P Ω,
besitzt.
Definition 6.2 ((und Behauptung)). Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq,
ein zufälliges Ereignis B P F mit PpBq ą 0 und eine Zufallsvariable X : Ω Ñ Ω1 mit
Werten im messbaren Raum pΩ1 , F 1 q . Die Abbildung
F 1 Q A1 ÞÑ PX|B pA1 q :“
P ptX P A1 u X Bq
PpBq
ist ein Wahrscheinlichkeitsmaß auf pΩ1 , F 1 q, die bedingte Verteilung der Zufallsvariable
X unter der Bedingung B bzw. kurz die bedingte Verteilung von X unter B.
69
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Definitionen 6.3. Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq, ein zufälliges Ereignis B P F mit PpBq ą 0 und eine Zufallsgröße X : Ω Ñ R .
• Die Funktion
R Q x ÞÑ FX|B pxq :“ PX|B pp´8; xqq “
P ptX ă xu X Bq
,
PpBq
x P R,
ist die bedingte Verteilungsfunktion der Zufallsgröße X unter der Bedingung
B bzw. kurz bedingte Verteilungsfunktion von X unter B.
• Falls existiert, ist
ż
E pX|Bq :“
x PX|B pdxq P R
R
der bedingte Erwartungswert der Zufallsgröße X unter der Bedingung B.
Anmerkung 6.4. Mit den Bezeichnungen der vorigen Definitionen gilt:
Existiert E pXq , dann existiert auch E pX|Bq und es gilt
ż
ż
1
E pX|Bq “
X d P “ X d PB .
PpBq B
Ω
Satz 6.5 ((und Definition)). Sei pX, Y qT ein stetiger Zufallsvektor mit gemeinsamer Dichtefunktion fX,Y und B P B mit PpY P Bq ą 0 .
Dann ist die bedingte Verteilung PX|Y PB von X unter Y P B absolut stetig bezüglich λ
und die bedingte Dichte von X unter Y P B ist
ż
d PX|Y PB
1
pxq “
fX,Y px, yq dy , x P R .
fX|Y PB pxq “
dλ
PpY P Bq B
6.2
Höchstens abzählbare Zerlegung als Bedingung
Anmerkung 6.6. In vielen Situationen kann (muss) man mit bedingenden Ereignissen
rechnen, die aber noch nicht bekannt sind. Dann sind bedingte Wahrscheinlichkeiten und
Erwartungswerte als Zufallsgrößen zu modellieren. Die wird hier zuerst für den (technisch
einfacheren) Fall diskreter Zufallsgrößen behandelt.
Voraussetzung 6.7. Gegeben sei ein Wahrscheinlichkeitsraum pΩ, F, Pq und eine diskrete
Zufallsgröße Y auf pΩ, F, Pq mit Wertebereich tyk ; k P J Ă Nu , so dass für alle k P J
gilt: PpY “ yk q ą 0 .
Definitionen 6.8. Unter Voraussetzung 6.7 sei A P F und X eine Zufallsgröße auf
pΩ, F, Pq mit E p|X|q ă 8 .
70
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(i) Die bedingte Wahrscheinlichkeit von A gegeben Y (bezüglich Y ) ist die Zufallsgröße PpA|Y q auf pΩ, F, Pq, definiert durch
PpA|Y qpωq “ PpA|tY “ yk uq “
PpA X tY “ yk uq
PpY “ yk q
für ω P tY “ yk u, k P J.
(ii) Der bedingte Erwartungswert von X gegeben Y (oder bezüglich Y ) ist die
Zufallsgröße E pX|Y q auf pΩ, F, Pq, definiert durch
ż
1
X dP
E pX|Y q pωq “ E pX|tY “ yk uq “
PpY “ yk q tY “yk u
für ω P tY “ yk u, k P J.
Anmerkung 6.9. Mit den Ereignissen Bk :“ tω P Ω : Y pωq “ yk u, k P J, ist eine höchstens
abzählbare Zerlegung des Grundraumes
ď
Z :“ tBk ; k P Ju mit
Bk “ Ω ; Bk X B` “ ∅ , k, ` P J, k ­“ `,
kPJ
und die dazugehörige σ´Algebra
#
A“
+
ď
Bj ; J0 Ă J
“ σpY q
jPJ0
verbunden.
Definition 6.10. Unter Voraussetzung 6.7 definiert man mit den obigen Bezeichnungen die
bedingte Wahrscheinlichkeit von A bezüglich Z bzw. bezüglich σpY q als
PpA|Zq :“ PpA|Aq :“ PpA|σpY qq :“ PpA|Y q .
Analog definiert man den bedingten Erwartungswert von X bezüglich Z bzw. bezüglich
σpY q als
E pX|Zq :“ E pX|Aq :“ E pX|σpY qq :“ E pX|Y q .
Da dies eine Zufallsgröße ist, spricht man auch von der bedingten Erwartung von X
bezüglich Z.
Satz 6.11. Mit Definition 6.10 gilt für A P F mit der Indikatorfunktion IA : Ω Ñ t0; 1u
PpA|Y q “ E pIA |Y q .
Anmerkung 6.12. Diese Beziehung ist die Entsprechung zu PpAq “ E pIA q und zeigt,
dass die Eigenschaften bedingter Wahrscheinlichkeiten aus denen bedingter Erwartungen
abgeleitet werden können.
Der nachfolgende Satz ist der Schlüssel zur Definition bedingter Erwartungen (und Wahrscheinlichkeiten) bezüglich beliebiger Teil-σ-Algebren von F .
71
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 6.13. Unter den Voraussetzungen zu Definition 6.10 gilt für eine Zufallsgröße X mit
E p|X|q ă 8 :
(i) Die Zufallsgröße E pX|Y q ist eindeutig gekennzeichnet durch die beiden Bedingungen
(a) E pX|Y q ist messbar bezüglich A “ σpY q ;
(b) für beliebige B P A “ σpY q gilt
ż
ż
E pX|Y q d P “
Xd P .
B
B
(ii) Es existiert eine messbare Funktion ψ : R Ñ R , so dass gilt
E pX|Y q pωq “ ψpY pωqq ,
ω P Ω.
Beispiel 6.14. Gegeben sei ein diskreter Zufallsvektor pX, Y qT mit
˘
`
P pX, Y qT “ pxi , yj qT “ pij , i “ 1, . . . , M ; j “ 1, . . . , N ;
wobei pij ą 0 für beliebige i “ 1, . . . , M ; j “ 1, . . . , N gelte.
6.3
Teil-Sigma-Algebra als Bedingung
Anmerkung 6.15. Die Definition von bedingten Wahrscheinlichkeiten bzw. Erwartungen
ist schwieriger, wenn als Bedingung tY “ yu mit PpY “ yq “ 0 für ein y P R berücksichtigt
werden muss, z.B. für eine stetige Zufallsgröße Y . Dies ist notwendig und möglich mit Hilfe
der Aussagen in (i) von Satz 6.13.
Beispiel 6.16. Gegeben sei eine Zufallsgröße Y „ U r0; 1s .
In Abhängigkeit der Realisierung y von Y werden n unabhängige Bernoulli-Experimente
mit Erfolgswahrscheinlichkeit y durchgeführt, X sei die zufällige Anzahl der sich einstellenden Erfolge.
Dann sollte intuitiv gelten
ˆ ˙
n k
PpX “ k|Y “ yq “
y p1 ´ yqn´k für k “ 0, . . . , n .
k
Definition 6.17. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, A eine Teil-σ-Algebra von
F , X und XA Zufallsgrößen auf pΩ, F, Pq mit E p|X|q ă 8, sowie
(a) XA ist A-messbar
und
(b) für beliebige A P A gilt E pXIA q “ E pXA IA q .
72
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Dann heißt XA bedingte Erwartung von X gegeben A (oder bedingter Erwartungswert unter der Bedingung A, etc. und wird durch E pX|Aq bezeichnet. Im Fall
A “ σpY q mit einer Zufallsvariable Y schreibt man auch E pX|Y q .
Für X “ IB mit B P F heißt
E pX|Aq “ E pIB |Aq “: PpB|Aq
bedingte Wahrscheinlichkeit von B unter der Bedingung A.
Satz 6.18 ((Korrektheit)). Erfüllen die Zufallsgrößen XA und X̃A die Bedingungen (i)
und (ii) in Definition 6.17, dann gilt
XA “ X̃A
P ´f.s..
(Zufallsgrößen mit dieser Eigenschaft werden Versionen der bedingten Erwartung von X
gegeben A genannt.)
Satz 6.19 ((Existenz)). Unter den Voraussetzungen von Definition 6.17 existiert E pX|Aq .
Satz 6.20. Sei pΩ, F, Pq ein Wahrscheinlichkeitsraum, A eine Teil-σ-Algebra von F , X1
und X2 Zufallsgrößen auf pΩ, F, Pq mit endlichem Erwartungswert mit PpX1 “ X2 q “ 1 .
Dann gilt
E pX1 |Aq “ E pX2 |Aq
P ´f.s..
Satz 6.21 ((und Definition)). Unter den Voraussetzungen von Definition 6.17 sei A “ σpY q
für eine Zufallsgröße Y mit Verteilung PY . Dann existiert eine PY -f.s. eindeutig definierte
messbare Funktion g : R Ñ R , so dass
E pX|Y q pωq “ gpY pωqq
P ´f.s.
gilt. Eine solche Funktion wird bezeichnet mit gpyq “ E pX|Y “ yq und bedingter Erwartungswert von X unter der Bedingung tY “ yu genannt.
Im Fall X “ IB , B P F , wird gpY q “ E pIB |Y “ yq “ PpB|Y “ yq als bedingte Wahrscheinlichkeit von B unter der Bedingung Y “ y bezeichnet.
Satz 6.22 ((Faktorisierungslemma, Satz von Doob-Dynkin)). Seien Y, Z Zufallsgrößen auf
pΩ, F, Pq und Z sei messbar bezüglich σpY q. Dann existiert eine messbare Funktion g : R Ñ
R mit Z “ gpY q und die Funktionswerte von g sind für alle y P WY “ tY pωq ; ω P Ωu
eindeutig bestimmt.
Satz 6.23. Unter den Voraussetzungen zu Satz 6.21 wird eine Funktion R Q y ÞÑ gpyq “
E pX|Y “ yq PY -f.s. eindeutig durch die Bedingung
ż
ż
@B P B :
Xpωq Ppdωq “
gpyq PY pdyq
Y ´1 pBq
B
definiert. Im Fall X “ IA , A P F, lautet die Bedingung
ż
@ B P B : P pA X tY P Buq “
PpA|Y “ yq PY pdyq.
B
73
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 6.24 ((und Definition)). Sei pX, Y qT ein stetiger Zufallsvektor mit gemeinsamer
Dichtefunktion fX,Y und h : R Ñ R eine messbare Funktion, so dass E p|hpXq|q ă 8 .
Dann ist mit der bedingten Dichte von X unter Y
#
fX,Y px,yq
, falls fY pyq ą 0 ;
fY pyq
fX|Y px|yq “
0,
sonst
die Zufallsgröße
ż
hpxqfX|Y px|Y q dx
R
eine Version von E phpXq|Y q , der bedingten Erwartung von hpXq unter Y , d.h.
ż
E phpXq|Y “ yq “ hpxqfX|Y px|yq dx für PY -fast alle y P R .
R
Anmerkung 6.25. Die bedingte Dichte fX|Y px|yq ergibt sich für stetige fX,Y durch einen
Grenzprozess: für A P B mit PpX P Aq ą 0 und y0 P R, h ą 0 , mit Ppy0 ď Y ď y0 `hq ą 0
gilt
PpX P A|y0 ď Y ď y0 ` hq “
y0ş`h ş
fX,Y px, yq dx dy
y0
A
y0ş`h ş
y0
ş
fX,Y px, yq dx
A
Ñ ş
fX,Y px, yq dx dy
fX,Y px, yq dx
ph Ñ 0q .
R
R
Satz 6.26. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit
E p|X|q ă 8 und A eine Teil-σ-Algebra von F .
(i) @ c P R : E pcX|Aq “ c E pX|Aq
P-f.s. .
(ii) E pE pX|Aqq “ E pXq .
(iii) Ist X A-messbar, gilt E pX|Aq “ X
P-f.s. .
(iv) Ist A1 eine Teil-σ-Algebra von A gilt die Turmeigenschaft
E pE pX|Aq |A1 q “ E pX|A1 q
P ´f.s. .
(v) Ist Y eine weitere Zufallsgröße auf pΩ, F, Pq mit E p|Y |q ă 8 , dann gilt
E pX ` Y |Aq “ E pX|Aq ` E pY |Aq
74
P ´f.s. .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 6.27. Seien Y, X, Xi , i P N, Zufallsgrößen auf dem Wahrscheinlichkeitsraum pΩ, F, Pq
mit endlichen Erwartungswerten sowie A eine Teil-σ-Algebra von F.
(i) Y ě X
P ´f.s.
E pY |Aq ě E pX|Aq
ñ
P ´f.s.
(ii) (Satz über monotone Konvergenz)
@ i P N : Xi`1 ě Xi
P ´f.s. ; X “ lim Xi
lim E pXi |Aq “ E pX|Aq
ñ
P ´f.s.
iÑ8
P ´f.s.
iÑ8
(iii) (Lemma von Fatou)
´
¯
@ i P N : Xi ě 0 P ´f.s. ; E lim inf Xi ă 8
iÑ8
´
¯
ñ E lim inf Xi |A ď lim inf E pXi |Aq
P ´f.s.
iÑ8
iÑ8
Satz 6.27 ((Fortsetzung)). (iv) (Satz über dominierte Konvergenz)
@ i P N : |Xi | ď Y
P ´f.s. ; X “ lim Xi
iÑ8
lim E pXi |Aq “ E pX|Aq
ñ
iÑ8
P ´f.s.
P ´f.s.
(v) (Ungleichung von Jensen)
g : R Ñ R konvex, E p|X|q ` E p|gpXq|q ă 8
E pgpXq|Aq ě g pE pX|Aqq
ñ
P ´f.s.
Folgerung 6.28. Seien X, Xi , i P N, Zufallsgrößen auf dem Wahrscheinlichkeitsraum
pΩ, F, Pq mit endlichen Erwartungswerten sowie A eine Teil-σ-Algebra von F.
E pX|Aq ě 0 P ´f.s.
ˇ ˘
`
ˇA
(ii) Es gilt |E pX|Aq|
ď Eˇ |X|
P ´f.s. und allgemeiner für p ě 1 E p|X|p q ă 8
`
˘
p
|E pX|Aq| ď E |X|p ˇA
P ´f.s.
(i) X ě 0
P ´f.s.
ñ
(iii) lim E p|Xi ´ X|q “ 0
iÑ8
ñ
ñ
lim E p| E pXi |Aq ´ E pX|Aq |q “ 0 .
iÑ8
Satz 6.29. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit E p|X|q ă
8 und A eine Teil-σ-Algebra von F.
(i) Sind X und A unabhängig, dann gilt E pX|Aq “ E pXq
(ii) Für B P A gilt E pXIB |Aq “ IB E pX|Aq
P ´f.s. .
P ´f.s. .
(iii) Für eine A-messbare Zufallsgröße Y mit E p|XY |q ă 8 gilt
E pXY |Aq “ Y E pX|Aq
75
P ´f.s. .
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(iv) Sei g : R2 Ñ R` messbar, die Zufallsgröße Y sei A-messbar, X sei unabhängig von
A und es gelte E pgpX, Y qq ă 8 .
Es bezeichne für y P R
Gpyq :“ E pgpX, yqq .
Dann ist G : R Ñ R` eine messbare Funktion und es gilt
E pgpX, Y q|Aq “ GpY q
P ´f.s. .
Satz 6.30. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit E p|X|2 q ă
8 , A eine Teil-σ-Algebra von F , H “ L2 pΩ, F, Pq , H1 :“ L2 pΩ, A, P |A q und πA : H Ñ H1
der Operator der orthogonalen Projektion auf H1 .
Dann gilt
E pX|Aq “ πA X
P ´f.s.
und insbesondere
`
˘
E pX ´ E pX|Aqq2
`
˘
“ inftE pX ´ Y q2 : Y : Ω Ñ R, Y ist A ´ messbaru .
Satz 6.31. Sei pX, X1 , . . . , Xn qT ein Gaussscher (d.h. normalverteilter) Zufallsvektor auf
dem Wahrscheinlichkeitsraum pΩ, F, Pq und A “ σpX1 , . . . , Xn q .
Dann gilt
E pX|Aq “ a ` b1 X1 ` . . . ` bn Xn
P ´f.s.,
wobei pa, b1 , . . . , bn q eine (beliebige) Lösung des linearen Gleichungssystems
E pXq “ a ` b1 E pX1 q ` . . . ` bn E pXn q
E pXXi q “ a E pXi q ` b1 E pX1 Xi q ` . . . ` bn E pXn Xi q ,
i “ 1, . . . , n,
ist. Dieses lineare Gleichungssystem besitzt mindestens eine Lösung.
T
Folgerung 6.32. Sei
ein
~ “
1 , X2 q
ˆ pX
˙ normalverteilter Zufallsvektor mit Parametern µ
2
σ
%
σ
σ
1 2
1
pµ1 , µ2 qT P R2 , Σ “
mit σ12 σ22 ą 0, |%| ă 1 . Dann gelten für x1 P R , x2 P R
% σ1 σ2
σ22
$ ´
´
¯¯2 ,
’
/
σ
2
& x2 ´ µ2 ` % σ px1 ´ µ1 q
.
1
1
exp ´
,
fX2 |X1 px2 |x1 q “ a
’
/
2p1 ´ %2 qσ22
2πp1 ´ %2 qσ2
%
-
¯
´
d.h. X2 |X1 “ x1 „ N µ2 ` % σσ12 px1 ´ µ1 q; p1 ´ %2 qσ22 , sowie
E pX2 |X1 q “ a ` bX1
P ´f.s. mit b “ %
σ2
, a “ µ2 ´ bµ1 ,
σ1
d.h. E pX2 |X1 q „ N pµ2 ; %2 σ22 q , E ppX2 ´ E pX2 |X1 qq2 q “ p1 ´ %2 qσ22 .
76
TU Bergakademie Freiberg
7
7.1
Wahrscheinlichkeitstheorie
Sommersemester 2017
Grenzwertsätze
Charakteristische Funktionen
Definition 7.1. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq.
Die komplexwertige Funktion ϕX einer reellen Variablen mit
ż
ż
ż
` itX ˘
itX
ϕX ptq :“ E e
“ e d P “ cosptXq d P `i sinptXq d P
Ω
Ω
Ω
für t P R heißt charakteristische Funktion der Zufallsgröße X (bzw. der Verteilung
PX ).
Anmerkung 7.2. ϕX ptq existiert für beliebige t P R , da | eitx | ď 1 gilt und die Funktion
messbar ist.
Satz 7.3. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq.
(i) Es gilt für t P R
ż
ż
ż
itx
e
ϕX ptq “
PX pdxq “
żR
żR
eitx dFX pxq “
“
R
cosptxq PX pdxq ` i sinptxq PX pdxq
żR
cosptxq dFX pxq ` i sinptxq dFX pxq.
R
R
(ii) Für eine diskrete Zufallsgröße X mit möglichen Werten pxk ; k P Jq und Einzelwahrscheinlichkeiten ppk ; k P Jq gilt
ÿ
ÿ
ÿ
ϕX ptq “
eitxk pk “
cosptxk qpk ` i
sinptxk qpk .
kPJ
kPJ
kPJ
(iii) Für eine stetige Zufallsgröße X mit Dichtefunktion fX gilt
ż
ż
ż
itx
ϕX ptq “ e fX pxq dx “ cosptxqfX pxq dx ` i sinptxqfX pxq dx.
R
R
R
Beispiele 7.4.
a) Besitzt die Zufallsgröße X eine Einpunktverteilung in c P R , dann gilt
ϕX ptq “ eitc “ cosptcq ` i sinptcq ,
t P R.
b) Ist die Zufallsgröße X exponentialverteilt mit Parameter λ ą 0 , dann gilt
ϕX ptq “
λ
,
λ ´ it
77
t P R.
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 7.5. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX . Dann gelten:
(i) ϕX p0q “ 1 ;
(ii) |ϕX ptq| ď 1 ,
t P R;
(iii) ϕX p´tq “ ϕ´X ptq “ ϕX ptq ,
t P R;
(iv) für a, b P R ist ϕaX`b ptq “ eitb ϕX patq ,
t P R;
(v) ϕX ist gleichmäßig stetig auf R ;
(vi) für beliebige n P N , t1 , . . . , tn P R , z1 , . . . , zn P C gilt
n
ÿ
ϕX ptk ´ t` qzk z` ě 0
k,`“1
(d.h., ϕX ist eine positiv semidefinite oder nichtnegativ definite Funktion auf
R).
Satz 7.6. Für unabhängige Zufallsgrößen X, Y auf pΩ, F, Pq mit charakteristischen Funktionen ϕX , ϕY gilt
(i) ϕX`Y ptq “ ϕX ptq ¨ ϕY ptq ,
t P R;
(ii) ϕX´Y ptq “ ϕX ptq ¨ ϕY ptq ,
t P R;
(iii) sind die Zufallsgrößen X1 , . . . , Xn mit n P N unabhängig und identisch verteilt, dann
gilt für die Zufallsgröße Sn :“ X1 ` . . . ` Xn
ϕSn ptq “ pϕX1 ptqqn ,
t P R.
Satz 7.7. Die charakteristische Funktion einer Zufallsgröße bestimmt deren Verteilungsgesetz eindeutig, d.h. aus
ϕX ptq “ ϕY ptq ,
t P R,
für Zufallsgrößen X und Y folgt
PX “ PY .
(Die Zufallsgrößen dürfen prinzipiell auch auf unterschiedlichen Wahrscheinlichkeitsräumen
definiert sein.)
Satz 7.8. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX , Verteilungsfunktion FX und Verteilung PX . Es gelten:
ż
1
1 T e´ita ´ e´itb
ϕX ptq dt “ PX ppa; bqq ` PX pta, buq ;
(i) lim
T Ñ8 2π ´T
it
2
78
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(ii) sind a und b Stetigkeitsstellen von FX , dann ist
ż
1 T e´ita ´ e´itb
ϕX ptq dt “ FX pbq ´ FX paq ;
lim
T Ñ8 2π ´T
it
ż
|ϕX ptq| dt ă 8 , dann ist X eine stetige Zufallsgröße mit gleichmäßig
(iii) falls zusätzlich
R
stetiger Dichtefunktion fX und
1
fX pxq “
2π
ż
e´itx ϕX ptq dt ,
x P R.
R
Satz 7.9. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX . Dann ist X genau dann symmetrisch, wenn die charakteristische
Funktion reellwertig ist, d.h. es gilt ϕX ptq P R für beliebige t P R .
Beispiele 7.10. Für t P R gilt für eine diskrete Zufallsgröße X
a) X „ Utx1 , . . . , xn u
ñ
n
1 ÿ itxk
ϕX ptq “
e ;
n k“1
b) X „ B pn; pq
ñ
`
`
˘˘n
ϕX ptq “ 1 ´ p 1 ´ eit
;
c) X „ Geo ppq
ñ
ϕX ptq “
d) X „ Geoo ppq
f) X „ Π pλq
ñ
ñ
p
;
1 ´ p1 ´ pq eit
˙n
ˆ
p eit
;
ϕX ptq “
1 ´ p1 ´ pq eit
ϕX ptq “
ñ
e) X „ NB pn; pq
p eit
;
1 ´ p1 ´ pq eit
ϕX ptq “ eλpe
it
´1q
.
Beispiele 7.11. Für t P R gilt für eine stetige Zufallsgröße X
a) X „ Ura; bs
ñ
eitb ´ eita
ϕX ptq “
;
pb ´ aqit
b) X „ C pµ; λq ñ ϕX ptq “ eiµt´λ|t| ;
`
˘
1 2 2
c) X „ N µ; σ 2
ñ ϕX ptq “ eiµt´ 2 σ t ;
d) X „ Exp pλq
ñ
e) X „ Γ pλ; pq
ñ
λ
;
λ ´ it
ˆ
˙p
λ
ϕX ptq “
;
λ ´ it
ϕX ptq “
79
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
ˆ
f) X „ Erl pλ; nq
ϕX ptq “
ñ
λ
λ ´ it
Sommersemester 2017
˙n
.
Satz 7.12. Seien X1 , . . . , XN unabhängige Zufallsgrößen auf pΩ, F, Pq und SN “ X1 ` . . . `
XN . Dann gelten
(i) Xi „ B pni ; pq
(ii) Xi „ Geo ppq
SN „ NB pN ; pq ;
ñ
(iii) Xi „ NB pni ; pq
(iv) Xi „ Π pλi q
SN „ B pn1 ` . . . ` nN ; pq ;
ñ
SN „ NB pn1 ` . . . ` nN ; pq ;
ñ
SN „ Π pλ1 ` . . . ` λN q ;
ñ
Satz 7.12 ((Fortsetzung)).
(v) Xi „ N pµi ; σi2 q
ñ
2
q und
SN „ N pµ1 ` . . . ` µN ; σ12 ` . . . ` σN
X1 ´ X2 „ N pµ1 ´ µ2 ; σ12 ` σ22 q ;
(vi) Xi „ Γ pλ; pi q
ñ
SN „ Γ pλ; p1 ` . . . ` pN q ;
(vii) Xi „ Exp pλq
ñ
SN „ Erl pλ; N q ;
(viii) Xi „ Erl pλ; ni q
ñ
SN „ Erl pλ; n1 ` . . . ` nN q ;
(ix) Xi „ C pµi ; λi q
ñ
SN „ C pµ1 ` . . . ` µN ; λ1 ` . . . ` λN q und
X1 ´ X2 „ C pµ1 ´ µ2 ; λ1 ` λ2 q .
Satz 7.13. Sei X eine Zufallsgröße auf dem Wahrscheinlichkeitsraum pΩ, F, Pq mit charakteristischer Funktion ϕX .
(i) Falls E p|X|p q ă 8 mit p P N , dann ist
(a) ϕX p-fach differenzierbar auf R mit
ż
ż
ppq
p itX
ϕX ptq “ piXq e dP “ pixqp eitx PX pdxq ,
Ω
R
ppq
(b) µp pXq “ E pX p q “ p´iqp ϕX p0q ;
p
ÿ
pitqp
pitqq
(c) ϕX ptq “
µq pXq `
Rp ptq ,
q!
p!
q“0
t P R,
wobei |Rp ptq| ď 2 E p|X|p q und lim Rp ptq “ 0 gelten.
tÑ0
p2nq
(ii) Falls ϕX p0q existiert für ein n P N , dann gilt E p|X|2n q ă 8 .
80
t P R;
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
~ “ pX1 , . . . , Xn qT ein Zufallsvektor auf pΩ, F, Pq.
Definition 7.14. Sei X
Die komplexwertige Funktion ϕX~ von n reellen Variablen ~t “ pt1 , . . . , tn q P Rn mit
´
¯
` ˘
` ipt1 X1 `...`tn Xn q ˘
~
i~tX
~
ϕX~ t “ ϕX~ pt1 , . . . , tn q :“ E e
“E e
~ (bzw. der Verteilung P ~ ).
heißt charakteristische Funktion des Zufallsvektors X
X
Anmerkungen 7.15.
• Die Eigenschaften von charakteristischen Funktionen von Zufallsvektoren entsprechen
zum großen Teil den Eigenschaften von charakteristischen Funktionen von Zufallsgrößen.
~ “ pX1 , . . . , Xn qT mit charakteristischer Funktion ϕ ~
• Für einen Zufallsvektor X
X
erhält man die charakteristische Funktion zum Beispiel von der ersten Komponente
X1 , indem in ϕX~ alle Variablen außer der ersten Null gesetzt werden, d.h.
ϕX1 ptq “ ϕX~ pt, 0, . . . , 0q ,
t P R;
entsprechende Aussagen gelten für die anderen Komponenten bzw. andere Teilvektoren.
~ “ pX1 , . . . , Xn qT ein Zufallsvektor auf pΩ, F, Pq mit charakteristischer
Satz 7.16. Sei X
Funktion ϕX~ .
Dann sind die Zufallsgrößen X1 , . . . , Xn genau dann vollständig unabhängig, wenn gilt
ϕX~ pt1 , t2 , . . . , tn q “ ϕX1 pt1 q ¨ ϕX2 pt2 q ¨ . . . ¨ ϕXn ptn q .
~ “ pX1 , . . . , Xn qT auf pΩ, F, Pq ist genau dann norSatz 7.17. Ein Zufallsvektor X
malverteilt mit Erwartungswertvektor µ
~ “ pµ1 , . . . , µn qT und Kovarianzmatrix Σ , d.h.
~ „ N p~µ; Σq , falls für ~t “ pt1 , . . . , tn q P Rn gilt
X
~
1~
~T
ϕX~ p~tq “ ei t µ~ ´ 2 t Σ t .
Anmerkungen 7.18.
• Dies kann als alternative Definition von normalverteilten Zufallsvektoren genutzt werden.
• Sind die Komponenten unkorreliert, dann sind sie auch unabhängig.
81
TU Bergakademie Freiberg
7.2
Wahrscheinlichkeitstheorie
Sommersemester 2017
Konvergenzbegriffe für Folgen von Zufallsgrößen
Definition 7.19. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq. Man sagt, die Folge von Zufallsgrößen pXn qnPN konvergiert P-fast sicher gegen
X, falls
´!
)¯
P ω P Ω : lim Xn pωq “ Xpωq “ 1
nÑ8
und schreibt dafür
P -f.s.
Xn ÝÝÝÑ X.
nÑ8
Anmerkung 7.20. Die P-fast sichere Konvergenz einer Folge von Zufallsgrößen ist ein
Spezialfall der in der Maß- und Integrationstheorie eingeführten µ-fast überall Konvergenz
einer Folge von messbaren Abbildungen für den Fall eines Wahrscheinlichkeitsmaßes µ “ P.
Definition 7.21. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq, und es existiere E pX p q bzw. E pXnp q für 1 ď p ă 8 und n P N. Man sagt, die Folge
pXn qnPN konvergiert im p-ten Mittel gegen X, falls
ż
lim |Xn pωq ´ Xpωq|p Ppdωq “ 0
nÑ8
Ω
und schreibt dafür
Lp pPq
Xn ÝÝÝÑ X
nÑ8
Lp
bzw. Xn ÝÝÝÑ X.
nÑ8
Anmerkung 7.22. Die Konvergenz im p-ten Mittel einer Folge von Zufallsgrößen ist ein
Spezialfall der in der Maß- und Integrationstheorie eingeführten Konvergenz im p-ten Mittel
einer Folge von messbaren Abbildungen für den Fall eines Wahrscheinlichkeitsmaßes µ “ P.
Definition 7.23. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq. Man sagt, die Folge von Zufallsgrößen pXn qnPN konvergiert in Wahrscheinlichkeit oder stochastisch gegen X, wenn für alle ε ą 0 gilt
lim P ptω P Ω : |Xn pωq ´ Xpωq| ě εuq “ 0
nÑ8
und schreibt dafür
P
Xn ÝÝÝÑ X.
nÑ8
Anmerkung 7.24. Die Konvergenz in Wahrscheinlichkeit einer Folge von Zufallsgrößen ist
ein Spezialfall der in der Maß- und Integrationstheorie eingeführten Konvergenz einer Folge
von messbaren Abbildungen dem Maße nach für den Fall eines Wahrscheinlichkeitsmaßes
µ “ P.
Anmerkungen 7.25. Für die P-fast sichere Konvergenz, die Konvergenz im p-ten Mittel
und die stochastische Konvergenz gelten:
82
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
• Sind zusätzlich Xn1 , n P N , Zufallsgrößen auf pΩ, F, Pq und gilt PpXn “ Xn1 q “
1 , n P N , dann folgen aus der Konvergenz der Zufallsgrößen Xn gegen X auch die
entsprechende Konvergenz für n Ñ 8 der Zufallsgrößen Xn1 gegen eine Zufallsgröße
X 1 auf pΩ, F, Pq und auch PpX 1 “ Xq “ 1 .
Insbesondere sind für diese Konvergenzarten die Grenzwerte P-fast sicher eindeutig
bestimmt.
• Für diese Konvergenzarten können äquivalente Cauchy-Bedingungen formuliert werden.
• Diese Konvergenzarten sind verträglich mit der linearen Struktur, d.h. die Folge pXn qnPN
konvergiert genau dann gegen X , wenn die Folge der Zufallsgrößen pXn ´XqnPN gegen
0 konvergiert.
Definition 7.26. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum
pΩ, F, Pq. Man sagt, die Folge von Zufallsgrößen pXn qnPN konvergiert in Verteilung gegen
X bzw. die Folge von Verteilungsgesetzen pPXn qnPN konvergiert schwach gegen PX , wenn
für jede stetige beschränkte Funktion g : R Ñ R gilt
ż
ż
´
¯
lim g d PXn “ g d PX
bzw. lim E pgpXn qq “ E pgpXqq
nÑ8
nÑ8
R
R
und schreibt dafür
d
Xn ÝÝÝÑ X
nÑ8
bzw.
PXn ùùùñ PX .
nÑ8
Anmerkung 7.27. Die Verteilungskonvergenz kann auch betrachtet werden, wenn die Zufallsgrößen Xn , n P N , auf unterschiedlichen Wahrscheinlichkeitsräumen definiert sind, da
nur die Verteilungen im Bildraum wesentlich sind.
Satz 7.28. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq.
Dann konvergiert die Folge pXn qnPN genau dann in Verteilung gegen X, wenn
lim FXn pxq “ FX pxq
nÑ8
für alle Stetigkeitsstellen x P R von FX pxq.
Beispiel 7.29. Sei pcn qnPN eine streng monoton wachsende Folge von reellen Zahlen mit
lim cn “ c P R
nÑ8
und es gelte für Zufallsgrößen Xn auf pΩ, F, Pq : P pXn “ cn q “ 1 , n P N .
Dann konvergiert die Folge pXn qnPN in Verteilung gegen eine Zufallsgröße X mit PpX “
cq “ 1 , aber für die entsprechenden Verteilungsfunktionen gilt FXn pcq “ 1 , n P N ,
FX pcq “ 0 , d.h.
lim FXn pcq “ 1 ­“ FX pcq “ 0 .
nÑ8
83
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 7.30 ((Stetigkeitssatz)). Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq.
(i) Dann konvergiert die Folge pXn qnPN genau dann in Verteilung gegen X, wenn gilt
lim ϕXn ptq “ ϕX ptq für alle t P R.
nÑ8
(ii) Gilt für die Folge der charakteristischen Funktionen
lim ϕXn ptq “ ψptq ,
t P R,
nÑ8
wobei die Grenzfunktion ψ an der Stelle 0 stetig ist oder die Konvergenz gleichmäßig
auf endlichen Teilintervallen von R erfolgt, dann ist ψ die charakteristische Funktion einer Zufallsgröße und die Folge pXn qnPN konvergiert in Verteilung gegen diese
Zufallsgröße.
Beispiele 7.31.
(1) Satz 4.6.3
Hyp pn, K, N q ùùùùùùùùùùùñ B pn; pq.
N Ñ8, KÑ8,
(2) Satz 4.9.2
K
Ñp
N
B pn; pn q ùùùùùùùùñ Π pλq.
nÑ8, npn Ñλ
Beispiel 7.32. Seien Ti „ Exp pλq, i “ 1, . . . , n, i.i.d. exponentialverteilte Zufallsgrößen mit
dem Parameter λ ą 0. Dann gilt
d
mintT1 , . . . , Tn u ÝÝÝÑ 0
nÑ8
und
PYn ùùùñ Exp pλq
nÑ8
sowie
für Yn “ n mintT1 , . . . , Tn u
1
1
d
maxtT1 , . . . , Tn u ÝÝÝÑ .
nÑ8 λ
ln n
Aufgabe 7.33. Seien Xi , i P N, i.i.d. Zufallsgrößen mit der Verteilungsfunktion
FX pxq “ xp Ip0,1s pxq ` Ip1,8q pxq mit p ą 0.
Zeigen Sie, dass dann gilt
d
mintX1 , . . . , Xn u ÝÝÝÑ 0
nÑ8
und
PYn ùùùñ Wei pλ; pq
nÑ8
für
?
p
n
Yn “
mintX1 , . . . , Xn u mit λ ą 0.
λ
84
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 7.34. Seien X, Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq.
Dann folgt aus
P
Xn ÝÝÝÑ X
nÑ8
stets
d
Xn ÝÝÝÑ X
nÑ8
bzw.
PXn ùùùñ PX .
nÑ8
` ˘
Beispiel 7.35 ((Gegenbeispiel für die Umkehrung von Satz 7.34)). Es sei X „ B 21 eine
Bernoulli-verteilte Zufallsgröße und Xn “ 1 ´ X für alle n P N. Dann besitzen X und Xn
dieselbe Verteilung und trivialerweise gilt
d
Xn ÝÝÝÑ X
nÑ8
bzw.
PXn ùùùñ PX .
nÑ8
Andererseits ist
|Xpωq ´ Xn pωq| “ 1 für alle ω P Ω
und somit kann die Folge pXn qnPN von Zufallsgrößen nicht in Wahrscheinlichkeit gegen X
konvergieren.
Satz 7.36. Seien Xn , n P N, Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq,
und es gelte
d
Xn ÝÝÝÑ c bzw. PXn ùùùñ δc für ein c P R.
nÑ8
nÑ8
Dann folgt
P
Xn ÝÝÝÑ c.
nÑ8
Übersicht: Zusammenhänge zwischen den Konvergenzbegriffen
(gleichmäßig)
Xn ÝÝÝÝÝÝÝÑ X
nÑ8
§
§
đ
(punktweise)
Xn ÝÝÝÝÝÝÝÑ X
nÑ8
§
§
đ
P -f.s.
Xn ÝÝÝÑ X
nÑ8
§İ
§ §Teilfolge
đ§
P
Xn ÝÝÝÑ X
nÑ8
§İ
§§
đ §X”c
Lp pPq
Xn ÝÝÝÑ X
nÑ8
§İ
§ § lim }Xn }p “}X}p ,1ďpă8
đ §n8
P
Xn ÝÝÝÑ X
nÑ8
d
Xn ÝÝÝÑ X
nÑ8
85
TU Bergakademie Freiberg
7.3
Wahrscheinlichkeitstheorie
Sommersemester 2017
Gesetze der großen Zahlen
Anmerkung 7.37.
• Grenzwertsätze betreffen asymptotische Aussagen über Verteilungen einer Folge von
Zufallsvariablen, hier über Partialsummen Sn “ X1 ` . . . ` Xn für eine Folge pXk qkPN
von Zufallsgrößen auf pΩ, F, Pq.
• Man spricht von schwachen Gesetzen, wenn die stochastische Konvergenz vorliegt.
• Man spricht von starken Gesetzen, wenn die fast sichere Konvergenz vorliegt.
• Die Partialsummen Sn müssen noch geeignet normiert werden, damit eine Grenzwert
(hier eine entartete Zufallsgröße, also eine reelle Konstante) existiert (z.B. wächst die
Varianz mit größer werdendem n falls sie existiert und die Zufallsgrößen Xk unabhängig
sind).
Satz 7.38 ((Schwaches Gesetz der großen Zahlen von Tschebyschew)). Sei pXk qkPN eine
n
ÿ
2
Xk .
i.i.d. Folge von Zufallsgrößen auf pΩ, F, Pq mit E pX1 q ă 8 und für n P N sei Sn :“
k“1
Dann gilt
1
P
Sn ´ E pX1 q ÝÝÝÑ 0
nÑ8
n
ˆ
bzw.
˙
1
P
Sn ÝÝÝÑ E pX1 q .
nÑ8
n
Folgerung 7.39 ((Schwaches Gesetz der großen Zahlen von Bernoulli)). Sei pXk qkPN eine
n
ÿ
i.i.d. Folge von Zufallsgrößen auf pΩ, F, Pq mit Xk „ B ppq und für n P N sei Sn :“
Xk .
k“1
Dann gilt
1
P
Sn ÝÝÝÑ p .
nÑ8
n
Anmerkung 7.40. Diese Aussage liefert in der axiomatischen Wahrscheinlichkeitstheorie
die theoretische Begründung für die Häufigkeitsinterpretation des Wahrscheinlichkeitsbegriffs.
Satz 7.41 ((Schwaches Gesetz der großen Zahlen)). Sei pXk qkPN
eine i.i.d. Folge von
n
ÿ
Zufallsgrößen auf pΩ, F, Pq mit E p|X1 |q ă 8 und für n P N sei Sn :“
Xk .
k“1
Dann gilt
1
P
Sn ´ E pX1 q ÝÝÝÑ 0
nÑ8
n
ˆ
bzw.
86
˙
1
P
Sn ÝÝÝÑ E pX1 q .
nÑ8
n
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Satz 7.42 ((Starkes Gesetz der großen Zahlen von Kolmogorow)). Sei pXk qkPN eine i.i.d.
n
ÿ
Folge von Zufallsgrößen auf pΩ, F, Pq und für n P N sei Sn :“
Xk .
k“1
ˆ
Dann konvergiert die Folge der Zufallsgrößen
1
Sn
n
˙
genau dann fast sicher, falls
nPN
E p|X1 |q ă 8 ist und in diesem Fall gilt
1
P -f.s.
Sn ´ E pX1 q ÝÝÝÑ 0
nÑ8
n
7.4
ˆ
bzw.
˙
1
P -f.s.
Sn ÝÝÝÑ E pX1 q .
nÑ8
n
Zentrale Grenzwertsätze
Anmerkung 7.43.
• Inhalt des zentralen Grenzwertsatzes ist die Verteilungskonvergenz von geeignet normierten Summen Sn “ X1 ` . . . ` Xn einer Folge pXk qkPN von unabhängigen
Zufallsgrößen auf pΩ, F, Pq.
• Hier wird nur der wichtigste grundlegende zentrale Grenzwertsatz behandelt, die Voraussetzungen in dem Satz können in verschiedener Hinsicht stark abgeschwächt werden.
Satz 7.44 ((Zentraler Grenzwertsatz von Lindeberg-Levy)). Sei pXk qkPN eine i.i.d.
Folge von Zufallsgrößen auf pΩ, F, Pq mit E pX12 q ă 8 , Var pX1 q ą 0 und für n P N sei
n
ÿ
Sn :“
Xk .
k“1
Sn ´ n E pX1 q
Dann gilt für die standardisierten Partialsummen Zn :“ a
n Var pX1 q
PZn ùùùñ N p0; 1q ,
d.h.
żx
u2
1
lim PpZn ă xq “ Φpxq “ ?
e´ 2 du ,
nÑ8
2π ´8
nÑ8
x P R.
Folgerung 7.45 ((Zentraler Grenzwertsatz von Moivre-Laplace)). Sei pSn qnPN eine
Folge von Zufallsgrößen auf pΩ, F, Pq mit Sn „ B pn; pq , n P N, 0 ă p ă 1 .
Sn ´ np
Dann gilt für die standardisierten Partialsummen Zn :“ a
npp1 ´ pq
PZn ùùùñ N p0; 1q ,
d.h.
żx
u2
1
lim PpZn ă xq “ Φpxq “ ?
e´ 2 du ,
nÑ8
2π ´8
nÑ8
87
x P R.
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 7.46. Seien Xi „ Ur´1, `1s , i P N , i.i.d. Zufallsgrößen auf einem Wahrscheinlichkeitsraum pΩ, F, Pq. Dann gilt
PZn ùùùñ N p0; 1q
nÑ8
für
c
Zn “
3
Sn .
n
Satz 7.47 ((Berry-Esseen-Ungleichung)). Sei pXi qiPN eine Folge von i.i.d. Zufallsgrößen,
deren dritten Momente existieren, wobei Var pXi q ą 0 . Dann gilt
`
˘
3
1 E |X1 ´ E pX1 q|
sup |FZn pxq ´ Φpxq| ď
?
2
xPR
n Var pX1 q3{2
für
8
8.1
Sn ´ n E pX1 q
Zn “ a
.
n Var pX1 q
Elemente der mathematischen Statistik
Einige Grundbegriffe
Anmerkungen 8.1.
(i) In vielen praktischen Fällen sind Verteilungsfunktionen von Zufallsgrößen nicht (exakt)
bekannt (nicht theoretisch berechenbar), aber es sind Daten verfügbar, die Informationen über die unbekannte Verteilungsfunktion liefern. Eine analoge Situation gilt auch
für allgemeinere Zufallsvariable.
(ii) In der klassischen“ ( Fisherschen“) mathematischen Statistik geht man oft von einer
”
”
Verteilungsfunktion einer Zufallsgröße mit unbekannten exakten (wahren)“ Parame”
tern aus.
(iii) In der Bayesschen Statistik werden alle unbekannten Größen, insbesondere auch unbekannte Parameter einer Verteilungsfunktion, als Zufallsgrößen mit einer Verteilung
modelliert.
(iv) In gewisser Weise sind die Aufgabenstellungen der mathematischen Statistik invers zu
den Aufgabenstellungen der Wahrscheinlichkeitstheorie.
Definition 8.2. Gegeben sei ein messbarer Raum pΩ, Fq , eine F ´ B-messbare Abbildung
X : Ω Ñ R und eine Familie pPθ qθPΘ , Θ Ď Rd , d P N , von Wahrscheinlichkeitsmaßen auf
pΩ, Fq .
88
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(i) Dann nennt man pΩ, F, pPθ qθPΘ q ein parametrisches statistisches Modell für die
Grundgesamtheit X . Die Verteilungsfunktion von X unter dem Wahrscheinlichkeitsmaß Pθ (θ P Θ) werde mit FX|θ bezeichnet.
(ii) Die F ´ BpRn q-messbare Abbildung X pnq “ pX1 , . . . , Xn q : Ω Ñ Rn heißt mathematische Stichprobe vom Umfang n aus der Grundgesamtheit X, falls für
beliebige θ P Θ die Zufallsgrößen X1 , . . . , Xn unabhängig und identisch verteilt mit
der Verteilungsfunktion FX|θ sind.
(iii) Für jedes ω P Ω wird xpnq “ px1 , . . . , xn q “ X pnq pωq P Rn Realisierung der
mathematischen Stichprobe oder konkrete Stichprobe vom Umfang n genannt.
Beispiel 8.3.
• Die Grundgesamtheit X beschreibe ein Bernoulli-Experiment.
• Wir betrachten ein Bernoulli-Schema, d.h. die n-malige, unabhängige Wiederholung
eines Bernoulli-Experiments. Beschreibt Xi den Ausgang des i-ten Experiments,
d.h. Xi “ 1 bei Erfolg und Xi “ 0 bei Misserfolg, so ist das n-Tupel pX1 , . . . , Xn q
eine mathematische Stichprobe vom Umfang n aus der Grundgesamtheit X .
• Jede Realisierung, d.h. jedes n-Tupel aus Nullen und Einsen, z.B. xp5q “ p1, 0, 1, 1, 0q ,
ist eine konkrete Stichprobe.
Definition 8.4. Sei X pnq eine mathematische Stichprobe vom Umfang n aus einer Grundgesamtheit X auf pΩ, F, pPθ qθPΘ q .
(i) Für eine nicht von θ abhängige messbare Funktion T̃n : Rn Ñ R nennt man die
messbare Abbildung
Tn “ T̃n pX pnq q “ T̃n pX1 , . . . , Xn q : Ω Ñ R
eine Stichprobenfunktion.
(ii) Für jede Realisierung xpnq “ X pnq pωq , ω P Ω , ist
Tn pωq “ T̃n pX1 pωq, . . . , Xn pωqq “ T̃n px1 , . . . , xn q P R
eine Realisierung der Stichprobenfunktion Tn .
Beispiele 8.5 (und Definitionen). Sei X pnq eine mathematische Stichprobe vom Umfang
n aus einer Grundgesamtheit X . Dann nennt man die Stichprobenfunktion
(i)
`
˘
1
X n “ X n X pnq :“ pX1 ` . . . ` Xn q
n
Stichprobenmittelwert,
89
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(ii) allgemeiner für p P N
`
˘
1
Mnp “ Mnp X pnq :“ pX1p ` . . . ` Xnp q
n
p-tes Stichprobenmoment und
(iii)
Sn2
“
Sn2
`
X
pnq
˘
n
˘2
1 ÿ`
:“
Xi ´ X n
n ´ 1 i“1
Stichprobenstreuung.
Beispiele 8.5 (und Definitionen (Fortsetzung)).
(iv) Für jedes x P R definiert man die Stichprobenfunktion
n
´
¯`
˘
1ÿ
pnq
p
p
:“
Ip´8,xq pXi q
Fn pxq “ Fn pxq X
n i“1
und nennt die Abbildung Fpn p¨q : R Ñ r0, 1s empirische Verteilungsfunktion.
Anmerkungen 8.6.
(1) Für jedes ω P Ω und damit jede Realisierung px1 , . . . , xn q “ pX1 pωq, . . . , Xn pωqq der
mathematischen Stichprobe X pnq ergibt sich für jedes x P R eine Realisierung
n
n
´
¯
1ÿ
1ÿ
p
Ip´8,xq pXi pωqq “
Ip´8,xq pxi q
Fn pxq pωq “
n i“1
n i“1
1
“ card pti P t1, . . . , nu : xi ă xuq
n
der Stichprobenfunktion Fpn pxq .
´
¯
p
Die Funktion Fn p¨q pωq : R Ñ r0, 1s besitzt für jedes ω P Ω die Eigenschaften einer
Verteilungsfunktion.
Anmerkungen 8.6 ((Fortsetzung)).
(2) Für alle x P R gilt
´
¯
Eθ Fpn pxq “ FX|θ pxq
und
´
¯ 1
Varθ Fpn pxq “ FX|θ pxqp1 ´ FX|θ pxqq .
n
90
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
(3) Aus dem starken Gesetz der großen Zahlen folgt
P -f.s.
Fpn pxq ÝÝθÝÝÑ FX|θ pxq für jedes x P R.
nÑ8
Satz 8.7 ((Hauptsatz der mathematischen Statistik, Satz von Glivenko-Cantelli)). Sei
X pnq eine mathematische Stichprobe vom Umfang n aus einer Grundgesamtheit X , so
gilt
ˇ
ˇ
ˇp
ˇ P -f.s.
sup ˇFn pxq ´ FX|θ pxqˇ ÝÝθÝÝÑ 0 .
nÑ8
xPR
Anmerkungen 8.8.
(i) Wichtige Aufgabenstellungen in der mathematischen Statistik sind unter anderem
• die Bestimmung unbekannter Parameter der Verteilung einer Grundgesamtheit,
d.h. die Parameterschätzung, wobei hier Punkt- oder Bereichsschätzungen genutzt
werden;
• die Überprüfung, ob bestimmte Hypothesen (Annahmen) über unbekannte Parameter (oder andere Eigenschaften) angenommen oder abgelehnt werden sollten;
dies wird durch statistische Tests oder Signifikanztests realisiert.
(ii) Zu beachten ist, dass im Allgemeinen keine Aussagen mit 100%-iger Sicherheit getroffen
werden können. Es müssen in der Regel Fehlerwahrscheinlichkeiten mit berücksichtigt
werden.
8.2
Punktschätzungen von Parametern
Definitionen 8.9.
• Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X,
X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und
g : Θ Ñ R eine Funktion. Unter einer Punktschätzung`bzw.˘kurz einem Schätzer
pn “ G
pn X pnq .
für gpθq versteht man eine Stichprobenfunktion G
• Für jedes ω P Ω und damit jede Realisierung px1 , . . . , xn q “ pX1 pωq, . . . , Xn pωqq der
mathematischen Stichprobe X pnq ist
pn pωq “ G
pn pX1 pωq, . . . , Xn pωqq “ G
pn px1 , . . . , xn q P R
gpn :“ G
eine Realisierung der Schätzfunktion. Diese nennt man den Schätzwert für gpθq anhand der konkreten Stichprobe px1 , . . . , xn q.
Definitionen 8.10 ((Eigenschaften von Schätzern)). Sei pΩ, F, tPθ uθPΘ q ein parametrisches
statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom
Umfang n aus dieser Grundgesamtheit X und g : Θ Ñ R eine Funktion.
91
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
´ ¯
pn für gpθq heißt erwartungstreu, wenn für alle θ P Θ Eθ G
pn existiert
• Ein Schätzer G
und gilt
ż
´ ¯
p
pn d Pθ “ gpθq.
Eθ Gn :“ G
Ω
• Die Differenz
´ ¯
pn ´ gpθq
Eθ G
nennt man die Verzerrung, den systematischen Fehler oder auch den Bias des
pn .
Schätzers G
Definitionen 8.10 ((Eigenschaften von Schätzern, Fortsetzung)).
pn ,
p˚ besser als G
pn und G
p˚ zwei erwartungstreue Schätzer für gpθq, so heißt G
• Sind G
n
n
falls für alle θ P Θ gilt
´ ¯
´ ¯
pn .
p˚ ď Varθ G
Varθ G
n
• Falls für alle θ P Θ gilt
´ ¯
pn “ gpθq,
lim Eθ G
nÑ8
´ ¯
pn
so nennt man die Folge G
von Schätzern für gpθq asymptotisch erwartungsnPN
treu.
Definitionen 8.10 ((Eigenschaften von Schätzern, Fortsetzung)).
´ ¯
pn
• Die Folge G
von Schätzern für gpθq heißt (schwach) konsistent, falls für alle
nPN
θ P Θ gilt
θ
pn ÝÝPÝ
G
Ñ gpθq.
nÑ8
´ ¯
pn
• Die Folge G
von Schätzern für gpθq heißt stark konsistent, falls für alle θ P Θ
nPN
gilt
Pθ ´f.s.
pn Ý
G
ÝÝÝÑ gpθq.
nÑ8
Beispiel 8.11 (und Definition). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell
für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser
Grundgesamtheit X, und es existiere Eθ p|X|p q, p P N, für alle θ P Θ. Dann ist das p-te
Stichprobenmoment
n
1ÿ p
ppq
Mn “
X
n i“1 i
92
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
ein erwartungstreuer Schätzer für
ż
X p d Pθ
p
gpθq “ Eθ pX q “
Ω
´
¯
ppq
und die Folge Mn
ist stark konsistent.
nPN
Beispiel 8.12. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit
X, und es existiere Eθ pX 2 q für alle θ P Θ. Dann ist die Stichprobenstreuung
Sn2
n
˘2
1 ÿ`
Xi ´ X n
“
n ´ 1 i“1
ein erwartungstreuer Schätzer für
ż
pX ´ Eθ pXqq2 d Pθ
gpθq “ Varθ pXq “
Ω
und die Folge pSn2 qnPN ist stark konsistent.
Definition 8.13. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundp
gesamtheit ´X und
¯ g : Θ Ñ R eine Funktion. Existiert für einen Schätzer Gn das zweite
p2 für alle θ P Θ, so heißt
Moment Eθ G
n
ˆ´
¯2 ˙
pn ´ gpθq
Eθ G
pn für gpθq.
mittlerer quadratischer Fehler des Schätzers G
p˚ den gleichmäßig besten Schätzer in einer gewissen Menge
Man nennt den Schätzer G
n
G von Schätzern für gpθq, wenn
ˆ´
ˆ´
¯2 ˙
¯2 ˙
˚
p
p
Eθ Gn ´ gpθq
ď Eθ Gn ´ gpθq
pn P G und alle θ P Θ.
gilt für alle G
Satz 8.14. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtp
heit X und´g : Θ
¯ Ñ R eine Funktion. Existiert für einen Schätzer Gn für gpθq das zweite
p2 für alle θ P Θ, so gilt für den mittleren quadratischen Fehler
Moment Eθ G
n
ˆ´
¯2 ˙
´ ¯ ´ ´ ¯
¯2
p
pn ` Eθ G
pn ´ gpθq .
Eθ Gn ´ gpθq
“ Varθ G
93
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beweis.
ˆ´
ˆ´
¯2 ˙
´ ¯
´ ¯
¯2 ˙
p
p
p
p
Eθ Gn ´ gpθq
“ Eθ Gn ´ Eθ Gn ` Eθ Gn ´ gpθq
ˆ´
´ ¯¯2
´
´ ¯¯ ´ ´ ¯
¯ ´ ´ ¯
¯2 ˙
p
p
p
p
p
p
“ Eθ Gn ´ Eθ Gn
` 2 Gn ´ Eθ Gn
Eθ Gn ´ gpθq ` Eθ Gn ´ gpθq
ˆ´
´ ¯¯2 ˙
´ ´ ¯
¯ ´
´ ¯¯
p n ´ Eθ G
pn
pn ´ gpθq Eθ G
p n ´ Eθ G
pn `
“ Eθ G
` 2 Eθ G
ˆ´ ´ ¯
¯2 ˙
pn ´ gpθq
` Eθ Eθ G
¯2
´ ¯
´ ´ ¯
¯´ ´ ¯
´ ´ ¯¯¯ ´ ´ ¯
pn ´ gpθq
p n ` 2 Eθ G
pn ´ gpθq Eθ G
pn ´ Eθ Eθ G
pn
` Eθ G
“ Var G
jh
n
l
“0
´ ¯ ´ ´ ¯
¯2
p n ` Eθ G
pn ´ gpθq .
“ Var G
Beispiel 8.15. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit
X und es existiere Eθ pX 2 q für alle θ P Θ.
p~a “
Für` jeden˘ Vektor ~a “ pa1 , . . . , an qT P Rn mit a1 ` . . . ` an “ 1 ist der Schätzer G
n
p~a X pnq “ a1 X1 ` . . . ` an Xn ein erwartungstreuer Schätzer für gpθq “ Eθ pXq.
G
n
Es gilt
´ ¯
p~a “ pa2 ` . . . ` a2 q Varθ pXq .
Varθ G
n
1
n
Da a21 ` . . . ` a2n unter der Nebenbedingung a1 ` . . . ` an “ 1 minimal wird, wenn ai “ n1 für
alle i “ 1, . . . , n gilt, ist X n der beste lineare erwartungstreue Schätzer für gpθq “ Eθ pXq
(BLUE: best linear unbiased estimator“).
”
Satz 8.16. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches
Modell für die Grundgesamt´ ¯
pn
heit X und g : Θ Ñ R eine Funktion. Für eine Folge G
von Schätzern für gpθq existiere
nPN
´ ¯
p2 für alle θ P Θ und alle n P N. Ist diese Folge asymptotisch erdas zweite Moment Eθ G
n
wartungstreu und gilt
´ ¯
pn “ 0 für alle θ P Θ,
lim Varθ G
nÑ8
so ist sie konsistent.
Definition 8.17 ((Momentenmethode)). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches
Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus
dieser Grundgesamtheit X und es existiere Eθ pX p q, p P N, für alle θ P Θ Ď Rd , d P N.
94
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Hat der Parameter θj , die j-te Komponente von θ, j “ 1, . . . , d, eine Darstellung der Form
θj “ hj pµ1 pXq, . . . , µp pXqq
mit einer stetigen Funktion hj : Rp Ñ R, so nennt man
˘
`
MM
x
θj n “ hj Mnp1q , . . . , Mnppq
den Momentenschätzer bzw. den nach der Momentenmethode konstruierten Schätzer
für θj , j “ 1, . . . , d.
Beispiel 8.18. Gegeben sei eine exponentialverteilte Grundgesamtheit X „ Exp pλq,
θ “ λ, Θ “ p0, 8q Ď R.
1
µ1 pXq “ .
θ
Folglich erhält man die Darstellung
1
θ“
.
µ1 pXq
Also ist
θpnM M “
1
p1q
Mn
der Momentenschätzer für θ.
Beispiel 8.19. Gegeben sei eine normalverteilte Grundgesamtheit X „ N pµ; σ 2 q,
θ “ pθ1 , θ2 qT “ pµ, σ 2 qT , Θ “ R ˆ p0, 8q Ď R2 . Dann gilt
µ1 pXq “ θ1
und µ2 pXq “ θ12 ` θ2 .
Folglich erhält man die Darstellungen
θ1 “ µ1 pXq und θ2 “ µ2 pXq ´ µ1 pXq2 .
Also sind
MM
x
θ1 n “ Mnp1q
und
˘2
`
MM
x
θ2 n “ Mnp2q ´ Mnp1q
die Momentenschätzer für θ1 und θ2 .
Satz 8.20. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X
und es existiere Eθ pX p q, p P N, für alle θ P Θ Ď Rd , d P N.
´ MM ¯
Dann ist die Folge x
θj n
der Momentenschätzer für den Parameter θj , die j-te KomnPN
ponente von θ, j “ 1, . . . , d, stark konsistent.
95
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Folgerung 8.21. Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X, X pnq eine mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X und es existiere Eθ pX p q, p P N, für alle θ P Θ Ď Rd , d P N. Weiterhin sei g : Θ Ñ R
eine stetige Funktion.
´ ¯
pn
Dann ist die Folge G
mit
nPN
´ MM
¯
MM
pn “ g x
G
θ1 n , . . . , x
θd n
eine stark konsistente Folge von Schätzern für gpθq.
Definitionen 8.22 ((Maximum-Likelihood-Methode)). Sei pΩ, F, tPθ uθPΘ q ein parametrisches statistisches Modell für die Grundgesamtheit X mit Wertebereich WX und X pnq eine
mathematische Stichprobe vom Umfang n aus dieser Grundgesamtheit X.
• Für den Fall, dass X eine diskrete Grundgesamtheit ist, definieren wir Ln : Rn ˆ Θ Ñ
r0, 8q gemäß
n
ź
Ln px1 , . . . , xn , θq :“
Pθ pX “ xi q.
i“1
• Für den Fall, dass X eine stetige Grundgesamtheit mit der Dichtefunktion fθ ist, d.h.
dpPθ ˝X ´1 q
, definieren wir Ln : Rn ˆ Θ Ñ r0, 8q gemäß
fθ “
dλ
n
ź
Ln px1 , . . . , xn , θq :“
fθ pxi q.
i“1
Die Funktion Ln wird Likelihood-Funktion genannt.
Definitionen 8.22 ((Maximum-Likelihood-Methode, Fortsetzung)). Die j-te Komponente
`
˘
ML
x
θj n , j “ 1, . . . , d, des d-dimensionalen zufälligen Vektors Tn X pnq mit Tn : Rn Ñ Rd nennt
man Maximum-Likelihood-Schätzer für den Parameter θj , die j-te Komponente von θ,
wenn für alle px1 , . . . , xn q P pWX qn gilt
Tn px1 , . . . , xn q P arg max Ln px1 , . . . , xn , θq.
θPΘ
Anmerkungen 8.23 (und Definition).
(1) Für jedes ω P Ω und damit jede Realisierung px1 , . . . , xn q “ pX1 pωq, . . . , Xn pωqq der
mathematischen Stichprobe X pnq liefert der Vektor der Maximum-Likelihood-Schätzer
denjenigen Wert θp “ Tn px1 , . . . , xn q als Schätzwert für θ, der die Realisierung genau
dieser Stichprobe am wahrscheinlichsten macht.
(2) Ist die Likelihood-Funktion differenzierbar, so erfüllt der Vektor der Maximum-Likelihood-Schätzer die sogenannten Maximum-Likelihood-Gleichungen
B log Ln px1 , . . . , xn , θ1 , . . . , θd q
“ 0 für j “ 1, . . . , d.
Bθj
96
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Beispiel 8.24. Gegeben sei eine normalverteilte Grundgesamtheit X „ N pµ; σ 2 q,
θ “ pθ1 , θ2 qT “ pµ, σ 2 qT , Θ “ R ˆ p0, 8q Ď R2 . Dann sind
n
ML
x
θ1 n “ X n
und
˘2
ML
1 ÿ`
x
θ2 n “
Xi ´ X n
n i“1
die Maximum-Likelihood-Schätzer für θ1 und θ2 und stimmen mit den Momentenschätzern
überein. Folglich sind
´ M L¯
´ M L¯
x
x
θ1 n
und
θ2 n
nPN
nPN
stark konsistente Folgen von Schätzern. Während
n´1 2
Sn nur asymptotisch erwartungstreu.
n
ML
x
θ1 n
ML
erwartungstreu ist, ist x
θ2 n “
Herleitung: Es ist X „ N pµ; σ 2 q mit µ P R und σ 2 ą 0. Folglich ist θ “ pθ1 , θ2 qT “ pµ, σ 2 qT
und Θ “ R ˆ p0, 8q. Die zugehörige Dichtefunktion ist
*
"
1
px ´ θ1 q2
fθ pxq “ ?
.
exp ´
2θ2
2πθ2
Als Likelihood-Funktion ergibt sich
Ln px1 , . . . , xn , θ1 , θ2 q “
n
ź
#
fθ pxi q “ p2πθ2 q
i“1
´n
2
n
1 ÿ
exp ´
pxi ´ θ1 q2
2θ2 i“1
bzw. als Log-Likelihood-Funktion
n
1 ÿ
n
pxi ´ θ1 q2 .
ln Ln px1 , . . . , xn , θ1 , θ2 q “ ´ lnp2πθ2 q ´
2
2θ2 i“1
Aus
n
B
1 ÿ
!
pxi ´ θ1 q “ 0
ln Ln px1 , . . . , xn , θ1 , θ2 q “
Bθ1
θ2 i“1
ergibt sich
n
θ1 “
1ÿ
xi
n i“1
als Lösung und somit ist
ML
x
θ1 n “ X n “ Mnp1q
der Maximum-Likelihood-Schätzer für θ1 . Aus
n
B
n
1 ÿ
!
ln Ln px1 , . . . , xn , θ1 , θ2 q “ ´
` 2
pxi ´ θ1 q2 “ 0
Bθ2
2θ2 2θ2 i“1
97
+
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
ergibt sich
n
1ÿ
pxi ´ θ1 q2
θ2 “
n i“1
als Lösung und somit ist
n
˘2
`
˘2 n ´ 1 2
ML
1 ÿ`
x
Xi ´ X n “ Mnp2q ´ Mnp1q “
Sn
θ2 n “
n i“1
n
der Maximum-Likelihood-Schätzer für θ2 .
Beide Konstruktionsmethoden liefern also in diesem Fall dasselbe Resultat.
´ M L¯
´ M L¯
Die starke Konsistenz der Folgen x
θ1 n
und x
θ2 n
folgt unmittelbar aus Beispiel
nPN
nPN
8.11.
ML
Ebenfalls aus Beispiel 8.11 folgt die Erwartungstreue von x
θ1 .
n
Nach Beispiel 8.12 ist die Stichprobenstreuung Sn2 eine erwartungstreuer Schätzer für gpθq “
Varθ pXq “ θ2 . Folglich gilt
ˆ
˙
´ M L¯
n
´
1
n ´ 1 ` 2˘ n ´ 1
2
Eθ x
θ2 n
“ Eθ
Sn “
Eθ Sn “
θ2
n
n
n
ML
und x
θ2 n ist ein asymptotisch erwartungstreuer Schätzer für θ2 .
8.3
Bereichsschätzungen von Parametern
Anmerkung 8.25. Die Genauigkeit einer Punktschätzung kann z.B. mit Hilfe der Varianz
des Schätzers bzw. des mittleren quadratischen Fehlers quantifiziert werden.
Explizitere Aussagen dazu können getroffen werden, wenn statt einer Punktschätzung eine
Bereichsschätzung durchgeführt wird.
Aus mathematischer Sicht ergibt sich dabei die im Allgemeinen nicht einfach zu lösende
Aufgabe, Funktionen der mathematischen Stichprobe zu bestimmen, für die eine bekannte,
von weiteren unbekannten Parametern nicht abhängige Verteilung berechenbar ist.
Definition 8.26. Ein Konfidenzintervall (auch Vertrauensbereich) ist ein in Lage
und/oder Breite zufälliger Bereich, der den unbekannten (reellen) Parameter θ mit Wahrscheinlichkeit 1 ´ α überdeckt. Der Wert 1 ´ α wird Konfidenzniveau genannt.
Anmerkungen 8.27.
• Typische Werte für α sind 0.05, 0.1 oder 0.01.
• Man unterscheidet drei Arten von Konfidenzintervallen:
– zentral oder beidseitig begrenzt (θ̂n;α{2 ď θ ď θ̂n;1´α{2 );
98
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
– einseitig, oben begrenzt (θ ď θ̂n;1´α );
– einseitig, unten begrenzt (θ̂n;α ď θ).
Anmerkung 8.28. Für normalverteilte Grundgesamtheiten spielen sowohl bei Konfidenzintervallen, als auch bei statistischen Tests neben der χ2 -Verteilung auch die t-Verteilung,
die auch Student- oder Gosset-Verteilung genannt wird, eine große Rolle.
Die Dichtefunktion einer t-verteilten Zufallsgröße mit dem Parameter n P N ( Anzahl der
”
Freiheitsgrade“) ist
˘ ˆ
`
˙´ n`1
2
Γ n`1
x2
2` ˘
1
`
, x P R.
f pxq “ ?
n
nπ Γ n2
Sind X1 , . . . , Xn unabhängige und identisch normalverteilte Zufallsgrößen mit Parametern
µ P R und σ 2 ą 0 , dann ist die Zufallsgröße
Xn ´ µ?
n
Y :“
Sn
t-verteilt mit n ´ 1 Freiheitsgraden.
Satz 8.29. Für eine normalverteilte Grundgesamtheit mit unbekannten Parametern µ P R
und σ 2 ą 0 sind die zweiseitigen Konfidenzintervalle
Sn
Sn
X n ´ ? tn´1;1´α{2 ď µ ď X n ` ? tn´1;1´α{2
n
n
bzw.
pn ´ 1qSn2
pn ´ 1qSn2
2
ď
σ
ď
.
χ2n´1;1´α{2
χ2n´1;α{2
Dabei sind tn´1;γ bzw. χ2n´1;γ jeweils γ-Quantile der t- bzw. χ2 -Verteilung mit n ´ 1
Freiheitsgraden.
8.4
Statistische Tests
Anmerkung 8.30. Ein statistischer Test ist ein Verfahren zur Überprüfung einer statistischen Hypothese (eine Behauptung über Eigenschaften von Zufallsgrößen, z.B. etwa über
einen Parameter der Verteilung) auf der Basis einer Stichprobe.
Das Vorgehen dazu soll an einem kleinen Beispiel erläutert werden.
Beispiel 8.31 ((Abfüllmenge Waschmittelpackungen)). Bei einem Verbrauchertest für Waschmittel werde auch die Abfüllmenge kontrolliert. Dabei ergaben sich bei 10 zufällig ausgewählten 5 kg Packungen einer bestimmten Sorte folgende Abfüllmengen (in kg):
4.6 , 4.95 , 4.8 , 4.9 , 4.75 , 5.05 , 4.9 , 5.1 , 4.85 , 4.95 .
Ist auf der Basis dieser Beobachtungswerte die Auffassung vertretbar, dass die Packungen
im Mittel weniger Waschmittel als angegeben enthalten ?
99
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
• Wir modellieren die tatsächliche Abfüllmenge (in kg) einer Waschmittelpackung als
Zufallsgröße X , die als normalverteilt mit unbekannten Parametern angenommen
wird.
• Berechnete Schätzwerte für den Erwartungswert, die Standardabweichung und die Varianz der Merkmalsgröße sind:
x “ 4.885 ,
s “ 0.145 ,
s2 “ 0.0211 .
• Zu überprüfen ist eigentlich die Richtigkeit der Vermutung, dass der Erwartungswert
kleiner ist als der Sollwert µ0 “ 5 . Dies kann aber nicht einfach aus der Tatsache
x “ 4.885 ă 5 “ µ0
gefolgert werden, da die auftretenden zufälligen Schwankungen berücksichtigt werden
müssen.
• Aus mathematischen Gründen ist die direkte Überprüfung nicht möglich, deshalb wird
geprüft, ob der Erwartungswert gleich dem Sollwert µ0 “ 5 ist, oder ob man im
Gegensatz dazu von einem kleineren Erwartungswert ausgehen kann (muss).
Testablauf Beispiel Waschmittelpackungen I
1. Aufstellen der Hypothesen H0 : µ “ 5 H1 : µ ă 5
2. Festlegen des Signifikanzniveaus α α “ 0.05
3. Auswahl der Testgröße (Prüfgröße) T
T “
X ´ µ0 ?
n,
S
unter H0 besitzt diese Zufallsgröße eine t´Verteilung mit n ´ 1 Freiheitsgraden. Im
x ´ µ0 ?
4.885 ´ 5 ?
Beispiel ist t “
n“
10 “ ´2.508 .
s
0.145
Testablauf Beispiel Waschmittelpackungen II
4. Festlegung des kritischen Bereiches K
K “ tt P R : t ă tn´1;α u “ p´8; t9;0.05 q “ p´8; ´t9,0.95 q
K “ p´8, ´1.833q .
100
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
5. Entscheidung t “ ´2.508, K “ p´8, ´1.833q ñ t P K , die Hypothese H0
wird abgelehnt (verworfen) und die Auffassung ist vertretbar, dass die Packungen im
Mittel weniger Waschmittel als angegeben enthalten.
Man kann auch sagen: die Abfüllmengen sind signifikant zu gering.
Ausblick: Module, die auf der Grundvorlesung Stochastik aufbauen
• Stochastische Finanzmarktmodelle
– Teil 1, ungerade WS, 5.Mm+5.BWM
– Teil 2, gerade SS, 6.Mm+6.BWM
• Angewandte Statistik
– Teil 1, ungerade WS, 5.Mm+5.BWM
– Teil 2, gerade SS, 6.Mm+6.BWM
• Finanz- und Versicherungsmathematik
(gerade SS, 6.Mm+6.BWM+2.MWM)
• Stochastische Prozesse
– Stochastische Prozesse, gerade WS, 5.Mm+5.BWM
– Stochastische Analysis, ungerade SS, 6.Mm+6.BWM
• Zeitreihenanalyse in den Wirtschaftswissenschaften, SS, BWM
Ausblick: Module für die weitere Vertiefung
• Stochastische Geometrie und räumliche Statistik
– Stochastische Geometrie, ungerade WS, 7.Mm
– Räumliche Statistik, gerade SS, 8.Mm
• Theoretische Statistik
– Schätz- und Testtheorie, gerade WS, 7.Mm+1.MWM
– Asymptotische und algorithmische Statistik, ungerade SS, 8.Mm+2.MWM
• Statistische Analysemethoden für Mathematiker
– Multivariate Statistik, gerade WS, 7.Mm+1.MWM
– Zeitreihenanalyse, ungerade SS, 8.Mm+2.MWM
• Aktuelle Themen aus der Stochastik, WS, Mm
101
TU Bergakademie Freiberg
Wahrscheinlichkeitstheorie
Sommersemester 2017
Inhaltsverzeichnis
0 Organisatorisches
2
1 Grundbegriffe
1.1 Ereignisse und Wahrscheinlichkeiten .
1.2 Klassische Wahrscheinlichkeitsräume
1.3 Bedingte Wahrscheinlichkeiten . . . .
1.4 Unabhängigkeit . . . . . . . . . . . .
1.5 Zufallsvariable und Verteilung . . . .
1.6 Zufallsgrößen . . . . . . . . . . . . .
1.7 Zufallsvektoren . . . . . . . . . . . .
1.8 Unabhängigkeit von Zufallsvariablen
1.9 Symmetrie . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
6
6
8
10
11
15
19
21
2 Kenngrößen für Zufallsgrößen
2.1 Erwartungswert . . . . . . . . . . . .
2.2 Momente . . . . . . . . . . . . . . . .
2.3 Variabilitätskenngrößen . . . . . . . .
2.4 Schiefe und Wölbung . . . . . . . . .
2.5 Kovarianz und Korrelationskoeffizient
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
22
26
29
32
33
.
.
.
.
37
37
38
39
40
.
.
.
.
.
.
.
.
.
41
42
42
43
44
45
46
48
49
51
.
.
.
.
53
53
55
56
58
3 Transformationen von Zufallsgrößen
3.1 Die Verteilungsfunktion unter Transformationen . . .
3.2 Transformationssatz für Dichten . . . . . . . . . . . .
3.3 Summen unabhängiger Zufallsgrößen . . . . . . . . .
3.4 Minimum und Maximum unabhängiger Zufallsgrößen
4 Ausgewählte diskrete Verteilungen
4.1 Einpunktverteilung . . . . . . . . .
4.2 Zweipunktverteilung . . . . . . . .
4.3 Bernoulli-Verteilung . . . . . . .
4.4 Gleichverteilung . . . . . . . . . . .
4.5 Hypergeometrische Verteilung . . .
4.6 Binomialverteilung . . . . . . . . .
4.7 Geometrische Verteilung . . . . . .
4.8 Negative Binomialverteilung . . . .
4.9 Poisson-Verteilung . . . . . . . . .
5 Ausgewählte stetige Verteilungen
5.1 Gleichverteilung . . . . . . . . . . .
5.2 Cauchy-Verteilung . . . . . . . . .
5.3 Normalverteilung . . . . . . . . . .
5.4 Mehrdimensionale Normalverteilung
.
.
.
.
.
.
.
.
.
.
.
.
.
102
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
TU Bergakademie Freiberg
5.5
5.6
5.7
5.8
5.9
5.10
5.11
Wahrscheinlichkeitstheorie
Logarithmische Normalverteilung
Exponentialverteilung . . . . . . .
Gammaverteilung . . . . . . . . .
Erlang-Verteilung . . . . . . . .
Chi-Quadrat-Verteilung . . . . . .
Weibull-Verteilung . . . . . . .
Rayleigh-Verteilung . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Sommersemester 2017
.
.
.
.
.
.
.
62
63
64
66
66
67
68
6 Bedingte Verteilungen und bedingte Erwartungswerte
6.1 Zufälliges Ereignis mit positiver Wahrscheinlichkeit als Bedingung . . . . . .
6.2 Höchstens abzählbare Zerlegung als Bedingung . . . . . . . . . . . . . . . . .
6.3 Teil-Sigma-Algebra als Bedingung . . . . . . . . . . . . . . . . . . . . . . . .
69
69
70
72
7 Grenzwertsätze
7.1 Charakteristische Funktionen . .
7.2 Konvergenzbegriffe für Folgen von
7.3 Gesetze der großen Zahlen . . . .
7.4 Zentrale Grenzwertsätze . . . . .
.
.
.
.
77
77
82
86
87
.
.
.
.
88
88
91
98
99
. . . . . . . .
Zufallsgrößen
. . . . . . . .
. . . . . . . .
8 Elemente der mathematischen Statistik
8.1 Einige Grundbegriffe . . . . . . . . . . .
8.2 Punktschätzungen von Parametern . . .
8.3 Bereichsschätzungen von Parametern . .
8.4 Statistische Tests . . . . . . . . . . . . .
103
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Herunterladen