SS08 Wahrscheinlichkeit und Risiko

Werbung
SS08 Wahrscheinlichkeit und Risiko
9. November 2008
Inhaltsverzeichnis
1 Grundlagen der Wahrscheinlichkeitstheorie
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
1.1
Einführung:
1.2
statistische Wahrscheinlichkeit:
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Klassische Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4
Mengentheoretische Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
1.5
Axiomatik der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . .
5
1.6
Theoreme aus den Axiomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.7
Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.8
Stochastische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.9
Totale Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2 Zufallsvariablen
13
2.1
Verteilungsfunktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.2
Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.3
Stetige Zufallsvariablen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
2.4
Erwartungswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.5
Varianzen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
2.6
Standardisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.7
Tschebysche Ungleichung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.8
Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
2.9
Momenterzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.10 Dichtetransformationstheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.11 Median, Quantile
25
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Stochastische Modelle und spezielle Verteilungen
25
3.1
Verteilungen mit diskreten Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . .
25
3.2
Bernoulli-Verteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
3.3
Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
3.4
Poissonverteilung
27
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Titel Inhaltsverzeichnis
3.5
Hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
3.6
Gleichförmige Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3.7
Geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3.8
Verteilungen mit stetigen Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . .
29
3.9
Rechteckverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
3.11 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
3.10 Exponentialverteilung
4 mehrdimensionale Zufallsvariablen
4.1
4.2
4.3
31
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
4.1.1
Von der gemeinsamen W'keitsfunktion zur gemeinsamen Verteilungsfunktion .
33
4.1.2
Von der Wahrscheinlichkeitsfunktion/Dichtefunktion zur Verteilungsfunktion .
34
Stochastische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
Randverteilungen
35
Gemeinsame Verteilung
4.3.1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Erwartungswert und Varianz
. . . . . . . . . . . . . . . . . . . . . . . . . .
36
4.4
Bedingte Verteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
4.5
Allgemeiner Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
4.6
Kovarianz und Korrelationskoezient . . . . . . . . . . . . . . . . . . . . . . . . . .
39
4.7
Summe von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
4.8
Erweiterung auf den n-Variablen-Fall
. . . . . . . . . . . . . . . . . . . . . . . . . .
40
4.9
Bivariate Normalverteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
2
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
1 Grundlagen der Wahrscheinlichkeitstheorie
1.1 Einführung:
bisher: rein deskriptive Analyse, keine Erklärung des Daten generierenden Prozesses (DGP)
DGP: bestimmte Wahrscheinlichkeit für das Auftreten von Ereignissen
Ziele:
•
ökonomische Modellierung
•
Bestimmung DPG
•
Erklärungen für Daten
•
Prognosen
•
Hypothesentest
Beispiele:
•
1mal Münze werfen und Kopf kommt; W.keit: 0,5
•
Würfeln und 6 kommt; W.keit:
•
VfB wird Fuÿballmeister; W.keit: ?
•
Portfolio wird morgen 10% weniger Wert sein
•
BIP steigt um 5%
•
Kreditnehmer John Doe zahlt nicht zurück
1
6
2 Sichtweisen auf die Wahrscheinlichkeitsrechnung
Tabelle 1: Titel
klassische Frequentisten
Bayesianisch
objektiv
subjektiv
Konzeptioneller Rahmen: Zufallsexperiment
Wahrscheinlichkeit=Quantizierung der Stärke
von Hypothesen
→mögliche
Ergebnisse bekannt
→Ereignisse
= Wahrscheinlichkeiten werden
angepasst
→konkretes
Ergebnis des Versuchs nicht bekannt
a-priori Wahrscheinlichkeiten
→
a-posteriori
Wahrscheinlichkeiten
→Experiment
wiederholbar unter gleichen
Bedingungen
3
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
Denitionen
Ereignisraum S: Menge der möglichen Ereignisse des Experiments
Elemente von S: Elementarereignisse
Beispiele:
2x Münzwurf S=KK,KZ,ZK,ZZ wobei in der Klammer die Elementarereignisse stehen
Werfen der Nadel auf liniertes Papier und Messen des Winkels zu einer Linie
S = α/0 ≤ α ≤ 180
wobei die messbaren Winkel die Elementarereignisse sind
→es existiert ein diskreter (endlich viele Elementarereignisse [abzählbar unendlich viele Ereinisse])und
ein stetiger (unendlich viele Elementarereignisse [überabzählbar viele Ereignisse]) Ereignisraum
Ereignis A:Teilmenge des Ereignisraums S
A=mindestens einmal Kopf A=KK,KZ,ZK A⊂S
Besondere Ereignisse:
unmögliches Ereignis:
sicheres Ereignis: S
Ereignis wieder in Menge zusammengefasst:
Ereignismenge E(S) oder einfach E
E=mind. 1x Kopf ;zweimal Zahl; keinmal Zahl =KZ,ZK,KK;ZZ;KK
Ziel: Zuordnung von Wahrscheinlichkeiten für Ereignisse aus E
1.2 statistische Wahrscheinlichkeit:
Zufallsexperiment nx durchgeführt
absHn (A)
hn (A) = absH(A)
n
Ereignis A tritt
rel.H.:
auf
Beispiel:
limn→∞ hn (A) → P(A): statistische Wahrscheinlichkeit
Die hn an sich sind also noch keine Wahrscheinlichkeiten,
sondern werden es erst durch den Grenz-
wert.
1.3 Klassische Wahrscheinlichkeit
Der Laplacsche Ereignisraum ist deniert als:
S = (e1 , ..., em ), und darin haben alle
1
P (ei ) = m
(Prinzip des unzureichenden
Elementarereignisse die gleiche Eintrittswahrscheinlichkeit
Grundes)
Auÿerdem gibt es eine endliche Zahl von Elementarereignisse.
4
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
Tabelle 2: Titel
n
absHn (Kopf )
hn (Kopf )
10
7
0,7
20
11
0,55
40
17
0,425
60
24
0,4
100
47
0,47
1000
492
0,492
5000
2515
0,503
Wenn A=Ereignis und damit Menge von elementarereignissen:
g
P (A) = AnzahlElementeinA
AnzahlElementeinS = m =Wahrscheinlichkeit
⇒ Kombinatorik hilft bei der Berechnung
1.4 Mengentheoretische Konzepte
Vereinigung
A ∪ B:
Das Ereignis A oder B tritt genau dan nein, wenn Ereignis A oder ereignis B
oder beide zugleich eintreten.
Bsp.: A=Augenzahl≥ 4=4,5,6; B=Augenzahl gerade=2,4,6
Durchschnitt
→ A ∪ B = 2, 4, 5, 6 → P (A ∪ B) =
4
6
A∩ B: Das Ereignis A und B tritt genau dann ein, wenn Ereignis A und Ereignis
B zugleich eintreten.
Bsp.: Ereignisse oben
→ A ∩ B = 4, 6 → P (A ∩ B) =
Negation A: Das Ereignis Nicht A
Bsp.: Ereignis oben
2
6
tritt genau dann ein, wenn A nicht eintritt.
→ A = 1, 2, 3
Dierenz A/B: Das Ereignis A ohne B
Bsp.: Ereignisse oben
→
tritt genau dann ein, wenn zwar A aber nicht B eintritt.
A/B=5
Komplementäres Ereignis: S/A ist das zu A komplementäre Ereignis (Vgl. Negation)
Disjunktes Ereignis: Zwei Ereignisse A und B heiÿen disjunkt wenn A∩ B=leere Menge
1.5 Axiomatik der Wahrscheinlichkeitstheorie
Funktion:
P : E → R; A → P (A)
(jedem A∈ E wird eine reelle Zahl zugeordnet, die die Wahrscheinlichkeit
angibt)
5
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
Folgende drei
•
Axiome müssen jedoch erfüllt sein:
Axiom K1:
P (a) ≥ 0
für jedes A=E.
Die Wahrscheinlichkeit P(A) jedes Ereignisses A ist eine nichtnegative reelle Zahl
•
Axiom K2: P(S)=1
Das sichere Ereignis hat die Wahrscheinlichkeit 1
•
Axiom K3: P(A∪ B)=P(A)+P(B), falls A∩ B=leeres Menge
Additionsregel für disjunkte Ereignisse
•
Axiom K3*:
P (A1 ∪ A2 ∪ ...) = P (A1 ) + P( A2 ) + ...
eine unendliche Folge von paarweise disjunkten Ereignissen
Kolmogorovs Ereignisraum:
E muss abgeschlossen sein, d.h.
A∈ E, dann auch
A∈E
S∈ E
alle vereinigten A∈ E
(S,E,P(*)) heiÿt Kolmogorovscher Wahrscheinlichkeitsraum, wobei S=Ereignisraum, E=abgeschlossener
Ereignisraum, P=Wahrscheinlichkeitsmaÿ
Wenn E Anforderungen erfüllt: Sigma-Algebra (kleinste Sigma-Algebra: E=S;leeres menge
1.6 Theoreme aus den Axiomen
Theorem 1:
P(A)=1-P(A)
A und
A
sind disjunkt und ihre Vereinigung=S.
Nach K3 ist P(A∪A)=P(A)+P(A)=P(S)=1
Damit ist P(A)=1-P(A)
Theorem 2:
P(unmögliches Ereignis)=0
Unmögliches ereignis und S sind komplementäre Ereignisse. Nach K2 ist P(S)=1 und nach Theorem 1 ist dann P(S )=P(unmögliches Ereignis)=1-P(S)=1-1=0
Theorem 3
A1 , A2 , ..., An sind paarweise
disjunkt:
P
P (A1 ∪ A2 ∪ ...An ) = P (Aj )
Beweis durch vollständige Induktion von K3
6
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
Theorem 4
P(A/B)=P(A)-P(A∩ B)
Theorem 5
Additionssatz für beliebige Ereignisse:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
A ∩ B 6= 0
A ∪ B : (A/B) ∪ (A ∩ B) ∪ (B/A)
P (A ∪ B) = P (A/B) + P (A ∩ B) + P (B/A)
P (A) = P (A ∩ B) + P (A/B)undP (B) = P (A ∩ B) + P (B/A)
Gilt auch wenn
Nach K3 gilt:
einsetzen ergibt
P (A ∪ B) = P (A) − P (A ∩ B) + P (A ∩ B) + P (B) − P (A ∩ B) = P (A) + P (B) − P (A ∩ B)
Additionssatz für drei beliebige Ereignisse:
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
Theorem 6
Monotonieeigenschaft des Wahrscheinlichkeitsmaÿes:
A ⊂ B ⇒ P (A) ≤ P (B)
1.7 Bedingte Wahrscheinlichkeit
Denition: Bedingte Wahrscheinlichkeit:
Die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung dass Ereignis B eingetreten ist (oder gleichzeitig mit A eintritt heiÿt bedingte Wahrscheinlichkeit von A unter der Bedingung
B.
Seien A und B zwei Ereignisse eines gegebenen Wahrscheinlichkeitsraums. Die bedingte Wahrscheinlichkeit ist dann deniert als:
P(A!B):=
P (A∩B)
P (B) für 0<P(B);P(A∩ B);P(A!B)<1
Möglichkeiten für A∩ B siehe eigene Anlage.
Tabelle 3: Zwei Interpretationen
klassisch-frequentistisch
bayesianisch-subjektiv
Einschränkung des Ereignisraum S auf
Veränderung (Update) durch subjektive
Elementarereignisse, die den Eintritt von B
Wahrscheinlichkeit durch Eintritt B
implizieren
zeitliche Abfolge
B: Würfel≥
4→
Ereignisraum dann 4,5,6
7
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
Beispiel 1:
gleichzeitiger Münzwurf und Würfelwurf
B: Münze zeigt Kopf
A: Zahl
≥
4
P(A!B)=P(A!B )=P(A)=
1
2
Beispiel 2:
B: 10x hintereinander rot beim Roulette
A: beim elften Mal kommt auch rot
P(A!B)=P(A)=
18
37
Beispiel 3
einmaliger Würfelwurf
S=(1,2,3,4,5,6)
B =(12)
B: Zahl > 2 =(3,4,5,6) und
A: Zahl
≥
4 =(4,5,6)
Berechnung nach Denition:
P(B)=
4
6
3
6
P (A∩B)
P(A!B)=
P (B)
P(A∩ B)=
=
3
6
:
4
6
=
3
4
Direkte Berechnung
Einschränkung von S auf Elemente bei denen B eintritt:
B=(3,4,5,6)=SB ; (1,2) fällt weg
SB =(4,5,6)
AnzahlAinSB
= 43
SB
A=(4,5,6); A in
P(A!B)=
1.8 Stochastische Unabhängigkeit
Denition:
Zwei Ereignisse A und B heiÿen stochastisch unabhängig oder kurz unabhängig wenn:
P(A!B)=P(A) oder P(B!A)=P(B)
Gilt dies nicht heiÿen sie stochastisch abhängig.
Multiplikationssätze der Wahrscheinlichkeitsrechnung:
•
bei stochastischer Abhängigkeit gilt:
•
P(A∩ B)=P(A)*P(B!A)
•
P(B∩ a)=P(B)*P(A!B)
8
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
•
bei stochastischer Unabhängikeit gilt:
•
P(A∩ B)=P(A)*P(B) bzw. P(B∩ A)=P(B)*P(A)
Implikationen daraus
P (A∩B)
P (B)
P (A)∗P (B)
P (B)
•
P(A!B)=
•
damit gilt auch für P(B!A)=P(B)
=
= P (A)
NICHT VERWECHSELN:
Wenn A und B sich ausschlieÿen (disjunkt) gilt:
P(A∪ B)=P(A)+P(B)
Wenn A und B stochastisch unabhängig gilt:
P(A∩ B)=P(A)*P(B)
Damit impliziert weder stochastische Unabhängigkeit dass zwei Ereignisse disjunkt sind, noch dass
zwei disjunkte Ereignisse stochastisch unabhängig sind.
1.9 Totale Wahrscheinlichkeit
Vorraussetzungen für das folgende Kapitel sind:
P(A∪ B)=P(A)+P(B) wenn A∩ B=φ
P (A1 ∪ A2 ... ∪ An ) = P (A1 ) + P (A2 ) + ... + P (An )
wenn
Ai ∩ Aj = φ
P (A∩B)
P(A/B)=
P (B)
P(A∩ B)=P(A/B)*P(B) bzw. P(B/A)*P(A)
Denition Partition
Irgendwelche n Ereignisse A, die sich gegenseitig ausschlieÿen, aber zusammengenommen den Ereignisraum ganz ausfüllen, also:
Ai ∩ Aj = φ für i 6= j und
A1 ∪ A2 ∪ ... ∪ An = S
Schaubild siehe Anhang
Herleitung der totalen Wahrscheinlichkeit:
E = (E ∩ A1 ) ∪ (E ∩ A2 ) ∪ (E ∩ A3 )...(E ∩ A6 ) = φ ∪ φ ∪ (E ∩ A3 ) ∪ (E ∩ A4 ) ∪ (E ∩ A5 ) ∪ φ
Die Elemente oben schlieÿen sich gegenseitig aus
P
P (E) = P (E ∩ A1 ) + P (E ∩ A2 ) + P (E ∩ A3 )... = ni=1 P (E ∩ Ai ) oder P
P (E) = P (E/A1 ) ∗ P (A1 ) + P (E/A2 ) ∗ P (A2 ) + ... + P (E/An ) ∗ P (An ) = ni=1 P (E/Ai ) ∗ P (Ai )
Beispiel:P (E) = 0 + 0 + P (E ∩ A3 ) + P (E ∩ A4 ) + P (E ∩ A5 ) + 0
Rechenbeispiel:Ein
Würfel und ein Schrank mit drei Schubladen
Schublade Sch 1 enthält 14 weiÿe und sechs schwarze Kugeln. Schublade Sch 2 enthält 2 weiÿe und
8 schwarze Kugeln. Schublade 3 enthält 3 weiÿe und 7 schwarze Kugeln.
9
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
1. Stufe:
Zuerst wird gewürfelt. Erscheint auf dem Würfel eine Zahl kleiner als 4, wird Schublade Sch 1 ausgewählt; erscheint eine 4 oder 5, wird Schublade Sch 2 gewählt; andernfalls Schublade Sch 3.
2. Stufe:
Danach wird aus der so gewählten Schublade eine Kugel zufällig gezogen.
FRage:
Wie groÿ ist die totale Wahrscheinlichkeit, am Ende eine weiÿe Kugel zu ziehen?
Die totale Wahrscheinlichkeit am Ende eine weiÿe Kugel zu ziehen ist dann:
P(weiÿ)=P(weiÿ/Sch1)*P(Sch1)+P(weiÿ/Sch2)*P(Sch2)+P(weiÿ/Sch3)*P(Sch3)=(14/20)*(3/6)+(2/10)*(2/6)+
Das Bayes-Theorem
Nach der Regel für bedingte Wahrscheinlichkeiten gilt:
P (Ak /E) =
P (Ak ∩E)
P (E)
= (M ultiplikationssatz) =
In der Bayes-Statistik kennzeichnen
Ai
PnP (E/Ak )∗P (Ak )
i=1 P (E/Ai )∗P (Ai )
alternative Hypothesen. Mit E sind Ereignisse in diesen Hypo-
thesen gemeint.
P (Ai )
heiÿt die a-priori-Wahrscheinlichkeit der i-ten Hypothese (Wahrscheinlichkeit bevor E eintritt)
und
P (Ai /E) ist ihre a-posteriori-Wahrscheinlichkeit nach Kenntnis von E.
⇒ Ereignisse führen also dazu, dass Bayesianer ihre Wahrscheinlichkeiten
ändern!
Marktmikrostrukturmodell mit Satz von Bayes
An der Börse existieren Kursmakler, die zu Briefkursen (Kurse zu denen sie verkaufen) und Geldkursen
(Kurse zu denen sie kaufen) mit einer gewissen Spanne handeln. Grund ist unterschiedliches Wissen,
da es Käufer gibt, die den wahren Wert eines Papiers wissen, andere (Kursmakler eingeschlossen)
wissen ihn jedoch nicht.
Der Handel verläuft in drei Schritten:
1. Wert der Anlage wird festgestellt: einige Händler kennen den Wert, andere nicht
2. Handel ndet statt mit dem Kursmakler (uninformiert)
3. Schlussauktion: alle erfahren den Wert
Schritt 1:
Der Zustand der Welt bestimmt den Wert der Anlage:
→ hoher fundamentaler (wahrer) Wert
→ tiefer fundamentaler Wert = P_
good news
bad new
= P*
Händlertyp I efährt den wahren Wert.
Händlertyp N erfährt den wahren Wert nicht.
P(P*)=0,5; P(P_)=1-P(P*)=0,5
Kursmakler (KM) kennt den wahren Wert nicht, aber P(P*) und P(P_)
10
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
KM legt Verkaufspreis nach folgenden Regeln fest:
• P Brief ≤
• P Geld ≥
P* (Verkauf )
P_ (Ankauf )
Schritt 2:
Es wird ein Händler (H) zufällig ausgewählt (I oder N) gegeben:
P(I)=P(I/P_)=P(I/P*)
P(N)=P(N/P_)=P(N/P+)
Diese sind unabhängig vom Zustand der Welt
Numerisches Beispiel: P(I)=0,2 und P(N)=0,8
Ereignisse, Daten, die KM beobachtet:
K: ausgewählter H kauft von KM
V: ausgewählter H verkauft von KM
gegeben:
P(K/I∩ P_)=0
P(K/I∩ P*)=1
P(K/N∩ P_)=P(K/N∩ P*)=0,5
KM weiÿ nicht ob I oder N-Typ handelt.
nach K oder V revidiert der KM seine Einschätzung über die Welt. Folgende Möglichkeiten gibt
es:
P(P*/K) bzw. P(P_/K)
P(P*/V) bzw. P(P_/V)
→
bei K eher guter Tag, bei V eher schlechter Tag
Frage: Wie ändert sich die Wahrscheinlichkeit, dass ein guter Tag ist, wenn jemand kauft?
gesucht: P(P*/K) (P(P_/K)=1-P(P*/K)), analoge Vorgehensweise bei Verkauf
P(P*/K)=
P (K/P ∗)∗P (P ∗)
P (K/P ∗)∗P (P ∗)+P (K/P) ∗P (P)
=
W ahrscheinlichkeiteinesKauf samgutenT ag
totaleW 0 keitf rKauf
dabei sind P(K/P*) und P(K/P_) nicht direkt gegeben.
Berechnung dieser beiden Gröÿen:
(K∩P ∗∩N )
= P (K∩P ∗∩I)+P
P (P ∗)
Dabei ist: P (K ∩ P ∗ ∩I) = P (K/P ∗ ∩I) ∗ P (P ∗ ∩I)
=P(K/P*∩ I)*P(I/P*)*P(P*)
=P(K/P*∩ I)*P(I)*P(P*)
ebenso: P(K∩ P*∩ N)=P(K/P*∩ N)*P(N)*P(P*)
P(K/P*)=
P (K∩P ∗)
P (P ∗)
11
Titel 1 Grundlagen der Wahrscheinlichkeitstheorie
Damit gilt also: P(K/P*)=
P (K/P ∗∩N )∗P (N )∗P (P ∗)+P (K/P ∗∩I)∗P (I)∗P (P ∗)
P (P ∗)
=P(K/P*∩ N)*P(N)+P(K/P*∩ I)*P(I)
im numerischen Bsp.: 0,5*0,8+1*0,2=0,6
Daraus ergibt sich für die ursprünglich gesuchte Gröÿe
P (K/P ∗)∗P (P ∗)
P (K/P ∗)∗P (P ∗)+P (K/P )∗P (P )
0,6∗0,5
=
0,6∗0,5+0,4∗0,5 =0,6
P(P*/K)=
_
_
12
Titel 2 Zufallsvariablen
2 Zufallsvariablen
Denition Zufallsvariable:
Gegeben sei ein Wahrscheinlichkeitsraum [S, E, P(*)]. Eine Funktion:
X : S → R; e → X(e) ∈ R
die jedem Elementarereignis e eine reelle Zahl X(e) zuordnet heiÿt Zufallsvariable oder stochastische
Variable (wenn dabei zu jedem reellen r ein Ereignis
Ar ∈ E
gehört mit
Ar = [e|X(e) ≤ r])
Es handelt sich dabei immer eine Funktion die vom Ausgans eines Zufallsexperiments abhängt.
In der Wirtschaftswissenschaft ist oft S=R oder Teilmenge von R.
Beispiel als Grafik siehe anhang.
Beispiel 1:
Eine Münze werde einmal geworfen. Die Zufallsvariable X bezeichnet die Anzahl der Köpfe die bei
diesem Experiment herauskommen kann. Die so denierte Zufallsvariable kann nur zwei Werte annehmen, nämlich:
X(Zahl)=x1 =0 und X(Kopf )=x2 =1 und hat somit den
Wertevorrat
W=[0,1]. Die Abbildung auf
Zahlen darf jedoch nicht einfach zufällig, sondern muss nach Regeln gewählt werden.
Die Ereignismenge E hat die vier Ereignisse E=[, Zahl, Kopf, S]
Beispiel 2:
Zwei regelmäÿige Würfel werden geworfen. Der Ereignisraum besteht aus 36 Elementarereignissen:
S=i,j|i=1...6; j=1...6
Mehrere Zufallsvariablen lassen sich hier bilden. Bezeichne etwa X die Summe der Augenzahlen oder
Y ihre absolute Dierenz:
X(i,j):=i+j damit ist x=2,3,...12
Y(i,j):=|i
− j|
und damit ist y=0,1,2,3,4,5
Die Zufallsvariable X kann elf verschiedene ganzzahlige Werte annehmen, die Zufallsvariable Y nur
sechs.
Beispiel 3:
Ein Punkt im Innern einer Kreisäche vom Radius c werde zufällig gewählt. Bezeichnen
ξ
und
η
die
Koordinaten des Punktes in einem Koordinatensystem durch den Mittelpunkt des Kreises, kann der
Ereignisraum als:
D = [(ξ, η)|ξ, η ∈ Rundξ 2 + η 2 < c2 ]
geschrieben werden. die Zufallsvariable Z werde un deniert als der Abstand des gewählten Punktes
vom Kreismittelpunkt.
Z(ξ, η) :=
p
ξ2 + η2
Die so denierte Zufallsvariable kann nun alle reellen werte zwischen 0 und c annehmen.
Wirtschaftsrelevante Beispiele
xt+1 :
Auszahlung einer Investition in t+1
Ereignisse:
xt+1 ≤ −100000(⊂ R)
13
Titel 2 Zufallsvariablen
Einschub zum Verständnis diskreter und stetiger Variablen:
endlicher S =[e1 , e2 ...en ]
abzählbar unendlicher S :
Münzwurf solange bis K kommt: S=[K, ZK; ZZK; ZZZK;...]
Hier ist eine Idizierung möglich, d.h. man kann die Elemnte abzählen, deshalb ist auch eine Wahrscheinlichkeitszuordnung möglich:
= 12
1
P(ZK)=p2 = (daP (ZK) = P (Z) ∗ P (K))
4
1
P(ZZK)=p3 =
8
12
P(Z...ZK)=pi =
2
P
∞
Damit ist P(S)=
j=1 P (pj ) = 1
P(K)=p1
überabzählbarer unendlicher S
Elementarereignisse können nicht indiziert werden = stetiger Ereignisraum
Beispiel Nadelwurf:
S=[α|0
≤ α ≤ 180]
P (α) = 0
In diesem Fall ist
Beispiel Zahlenstrahl:
Die Wahrscheinlichkeit eine bestimmte Zahl zwischen 0 und 1 zu bekommen:
S=[a|0
≤ a ≤ 1]
S ist also stetig, dehsalb werden die Wahrscheinlichkeiten Intervallen zugeordnet, z.B.:
A=[a|a<0,4]; B=[a|0,6<a<0,9]; C=[a|a>0,8]
Die zugeordneten Wahrscheinlichkeiten: P(A)=0,4; P(B)=0,3 und P(C)=0,2
Nun kann man auch normal rechnen: A∪ C=[a|a<0,4 oder a>0,8]=ausschlieÿende Ereignisse=P(A)+P(C)=0,4+0,2=
Denition:
Hat der Wertevorrat W⊂ R einer Zufallsvaraibeln X endlich viele oder abzählbar unendlich viele Werte
W=[x1 , x2 , ...] heiÿt sie diskret.
Besteht der Wertevorrat W⊂ R einer Zufallsvariable X aus der ganzen reelen Achse oder aus Teilintervallen W=[x|a
≤ x ≤ b]
mit
−∞ < a < b < ∞
so heiÿt sie stetig. Ihr Wertevorrat hat dann
überabzählbar unendlich viele Werte.
Sezialfall:
binäre Zufallsvariablen:
Dann ist der Wertevorrat uaf W=[0,1] beschränkt. Beispiele dafür sind:
wahr→ 1 und falsch→ 0
ja→ 1 und nein
→
0
14
Titel 2 Zufallsvariablen
2.1 Verteilungsfunktion
Denition:
Die Funktion
FX (x) = P (X ≤ x) =
P
xi ≤x f x(xi )
die jeder reellen Zahl x die Wahrscheinlichkeit zuordnet mit der die Zufallsvariable X einen Wert X≤ x
annimmt, heiÿt
Verteilungfunktion (distribution function, cumulative distribution/density function:
cdf ) der betreenden Zufallsvariable X.
Man muss dabei alle
fX (x)
für alle Ausprügungen der Zufallsvariablen
≤
x summieren.
Beispiel zweimaliger Münzwurf
Dabei wird (KK)→ 0, (ZK,KZ)→ 1 und (ZZ)→ 2 zugeordnet.
Damit ist
FX (0) = 41 ; FX (1) =
3
4 und
FX (2) = 1
Beispiel: Punkt im Kreisinnern
Ein Punkt im Inneren eines Kreises vom Radius c werde zufällig gewählt. Die Zufallsvariable Z sei
deniert als Abstand des Punktes vom Kreismittelpunkt.
P (Z ≤ z) =
Kreisf lche(Az )
Kreisf lche(S)
=
z2 π
c2 π
=
z2
c2
Vergleiche Schaubild S. 10 Skript
Eigenschaften von Verteilungsfunktionen
•
F(x) ist an jeder Stelle x zumindest rechtsseitig stetig:
•
F(x) ist überall monoton (nicht streng) steigend:
•
F(x) hat die Grenzwerte
•
jede Funktion die diese Bedingungen erfüllt ist eine Verteilungsfunktion
limx→−∞ F (x) = 0
und
limδx→0 F (x + δx) = F (x)
F (a) ≤ F (b)
für a<b
limx→∞ F (x) = 1
Denition:
Jede Funktion F(x) auf dem Denitiosbereich der reellen Zahlen und mit dem Wertebreich [0,1], die
die obigen drei Eigenschaften hat, heiÿt Verteilungsfunktion und deniert eine Zufallsvariable.
2.2 Diskrete Zufallsvariablen
Denition:
Ist X eine diskrete Zufallsvariable, dann heiÿt die Funktion:
f(x):=P(X=x)
die
Wahrscheinlichkeitsmassenfunktion
oder kurz Massenfunktion (=probability density functi-
on=pdf ) der Zufallsvariablen X.
Beispiel des zweimaligen Münzwurfs von vorher:
P (X = 0) = fx (0) =
P (X = 1) = fx (1) =
1
4
1
2
15
Titel 2 Zufallsvariablen
P (X = 2) = fx (2) = 12
P (X = 100) = Fx (100) = 0
Folgende Gleichungen könnte man hier auch benutzen:
( nx ) ∗ px (1 − p)n−x = P (X = x)
e−λ ∗ λx!x = P (X = x)
Eigenschaften:
• P (X = x) = fX (x) ≥ 0 (Axiom 1: W'keit>0)
P
P
•
W'keit=1)
allei fX (xi ) = 1 (Axiom 3:
• fX (xi ) ≤ 1
•
jede Funktion, die diese Bedingungen erfüllt ist eine Wahrscheinlichkeitsfunktion
Darstellung:
Die Verteilungsfunktion F(x) wird in einem Treppendiagramm zwischne 0 und 1 abgetragen.
Die Massenfunktion f(x) wird in einem Stabdiagramm zwischen 0 und 1 abgetragen.
Vergleiche Skript S. 14
2.3 Stetige Zufallsvariablen
Ausgangspunkt ist hier wieder die Verteilungsfunktion
FX (x)=P(X≤
x)
Die Eigenschaften müssen erhalten bleiben. Durch die Verteilungsfunktion sind dann W'keiten für
Ereignisse wie a<X<b berechenbar.
Beispiele: Graken siehe Anlage Nr.2-4
(1) X=Wartezeit zwischen zwei Kundenbesuchen (in Minuten)
FX (x)=
1 − e−0,1x
für x≥ 0
0 für x<0
Schaubild siehe eigene Anlage
(2) X=Wartezeit auf U-Bahn (in Minuten); fährt im 20 Minuten Takt
FX (x)=
0 für x<0
1
20 x für 0≤ x≤ 20
1 für x>20
Schaubild siehe eigene Anlage
(3) X=log Rendite Finanzanlage:
t+1
ln[ Pt+1P+d
]
t
16
Titel 2 Zufallsvariablen
RfXx (x)= 1
−∞ 2Π∗(0,01)
2
∗ exp( 21 ( u−0,001
0,01 ) )du
in Excel:=Standmomvert(
x−0,001
0,01 )
Schaubild siehe eigene Anlage
Von der Verteilungsfunktion zur Dichtefunktion
Denition:
Ist X eine stetige Zufallsvariable mit der Verteilungsfunktion F dahh heiÿt die erste Ableitung
f(x)=
d
dx F (x)
die Wahrscheinlichkeitsdichtefunktion oder kurz Dichtefunktion der Zufallsvariablen X.
Siei st keine wahrscheinlichkeitsfunktion und kann deshalb auch Werte gröÿer 1 enthalten. Man darf
sie auch nicht mit der gleichnotierten Massenfunktion für diskrete ZV verwechseln.
Beispiel (1)
FX (x) = 1 − e−0,1∗x
fX (x) = 0, 1 ∗ e−0,1∗x
für
x≥0
Beispiel (2)
fX (x) =
1
20 für
0 ≤ x ≤ 20
Was ist fX (x) mathematisch?
fX (x) =
dFX (x)
dx
X (x)
= lim∆→0 FX (x+∆)−F
∆
mit
∆ > 0 = lim∆→0 P (x<X≤x+∆)
∆
(Vergleiche Beispiel
zu a<x<b später)
Damit ist:
Wird
∆
P (x < X < x + ∆) ≈ fX (x) ∗ ∆
innitesimal klein (=d) gilt: P(x<X<x+dx)=fX (x)
∗ dx ⇒
es ist also eine gute lineare Ap-
proximation an W'keiten möglich
Was ist fX (x) visuell?
Denition ausgehend von Dichtefunktion:
fX (x) =
dFX (x)
dx
limx→−∞ FX (x) = 0 gilt auch ein Denition ausgehend von der
RDa
x
x
−∞ fX (u)du = [FX (u)]−∞ = FX (x) − limx→−∞ FX (x) = FX (x)
Visuell ergibt sich:
dass
P (X ≤ x) =
dass
P (a < x <
Verteilungsfunktion:
Rx
−∞ fX (u)du = FX (x)=Fläche unter fX (x) (Vergleiche eigene Anlage)
Rb
b) = a fX (x)dx = FX (b) − FX (a)=Teiläche unter fX (x) (Vergleiche eigene
Anlage)
(Andere Herleitung: P(x<b)=P(x<a)+P(a<x<b) (da disjunkte Ereignisse)
P(x<a)=FX (b)
⇒
P(a<x<b)=P(x<b)-
− FX (a))
Weitere Intuition: Histogramm-Analogie
Beim Histogramm ndet man auf der X-Achse die Klassen und auf der Y-Achse stehen die normierten
relativen Häugkeiten (d.h. durch Klassenbreiten geteilt). Sie stellen die dichte der Daten dar. Die
17
Titel 2 Zufallsvariablen
Fläche des Histogramm bezeichnet damit die relH.
Die gleiche Idee gilt bei der Dichtefunktion. Dort ist die Y-Achse auch nur die Dichte der Daten
(d.h. die Steigung der Verteilungsfunktion), die Fläche unter der Kurve stellt die Wahrscheinlichkeiten
dar.
2.4 Erwartungswerte
Rückblick auf EDA:
arithmetisches Mittel:
1
n
Pn
v=1 xv oder
x=
1
n
Pk
i=1 xi
∗ ni
oder
x=
Pk
i=1 xi
∗ hi
Varianz:
1
n
Pn
v=1 g(xv ) mit
g(xv ) = (xv − x)2
oder
s2 =
1
n
Pk
i=1 g(xi )
∗ ni
oder
s2 =
Pk
i=1 g(xi )
∗ hi
Denition: Erwartungswert
Sei X eine Zufallsvariable und f ihre Massen- bzw. Dichtefunktion. Ihr Erwartungswert ist deniert als
P
E(g(x)) = allei g(xi ) ∗ fX (x) falls x eine diskrete
2
wie x und xi =i-te Ausprägung der ZV
R∞
E(g(x)) = −∞ g(x) ∗ fX (x) falls x eine stetige ZV.
ZV mit g(x)=Funktion, die neue ZV generiert
E(x) ist auch der Schwerpunkt der Masseverteilung, vergleichbar dem aritmetischen Mittel.
Eine messbare Funktion ist dabei eine solche die für jedes
xi
einen Erwartungswert liefert.
Beispiele Anlage Nr.5
Verbindung Erwartungswert und arithmetisches Mittel
Für Frequentisten gilt:
P (X = xi ) = limn→∞ relHn (X = xi )
, d.h. geht die Anzahl der Zufallsexperimente gegen
∞,
dann konvergiert die relH gegen die Wahr-
scheinlichkeit.
Konkret: können wir ein bestimmtes Experiment wie z.B. ein Binomialexperiment (10 BernoulliExperimente mit p=0,1) beliebig oft durchführen dann nähert sich hier das arithmetische Mittel
an die Wahrscheinlichkeit (hier 1) an:
E(x)=arithmetisches Mittel bei unendlicher Wdh. eines Zufallsexperiments
Beispiel aus der Ökonomie:
Klassisches Beispiel ist die Entscheidung zwischen 2Äpfel und 1Birne oder 3Äpfeln, also u(2Ä,1B) im
Vergleich zu u(3Ä)
Wie ist dieses Beispiel auch unter Risiko nutzbar?
Man geht dann von Güterbündeln auf Vermögen über:
U(Vermögen)=Vermögensnutzenfukntion=
1
1−γ oder U(V)=lnV
1−γ V
U ist immer nur vergleichbar, d.h. U(10000)<U(100000) und zeigt Präferenzen.
Man kann entscheiden zwischen Z=10000 sicher oder das Risiko zwischen x=1 mit P(X=1)=0,9
und x=100000 mit P(x=100000)=0,1 mit u(V)=lnV
18
Titel 2 Zufallsvariablen
Nach den Axiomen von Neumann/Morgenstern ist der Nutzen bei Risiko: E(u(X)):
U(10000)=ln(10000)=9,2
E(ln(x))=ln(1)*0,9+ln(100000)*0,1=1,15
Da 9,2>1,15 präferiert der Investor die sichere Auszahlung
Weiter Beispiele (grasch) siehe eigene Anlage
Intuition:
E(x) ist eine mathematische Operation, d.h. ein Ergebnis existiert möglicherweise nicht im Gegensatz
zum aritmetischen Mittel.
Als Beispiel dient die Canchy-Verteilung
fX (x) =
1
. Hier strebt das Integral von
Π(1+x2 )
−∞
bis
∞
gegen keinen endlichen Wert.
Erwartungswerte wichtiger Zufallsvariablen
a) Bernoulli-ZV X∼ Be(p)
(
p
x=1
f (x) =
1−p x=0
X
E(x) =
xi ∗ fx (xi ) = 1p + 0(1 − p) = p
(1)
(2)
allei
b) Binomialverteilte ZV
E(x) =
n
X
x=0
n x
x∗
p (1 − p)n−x = n ∗ p
x
(3)
Interpretation.
für p=0,5, n=10, E(x)=5
Schwerpunkt der W'keitsmasse liegt bei 5
Im Mittel (bei unendlicher Wdh. des Binomialexperiment) gibt es 5 Erfolge bei 10 Versuchen
FALSCH: Bei 10 Versuchen mit p=0,5 erwarten wir 5 Erfolge
c) Poissonverteilte ZV X∼ Po(X)
E(x) =
∞
X
x ∗ e−λ ∗
x=0
λx
= λ(n ∗ p)
x!
(4)
Interpretation: Po(λ) approx. B(n,p)
für
n→∞
und
p→0
gilt: n*p=λ da:
E(x)=n*p für B(n,p)
E(x)=λ für Po(λ)
d) hypergeometrisch verteilte ZV
Die Binomialverteilung kann als Grenzverteilung der hypergeometrischen Verteilung gesehen werden:
fHy (x;N,p,n)→N →∞ fBi (x, p, n).
19
Titel 2 Zufallsvariablen
Deshalb gilt:
E(X)=n*p
e) geometrische Verteilung
fGeo (x, p) = (1 − p)x p
E(X) = (1−p)
p
f) Rechteckverteilte ZV (gleichverteilt) X∼R(a,b)
f (x) =


0
x<a
a≤x≤b
x>b
1
 b−a

0
b
Z
x∗
E(X) =
a
(5)
1
1
b2
a2
1 (b − a) ∗ (b + a)
1
dx = [x2 ∗
]ba =
−
= ∗(
) = (b+a)
b−a
2(b − a)
2(b − a) 2(b − a)
2
b−a
2
(6)
g) exponentialverteilte ZV X∼Ex(λ)
Z
∞
E(x) =
x ∗ λ ∗ e−λ∗x dx =
0
1
λ
(7)
h) normalverteilte ZV X∼N(µ, σ 2 )
Z
∞
x∗ √
E(x) =
−∞
1
2Πσ 2
∗e
2
−1
∗( x−µ
)
2
σ2
dx
(8)
E(x)=µ
g) Problemfall: Cauchy
f (x) =
1
Π(1+x2 )
Zwar ist die Dichte =1, aber:
Z
∞
x∗
E(x) =
−∞
1
1
1
∗
dx = [ ln(1 + x2 )]∞
0 =∞
Π (1 + x2 )
2Π
(9)
Diese Verteilung sieht der normalverteilung ähnlich, hat aber mehr Masse in den Enden (d.h. geht
nicht gegen 0 dort). Man kann sie also gerade gut für riskante Renditen nutzen, dann ist jedoch das
Konzept des Erwartungswerts zur Bewertung von Renditen nicht mehr nutzbar!!
Einfache Rechenregeln für E
a) a ist eine reelle Zahl
E(a)=a*E(x)
⇒
R∞
R∞
∗ f (x)dx = a ∗ −∞ f (x)dx = a ∗ 1 = a
R∞
⇒ a ∗ −∞ x ∗ f (x)dx = a ∗ E(x)
−∞ a
b) E(a*X)=a*E(X)
20
Titel 2 Zufallsvariablen
R∞
R∞
⇒ −∞ [g(x)+h(x)]f (x)dx = −∞ g(x)∗f (x)+h(x)∗f (x)dx =
R∞
R∞
−∞ g(x) ∗ f (x)dx + −∞ h(x) ∗ f (x)dx = E(g(x)) + E(h(x))
c) E(g(x)+h(x))=E(g(x))+E(h(x))
Ein paar Beispiele
E(aX+bX+cX)=a*E(X)+b*E(x)+c*E(x)
E((x + a)2 ) = E(x2 + 2ax + a2 ) = E(x2 ) + 2a ∗ E(x) + a2
2.5 Varianzen
Denition
Sei X eine Zufallsvariable und
µx ihr Erwartungswert. Der Erwartungswert der quadrierten Abweichung
der Zufallsvariablen von ihrem Erwartungswert heiÿt Varianz der Zufallsvariabeln X:
V ar(X) = E((X − µ)2 ) = σ 2
Die positive Wurzel heiÿt Standardabweichung:
p
σx = + V ar(X)
Gemäÿ der Regeln des Erwartungswerts gilt:
E((X − µ)2 ) = E(x2 − 2xµ + µ2 ) = E(x2 ) − 2µ2 + µ2 = E(x2 ) − [E(x)]2
Inhaltliche Interpretation
Streuung um E(x)
Vergleiche Schaubild Anlage Nr.6
Varianz als klassisches Risikomaÿ
Beispiel dazu:
A Rendite Finanzanlage A und RB
Rt+1
t+1
A ) > E(RB ) aber auch:
E(Rt+1
t+1
A ) > V ar(RA )
V ar(Rt+1
t+1
Rendite Finanzanlage B
Vergleiche Schaubild Anlage Nr.7
⇒
Lösung hier über Sharpe Ratio
E(R)
σ(R) (da
σ
gleiche Dimension wie E im Gegensatz zur Varianz)
Man vergleicht also diese beiden Brüche. Umso höher ein solcher Bruch, umso besser bzw. umso
geringer das Risiko im Verhältnis zum Erwartungswert.
Varianzen für einige Verteilungen
• x∼B(n,p)
ist n*p
• x∼Po(λ)
ist
λ
• x∼Ex(λ)
ist
1/λ2
• x∼N(µ, σ 2 )
•
ist
(=E(x))
σ2
Cauchy-Verteilung ist
∞
(keine Lsg)
21
Titel 2 Zufallsvariablen
Rechenregeln für Varianzen
•
Konstante: Var(a)=0
•
Verschiebung: Var(X+a)=Var(X)
•
Streckung: Var(bX)=b *Var(X)
•
Lineare Transformation: Var(a+b*X)=b *Var(X)
•
Vereinfachte Berechnung: Var(X)=E(X )-µ
2
2
2
2
2.6 Standardisieren
2.7 Tschebysche Ungleichung
Sie stellt die Verbindung zwischen Varianz und vielen Werten in den Enden her
Denition:
Sei X eine beliebige stetige oder diskrete ZV mit Erwartungswert
µ
und der Standardabweichung
σ,
so gilt stets die Ungleichung
P (|X − µ| ≥ kσ) ≤
1
k2
(10)
für jedes K>0 und völlig unabhängig von der Verteilung
Beispiel
P [|x − µ| ≥ 2σ] ≤ 0, 25
2
Für µ=0, σ =1 und normalverteilt: 1 − FST (x ≤ 2) = 0, 9772,
so dass obiges = 0,0228
2.8 Momente
2
E(x ) ist das zweite unzentrierte Moment
M2
...
Ist X eine ZV, so heiÿt der Erwartungswert der k-ten Potenz
k
E(x ) ist das
kte unzentrierte Moment Mk
das k-te Moment der Verteilung falls er existiert.
Der Erwartungswert der k-ten Potenz der Abweichung vom Mittelwert
MkZ = E[(X − µ)k ]
heiÿt
k-tes zentrales Moment
Es ist immer möglich von unzentrierten Momenten auf zentrale Momente zu kommen:
1.
V ar(x) = E[(x − µ)2 ] = E(x2 ) − µ2
22
Titel 2 Zufallsvariablen
2.
E[(x − µ)3 ] = E(x3 − 3x2 µ + 3xµ2 − µ3 ) = E(x3 ) − 3µE(x2 ) + 3E(x)µ2 − µ3
Zentriertes 3tes Moment als Schiefemaÿ
γ=
E[(x − µ)3 ]
σ3
(11)
ist >0 wenn die Verteilung rechtsschief ist
ist <0 wenn die Verteilung linksschief ist
ist =0 wenn die Verteilung symmetrisch ist
Zentriertes 4tes Moment als Wölbungsmaÿ
κ=
E[(x − µ)4 ]
σ4
(12)
Für die Kurtosis (Wölbung, Spitzigkeit) gilt:
umso gewölbter, umso risikoreicher
Für NV:
κ-3>0
κ=3
(spitizger als NV)
2.9 Momenterzeugende Funktionen
die Funktion:
M EF (t) = E(etX )
(13)
heiÿt momenterzeugende Funktion wobei t eine Hilfsvariable ist.
Diskreter Fall:
M EF (t) =
X
etxj f (xj )
(14)
allej
Stetiger Fall:
Z
∞
M EF (t) =
etx f (x)dx
(15)
−∞
Beispiele: Poissonverteilung
M EF (t) = e−λ ∗ eλ∗e∗t
Das zentrale Ergebnis:
Die k-te Ableitung der momenterzeugenden Funktion einer Verteilung liefert an der Stelle 0
M EF (k) (t = 0) = e(xk ) = Mk
Diskrete ZV
X
et∗xi f (x)
(16)
23
Titel 2 Zufallsvariablen
X
M EF 0 (t) =
xi ∗ et∗xi fx (xi )
(17)
xi fx (xi ) = E(x)
(18)
allei
X
M EF 0 (0) =
allei
M EF 00 (t) =
X
x2j etxj f (xj )
(19)
M EF 00 (0) =
X
x2j f (xj ) = E(x2 )
(20)
ext ∗ x ∗ fx (x)dx
(21)
x ∗ fx (x)dx = E(x)
(22)
Stetige ZV
∞
Z
0
M EF (t) =
−∞
Z ∞
M EF 0 (0) =
00
Z
−∞
∞
x ∗ ext ∗ x ∗ f (x)dx
M EF (t)
(23)
−∞
Z
00
∞
M EF (0) =
x2 ∗ f (x)dx = E(x2 )
(24)
−∞
Vergleicht man zwei ZV ob sie gleiche Verteilungen haben:
Man schaut nur ob sie die gleichen Momenten haben
Dies geht einfach, denn man muss nur die MEF vergleichen
2.10 Dichtetransformationstheorem
Ausgangspunkt: X ist stetige ZV mit
fx (x)
Daraus bildet man y=h(x) mit h(x) ist monotone Funktion
Als Beispiel: exp(x) mit h'(x)> oder <0
Gesucht:
fy (y), Fy (y) =
R∞
−∞ fy (u)d
Wir wissen wie E(y) berechnet wird:
Wir brauchen
x=
h−1 (y) (im Beispiel x=lnx)
fy (y) = fx [h−1 (y)] ∗
Im Beispiel:
E(y) = E(h(x)) =
fx (lny) ∗
dh−1 (y)
dy
R∞
−∞ h(x)
∗ f (x)dx
(25)
1
y
24
Titel 3 Stochastische Modelle und spezielle Verteilungen
2.11 Median, Quantile
Die Quantilfunktion ist die Umkehrfunktion der Verteilungsfunktion
FX−1 (p)
= x[p]
FX (x) = P (X ≤ x):
wobei p=W'keit zwischen 0 und 1 und x[p] das p-Quantil der Verteilung sind.
Eine Zahl x[p] mit 0<p<1 heiÿt p-Quantil wenn gleichzeitig
P (X ≤ x[p]) ≥ p
und
P (X ≥ x[p]) ≥
1−p
Beispielrechnung: Exponentialverteilung:
FX (x) = 1 − exp(−λ ∗ x)
FX (x[p]) = p = 1 − exp(−λ ∗ x[p])
ln(1 − p) = −λ ∗ x[p]
x[p] = ln(1−p)
0<p<1
−λ
Bei Normalverteilung geht eine Berechnung der Quantile nur über Excel und Tabelle
x[p] kann als Risikomaÿ verwendet werden (BaselII), dabei kann X als die Wertveränderung oder
Rendite t auf t+1 (wobei dies 1T, 10T,... sein kann) sein.
Aus der Praxis:
1% Quantil der Vermögenswertvertielung muss von den Banken gemeldet werden und eine bestimmte
Menge des EK der Banken beruht darauf.
FX−1 (0, 1)=x[0,1]=VaR
Man sagt dazu Value at risk auf Kondenzniveau 0,1 (=0,1 Quantil)
Das ganze ist NICHT normalverteilt, sondern es bendet sich viel mehr Masse in den Enden.
Einige spezielle Quantile
•
p=0,5
•
p=0,25;0,75 Quartile
•
p=0,1; 0,2;... Dezile
•
p=0,05; 0,1;... Quintile
x0,5
Median
3 Stochastische Modelle und spezielle Verteilungen
3.1 Verteilungen mit diskreten Zufallsvariablen
3.2 Bernoulli-Verteilung
Aufbauend auf sog. Bernoulli-Experimenten:
Ausgänge: Erfolg (ja, wahr)=A (mit x=1) und Misserfolg (nein, falsch)=A (mit x=0)
25
Titel 3 Stochastische Modelle und spezielle Verteilungen
Erfolgswahrscheinlichkeit P(Erfolg)=p (auch P(x=1), P(A))
Eine diskrete Zufallsvariable mit der Massenfunktion:
fBe (x; p) =
P (x = 1) = fX (1) = p
P (x = 0) = fX (0) = 1 − p
P (X = x) = fX (x) = 0 (für x=
6
0,1)
heiÿt Bernoulli verteilt. Man schreibt auch X∼ Be(p) wobei
∼
für verteilt steht.
Beispiele für Massen- und Verteilungsfunktion S.6 Skript
3.3 Binomialverteilung
Idee:
Mehrere Bernoulli-Experimente mit derselben Erfolgswahrscheinlichkeit p werden (hintereinander oder
gleichzeitig) unabhängig voneinander durchgeführt.
Beispiel zur Herleitung:
Wir führen ein Experiment dreimal durch: n=3
Wir nehmen an, dass wir bei einem der Versuche Erfolg haben: x=1
Folgende Konstellationen sind denkbar:
A; 3.Versuch: A
A; 3.Versuch: A
2.Versuch: A; 3.Versuch: A
1.Versuch: A; 2.Versuch:
(kodiert: 100)
A;
A;
(kodiert: 001)
1.Versuch:
1.Versuch:
2.Versuch:
(kodiert: 010)
Die Versuche sind unabhängig und die drei Arten schlieÿen sich gegenseitig aus, so dass gilt:
∗ P (A) ∗ P (A) + P (a) ∗ P (A) ∗ P (A) + P (A) ∗ P (A) ∗ P (A)
∗ (1 − p)2 + (1 − p)2 ∗ p + (1 − p) ∗ p ∗ (1 − p) = 3p ∗ (1 − p)2
P(X=1)=P (A)
=p
Analog dazu gilt:
P(X=2)=3p
P(X=0)=(1
2 (1
− p)
− p)3
3
P(X=3)=p
Zur Berechnung muss man wissen wie viele Arten der Umsetzung existieren. Dies wird dann mit
den jeweiligen Wahrscheinlichkeiten multipliziert:
Eine diskrete Zufallsvariable X mit der Massenfunktion:
fBi (x; p; n) = ( nx ) ∗ px ∗ (1 − p)n−x ,
wobei
( nx )
die Anzahl der Arten ist
für x=Zahl der erfolge=0,1,...n, wobei n eine natürliche Zahl und 0<p<1 eine reelle Zahl ist, heiÿt
binomial verteilt. Man schreibt auch X∼ Bi(n,p)
Anwendungen:
Binomialbaum zur Bewertung von Optionen:
Vergleiche Schaubild Anlage Nr.1
26
Titel 3 Stochastische Modelle und spezielle Verteilungen
Frage: wenn p=0,8, n=100, wie wahrscheinlich ist dann X=80?
Urnenmodell auf S.12 Skript
3.4 Poissonverteilung
→ ∞)
n*p=λ
X=Zahl der Erfolge bei sehr vielen (n
Erfolgswahrscheinlichkeit, aber mit
Bernoulli-Experimenten mit sehr kleinen (p→0)
Die Massenfunktion der Poisson-Verteilung lautet:
fpo (x; λ) =
λx
x!
∗ e−λ
wobei x=0,1,2,...
Die Poisson-Verteilung als Approximation für die Binomialverteilung:
fBi (x; p, n) → fP o (x; λ = pn)
Sie ist die Grenzverteilung der Binomialverteilung
Benutzung als Näherungsverteilung für die bei groÿem Stichprobenumfang n unhandliche Binomialverteilung
3.5 Hypergeometrische Verteilung
Bei der Binomialverteilung herrscht noch stochastische Unabhängigkeit für die Bernoulli-Experimente.
Entnimmt man jedoch in der Praxis Zufallsstichproben, werden die einmal gezogenen Einzelstichproben üblicherweise nicht gleich wieder zurückgelegt bevor die nächste entnommen wird. Wir gehen also
von einem Urnenmodell ohne Zurücklegen, also ohne Unabhängigkeit aus.
Variablen:
•
N=Urnenumfang (z.B. Kugel in Urne, Kunden in Datenbank, Händler auf Finanzmarkt, gefertigte Teile in Produktion)
•
S=Anzahl von Teilen mit einer bestimmten Eigenschaft (z.B. rote Kugeln, Groÿhändler, informierte Händler, defekte Teile)
•
n=Stichprobenumfang, d.h. so oft wird gezogen
•
X=Anzahl von S in n (z.B. rote Kugeln in der Stichprobe n)
•
Wie groÿ ist die Laplacesche Wahrscheinlichkeit
g
m dass x=? in n sind?
27
Titel 3 Stochastische Modelle und spezielle Verteilungen
Denition:
Eine diskrete Zufallsvariable mit der Massenfunktion
fHy (x, N, S, n) =
−S
(S
)∗( N
)
x
n−x
)
(N
n
für x=0,1,...n wobei S<N und n≤ N natürliche Zahlen sind heiÿt hypergeometrisch verteilt.
Schreibweise: X∼ Hy(N,S,n)
Beispiel dazu S.15 Skript
Für groÿe S und N ist eine Annäherung an die Binomialverteilung möglihc, indem man p=Erfolgswahrscheinlichkeit
beim ersten Ziehen=
S
N setzt.
Anwendung ndet diese Verteilung in der Qualitätskontrolle
3.6 Gleichförmige Verteilung
Für die gleichförmige Verteilung gilt:
1
m (für m mögliche Ausprägungen). Addiert man
die Wahrscheinlichkeiten für die m Ausprägungen erhält man 1. Man schreibt: fX (x)=
1
m für x = x1 ...xm
P (X = x1 ) = P (X = x2 ) = ... = P (X = xm ) =
0 für sonstige
Beispiel dafür S. 3-4 Skript
3.7 Geometrische Verteilung
Ausgangspunkt: Ein Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p werde so oft ausgeführt,
bis zum ersten Mal Erfolg eintritt. Es sei nun die Anzahl der vorausgegangenen Misserfolge als Zufallsvariable X deniert.
Denition:
Eine diskrete Zufallsvariable X mit der Massenfunktion
fGeo (x, p) = (1 − p)x ∗ p
für x=0,1,2,...∞ wobei 0<p<1
eine reelle Zahl ist heiÿt geometrisch verteilt
Wie bei der Poissonverteilung ist auch der Wertevorrat der geometrisch verteilten Zufallsvariablen
abzählbar unendlich. Die Wahrscheinlichkeitsmassen sind alle positiv und werden mit dem Quotienten
q=1-p immer kleiner.
Bsp. S.28-29 Skript
28
Titel 3 Stochastische Modelle und spezielle Verteilungen
3.8 Verteilungen mit stetigen Zufallsvariablen
Eigenschaften fX (x)
• fX (x) ≥ (da FX (x) monoton steigend)
R∞
• −∞ fX (x) = 1 (da die äche unter Dichtefunktion
= Verteilungsfunktion ist die Fläche die
Summe aller W'keiten und damit 1)
3.9 Rechteckverteilung
Die Rechteckverteilung wird dann verwendet, wenn eine stetige Zufallsvariable in einem denierten
Bereich [a,b] als gleichförimg verteilt angesehen werden kann. Sie ist sicherlich die einfachste stetige
Verteilung.
Es gilt, dass
Rb
a
fX (x)dx = 1,
da dort alle W'keiten liegen.
Dadurch ergibt sich für die Rechteckäche
fX (x) ∗ (b − a) = 1
Formal ergibt sich daraus die folgende Denition:
Die Dichtefunktion der Rechteckverteilung ist im relevanten Bereich [a,b] konstant und kann einfach
geschrieben werden als
fR (x) =
1
b−a für a ≤ x ≤ b
0 für sonstige
Da die Verteilungsfunktion dieStammfunktion zur Dichtefunktion ist ergibt sich:
FR (x) =
0 für x<a
1
b−a
∗ (x − a)
für
a≤x≤b
(da
Rx
a
1
fX (u)du = [ b−a
∗ u]xa )
1 für x>b
Vergleiche Schaubild eigene Anlage
3.10 Exponentialverteilung
Die Exponentialverteilung ist das stetige Pendant zur geometrischen Verteilung
Eine stetige Zufallsvariable X mit der Wahrscheinlichkeitsdichtefunktion
fEx (x, λ) = λ ∗ e−λ∗x
für 0 ≤ x < ∞ und λ > 0
Da gilt:
heiÿt exponentialverteilt.
Rx
Dadurch
λ ∗ e−λ∗u du = [−e−λ∗u ]x0 = −e−λ∗x − (−e0 ) = 1 − e−λ∗x
ergibt sich die Verteilungsfunktion FX (x) =
0
29
Titel 3 Stochastische Modelle und spezielle Verteilungen
0 für x<0
1 − e−λ∗x
für x>0
Eine weitere gebräuchkliche Schreibweise ist auch
X ∼ EX(λ)
3.11 Normalverteilung
Die wichtigste Verteilung überhaupt, da:
•
viele empirisch beobachtete Verteilungen wenigstens annähernd der Normalverteilung entsprechen
•
sie eine gute Approximation für bestimmte diskrete Verteilungen wie die Poissonverteilung/Binomialverteilung
gibt
•
sich die Verteilung von Stichprobenwerten an die Normalverteilung annähert je gröÿer die Stichprobe ist
•
die Normalverteilung die Grundlage vieler theoretischer Modelle ist
Denition
Eine stetige Zufallsvariable X mit der Dichtefunktion:
fN (x) =
1
√
σ∗ 2Π
∗ exp( −1
2 ∗
(x−µ)2
)
σ2
heiÿt normalverteilt.
X ∼ N (µ, σ 2 )
Rx
Verteilungsfunktion FX (x) = −∞
Andere Schreibweise:
Die
1
√
σ∗ 2Π
∗ exp( −1
2 ∗
(x−µ)2
)du
σ2
besitzt keine geschlossene Form und kann nur durch numerische Approximation oder Wertetabellen
bestimmt werden.
Eigenschaften der Normalverteilung
•
symmetrisch um x=µ
•
Wendepunkt bei x=µ
•
Dichtefunktion ist umso acher, je gröÿer die Streuung
+σ
und x=µ-sigma
Vereinfachte Berechnung der Normalverteilung
Man setzt
fSt (z) =
µ = 0, σ = 1
und erhält
√1 exp( −1 z 2 )
2
2Π
als die Standardnormalverteilung.
Andere schreibweise:
Z ∼ N (0, 1)
Zur Umrechnung gilt:
30
Titel 4 mehrdimensionale Zufallsvariablen
Tabelle 4: Arbeitsbeispiel
xi
fN (x) = σ1 ∗ fST (z),
FN (x) = FST ( x−µ
σ )
0
1
2
3
0
1/8
2/8
1/8
0
4/8
1
0
1/8
2/8
1/8
4/8
1/8
3/8
3/8
1/8
1
wobei hier
z=
x−µ
σ mit
µ=0
und
σ=1
repräsentiert
Das Schaubild zur Standardnormalverteilung ist die bekannte Glockenkurve:
•
Maximum bei z=0 (aus
•
Wendepunkte bei z=1, z=-1
•
Schmiegt sich asymptotisch, aber schnell an die z-Achse
fST (z))
Bsp. für Normalverteilung: Risikomanagement
X: Wertveränderung eines Vermögens von t auf t+1 (in Mio. )
da
µ = 10
und
σ 2 =100
gilt:
X ∼ N (10, 100)
− FX (30)
ges.: P(x>30Mio.)=1-P(x<30Mio.)=1
Nach obiger Umrechnung ist
√
FX (30) = Fz ( 30−10
= FZ (2)
100
Aus einer Wertetabelle für die Standardnormalverteilung kann man ablesen:
W'keit 0,9772 ist die Werteveränderung
≤
FZ (2) = 0, 9772 (mit der
30Mio.)
1 − FX (30) = 1 − FZ (2) = 0, 0228
P(X>30Mio.)=0,0228
Vergleiche auch Schaubild eigene Anlage
4 mehrdimensionale Zufallsvariablen
Ziel:
Modell von Abhängigkeit von risikobehafteten ökonomischen Variablen
Beispiel: Suprime Krise
Arbeitsbeispiel
X: Zahlungsfähigkeit Land X (Kongo)
Y: Zahlungsfähigkeit Land Y (Peru)
X: 2 Ausprägungen
Y: 4 Ausprägungen
x1 = 0, x2 = 1
y1 = 0, y2 = 1, y3 = 2, y4 = 3
31
Titel 4 mehrdimensionale Zufallsvariablen
Komplikationen
•
ZV werden stetig werden
•
mehr als 2 Variablen möglich
Konzepte
•
gemeinsame Wahrscheinlichkeitsfunktion (diskrete ZV)
•
gemeinsame Verteilungsfunktion (stetige/diskrete ZV)
•
gemeinsame Dichtefunktion (stetige ZV)
•
marignale (Rand-) Verteilung
•
marginale (Rand-) Wahrscheinlichkeitsfunktion
•
marginale (Rand-) Dichtefunktion
•
marginale (Rand-) Verteilungsfunktion
•
bedingte Verteilung (d.h. ich kenne die Realisation einer ZV, dies hat Auswirkungen auf die
andere)
•
bedingte Wahrscheinlichkeitsfunktion
•
bedingte Dichtefunktion
•
bedingte Verteilungsfunktion
•
Unabhängigkeit von ZV
4.1 Gemeinsame Verteilung
Gemeinsame Verteilungsfunktion
Die gemeinsame Verteilungsfunktion
Fx1x2..xn (x1, x2..xn) = P (X1 ≤ x1 ∩ X2 ≤ x2 ∩ ...Xn ≤ xn ) = F (x1, x2..xn)
gibt an, mit welcher Wahrscheinlichkeit die Zufallsvariable X Werte kleiner oder gleich x und gleichzeitig die Zufallsvariable Y Werte kleiner oder gleich y annimmt.
bivariater Fall
Fxy (xy) = P (X ≤ x ∩ Y ≤ y) = F (x, y)
Gemeinsame Wahrscheinlichkeitsfunktion
fx1x2..xn (x1, x2..xn) = P (X1 = x1 ∩ X2 = x2 ∩ ..Xn = xn )
Für stetige ZVen:
P (X1 = x1 ∩ X2 = x2 ∩ Xn = xn ) = 0
32
Titel 4 mehrdimensionale Zufallsvariablen
Eigenschaften
• f (x, y) ≥ 0
P P
•
i
j f (xi , yj ) = 1
• f (xi , yj ) ≤ 1
Gemeinsame Dichtefunktion
∂ n F (x1 , x2 , xn )
= f (x1 , x2 , ..xn )
∂x1 ∂x2 ∂xn
(26)
bivariater Fall:
∂ 2 Fxy (x, y)
= fxy (x, y)
∂x∂y
(27)
Eigenschaften
• f (x, y) ≥ 0
R∞ R∞
• −∞ −∞ f (x, y)dydx = 1
Warnung
Die gemeinsame Dichtefunktion ist wie die univariate Dichtefunktion keine Wahrscheinlichkeit:
Z
x+∆x Z y+∆y
P (x ≤ X ≤ x + ∆x ∩ y ≤ Y ≤ y + ∆y) =
fxy (u, v)dudv
x
(28)
y
Man kann diese durch die Approximation des Volumens eines Quaders berechnen:
fxy (x, y) ∗ ∆x ∗ ∆y
∆x → dx :
fxy (x, y)dxdy = P (x ≤ X ≤ x + dx ∩ y ≤ Y ≤ y + dy)
und im Übergang
4.1.1 Von der gemeinsamen W'keitsfunktion zur gemeinsamen Verteilungsfunktion
F erhält man durch Summation der gemeinsamen Massenfunktion (bivariater diskreter Fall):
Fxy (x, y) = P (X ≤ x, Y ≤ y) =
X X
fxy (xi , yj )
(29)
xi ≤x yj ≤y
bzw. durch Integration der gemeinsamen Dichtefunktion (bivariater stetiger Fall):
Z
x
Z
x
fxy (u, v)dudv = Fxy (x, y) = P (X ≤ x, Y ≤ y)
−∞
(30)
−∞
33
Titel 4 mehrdimensionale Zufallsvariablen
allgemein
bivariater diskreter Fall:
P (xu ≤ X ≤ xo ∩ y u ≤ Y ≤ y o )
X
X
fxy (xi , yj )
(31)
xu ≤xi ≤xo y u ≤yj ≤y o
bivariater stetiger Fall:
Z
xo
Z
yo
fxy (x, y)dydx
xu
(32)
yu
4.1.2 Von der Wahrscheinlichkeitsfunktion/Dichtefunktion zur Verteilungsfunktion
Gesucht:
P (X ≤ 1 ∩ Y ≤ 1) = Fxy (1, 1)
Da es sich um disjunkte Ereignisse handelt wird aufsummiert:
P (X
P (X
P (X
P (X
X=0 und Y=0 mit
X=0 und Y=1 mit
X=1 und Y=0 mit
X=1 und Y=1 mit
Gesamtergebnis:
=0∩Y
=0∩Y
=1∩Y
=1∩Y
1
2
= 0) = 81
= 1) = 28
= 0) = 0
= 1) = 18
4.2 Stochastische Unabhängigkeit
Die Unabhängigkeit kann man aus P(A∩ B)=P(A)*P(B) ableiten
Die Zufallsvariablen X und Y heiÿen stochastisch unabhängig oder kurz unabhängig, wenn die gemeinsame Massen- bzw. Dichtefunktion gerade gleich dem Produkt der beiden Randverteilungen ist:
Fxy (x, y) = P (X ≤ x) ∗ P (Y ≤ y) = FX (x) ∗ FY (y)
⇒ x,y unabhängig
fxy (x, y) = P (X = x, Y = y) = P (X = x) ∗ P (Y = y) = fX (x) ∗ fY (y)
⇒ x,y unabhängig
[W'keitsfunktion]
2
F (x,y)
fxy (x, y) = ∂ ∂x∂y
= fX (x) ∗ fY (y)
⇒ x,y unabhängig
[Dichtefunktion]
Im stetigen Fall gilt:
Z
x
Z
y
Z
Fxy (x, y) =
x
−∞
∂Fxy (x, y)
= fx (x) ∗
∂x
−∞
Z
y
fx (u)du ∗
fxy (u, v)dudv =
−∞
Z
fy (v)dv
(33)
−∞
y
fy (v)dv
(34)
−∞
34
Titel 4 mehrdimensionale Zufallsvariablen
∂ 2 Fxy (x, y)
= fx (x) ∗ fy (y)
∂x∂y
(35)
In unserem Arbeitsbeispiel gilt:
P (X = 0 ∩ Y = 0) = fxy (0, 0) =
P (X = 1 ∩ Y = 2) = fxy (1, 2) =
1
8
2
8
Im Falle der Unabhängigkeit sind alle bedingten Verteilungen gleich - und gleich der entsprechenden
Randverteilung:
fx (x) ∗ fy (y)
= fX (x)
fy (y)
f1 (x|y) =
(36)
4.3 Randverteilungen
Die Verteilung einer einzelnen Komponente einer mehrdimensionalen ZV ohne ansehen der anderen
Komponenten heiÿt Randverteilung.
Diskreter Fall
fxy (x, y)
sei die gemeinsame W'keitsfunktion. Bei diskreten ZV berechnen sich die Randverteilungen
als Spalten- und Zeilensummen:
fX (xi ) = P (X = xi ∩ Y = irgendwas) =
X
fY (yj ) = P (Y = yj ∩ X = irgendwas) =
X
f (xi , yj ) = pi.
(37)
f (xi , yj ) = p.j
(38)
j
i
Und für die Marginale Verteilungsfunktion gilt:
FX (xi ) = P (X ≤ xi , Y = irgendwas) =
Im Arbeitsbeispiel
XX
fxy (xi , yj )
(39)
xi ≤x j
P(X=0..)=0.5, P(X=1..)=0.5
3
3
1
P(Y=0..)= , P (Y = 1..) = , P (Y = 2..) = , P (Y = 3..) =
8P
8
8
P
fy (y) = fx (x) = 1
1
8
Stetiger Fall
Die Verteilungsfunktion bleibt:
Z
x
Z
∞
Fx (x) =
fxy (u, y)dydu
−∞
(40)
−∞
Damit wird die Dichtefunktion:
dFx (x)
=
dx
Z
∞
fxy (x, y)dy
(41)
−∞
D.h. man leitet die marginale Verteilungsfukntion ab (herausintegrieren)
35
Titel 4 mehrdimensionale Zufallsvariablen
4.3.1 Erwartungswert und Varianz
Diskreter Fall P
µX = E(X) = Pi xi fX (xi )
2 = V (X) =
2
σX
i (xi − µX ) fX (xi )
Stetiger fall
R∞
µX = E(X) = −∞ x ∗ fx (x)dx
R∞
σx2 = V (X) = −∞ (x − µx )2 fX (x)dx
4.4 Bedingte Verteilung
Die Massenfunktion f der bedingten Verteilung von X unter der Bedingung
P (X = x|Y = yj ) =
Y = yj
ist deniert als:
P (X = x, Y = yj )
fxy (x, yj )
=
= fx|y (x|yj )
P (Y = yj )
fy (yj )
(42)
Im Arbeitsbeispiel
komplette bedingte Verteilung Y|X:
1/8
=
fy|x (0|0) = 1/2
1
fy|x (1|0) = 2
fy|x (2|0) = 14
fP
y|x (3|0) = 0
1
fx|y (x|y)
bzw.
1
4
fy|x (y|x)
heiÿt bedingte Wahrscheinlichkeitsfunktion und ist eine ordentliche Wahr-
scheinlichkeitsfunktion (da
fx|y (x|y) ≥ 0
und
P
i fx|y (xi |y)
= 1),
so dass Varianzen, Momente...
abgeleitet werden können:
•
bedingteV erteilungsf unktion : P (X ≤ x|Y = yj ) =
X
f (xi |yj) = Fx|y (x|y)
(43)
xi ≤x
•
bedingte Quantile
•
bedingter Erwartungswert
•
ebenso: bedingte Varianz, Schiefe, ...
Ex|y (X|Y = yj ) =
P
i xi
∗ fx|y (xi |yj )
36
Titel 4 mehrdimensionale Zufallsvariablen
Im Arbeitsbeispiel
E(Y)=1/8*0+3/8*1+3/8*2+1/8*3=1,5
E(Y|X=0)=1/4*0+1/2*1+1/4*2+0*3=1
⇒ EX (x) 6= Ex|y (X|Y )
Stetiger Fall
Die Denition der bedingten Dichtefunktion ist identisch mit dem diskreten Fall:
fx|y (x|yj ) =
fxy (x, yj )
fy (yj )
(44)
mit:
fx|y (x|y) ≥ 0
Z ∞
fx|y (x|yj )dx = 1
(45)
(46)
−∞
Genauso ergibt sich auch die stetige Verteilungsfunktion:
Z
∞
fx|y (u|y)du = Fx|y (x|y)
(47)
−∞
und der bedingte Erwartungswert:
Z
∞
x ∗ fx|y (x|y)dx
Ex|y =
(48)
−∞
allgemeiner erwartungswert
Z
∞
g(x) ∗ fx|y (x|y)dx
Ex|y (g(x)|y) =
(49)
−∞
Es gilt wieder hier:
EX (x) 6= Ex|y (x|y)
da,
fx|y (x|y) 6= fx (x)
und damit x,y stochastisch abhängig
4.5 Allgemeiner Erwartungswert
z=g(x,y) mit z,x,y=ZV und g=messbare Funktion
Gesucht ist
EZ (z)=E(g(X,y)),
die Verteilung interessiert hier nicht
Im Beispiel
z=g(x,y)=x*y
z=0 wenn x=0 und y=0,1,2,3 oder y=0 und x=1
z=1 wenn x=1 und y=1
z=2 wenn x=1 und y=2
z=3 wenn x=1 und y=3
37
Titel 4 mehrdimensionale Zufallsvariablen
Tabelle 5: Titel
y
x
0
1
2
3
0
1/8
2/8
1/8
0
1
0
1/8
2/8
1/8
fZ (z) :
fZ (0) = fxy (0, 0) + fxy (0, 1) + fxy (0, 2) + fxy (0, 3) + fxy (1, 0) = 1/8 + 2/8 + 1/8 + 0 = 1/2
fZ (1) = fxy (1, 1) = 1/8
fZ (2) = fxy (1, 2) = 2/8
fZ (3) = fxy (1, 3) = 1/8
EZ (z)=0*1/2+1*1/8+2*2/8+3*1/8=1
oder über die Formel:
E(z) =
XX
(xi ∗ yj ) ∗ fxy (xi , yj )
(50)
allej allei
(0*0)*1/8+(0*1)*2/8+(0*2)*1/8+(0*3)*0+(1*0)*0+(1*1)*1/8+(2*1)*2/8+(3*1)*1/8=1
Allgemeiner Erwartungswert
E(g(x, y)) =
XX
j
g(xi , yj ) ∗ fxy (xi , yj )
(51)
i
bei diskreten ZV und
∞
Z
∞
Z
g(x, y) ∗ fxy (x, y)dxdy
E(g(x, y)) =
−∞
(52)
−∞
bei stetigen ZV
Wichtige Beispiele dazu
Erstens:
g(x,y)=X
Z
∞
Z
∞
x ∗ fxy (x, y)dxdy
Ex,y (x) =
−∞
Z ∞
Z
∞
x∗
Ex,y (x) =
−∞
Z ∞
fxy (x, y)dydx
(54)
−∞
x ∗ fX (x)dx
Exy (x) =
(53)
−∞
(55)
−∞
Exy (x) = Ex (x)
(56)
38
Titel 4 mehrdimensionale Zufallsvariablen
Zweitens:
g(x,y)=x+y
∞
Z
Z
∞
(x + y)fxy dydx
E(x + y) =
−∞ −∞
Z ∞Z ∞
−∞
∞
Z
∞
Z
∞
y ∗ fxy dydx
−∞
−∞
∞
Z
x∗
−∞
Z
x ∗ fxy dydx +
E(x + y) =
Z
(57)
∞
y ∗ fy (y)dy
fxy dydx +
−∞
(58)
−∞
(59)
−∞
E(x+y)=E(x)+E(y)
Im n-Variablen-Fall:


x1
x =  ... 
xn
(60)
als Vektor aus ZVen
E(x1 ...xn ) = E(x1 )...E(xn )
Auÿerdem gilt:
E(aX+bY)=aE(x)+bE(x)
Generell:


 
a1
x1



a = ... ∗ x = ... 
an
xn
(61)
E(a0 x) = E(a1 x1 + ... + an xn ) = a0 (E(x)) = a0 ∗ µ
4.6 Kovarianz und Korrelationskoezient
g(x,y)=[[x-E(x)]*[y-E(y)]]
E[g(x,y)]=E[[x-E(x)]*[y-E(y)]]=covxy
= σxy
Zur praktischen Berechnung der Kovarianz benötigt man die gemeinsame Verteilung:
Cov(x, y) =
XX
(xi − µx )(yj − µy )f (xi , yj )
i
(62)
j
Z Z
Cov(x, y) =
(xi − µx )(yj − µy )f (xi , yj )dxdy
(63)
Eine alternative Berechnung der Kovarianz ist:
Cov(x,y)=E(x*y)-E(x)*E(y) (Vergleiche Varianz)
39
Titel 4 mehrdimensionale Zufallsvariablen
Aus der Kovaianz wird der
σxy
σx ∗σy
ρxy =
=
Covxy
σx ∗σy
Korrelationskoezient abgeleitet:
Für beide Verteilungsmaÿe gelten folgende Regeln:
•
Korrelationskoezient deniert zwischen 1 und -1
• ρ
hat dasselbe Vorzeichen wie die Kovarianz
• ρ
gibt die Strenge des linearen stochastischen Zusammenhangs an, unabhängig von den Grö-
ÿenordnungen und Varianzen der beiden Variablen
•
wenn
•
wenn E(x*y)=0, dann x und y orthogonal
•
wenn x und y stochastisch unabhängig, dann Kovarianz und
•
Ausnahme: gemeinsame Normalverteilung
ρ±1,
dann x und y lineare abhängig: y=a+bx
ρ
=0 (nicht umgekehrt!)
4.7 Summe von Zufallsvariablen
2
2
Var(aX+bY)=a Var(x)+b Var(y)+2abCov(x,y)
E[[(aX+bY )−E(aX+bY )]2 ]=E[(aX+bY )2 −2(ax+by)E(aX+bY )+E(aX+bY )2 ]=...=a2 [E(x2 )−
[E(x)]2 ] + b2 [E(y 2 ) − [E(y)]2 ] + 2ab[E(x ∗ y) − E(x) ∗ E(y)]=...
4.8 Erweiterung auf den n-Variablen-Fall
Varianz-Kovarianz-Matrix

V ar(x1 )
Cov(x1 , x2 )
Cov(x1 , x2 )
V ar(x2 )
Ω=

...
...
Cov(x1 , x2 )
...

... Cov(x1 , xn )

...
...


...
...
...
V ar(xn )
(64)
Ω = [[x − E(x)] ∗ [x − E(x)]0 ] = E(x ∗ x0 ) − E(x) ∗ E(x)0
Ableitung daraus:


a1
a =  ... 
an
(65)
40
Titel 4 mehrdimensionale Zufallsvariablen
In der Portfoliotheorie gilt:
n
X
ai = 1
(66)
i=1
V ar(a0 x) = a0 ∗ Ω ∗ a=1x1-Matrix Herleitung:
V ar(a0 X) = E[[a0 X − a0 E(x)] ∗ [a0 X − a0 E(x)]]
0
0
0
0
ausnutzen: a x = x a und Ω = E(X ∗ X ) − E(X)[E(X)]
Gesucht:
4.9 Bivariate Normalverteilung
•
X, Y sind ZV
•
X, Y haben eine gem. Verteilungsfunktion
•
X, Y sind gem. bivariat normalverteilt
Fxy (x, y) = P (X ≤ x ∧ Y ≤ y)
1
Q
p
exp(−
)
2
2(1
− ρ2 )
2Πσx σy 1 − ρ
(67)
(x − µx )(y − µy )
y − µy 2
x − µx 2
) − 2ρ
+(
)
σx
σx σy
σy
(68)
fxy (x, y) =
mit Q=
(
Eigenschaften
•
f(x,y)≥ 0
•
RR
•
P(a<xb;c<y<d)=
fxy (x,y)dydx=1
Z bZ
d
f (x, y)dydx
a
(69)
c
• fxy (x, y)=
∂ 2 F (x, y)
∂x∂y
(70)
41
Titel 4 mehrdimensionale Zufallsvariablen
Kann man von der gemeinsamen Verteilung auf die Randverteilung kommen?
fx (x) =
R
fxy (x, y)dy
über obige gemeinsame Verteilung
(Beweis als Anlage)
fx (x) =
√ 1
2Πσx
x 2
∗ exp(− 12 ( x−µ
σx ) )
Damit ist die Randverteilung von X:
X ∼ N (µx , σx2 )
Wie sieht die bedingte Dichte aus?
f
=
f (x,y)
xy(xy)= xy
f
y(y)
σx
1
1 x − (µx + ρ σy (y − µy )) 2
p
f (x y) = √ p
exp(− (
) )
2
2Π 1 − ρ2 σx
σx 1 − ρ2
(71)
Dabei handelt es sich um eine Dichtefunktion mit:
Bedingtem
Erwartungswert:
E(x Y = y) = µ = µx + ρ σσxy (y − µy )
Bedingte
Varianz:
V (X Y = y) = (1 − ρ2 )σx2
Ergänzende Bemerkungen:
ρxy = ±
1 wenn x und y linear abhängig
wenn x und y (stochastisch) unabhängig:
ρxy = 0
bzw.
Covxy = 0
generell gilt: Umkehrung nicht möglich, auÿer bei Normalverteilung!
wenn x und y gemeinsam normalverteilt, dann ist die Linearkombination der beiden ZV: Z=aX+bY
ebenfalls normalverteilt:
Z ∼ N (aµx + bµy ; a2 σx2 + b2 σy2 + 2abCovxy )
Multivariate Erweiterung: n-ZVen
Hier ergibt sich die Dichtefunktion von gem. NV-ZVen:
f (X) =
1
1
exp(− (x
2
(2Π)n/2 |Ω|0,5
− µ)0 Ω−1 (x − µ))
(72)
42
Herunterladen