SS08 Wahrscheinlichkeit und Risiko 9. November 2008 Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 1.1 Einführung: 1.2 statistische Wahrscheinlichkeit: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Klassische Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4 Mengentheoretische Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.5 Axiomatik der Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . . 5 1.6 Theoreme aus den Axiomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.7 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.8 Stochastische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.9 Totale Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Zufallsvariablen 13 2.1 Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3 Stetige Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.4 Erwartungswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5 Varianzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.6 Standardisieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.7 Tschebysche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.8 Momente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.9 Momenterzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.10 Dichtetransformationstheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.11 Median, Quantile 25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Stochastische Modelle und spezielle Verteilungen 25 3.1 Verteilungen mit diskreten Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . 25 3.2 Bernoulli-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.3 Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.4 Poissonverteilung 27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Titel Inhaltsverzeichnis 3.5 Hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.6 Gleichförmige Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.7 Geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.8 Verteilungen mit stetigen Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . 29 3.9 Rechteckverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.11 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.10 Exponentialverteilung 4 mehrdimensionale Zufallsvariablen 4.1 4.2 4.3 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.1.1 Von der gemeinsamen W'keitsfunktion zur gemeinsamen Verteilungsfunktion . 33 4.1.2 Von der Wahrscheinlichkeitsfunktion/Dichtefunktion zur Verteilungsfunktion . 34 Stochastische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Randverteilungen 35 Gemeinsame Verteilung 4.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.4 Bedingte Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.5 Allgemeiner Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.6 Kovarianz und Korrelationskoezient . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.7 Summe von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.8 Erweiterung auf den n-Variablen-Fall . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.9 Bivariate Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie 1 Grundlagen der Wahrscheinlichkeitstheorie 1.1 Einführung: bisher: rein deskriptive Analyse, keine Erklärung des Daten generierenden Prozesses (DGP) DGP: bestimmte Wahrscheinlichkeit für das Auftreten von Ereignissen Ziele: • ökonomische Modellierung • Bestimmung DPG • Erklärungen für Daten • Prognosen • Hypothesentest Beispiele: • 1mal Münze werfen und Kopf kommt; W.keit: 0,5 • Würfeln und 6 kommt; W.keit: • VfB wird Fuÿballmeister; W.keit: ? • Portfolio wird morgen 10% weniger Wert sein • BIP steigt um 5% • Kreditnehmer John Doe zahlt nicht zurück 1 6 2 Sichtweisen auf die Wahrscheinlichkeitsrechnung Tabelle 1: Titel klassische Frequentisten Bayesianisch objektiv subjektiv Konzeptioneller Rahmen: Zufallsexperiment Wahrscheinlichkeit=Quantizierung der Stärke von Hypothesen →mögliche Ergebnisse bekannt →Ereignisse = Wahrscheinlichkeiten werden angepasst →konkretes Ergebnis des Versuchs nicht bekannt a-priori Wahrscheinlichkeiten → a-posteriori Wahrscheinlichkeiten →Experiment wiederholbar unter gleichen Bedingungen 3 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie Denitionen Ereignisraum S: Menge der möglichen Ereignisse des Experiments Elemente von S: Elementarereignisse Beispiele: 2x Münzwurf S=KK,KZ,ZK,ZZ wobei in der Klammer die Elementarereignisse stehen Werfen der Nadel auf liniertes Papier und Messen des Winkels zu einer Linie S = α/0 ≤ α ≤ 180 wobei die messbaren Winkel die Elementarereignisse sind →es existiert ein diskreter (endlich viele Elementarereignisse [abzählbar unendlich viele Ereinisse])und ein stetiger (unendlich viele Elementarereignisse [überabzählbar viele Ereignisse]) Ereignisraum Ereignis A:Teilmenge des Ereignisraums S A=mindestens einmal Kopf A=KK,KZ,ZK A⊂S Besondere Ereignisse: unmögliches Ereignis: sicheres Ereignis: S Ereignis wieder in Menge zusammengefasst: Ereignismenge E(S) oder einfach E E=mind. 1x Kopf ;zweimal Zahl; keinmal Zahl =KZ,ZK,KK;ZZ;KK Ziel: Zuordnung von Wahrscheinlichkeiten für Ereignisse aus E 1.2 statistische Wahrscheinlichkeit: Zufallsexperiment nx durchgeführt absHn (A) hn (A) = absH(A) n Ereignis A tritt rel.H.: auf Beispiel: limn→∞ hn (A) → P(A): statistische Wahrscheinlichkeit Die hn an sich sind also noch keine Wahrscheinlichkeiten, sondern werden es erst durch den Grenz- wert. 1.3 Klassische Wahrscheinlichkeit Der Laplacsche Ereignisraum ist deniert als: S = (e1 , ..., em ), und darin haben alle 1 P (ei ) = m (Prinzip des unzureichenden Elementarereignisse die gleiche Eintrittswahrscheinlichkeit Grundes) Auÿerdem gibt es eine endliche Zahl von Elementarereignisse. 4 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie Tabelle 2: Titel n absHn (Kopf ) hn (Kopf ) 10 7 0,7 20 11 0,55 40 17 0,425 60 24 0,4 100 47 0,47 1000 492 0,492 5000 2515 0,503 Wenn A=Ereignis und damit Menge von elementarereignissen: g P (A) = AnzahlElementeinA AnzahlElementeinS = m =Wahrscheinlichkeit ⇒ Kombinatorik hilft bei der Berechnung 1.4 Mengentheoretische Konzepte Vereinigung A ∪ B: Das Ereignis A oder B tritt genau dan nein, wenn Ereignis A oder ereignis B oder beide zugleich eintreten. Bsp.: A=Augenzahl≥ 4=4,5,6; B=Augenzahl gerade=2,4,6 Durchschnitt → A ∪ B = 2, 4, 5, 6 → P (A ∪ B) = 4 6 A∩ B: Das Ereignis A und B tritt genau dann ein, wenn Ereignis A und Ereignis B zugleich eintreten. Bsp.: Ereignisse oben → A ∩ B = 4, 6 → P (A ∩ B) = Negation A: Das Ereignis Nicht A Bsp.: Ereignis oben 2 6 tritt genau dann ein, wenn A nicht eintritt. → A = 1, 2, 3 Dierenz A/B: Das Ereignis A ohne B Bsp.: Ereignisse oben → tritt genau dann ein, wenn zwar A aber nicht B eintritt. A/B=5 Komplementäres Ereignis: S/A ist das zu A komplementäre Ereignis (Vgl. Negation) Disjunktes Ereignis: Zwei Ereignisse A und B heiÿen disjunkt wenn A∩ B=leere Menge 1.5 Axiomatik der Wahrscheinlichkeitstheorie Funktion: P : E → R; A → P (A) (jedem A∈ E wird eine reelle Zahl zugeordnet, die die Wahrscheinlichkeit angibt) 5 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie Folgende drei • Axiome müssen jedoch erfüllt sein: Axiom K1: P (a) ≥ 0 für jedes A=E. Die Wahrscheinlichkeit P(A) jedes Ereignisses A ist eine nichtnegative reelle Zahl • Axiom K2: P(S)=1 Das sichere Ereignis hat die Wahrscheinlichkeit 1 • Axiom K3: P(A∪ B)=P(A)+P(B), falls A∩ B=leeres Menge Additionsregel für disjunkte Ereignisse • Axiom K3*: P (A1 ∪ A2 ∪ ...) = P (A1 ) + P( A2 ) + ... eine unendliche Folge von paarweise disjunkten Ereignissen Kolmogorovs Ereignisraum: E muss abgeschlossen sein, d.h. A∈ E, dann auch A∈E S∈ E alle vereinigten A∈ E (S,E,P(*)) heiÿt Kolmogorovscher Wahrscheinlichkeitsraum, wobei S=Ereignisraum, E=abgeschlossener Ereignisraum, P=Wahrscheinlichkeitsmaÿ Wenn E Anforderungen erfüllt: Sigma-Algebra (kleinste Sigma-Algebra: E=S;leeres menge 1.6 Theoreme aus den Axiomen Theorem 1: P(A)=1-P(A) A und A sind disjunkt und ihre Vereinigung=S. Nach K3 ist P(A∪A)=P(A)+P(A)=P(S)=1 Damit ist P(A)=1-P(A) Theorem 2: P(unmögliches Ereignis)=0 Unmögliches ereignis und S sind komplementäre Ereignisse. Nach K2 ist P(S)=1 und nach Theorem 1 ist dann P(S )=P(unmögliches Ereignis)=1-P(S)=1-1=0 Theorem 3 A1 , A2 , ..., An sind paarweise disjunkt: P P (A1 ∪ A2 ∪ ...An ) = P (Aj ) Beweis durch vollständige Induktion von K3 6 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie Theorem 4 P(A/B)=P(A)-P(A∩ B) Theorem 5 Additionssatz für beliebige Ereignisse: P (A ∪ B) = P (A) + P (B) − P (A ∩ B) A ∩ B 6= 0 A ∪ B : (A/B) ∪ (A ∩ B) ∪ (B/A) P (A ∪ B) = P (A/B) + P (A ∩ B) + P (B/A) P (A) = P (A ∩ B) + P (A/B)undP (B) = P (A ∩ B) + P (B/A) Gilt auch wenn Nach K3 gilt: einsetzen ergibt P (A ∪ B) = P (A) − P (A ∩ B) + P (A ∩ B) + P (B) − P (A ∩ B) = P (A) + P (B) − P (A ∩ B) Additionssatz für drei beliebige Ereignisse: P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C) Theorem 6 Monotonieeigenschaft des Wahrscheinlichkeitsmaÿes: A ⊂ B ⇒ P (A) ≤ P (B) 1.7 Bedingte Wahrscheinlichkeit Denition: Bedingte Wahrscheinlichkeit: Die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung dass Ereignis B eingetreten ist (oder gleichzeitig mit A eintritt heiÿt bedingte Wahrscheinlichkeit von A unter der Bedingung B. Seien A und B zwei Ereignisse eines gegebenen Wahrscheinlichkeitsraums. Die bedingte Wahrscheinlichkeit ist dann deniert als: P(A!B):= P (A∩B) P (B) für 0<P(B);P(A∩ B);P(A!B)<1 Möglichkeiten für A∩ B siehe eigene Anlage. Tabelle 3: Zwei Interpretationen klassisch-frequentistisch bayesianisch-subjektiv Einschränkung des Ereignisraum S auf Veränderung (Update) durch subjektive Elementarereignisse, die den Eintritt von B Wahrscheinlichkeit durch Eintritt B implizieren zeitliche Abfolge B: Würfel≥ 4→ Ereignisraum dann 4,5,6 7 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie Beispiel 1: gleichzeitiger Münzwurf und Würfelwurf B: Münze zeigt Kopf A: Zahl ≥ 4 P(A!B)=P(A!B )=P(A)= 1 2 Beispiel 2: B: 10x hintereinander rot beim Roulette A: beim elften Mal kommt auch rot P(A!B)=P(A)= 18 37 Beispiel 3 einmaliger Würfelwurf S=(1,2,3,4,5,6) B =(12) B: Zahl > 2 =(3,4,5,6) und A: Zahl ≥ 4 =(4,5,6) Berechnung nach Denition: P(B)= 4 6 3 6 P (A∩B) P(A!B)= P (B) P(A∩ B)= = 3 6 : 4 6 = 3 4 Direkte Berechnung Einschränkung von S auf Elemente bei denen B eintritt: B=(3,4,5,6)=SB ; (1,2) fällt weg SB =(4,5,6) AnzahlAinSB = 43 SB A=(4,5,6); A in P(A!B)= 1.8 Stochastische Unabhängigkeit Denition: Zwei Ereignisse A und B heiÿen stochastisch unabhängig oder kurz unabhängig wenn: P(A!B)=P(A) oder P(B!A)=P(B) Gilt dies nicht heiÿen sie stochastisch abhängig. Multiplikationssätze der Wahrscheinlichkeitsrechnung: • bei stochastischer Abhängigkeit gilt: • P(A∩ B)=P(A)*P(B!A) • P(B∩ a)=P(B)*P(A!B) 8 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie • bei stochastischer Unabhängikeit gilt: • P(A∩ B)=P(A)*P(B) bzw. P(B∩ A)=P(B)*P(A) Implikationen daraus P (A∩B) P (B) P (A)∗P (B) P (B) • P(A!B)= • damit gilt auch für P(B!A)=P(B) = = P (A) NICHT VERWECHSELN: Wenn A und B sich ausschlieÿen (disjunkt) gilt: P(A∪ B)=P(A)+P(B) Wenn A und B stochastisch unabhängig gilt: P(A∩ B)=P(A)*P(B) Damit impliziert weder stochastische Unabhängigkeit dass zwei Ereignisse disjunkt sind, noch dass zwei disjunkte Ereignisse stochastisch unabhängig sind. 1.9 Totale Wahrscheinlichkeit Vorraussetzungen für das folgende Kapitel sind: P(A∪ B)=P(A)+P(B) wenn A∩ B=φ P (A1 ∪ A2 ... ∪ An ) = P (A1 ) + P (A2 ) + ... + P (An ) wenn Ai ∩ Aj = φ P (A∩B) P(A/B)= P (B) P(A∩ B)=P(A/B)*P(B) bzw. P(B/A)*P(A) Denition Partition Irgendwelche n Ereignisse A, die sich gegenseitig ausschlieÿen, aber zusammengenommen den Ereignisraum ganz ausfüllen, also: Ai ∩ Aj = φ für i 6= j und A1 ∪ A2 ∪ ... ∪ An = S Schaubild siehe Anhang Herleitung der totalen Wahrscheinlichkeit: E = (E ∩ A1 ) ∪ (E ∩ A2 ) ∪ (E ∩ A3 )...(E ∩ A6 ) = φ ∪ φ ∪ (E ∩ A3 ) ∪ (E ∩ A4 ) ∪ (E ∩ A5 ) ∪ φ Die Elemente oben schlieÿen sich gegenseitig aus P P (E) = P (E ∩ A1 ) + P (E ∩ A2 ) + P (E ∩ A3 )... = ni=1 P (E ∩ Ai ) oder P P (E) = P (E/A1 ) ∗ P (A1 ) + P (E/A2 ) ∗ P (A2 ) + ... + P (E/An ) ∗ P (An ) = ni=1 P (E/Ai ) ∗ P (Ai ) Beispiel:P (E) = 0 + 0 + P (E ∩ A3 ) + P (E ∩ A4 ) + P (E ∩ A5 ) + 0 Rechenbeispiel:Ein Würfel und ein Schrank mit drei Schubladen Schublade Sch 1 enthält 14 weiÿe und sechs schwarze Kugeln. Schublade Sch 2 enthält 2 weiÿe und 8 schwarze Kugeln. Schublade 3 enthält 3 weiÿe und 7 schwarze Kugeln. 9 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie 1. Stufe: Zuerst wird gewürfelt. Erscheint auf dem Würfel eine Zahl kleiner als 4, wird Schublade Sch 1 ausgewählt; erscheint eine 4 oder 5, wird Schublade Sch 2 gewählt; andernfalls Schublade Sch 3. 2. Stufe: Danach wird aus der so gewählten Schublade eine Kugel zufällig gezogen. FRage: Wie groÿ ist die totale Wahrscheinlichkeit, am Ende eine weiÿe Kugel zu ziehen? Die totale Wahrscheinlichkeit am Ende eine weiÿe Kugel zu ziehen ist dann: P(weiÿ)=P(weiÿ/Sch1)*P(Sch1)+P(weiÿ/Sch2)*P(Sch2)+P(weiÿ/Sch3)*P(Sch3)=(14/20)*(3/6)+(2/10)*(2/6)+ Das Bayes-Theorem Nach der Regel für bedingte Wahrscheinlichkeiten gilt: P (Ak /E) = P (Ak ∩E) P (E) = (M ultiplikationssatz) = In der Bayes-Statistik kennzeichnen Ai PnP (E/Ak )∗P (Ak ) i=1 P (E/Ai )∗P (Ai ) alternative Hypothesen. Mit E sind Ereignisse in diesen Hypo- thesen gemeint. P (Ai ) heiÿt die a-priori-Wahrscheinlichkeit der i-ten Hypothese (Wahrscheinlichkeit bevor E eintritt) und P (Ai /E) ist ihre a-posteriori-Wahrscheinlichkeit nach Kenntnis von E. ⇒ Ereignisse führen also dazu, dass Bayesianer ihre Wahrscheinlichkeiten ändern! Marktmikrostrukturmodell mit Satz von Bayes An der Börse existieren Kursmakler, die zu Briefkursen (Kurse zu denen sie verkaufen) und Geldkursen (Kurse zu denen sie kaufen) mit einer gewissen Spanne handeln. Grund ist unterschiedliches Wissen, da es Käufer gibt, die den wahren Wert eines Papiers wissen, andere (Kursmakler eingeschlossen) wissen ihn jedoch nicht. Der Handel verläuft in drei Schritten: 1. Wert der Anlage wird festgestellt: einige Händler kennen den Wert, andere nicht 2. Handel ndet statt mit dem Kursmakler (uninformiert) 3. Schlussauktion: alle erfahren den Wert Schritt 1: Der Zustand der Welt bestimmt den Wert der Anlage: → hoher fundamentaler (wahrer) Wert → tiefer fundamentaler Wert = P_ good news bad new = P* Händlertyp I efährt den wahren Wert. Händlertyp N erfährt den wahren Wert nicht. P(P*)=0,5; P(P_)=1-P(P*)=0,5 Kursmakler (KM) kennt den wahren Wert nicht, aber P(P*) und P(P_) 10 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie KM legt Verkaufspreis nach folgenden Regeln fest: • P Brief ≤ • P Geld ≥ P* (Verkauf ) P_ (Ankauf ) Schritt 2: Es wird ein Händler (H) zufällig ausgewählt (I oder N) gegeben: P(I)=P(I/P_)=P(I/P*) P(N)=P(N/P_)=P(N/P+) Diese sind unabhängig vom Zustand der Welt Numerisches Beispiel: P(I)=0,2 und P(N)=0,8 Ereignisse, Daten, die KM beobachtet: K: ausgewählter H kauft von KM V: ausgewählter H verkauft von KM gegeben: P(K/I∩ P_)=0 P(K/I∩ P*)=1 P(K/N∩ P_)=P(K/N∩ P*)=0,5 KM weiÿ nicht ob I oder N-Typ handelt. nach K oder V revidiert der KM seine Einschätzung über die Welt. Folgende Möglichkeiten gibt es: P(P*/K) bzw. P(P_/K) P(P*/V) bzw. P(P_/V) → bei K eher guter Tag, bei V eher schlechter Tag Frage: Wie ändert sich die Wahrscheinlichkeit, dass ein guter Tag ist, wenn jemand kauft? gesucht: P(P*/K) (P(P_/K)=1-P(P*/K)), analoge Vorgehensweise bei Verkauf P(P*/K)= P (K/P ∗)∗P (P ∗) P (K/P ∗)∗P (P ∗)+P (K/P) ∗P (P) = W ahrscheinlichkeiteinesKauf samgutenT ag totaleW 0 keitf rKauf dabei sind P(K/P*) und P(K/P_) nicht direkt gegeben. Berechnung dieser beiden Gröÿen: (K∩P ∗∩N ) = P (K∩P ∗∩I)+P P (P ∗) Dabei ist: P (K ∩ P ∗ ∩I) = P (K/P ∗ ∩I) ∗ P (P ∗ ∩I) =P(K/P*∩ I)*P(I/P*)*P(P*) =P(K/P*∩ I)*P(I)*P(P*) ebenso: P(K∩ P*∩ N)=P(K/P*∩ N)*P(N)*P(P*) P(K/P*)= P (K∩P ∗) P (P ∗) 11 Titel 1 Grundlagen der Wahrscheinlichkeitstheorie Damit gilt also: P(K/P*)= P (K/P ∗∩N )∗P (N )∗P (P ∗)+P (K/P ∗∩I)∗P (I)∗P (P ∗) P (P ∗) =P(K/P*∩ N)*P(N)+P(K/P*∩ I)*P(I) im numerischen Bsp.: 0,5*0,8+1*0,2=0,6 Daraus ergibt sich für die ursprünglich gesuchte Gröÿe P (K/P ∗)∗P (P ∗) P (K/P ∗)∗P (P ∗)+P (K/P )∗P (P ) 0,6∗0,5 = 0,6∗0,5+0,4∗0,5 =0,6 P(P*/K)= _ _ 12 Titel 2 Zufallsvariablen 2 Zufallsvariablen Denition Zufallsvariable: Gegeben sei ein Wahrscheinlichkeitsraum [S, E, P(*)]. Eine Funktion: X : S → R; e → X(e) ∈ R die jedem Elementarereignis e eine reelle Zahl X(e) zuordnet heiÿt Zufallsvariable oder stochastische Variable (wenn dabei zu jedem reellen r ein Ereignis Ar ∈ E gehört mit Ar = [e|X(e) ≤ r]) Es handelt sich dabei immer eine Funktion die vom Ausgans eines Zufallsexperiments abhängt. In der Wirtschaftswissenschaft ist oft S=R oder Teilmenge von R. Beispiel als Grafik siehe anhang. Beispiel 1: Eine Münze werde einmal geworfen. Die Zufallsvariable X bezeichnet die Anzahl der Köpfe die bei diesem Experiment herauskommen kann. Die so denierte Zufallsvariable kann nur zwei Werte annehmen, nämlich: X(Zahl)=x1 =0 und X(Kopf )=x2 =1 und hat somit den Wertevorrat W=[0,1]. Die Abbildung auf Zahlen darf jedoch nicht einfach zufällig, sondern muss nach Regeln gewählt werden. Die Ereignismenge E hat die vier Ereignisse E=[, Zahl, Kopf, S] Beispiel 2: Zwei regelmäÿige Würfel werden geworfen. Der Ereignisraum besteht aus 36 Elementarereignissen: S=i,j|i=1...6; j=1...6 Mehrere Zufallsvariablen lassen sich hier bilden. Bezeichne etwa X die Summe der Augenzahlen oder Y ihre absolute Dierenz: X(i,j):=i+j damit ist x=2,3,...12 Y(i,j):=|i − j| und damit ist y=0,1,2,3,4,5 Die Zufallsvariable X kann elf verschiedene ganzzahlige Werte annehmen, die Zufallsvariable Y nur sechs. Beispiel 3: Ein Punkt im Innern einer Kreisäche vom Radius c werde zufällig gewählt. Bezeichnen ξ und η die Koordinaten des Punktes in einem Koordinatensystem durch den Mittelpunkt des Kreises, kann der Ereignisraum als: D = [(ξ, η)|ξ, η ∈ Rundξ 2 + η 2 < c2 ] geschrieben werden. die Zufallsvariable Z werde un deniert als der Abstand des gewählten Punktes vom Kreismittelpunkt. Z(ξ, η) := p ξ2 + η2 Die so denierte Zufallsvariable kann nun alle reellen werte zwischen 0 und c annehmen. Wirtschaftsrelevante Beispiele xt+1 : Auszahlung einer Investition in t+1 Ereignisse: xt+1 ≤ −100000(⊂ R) 13 Titel 2 Zufallsvariablen Einschub zum Verständnis diskreter und stetiger Variablen: endlicher S =[e1 , e2 ...en ] abzählbar unendlicher S : Münzwurf solange bis K kommt: S=[K, ZK; ZZK; ZZZK;...] Hier ist eine Idizierung möglich, d.h. man kann die Elemnte abzählen, deshalb ist auch eine Wahrscheinlichkeitszuordnung möglich: = 12 1 P(ZK)=p2 = (daP (ZK) = P (Z) ∗ P (K)) 4 1 P(ZZK)=p3 = 8 12 P(Z...ZK)=pi = 2 P ∞ Damit ist P(S)= j=1 P (pj ) = 1 P(K)=p1 überabzählbarer unendlicher S Elementarereignisse können nicht indiziert werden = stetiger Ereignisraum Beispiel Nadelwurf: S=[α|0 ≤ α ≤ 180] P (α) = 0 In diesem Fall ist Beispiel Zahlenstrahl: Die Wahrscheinlichkeit eine bestimmte Zahl zwischen 0 und 1 zu bekommen: S=[a|0 ≤ a ≤ 1] S ist also stetig, dehsalb werden die Wahrscheinlichkeiten Intervallen zugeordnet, z.B.: A=[a|a<0,4]; B=[a|0,6<a<0,9]; C=[a|a>0,8] Die zugeordneten Wahrscheinlichkeiten: P(A)=0,4; P(B)=0,3 und P(C)=0,2 Nun kann man auch normal rechnen: A∪ C=[a|a<0,4 oder a>0,8]=ausschlieÿende Ereignisse=P(A)+P(C)=0,4+0,2= Denition: Hat der Wertevorrat W⊂ R einer Zufallsvaraibeln X endlich viele oder abzählbar unendlich viele Werte W=[x1 , x2 , ...] heiÿt sie diskret. Besteht der Wertevorrat W⊂ R einer Zufallsvariable X aus der ganzen reelen Achse oder aus Teilintervallen W=[x|a ≤ x ≤ b] mit −∞ < a < b < ∞ so heiÿt sie stetig. Ihr Wertevorrat hat dann überabzählbar unendlich viele Werte. Sezialfall: binäre Zufallsvariablen: Dann ist der Wertevorrat uaf W=[0,1] beschränkt. Beispiele dafür sind: wahr→ 1 und falsch→ 0 ja→ 1 und nein → 0 14 Titel 2 Zufallsvariablen 2.1 Verteilungsfunktion Denition: Die Funktion FX (x) = P (X ≤ x) = P xi ≤x f x(xi ) die jeder reellen Zahl x die Wahrscheinlichkeit zuordnet mit der die Zufallsvariable X einen Wert X≤ x annimmt, heiÿt Verteilungfunktion (distribution function, cumulative distribution/density function: cdf ) der betreenden Zufallsvariable X. Man muss dabei alle fX (x) für alle Ausprügungen der Zufallsvariablen ≤ x summieren. Beispiel zweimaliger Münzwurf Dabei wird (KK)→ 0, (ZK,KZ)→ 1 und (ZZ)→ 2 zugeordnet. Damit ist FX (0) = 41 ; FX (1) = 3 4 und FX (2) = 1 Beispiel: Punkt im Kreisinnern Ein Punkt im Inneren eines Kreises vom Radius c werde zufällig gewählt. Die Zufallsvariable Z sei deniert als Abstand des Punktes vom Kreismittelpunkt. P (Z ≤ z) = Kreisf lche(Az ) Kreisf lche(S) = z2 π c2 π = z2 c2 Vergleiche Schaubild S. 10 Skript Eigenschaften von Verteilungsfunktionen • F(x) ist an jeder Stelle x zumindest rechtsseitig stetig: • F(x) ist überall monoton (nicht streng) steigend: • F(x) hat die Grenzwerte • jede Funktion die diese Bedingungen erfüllt ist eine Verteilungsfunktion limx→−∞ F (x) = 0 und limδx→0 F (x + δx) = F (x) F (a) ≤ F (b) für a<b limx→∞ F (x) = 1 Denition: Jede Funktion F(x) auf dem Denitiosbereich der reellen Zahlen und mit dem Wertebreich [0,1], die die obigen drei Eigenschaften hat, heiÿt Verteilungsfunktion und deniert eine Zufallsvariable. 2.2 Diskrete Zufallsvariablen Denition: Ist X eine diskrete Zufallsvariable, dann heiÿt die Funktion: f(x):=P(X=x) die Wahrscheinlichkeitsmassenfunktion oder kurz Massenfunktion (=probability density functi- on=pdf ) der Zufallsvariablen X. Beispiel des zweimaligen Münzwurfs von vorher: P (X = 0) = fx (0) = P (X = 1) = fx (1) = 1 4 1 2 15 Titel 2 Zufallsvariablen P (X = 2) = fx (2) = 12 P (X = 100) = Fx (100) = 0 Folgende Gleichungen könnte man hier auch benutzen: ( nx ) ∗ px (1 − p)n−x = P (X = x) e−λ ∗ λx!x = P (X = x) Eigenschaften: • P (X = x) = fX (x) ≥ 0 (Axiom 1: W'keit>0) P P • W'keit=1) allei fX (xi ) = 1 (Axiom 3: • fX (xi ) ≤ 1 • jede Funktion, die diese Bedingungen erfüllt ist eine Wahrscheinlichkeitsfunktion Darstellung: Die Verteilungsfunktion F(x) wird in einem Treppendiagramm zwischne 0 und 1 abgetragen. Die Massenfunktion f(x) wird in einem Stabdiagramm zwischen 0 und 1 abgetragen. Vergleiche Skript S. 14 2.3 Stetige Zufallsvariablen Ausgangspunkt ist hier wieder die Verteilungsfunktion FX (x)=P(X≤ x) Die Eigenschaften müssen erhalten bleiben. Durch die Verteilungsfunktion sind dann W'keiten für Ereignisse wie a<X<b berechenbar. Beispiele: Graken siehe Anlage Nr.2-4 (1) X=Wartezeit zwischen zwei Kundenbesuchen (in Minuten) FX (x)= 1 − e−0,1x für x≥ 0 0 für x<0 Schaubild siehe eigene Anlage (2) X=Wartezeit auf U-Bahn (in Minuten); fährt im 20 Minuten Takt FX (x)= 0 für x<0 1 20 x für 0≤ x≤ 20 1 für x>20 Schaubild siehe eigene Anlage (3) X=log Rendite Finanzanlage: t+1 ln[ Pt+1P+d ] t 16 Titel 2 Zufallsvariablen RfXx (x)= 1 −∞ 2Π∗(0,01) 2 ∗ exp( 21 ( u−0,001 0,01 ) )du in Excel:=Standmomvert( x−0,001 0,01 ) Schaubild siehe eigene Anlage Von der Verteilungsfunktion zur Dichtefunktion Denition: Ist X eine stetige Zufallsvariable mit der Verteilungsfunktion F dahh heiÿt die erste Ableitung f(x)= d dx F (x) die Wahrscheinlichkeitsdichtefunktion oder kurz Dichtefunktion der Zufallsvariablen X. Siei st keine wahrscheinlichkeitsfunktion und kann deshalb auch Werte gröÿer 1 enthalten. Man darf sie auch nicht mit der gleichnotierten Massenfunktion für diskrete ZV verwechseln. Beispiel (1) FX (x) = 1 − e−0,1∗x fX (x) = 0, 1 ∗ e−0,1∗x für x≥0 Beispiel (2) fX (x) = 1 20 für 0 ≤ x ≤ 20 Was ist fX (x) mathematisch? fX (x) = dFX (x) dx X (x) = lim∆→0 FX (x+∆)−F ∆ mit ∆ > 0 = lim∆→0 P (x<X≤x+∆) ∆ (Vergleiche Beispiel zu a<x<b später) Damit ist: Wird ∆ P (x < X < x + ∆) ≈ fX (x) ∗ ∆ innitesimal klein (=d) gilt: P(x<X<x+dx)=fX (x) ∗ dx ⇒ es ist also eine gute lineare Ap- proximation an W'keiten möglich Was ist fX (x) visuell? Denition ausgehend von Dichtefunktion: fX (x) = dFX (x) dx limx→−∞ FX (x) = 0 gilt auch ein Denition ausgehend von der RDa x x −∞ fX (u)du = [FX (u)]−∞ = FX (x) − limx→−∞ FX (x) = FX (x) Visuell ergibt sich: dass P (X ≤ x) = dass P (a < x < Verteilungsfunktion: Rx −∞ fX (u)du = FX (x)=Fläche unter fX (x) (Vergleiche eigene Anlage) Rb b) = a fX (x)dx = FX (b) − FX (a)=Teiläche unter fX (x) (Vergleiche eigene Anlage) (Andere Herleitung: P(x<b)=P(x<a)+P(a<x<b) (da disjunkte Ereignisse) P(x<a)=FX (b) ⇒ P(a<x<b)=P(x<b)- − FX (a)) Weitere Intuition: Histogramm-Analogie Beim Histogramm ndet man auf der X-Achse die Klassen und auf der Y-Achse stehen die normierten relativen Häugkeiten (d.h. durch Klassenbreiten geteilt). Sie stellen die dichte der Daten dar. Die 17 Titel 2 Zufallsvariablen Fläche des Histogramm bezeichnet damit die relH. Die gleiche Idee gilt bei der Dichtefunktion. Dort ist die Y-Achse auch nur die Dichte der Daten (d.h. die Steigung der Verteilungsfunktion), die Fläche unter der Kurve stellt die Wahrscheinlichkeiten dar. 2.4 Erwartungswerte Rückblick auf EDA: arithmetisches Mittel: 1 n Pn v=1 xv oder x= 1 n Pk i=1 xi ∗ ni oder x= Pk i=1 xi ∗ hi Varianz: 1 n Pn v=1 g(xv ) mit g(xv ) = (xv − x)2 oder s2 = 1 n Pk i=1 g(xi ) ∗ ni oder s2 = Pk i=1 g(xi ) ∗ hi Denition: Erwartungswert Sei X eine Zufallsvariable und f ihre Massen- bzw. Dichtefunktion. Ihr Erwartungswert ist deniert als P E(g(x)) = allei g(xi ) ∗ fX (x) falls x eine diskrete 2 wie x und xi =i-te Ausprägung der ZV R∞ E(g(x)) = −∞ g(x) ∗ fX (x) falls x eine stetige ZV. ZV mit g(x)=Funktion, die neue ZV generiert E(x) ist auch der Schwerpunkt der Masseverteilung, vergleichbar dem aritmetischen Mittel. Eine messbare Funktion ist dabei eine solche die für jedes xi einen Erwartungswert liefert. Beispiele Anlage Nr.5 Verbindung Erwartungswert und arithmetisches Mittel Für Frequentisten gilt: P (X = xi ) = limn→∞ relHn (X = xi ) , d.h. geht die Anzahl der Zufallsexperimente gegen ∞, dann konvergiert die relH gegen die Wahr- scheinlichkeit. Konkret: können wir ein bestimmtes Experiment wie z.B. ein Binomialexperiment (10 BernoulliExperimente mit p=0,1) beliebig oft durchführen dann nähert sich hier das arithmetische Mittel an die Wahrscheinlichkeit (hier 1) an: E(x)=arithmetisches Mittel bei unendlicher Wdh. eines Zufallsexperiments Beispiel aus der Ökonomie: Klassisches Beispiel ist die Entscheidung zwischen 2Äpfel und 1Birne oder 3Äpfeln, also u(2Ä,1B) im Vergleich zu u(3Ä) Wie ist dieses Beispiel auch unter Risiko nutzbar? Man geht dann von Güterbündeln auf Vermögen über: U(Vermögen)=Vermögensnutzenfukntion= 1 1−γ oder U(V)=lnV 1−γ V U ist immer nur vergleichbar, d.h. U(10000)<U(100000) und zeigt Präferenzen. Man kann entscheiden zwischen Z=10000 sicher oder das Risiko zwischen x=1 mit P(X=1)=0,9 und x=100000 mit P(x=100000)=0,1 mit u(V)=lnV 18 Titel 2 Zufallsvariablen Nach den Axiomen von Neumann/Morgenstern ist der Nutzen bei Risiko: E(u(X)): U(10000)=ln(10000)=9,2 E(ln(x))=ln(1)*0,9+ln(100000)*0,1=1,15 Da 9,2>1,15 präferiert der Investor die sichere Auszahlung Weiter Beispiele (grasch) siehe eigene Anlage Intuition: E(x) ist eine mathematische Operation, d.h. ein Ergebnis existiert möglicherweise nicht im Gegensatz zum aritmetischen Mittel. Als Beispiel dient die Canchy-Verteilung fX (x) = 1 . Hier strebt das Integral von Π(1+x2 ) −∞ bis ∞ gegen keinen endlichen Wert. Erwartungswerte wichtiger Zufallsvariablen a) Bernoulli-ZV X∼ Be(p) ( p x=1 f (x) = 1−p x=0 X E(x) = xi ∗ fx (xi ) = 1p + 0(1 − p) = p (1) (2) allei b) Binomialverteilte ZV E(x) = n X x=0 n x x∗ p (1 − p)n−x = n ∗ p x (3) Interpretation. für p=0,5, n=10, E(x)=5 Schwerpunkt der W'keitsmasse liegt bei 5 Im Mittel (bei unendlicher Wdh. des Binomialexperiment) gibt es 5 Erfolge bei 10 Versuchen FALSCH: Bei 10 Versuchen mit p=0,5 erwarten wir 5 Erfolge c) Poissonverteilte ZV X∼ Po(X) E(x) = ∞ X x ∗ e−λ ∗ x=0 λx = λ(n ∗ p) x! (4) Interpretation: Po(λ) approx. B(n,p) für n→∞ und p→0 gilt: n*p=λ da: E(x)=n*p für B(n,p) E(x)=λ für Po(λ) d) hypergeometrisch verteilte ZV Die Binomialverteilung kann als Grenzverteilung der hypergeometrischen Verteilung gesehen werden: fHy (x;N,p,n)→N →∞ fBi (x, p, n). 19 Titel 2 Zufallsvariablen Deshalb gilt: E(X)=n*p e) geometrische Verteilung fGeo (x, p) = (1 − p)x p E(X) = (1−p) p f) Rechteckverteilte ZV (gleichverteilt) X∼R(a,b) f (x) = 0 x<a a≤x≤b x>b 1 b−a 0 b Z x∗ E(X) = a (5) 1 1 b2 a2 1 (b − a) ∗ (b + a) 1 dx = [x2 ∗ ]ba = − = ∗( ) = (b+a) b−a 2(b − a) 2(b − a) 2(b − a) 2 b−a 2 (6) g) exponentialverteilte ZV X∼Ex(λ) Z ∞ E(x) = x ∗ λ ∗ e−λ∗x dx = 0 1 λ (7) h) normalverteilte ZV X∼N(µ, σ 2 ) Z ∞ x∗ √ E(x) = −∞ 1 2Πσ 2 ∗e 2 −1 ∗( x−µ ) 2 σ2 dx (8) E(x)=µ g) Problemfall: Cauchy f (x) = 1 Π(1+x2 ) Zwar ist die Dichte =1, aber: Z ∞ x∗ E(x) = −∞ 1 1 1 ∗ dx = [ ln(1 + x2 )]∞ 0 =∞ Π (1 + x2 ) 2Π (9) Diese Verteilung sieht der normalverteilung ähnlich, hat aber mehr Masse in den Enden (d.h. geht nicht gegen 0 dort). Man kann sie also gerade gut für riskante Renditen nutzen, dann ist jedoch das Konzept des Erwartungswerts zur Bewertung von Renditen nicht mehr nutzbar!! Einfache Rechenregeln für E a) a ist eine reelle Zahl E(a)=a*E(x) ⇒ R∞ R∞ ∗ f (x)dx = a ∗ −∞ f (x)dx = a ∗ 1 = a R∞ ⇒ a ∗ −∞ x ∗ f (x)dx = a ∗ E(x) −∞ a b) E(a*X)=a*E(X) 20 Titel 2 Zufallsvariablen R∞ R∞ ⇒ −∞ [g(x)+h(x)]f (x)dx = −∞ g(x)∗f (x)+h(x)∗f (x)dx = R∞ R∞ −∞ g(x) ∗ f (x)dx + −∞ h(x) ∗ f (x)dx = E(g(x)) + E(h(x)) c) E(g(x)+h(x))=E(g(x))+E(h(x)) Ein paar Beispiele E(aX+bX+cX)=a*E(X)+b*E(x)+c*E(x) E((x + a)2 ) = E(x2 + 2ax + a2 ) = E(x2 ) + 2a ∗ E(x) + a2 2.5 Varianzen Denition Sei X eine Zufallsvariable und µx ihr Erwartungswert. Der Erwartungswert der quadrierten Abweichung der Zufallsvariablen von ihrem Erwartungswert heiÿt Varianz der Zufallsvariabeln X: V ar(X) = E((X − µ)2 ) = σ 2 Die positive Wurzel heiÿt Standardabweichung: p σx = + V ar(X) Gemäÿ der Regeln des Erwartungswerts gilt: E((X − µ)2 ) = E(x2 − 2xµ + µ2 ) = E(x2 ) − 2µ2 + µ2 = E(x2 ) − [E(x)]2 Inhaltliche Interpretation Streuung um E(x) Vergleiche Schaubild Anlage Nr.6 Varianz als klassisches Risikomaÿ Beispiel dazu: A Rendite Finanzanlage A und RB Rt+1 t+1 A ) > E(RB ) aber auch: E(Rt+1 t+1 A ) > V ar(RA ) V ar(Rt+1 t+1 Rendite Finanzanlage B Vergleiche Schaubild Anlage Nr.7 ⇒ Lösung hier über Sharpe Ratio E(R) σ(R) (da σ gleiche Dimension wie E im Gegensatz zur Varianz) Man vergleicht also diese beiden Brüche. Umso höher ein solcher Bruch, umso besser bzw. umso geringer das Risiko im Verhältnis zum Erwartungswert. Varianzen für einige Verteilungen • x∼B(n,p) ist n*p • x∼Po(λ) ist λ • x∼Ex(λ) ist 1/λ2 • x∼N(µ, σ 2 ) • ist (=E(x)) σ2 Cauchy-Verteilung ist ∞ (keine Lsg) 21 Titel 2 Zufallsvariablen Rechenregeln für Varianzen • Konstante: Var(a)=0 • Verschiebung: Var(X+a)=Var(X) • Streckung: Var(bX)=b *Var(X) • Lineare Transformation: Var(a+b*X)=b *Var(X) • Vereinfachte Berechnung: Var(X)=E(X )-µ 2 2 2 2 2.6 Standardisieren 2.7 Tschebysche Ungleichung Sie stellt die Verbindung zwischen Varianz und vielen Werten in den Enden her Denition: Sei X eine beliebige stetige oder diskrete ZV mit Erwartungswert µ und der Standardabweichung σ, so gilt stets die Ungleichung P (|X − µ| ≥ kσ) ≤ 1 k2 (10) für jedes K>0 und völlig unabhängig von der Verteilung Beispiel P [|x − µ| ≥ 2σ] ≤ 0, 25 2 Für µ=0, σ =1 und normalverteilt: 1 − FST (x ≤ 2) = 0, 9772, so dass obiges = 0,0228 2.8 Momente 2 E(x ) ist das zweite unzentrierte Moment M2 ... Ist X eine ZV, so heiÿt der Erwartungswert der k-ten Potenz k E(x ) ist das kte unzentrierte Moment Mk das k-te Moment der Verteilung falls er existiert. Der Erwartungswert der k-ten Potenz der Abweichung vom Mittelwert MkZ = E[(X − µ)k ] heiÿt k-tes zentrales Moment Es ist immer möglich von unzentrierten Momenten auf zentrale Momente zu kommen: 1. V ar(x) = E[(x − µ)2 ] = E(x2 ) − µ2 22 Titel 2 Zufallsvariablen 2. E[(x − µ)3 ] = E(x3 − 3x2 µ + 3xµ2 − µ3 ) = E(x3 ) − 3µE(x2 ) + 3E(x)µ2 − µ3 Zentriertes 3tes Moment als Schiefemaÿ γ= E[(x − µ)3 ] σ3 (11) ist >0 wenn die Verteilung rechtsschief ist ist <0 wenn die Verteilung linksschief ist ist =0 wenn die Verteilung symmetrisch ist Zentriertes 4tes Moment als Wölbungsmaÿ κ= E[(x − µ)4 ] σ4 (12) Für die Kurtosis (Wölbung, Spitzigkeit) gilt: umso gewölbter, umso risikoreicher Für NV: κ-3>0 κ=3 (spitizger als NV) 2.9 Momenterzeugende Funktionen die Funktion: M EF (t) = E(etX ) (13) heiÿt momenterzeugende Funktion wobei t eine Hilfsvariable ist. Diskreter Fall: M EF (t) = X etxj f (xj ) (14) allej Stetiger Fall: Z ∞ M EF (t) = etx f (x)dx (15) −∞ Beispiele: Poissonverteilung M EF (t) = e−λ ∗ eλ∗e∗t Das zentrale Ergebnis: Die k-te Ableitung der momenterzeugenden Funktion einer Verteilung liefert an der Stelle 0 M EF (k) (t = 0) = e(xk ) = Mk Diskrete ZV X et∗xi f (x) (16) 23 Titel 2 Zufallsvariablen X M EF 0 (t) = xi ∗ et∗xi fx (xi ) (17) xi fx (xi ) = E(x) (18) allei X M EF 0 (0) = allei M EF 00 (t) = X x2j etxj f (xj ) (19) M EF 00 (0) = X x2j f (xj ) = E(x2 ) (20) ext ∗ x ∗ fx (x)dx (21) x ∗ fx (x)dx = E(x) (22) Stetige ZV ∞ Z 0 M EF (t) = −∞ Z ∞ M EF 0 (0) = 00 Z −∞ ∞ x ∗ ext ∗ x ∗ f (x)dx M EF (t) (23) −∞ Z 00 ∞ M EF (0) = x2 ∗ f (x)dx = E(x2 ) (24) −∞ Vergleicht man zwei ZV ob sie gleiche Verteilungen haben: Man schaut nur ob sie die gleichen Momenten haben Dies geht einfach, denn man muss nur die MEF vergleichen 2.10 Dichtetransformationstheorem Ausgangspunkt: X ist stetige ZV mit fx (x) Daraus bildet man y=h(x) mit h(x) ist monotone Funktion Als Beispiel: exp(x) mit h'(x)> oder <0 Gesucht: fy (y), Fy (y) = R∞ −∞ fy (u)d Wir wissen wie E(y) berechnet wird: Wir brauchen x= h−1 (y) (im Beispiel x=lnx) fy (y) = fx [h−1 (y)] ∗ Im Beispiel: E(y) = E(h(x)) = fx (lny) ∗ dh−1 (y) dy R∞ −∞ h(x) ∗ f (x)dx (25) 1 y 24 Titel 3 Stochastische Modelle und spezielle Verteilungen 2.11 Median, Quantile Die Quantilfunktion ist die Umkehrfunktion der Verteilungsfunktion FX−1 (p) = x[p] FX (x) = P (X ≤ x): wobei p=W'keit zwischen 0 und 1 und x[p] das p-Quantil der Verteilung sind. Eine Zahl x[p] mit 0<p<1 heiÿt p-Quantil wenn gleichzeitig P (X ≤ x[p]) ≥ p und P (X ≥ x[p]) ≥ 1−p Beispielrechnung: Exponentialverteilung: FX (x) = 1 − exp(−λ ∗ x) FX (x[p]) = p = 1 − exp(−λ ∗ x[p]) ln(1 − p) = −λ ∗ x[p] x[p] = ln(1−p) 0<p<1 −λ Bei Normalverteilung geht eine Berechnung der Quantile nur über Excel und Tabelle x[p] kann als Risikomaÿ verwendet werden (BaselII), dabei kann X als die Wertveränderung oder Rendite t auf t+1 (wobei dies 1T, 10T,... sein kann) sein. Aus der Praxis: 1% Quantil der Vermögenswertvertielung muss von den Banken gemeldet werden und eine bestimmte Menge des EK der Banken beruht darauf. FX−1 (0, 1)=x[0,1]=VaR Man sagt dazu Value at risk auf Kondenzniveau 0,1 (=0,1 Quantil) Das ganze ist NICHT normalverteilt, sondern es bendet sich viel mehr Masse in den Enden. Einige spezielle Quantile • p=0,5 • p=0,25;0,75 Quartile • p=0,1; 0,2;... Dezile • p=0,05; 0,1;... Quintile x0,5 Median 3 Stochastische Modelle und spezielle Verteilungen 3.1 Verteilungen mit diskreten Zufallsvariablen 3.2 Bernoulli-Verteilung Aufbauend auf sog. Bernoulli-Experimenten: Ausgänge: Erfolg (ja, wahr)=A (mit x=1) und Misserfolg (nein, falsch)=A (mit x=0) 25 Titel 3 Stochastische Modelle und spezielle Verteilungen Erfolgswahrscheinlichkeit P(Erfolg)=p (auch P(x=1), P(A)) Eine diskrete Zufallsvariable mit der Massenfunktion: fBe (x; p) = P (x = 1) = fX (1) = p P (x = 0) = fX (0) = 1 − p P (X = x) = fX (x) = 0 (für x= 6 0,1) heiÿt Bernoulli verteilt. Man schreibt auch X∼ Be(p) wobei ∼ für verteilt steht. Beispiele für Massen- und Verteilungsfunktion S.6 Skript 3.3 Binomialverteilung Idee: Mehrere Bernoulli-Experimente mit derselben Erfolgswahrscheinlichkeit p werden (hintereinander oder gleichzeitig) unabhängig voneinander durchgeführt. Beispiel zur Herleitung: Wir führen ein Experiment dreimal durch: n=3 Wir nehmen an, dass wir bei einem der Versuche Erfolg haben: x=1 Folgende Konstellationen sind denkbar: A; 3.Versuch: A A; 3.Versuch: A 2.Versuch: A; 3.Versuch: A 1.Versuch: A; 2.Versuch: (kodiert: 100) A; A; (kodiert: 001) 1.Versuch: 1.Versuch: 2.Versuch: (kodiert: 010) Die Versuche sind unabhängig und die drei Arten schlieÿen sich gegenseitig aus, so dass gilt: ∗ P (A) ∗ P (A) + P (a) ∗ P (A) ∗ P (A) + P (A) ∗ P (A) ∗ P (A) ∗ (1 − p)2 + (1 − p)2 ∗ p + (1 − p) ∗ p ∗ (1 − p) = 3p ∗ (1 − p)2 P(X=1)=P (A) =p Analog dazu gilt: P(X=2)=3p P(X=0)=(1 2 (1 − p) − p)3 3 P(X=3)=p Zur Berechnung muss man wissen wie viele Arten der Umsetzung existieren. Dies wird dann mit den jeweiligen Wahrscheinlichkeiten multipliziert: Eine diskrete Zufallsvariable X mit der Massenfunktion: fBi (x; p; n) = ( nx ) ∗ px ∗ (1 − p)n−x , wobei ( nx ) die Anzahl der Arten ist für x=Zahl der erfolge=0,1,...n, wobei n eine natürliche Zahl und 0<p<1 eine reelle Zahl ist, heiÿt binomial verteilt. Man schreibt auch X∼ Bi(n,p) Anwendungen: Binomialbaum zur Bewertung von Optionen: Vergleiche Schaubild Anlage Nr.1 26 Titel 3 Stochastische Modelle und spezielle Verteilungen Frage: wenn p=0,8, n=100, wie wahrscheinlich ist dann X=80? Urnenmodell auf S.12 Skript 3.4 Poissonverteilung → ∞) n*p=λ X=Zahl der Erfolge bei sehr vielen (n Erfolgswahrscheinlichkeit, aber mit Bernoulli-Experimenten mit sehr kleinen (p→0) Die Massenfunktion der Poisson-Verteilung lautet: fpo (x; λ) = λx x! ∗ e−λ wobei x=0,1,2,... Die Poisson-Verteilung als Approximation für die Binomialverteilung: fBi (x; p, n) → fP o (x; λ = pn) Sie ist die Grenzverteilung der Binomialverteilung Benutzung als Näherungsverteilung für die bei groÿem Stichprobenumfang n unhandliche Binomialverteilung 3.5 Hypergeometrische Verteilung Bei der Binomialverteilung herrscht noch stochastische Unabhängigkeit für die Bernoulli-Experimente. Entnimmt man jedoch in der Praxis Zufallsstichproben, werden die einmal gezogenen Einzelstichproben üblicherweise nicht gleich wieder zurückgelegt bevor die nächste entnommen wird. Wir gehen also von einem Urnenmodell ohne Zurücklegen, also ohne Unabhängigkeit aus. Variablen: • N=Urnenumfang (z.B. Kugel in Urne, Kunden in Datenbank, Händler auf Finanzmarkt, gefertigte Teile in Produktion) • S=Anzahl von Teilen mit einer bestimmten Eigenschaft (z.B. rote Kugeln, Groÿhändler, informierte Händler, defekte Teile) • n=Stichprobenumfang, d.h. so oft wird gezogen • X=Anzahl von S in n (z.B. rote Kugeln in der Stichprobe n) • Wie groÿ ist die Laplacesche Wahrscheinlichkeit g m dass x=? in n sind? 27 Titel 3 Stochastische Modelle und spezielle Verteilungen Denition: Eine diskrete Zufallsvariable mit der Massenfunktion fHy (x, N, S, n) = −S (S )∗( N ) x n−x ) (N n für x=0,1,...n wobei S<N und n≤ N natürliche Zahlen sind heiÿt hypergeometrisch verteilt. Schreibweise: X∼ Hy(N,S,n) Beispiel dazu S.15 Skript Für groÿe S und N ist eine Annäherung an die Binomialverteilung möglihc, indem man p=Erfolgswahrscheinlichkeit beim ersten Ziehen= S N setzt. Anwendung ndet diese Verteilung in der Qualitätskontrolle 3.6 Gleichförmige Verteilung Für die gleichförmige Verteilung gilt: 1 m (für m mögliche Ausprägungen). Addiert man die Wahrscheinlichkeiten für die m Ausprägungen erhält man 1. Man schreibt: fX (x)= 1 m für x = x1 ...xm P (X = x1 ) = P (X = x2 ) = ... = P (X = xm ) = 0 für sonstige Beispiel dafür S. 3-4 Skript 3.7 Geometrische Verteilung Ausgangspunkt: Ein Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p werde so oft ausgeführt, bis zum ersten Mal Erfolg eintritt. Es sei nun die Anzahl der vorausgegangenen Misserfolge als Zufallsvariable X deniert. Denition: Eine diskrete Zufallsvariable X mit der Massenfunktion fGeo (x, p) = (1 − p)x ∗ p für x=0,1,2,...∞ wobei 0<p<1 eine reelle Zahl ist heiÿt geometrisch verteilt Wie bei der Poissonverteilung ist auch der Wertevorrat der geometrisch verteilten Zufallsvariablen abzählbar unendlich. Die Wahrscheinlichkeitsmassen sind alle positiv und werden mit dem Quotienten q=1-p immer kleiner. Bsp. S.28-29 Skript 28 Titel 3 Stochastische Modelle und spezielle Verteilungen 3.8 Verteilungen mit stetigen Zufallsvariablen Eigenschaften fX (x) • fX (x) ≥ (da FX (x) monoton steigend) R∞ • −∞ fX (x) = 1 (da die äche unter Dichtefunktion = Verteilungsfunktion ist die Fläche die Summe aller W'keiten und damit 1) 3.9 Rechteckverteilung Die Rechteckverteilung wird dann verwendet, wenn eine stetige Zufallsvariable in einem denierten Bereich [a,b] als gleichförimg verteilt angesehen werden kann. Sie ist sicherlich die einfachste stetige Verteilung. Es gilt, dass Rb a fX (x)dx = 1, da dort alle W'keiten liegen. Dadurch ergibt sich für die Rechteckäche fX (x) ∗ (b − a) = 1 Formal ergibt sich daraus die folgende Denition: Die Dichtefunktion der Rechteckverteilung ist im relevanten Bereich [a,b] konstant und kann einfach geschrieben werden als fR (x) = 1 b−a für a ≤ x ≤ b 0 für sonstige Da die Verteilungsfunktion dieStammfunktion zur Dichtefunktion ist ergibt sich: FR (x) = 0 für x<a 1 b−a ∗ (x − a) für a≤x≤b (da Rx a 1 fX (u)du = [ b−a ∗ u]xa ) 1 für x>b Vergleiche Schaubild eigene Anlage 3.10 Exponentialverteilung Die Exponentialverteilung ist das stetige Pendant zur geometrischen Verteilung Eine stetige Zufallsvariable X mit der Wahrscheinlichkeitsdichtefunktion fEx (x, λ) = λ ∗ e−λ∗x für 0 ≤ x < ∞ und λ > 0 Da gilt: heiÿt exponentialverteilt. Rx Dadurch λ ∗ e−λ∗u du = [−e−λ∗u ]x0 = −e−λ∗x − (−e0 ) = 1 − e−λ∗x ergibt sich die Verteilungsfunktion FX (x) = 0 29 Titel 3 Stochastische Modelle und spezielle Verteilungen 0 für x<0 1 − e−λ∗x für x>0 Eine weitere gebräuchkliche Schreibweise ist auch X ∼ EX(λ) 3.11 Normalverteilung Die wichtigste Verteilung überhaupt, da: • viele empirisch beobachtete Verteilungen wenigstens annähernd der Normalverteilung entsprechen • sie eine gute Approximation für bestimmte diskrete Verteilungen wie die Poissonverteilung/Binomialverteilung gibt • sich die Verteilung von Stichprobenwerten an die Normalverteilung annähert je gröÿer die Stichprobe ist • die Normalverteilung die Grundlage vieler theoretischer Modelle ist Denition Eine stetige Zufallsvariable X mit der Dichtefunktion: fN (x) = 1 √ σ∗ 2Π ∗ exp( −1 2 ∗ (x−µ)2 ) σ2 heiÿt normalverteilt. X ∼ N (µ, σ 2 ) Rx Verteilungsfunktion FX (x) = −∞ Andere Schreibweise: Die 1 √ σ∗ 2Π ∗ exp( −1 2 ∗ (x−µ)2 )du σ2 besitzt keine geschlossene Form und kann nur durch numerische Approximation oder Wertetabellen bestimmt werden. Eigenschaften der Normalverteilung • symmetrisch um x=µ • Wendepunkt bei x=µ • Dichtefunktion ist umso acher, je gröÿer die Streuung +σ und x=µ-sigma Vereinfachte Berechnung der Normalverteilung Man setzt fSt (z) = µ = 0, σ = 1 und erhält √1 exp( −1 z 2 ) 2 2Π als die Standardnormalverteilung. Andere schreibweise: Z ∼ N (0, 1) Zur Umrechnung gilt: 30 Titel 4 mehrdimensionale Zufallsvariablen Tabelle 4: Arbeitsbeispiel xi fN (x) = σ1 ∗ fST (z), FN (x) = FST ( x−µ σ ) 0 1 2 3 0 1/8 2/8 1/8 0 4/8 1 0 1/8 2/8 1/8 4/8 1/8 3/8 3/8 1/8 1 wobei hier z= x−µ σ mit µ=0 und σ=1 repräsentiert Das Schaubild zur Standardnormalverteilung ist die bekannte Glockenkurve: • Maximum bei z=0 (aus • Wendepunkte bei z=1, z=-1 • Schmiegt sich asymptotisch, aber schnell an die z-Achse fST (z)) Bsp. für Normalverteilung: Risikomanagement X: Wertveränderung eines Vermögens von t auf t+1 (in Mio. ) da µ = 10 und σ 2 =100 gilt: X ∼ N (10, 100) − FX (30) ges.: P(x>30Mio.)=1-P(x<30Mio.)=1 Nach obiger Umrechnung ist √ FX (30) = Fz ( 30−10 = FZ (2) 100 Aus einer Wertetabelle für die Standardnormalverteilung kann man ablesen: W'keit 0,9772 ist die Werteveränderung ≤ FZ (2) = 0, 9772 (mit der 30Mio.) 1 − FX (30) = 1 − FZ (2) = 0, 0228 P(X>30Mio.)=0,0228 Vergleiche auch Schaubild eigene Anlage 4 mehrdimensionale Zufallsvariablen Ziel: Modell von Abhängigkeit von risikobehafteten ökonomischen Variablen Beispiel: Suprime Krise Arbeitsbeispiel X: Zahlungsfähigkeit Land X (Kongo) Y: Zahlungsfähigkeit Land Y (Peru) X: 2 Ausprägungen Y: 4 Ausprägungen x1 = 0, x2 = 1 y1 = 0, y2 = 1, y3 = 2, y4 = 3 31 Titel 4 mehrdimensionale Zufallsvariablen Komplikationen • ZV werden stetig werden • mehr als 2 Variablen möglich Konzepte • gemeinsame Wahrscheinlichkeitsfunktion (diskrete ZV) • gemeinsame Verteilungsfunktion (stetige/diskrete ZV) • gemeinsame Dichtefunktion (stetige ZV) • marignale (Rand-) Verteilung • marginale (Rand-) Wahrscheinlichkeitsfunktion • marginale (Rand-) Dichtefunktion • marginale (Rand-) Verteilungsfunktion • bedingte Verteilung (d.h. ich kenne die Realisation einer ZV, dies hat Auswirkungen auf die andere) • bedingte Wahrscheinlichkeitsfunktion • bedingte Dichtefunktion • bedingte Verteilungsfunktion • Unabhängigkeit von ZV 4.1 Gemeinsame Verteilung Gemeinsame Verteilungsfunktion Die gemeinsame Verteilungsfunktion Fx1x2..xn (x1, x2..xn) = P (X1 ≤ x1 ∩ X2 ≤ x2 ∩ ...Xn ≤ xn ) = F (x1, x2..xn) gibt an, mit welcher Wahrscheinlichkeit die Zufallsvariable X Werte kleiner oder gleich x und gleichzeitig die Zufallsvariable Y Werte kleiner oder gleich y annimmt. bivariater Fall Fxy (xy) = P (X ≤ x ∩ Y ≤ y) = F (x, y) Gemeinsame Wahrscheinlichkeitsfunktion fx1x2..xn (x1, x2..xn) = P (X1 = x1 ∩ X2 = x2 ∩ ..Xn = xn ) Für stetige ZVen: P (X1 = x1 ∩ X2 = x2 ∩ Xn = xn ) = 0 32 Titel 4 mehrdimensionale Zufallsvariablen Eigenschaften • f (x, y) ≥ 0 P P • i j f (xi , yj ) = 1 • f (xi , yj ) ≤ 1 Gemeinsame Dichtefunktion ∂ n F (x1 , x2 , xn ) = f (x1 , x2 , ..xn ) ∂x1 ∂x2 ∂xn (26) bivariater Fall: ∂ 2 Fxy (x, y) = fxy (x, y) ∂x∂y (27) Eigenschaften • f (x, y) ≥ 0 R∞ R∞ • −∞ −∞ f (x, y)dydx = 1 Warnung Die gemeinsame Dichtefunktion ist wie die univariate Dichtefunktion keine Wahrscheinlichkeit: Z x+∆x Z y+∆y P (x ≤ X ≤ x + ∆x ∩ y ≤ Y ≤ y + ∆y) = fxy (u, v)dudv x (28) y Man kann diese durch die Approximation des Volumens eines Quaders berechnen: fxy (x, y) ∗ ∆x ∗ ∆y ∆x → dx : fxy (x, y)dxdy = P (x ≤ X ≤ x + dx ∩ y ≤ Y ≤ y + dy) und im Übergang 4.1.1 Von der gemeinsamen W'keitsfunktion zur gemeinsamen Verteilungsfunktion F erhält man durch Summation der gemeinsamen Massenfunktion (bivariater diskreter Fall): Fxy (x, y) = P (X ≤ x, Y ≤ y) = X X fxy (xi , yj ) (29) xi ≤x yj ≤y bzw. durch Integration der gemeinsamen Dichtefunktion (bivariater stetiger Fall): Z x Z x fxy (u, v)dudv = Fxy (x, y) = P (X ≤ x, Y ≤ y) −∞ (30) −∞ 33 Titel 4 mehrdimensionale Zufallsvariablen allgemein bivariater diskreter Fall: P (xu ≤ X ≤ xo ∩ y u ≤ Y ≤ y o ) X X fxy (xi , yj ) (31) xu ≤xi ≤xo y u ≤yj ≤y o bivariater stetiger Fall: Z xo Z yo fxy (x, y)dydx xu (32) yu 4.1.2 Von der Wahrscheinlichkeitsfunktion/Dichtefunktion zur Verteilungsfunktion Gesucht: P (X ≤ 1 ∩ Y ≤ 1) = Fxy (1, 1) Da es sich um disjunkte Ereignisse handelt wird aufsummiert: P (X P (X P (X P (X X=0 und Y=0 mit X=0 und Y=1 mit X=1 und Y=0 mit X=1 und Y=1 mit Gesamtergebnis: =0∩Y =0∩Y =1∩Y =1∩Y 1 2 = 0) = 81 = 1) = 28 = 0) = 0 = 1) = 18 4.2 Stochastische Unabhängigkeit Die Unabhängigkeit kann man aus P(A∩ B)=P(A)*P(B) ableiten Die Zufallsvariablen X und Y heiÿen stochastisch unabhängig oder kurz unabhängig, wenn die gemeinsame Massen- bzw. Dichtefunktion gerade gleich dem Produkt der beiden Randverteilungen ist: Fxy (x, y) = P (X ≤ x) ∗ P (Y ≤ y) = FX (x) ∗ FY (y) ⇒ x,y unabhängig fxy (x, y) = P (X = x, Y = y) = P (X = x) ∗ P (Y = y) = fX (x) ∗ fY (y) ⇒ x,y unabhängig [W'keitsfunktion] 2 F (x,y) fxy (x, y) = ∂ ∂x∂y = fX (x) ∗ fY (y) ⇒ x,y unabhängig [Dichtefunktion] Im stetigen Fall gilt: Z x Z y Z Fxy (x, y) = x −∞ ∂Fxy (x, y) = fx (x) ∗ ∂x −∞ Z y fx (u)du ∗ fxy (u, v)dudv = −∞ Z fy (v)dv (33) −∞ y fy (v)dv (34) −∞ 34 Titel 4 mehrdimensionale Zufallsvariablen ∂ 2 Fxy (x, y) = fx (x) ∗ fy (y) ∂x∂y (35) In unserem Arbeitsbeispiel gilt: P (X = 0 ∩ Y = 0) = fxy (0, 0) = P (X = 1 ∩ Y = 2) = fxy (1, 2) = 1 8 2 8 Im Falle der Unabhängigkeit sind alle bedingten Verteilungen gleich - und gleich der entsprechenden Randverteilung: fx (x) ∗ fy (y) = fX (x) fy (y) f1 (x|y) = (36) 4.3 Randverteilungen Die Verteilung einer einzelnen Komponente einer mehrdimensionalen ZV ohne ansehen der anderen Komponenten heiÿt Randverteilung. Diskreter Fall fxy (x, y) sei die gemeinsame W'keitsfunktion. Bei diskreten ZV berechnen sich die Randverteilungen als Spalten- und Zeilensummen: fX (xi ) = P (X = xi ∩ Y = irgendwas) = X fY (yj ) = P (Y = yj ∩ X = irgendwas) = X f (xi , yj ) = pi. (37) f (xi , yj ) = p.j (38) j i Und für die Marginale Verteilungsfunktion gilt: FX (xi ) = P (X ≤ xi , Y = irgendwas) = Im Arbeitsbeispiel XX fxy (xi , yj ) (39) xi ≤x j P(X=0..)=0.5, P(X=1..)=0.5 3 3 1 P(Y=0..)= , P (Y = 1..) = , P (Y = 2..) = , P (Y = 3..) = 8P 8 8 P fy (y) = fx (x) = 1 1 8 Stetiger Fall Die Verteilungsfunktion bleibt: Z x Z ∞ Fx (x) = fxy (u, y)dydu −∞ (40) −∞ Damit wird die Dichtefunktion: dFx (x) = dx Z ∞ fxy (x, y)dy (41) −∞ D.h. man leitet die marginale Verteilungsfukntion ab (herausintegrieren) 35 Titel 4 mehrdimensionale Zufallsvariablen 4.3.1 Erwartungswert und Varianz Diskreter Fall P µX = E(X) = Pi xi fX (xi ) 2 = V (X) = 2 σX i (xi − µX ) fX (xi ) Stetiger fall R∞ µX = E(X) = −∞ x ∗ fx (x)dx R∞ σx2 = V (X) = −∞ (x − µx )2 fX (x)dx 4.4 Bedingte Verteilung Die Massenfunktion f der bedingten Verteilung von X unter der Bedingung P (X = x|Y = yj ) = Y = yj ist deniert als: P (X = x, Y = yj ) fxy (x, yj ) = = fx|y (x|yj ) P (Y = yj ) fy (yj ) (42) Im Arbeitsbeispiel komplette bedingte Verteilung Y|X: 1/8 = fy|x (0|0) = 1/2 1 fy|x (1|0) = 2 fy|x (2|0) = 14 fP y|x (3|0) = 0 1 fx|y (x|y) bzw. 1 4 fy|x (y|x) heiÿt bedingte Wahrscheinlichkeitsfunktion und ist eine ordentliche Wahr- scheinlichkeitsfunktion (da fx|y (x|y) ≥ 0 und P i fx|y (xi |y) = 1), so dass Varianzen, Momente... abgeleitet werden können: • bedingteV erteilungsf unktion : P (X ≤ x|Y = yj ) = X f (xi |yj) = Fx|y (x|y) (43) xi ≤x • bedingte Quantile • bedingter Erwartungswert • ebenso: bedingte Varianz, Schiefe, ... Ex|y (X|Y = yj ) = P i xi ∗ fx|y (xi |yj ) 36 Titel 4 mehrdimensionale Zufallsvariablen Im Arbeitsbeispiel E(Y)=1/8*0+3/8*1+3/8*2+1/8*3=1,5 E(Y|X=0)=1/4*0+1/2*1+1/4*2+0*3=1 ⇒ EX (x) 6= Ex|y (X|Y ) Stetiger Fall Die Denition der bedingten Dichtefunktion ist identisch mit dem diskreten Fall: fx|y (x|yj ) = fxy (x, yj ) fy (yj ) (44) mit: fx|y (x|y) ≥ 0 Z ∞ fx|y (x|yj )dx = 1 (45) (46) −∞ Genauso ergibt sich auch die stetige Verteilungsfunktion: Z ∞ fx|y (u|y)du = Fx|y (x|y) (47) −∞ und der bedingte Erwartungswert: Z ∞ x ∗ fx|y (x|y)dx Ex|y = (48) −∞ allgemeiner erwartungswert Z ∞ g(x) ∗ fx|y (x|y)dx Ex|y (g(x)|y) = (49) −∞ Es gilt wieder hier: EX (x) 6= Ex|y (x|y) da, fx|y (x|y) 6= fx (x) und damit x,y stochastisch abhängig 4.5 Allgemeiner Erwartungswert z=g(x,y) mit z,x,y=ZV und g=messbare Funktion Gesucht ist EZ (z)=E(g(X,y)), die Verteilung interessiert hier nicht Im Beispiel z=g(x,y)=x*y z=0 wenn x=0 und y=0,1,2,3 oder y=0 und x=1 z=1 wenn x=1 und y=1 z=2 wenn x=1 und y=2 z=3 wenn x=1 und y=3 37 Titel 4 mehrdimensionale Zufallsvariablen Tabelle 5: Titel y x 0 1 2 3 0 1/8 2/8 1/8 0 1 0 1/8 2/8 1/8 fZ (z) : fZ (0) = fxy (0, 0) + fxy (0, 1) + fxy (0, 2) + fxy (0, 3) + fxy (1, 0) = 1/8 + 2/8 + 1/8 + 0 = 1/2 fZ (1) = fxy (1, 1) = 1/8 fZ (2) = fxy (1, 2) = 2/8 fZ (3) = fxy (1, 3) = 1/8 EZ (z)=0*1/2+1*1/8+2*2/8+3*1/8=1 oder über die Formel: E(z) = XX (xi ∗ yj ) ∗ fxy (xi , yj ) (50) allej allei (0*0)*1/8+(0*1)*2/8+(0*2)*1/8+(0*3)*0+(1*0)*0+(1*1)*1/8+(2*1)*2/8+(3*1)*1/8=1 Allgemeiner Erwartungswert E(g(x, y)) = XX j g(xi , yj ) ∗ fxy (xi , yj ) (51) i bei diskreten ZV und ∞ Z ∞ Z g(x, y) ∗ fxy (x, y)dxdy E(g(x, y)) = −∞ (52) −∞ bei stetigen ZV Wichtige Beispiele dazu Erstens: g(x,y)=X Z ∞ Z ∞ x ∗ fxy (x, y)dxdy Ex,y (x) = −∞ Z ∞ Z ∞ x∗ Ex,y (x) = −∞ Z ∞ fxy (x, y)dydx (54) −∞ x ∗ fX (x)dx Exy (x) = (53) −∞ (55) −∞ Exy (x) = Ex (x) (56) 38 Titel 4 mehrdimensionale Zufallsvariablen Zweitens: g(x,y)=x+y ∞ Z Z ∞ (x + y)fxy dydx E(x + y) = −∞ −∞ Z ∞Z ∞ −∞ ∞ Z ∞ Z ∞ y ∗ fxy dydx −∞ −∞ ∞ Z x∗ −∞ Z x ∗ fxy dydx + E(x + y) = Z (57) ∞ y ∗ fy (y)dy fxy dydx + −∞ (58) −∞ (59) −∞ E(x+y)=E(x)+E(y) Im n-Variablen-Fall: x1 x = ... xn (60) als Vektor aus ZVen E(x1 ...xn ) = E(x1 )...E(xn ) Auÿerdem gilt: E(aX+bY)=aE(x)+bE(x) Generell: a1 x1 a = ... ∗ x = ... an xn (61) E(a0 x) = E(a1 x1 + ... + an xn ) = a0 (E(x)) = a0 ∗ µ 4.6 Kovarianz und Korrelationskoezient g(x,y)=[[x-E(x)]*[y-E(y)]] E[g(x,y)]=E[[x-E(x)]*[y-E(y)]]=covxy = σxy Zur praktischen Berechnung der Kovarianz benötigt man die gemeinsame Verteilung: Cov(x, y) = XX (xi − µx )(yj − µy )f (xi , yj ) i (62) j Z Z Cov(x, y) = (xi − µx )(yj − µy )f (xi , yj )dxdy (63) Eine alternative Berechnung der Kovarianz ist: Cov(x,y)=E(x*y)-E(x)*E(y) (Vergleiche Varianz) 39 Titel 4 mehrdimensionale Zufallsvariablen Aus der Kovaianz wird der σxy σx ∗σy ρxy = = Covxy σx ∗σy Korrelationskoezient abgeleitet: Für beide Verteilungsmaÿe gelten folgende Regeln: • Korrelationskoezient deniert zwischen 1 und -1 • ρ hat dasselbe Vorzeichen wie die Kovarianz • ρ gibt die Strenge des linearen stochastischen Zusammenhangs an, unabhängig von den Grö- ÿenordnungen und Varianzen der beiden Variablen • wenn • wenn E(x*y)=0, dann x und y orthogonal • wenn x und y stochastisch unabhängig, dann Kovarianz und • Ausnahme: gemeinsame Normalverteilung ρ±1, dann x und y lineare abhängig: y=a+bx ρ =0 (nicht umgekehrt!) 4.7 Summe von Zufallsvariablen 2 2 Var(aX+bY)=a Var(x)+b Var(y)+2abCov(x,y) E[[(aX+bY )−E(aX+bY )]2 ]=E[(aX+bY )2 −2(ax+by)E(aX+bY )+E(aX+bY )2 ]=...=a2 [E(x2 )− [E(x)]2 ] + b2 [E(y 2 ) − [E(y)]2 ] + 2ab[E(x ∗ y) − E(x) ∗ E(y)]=... 4.8 Erweiterung auf den n-Variablen-Fall Varianz-Kovarianz-Matrix V ar(x1 ) Cov(x1 , x2 ) Cov(x1 , x2 ) V ar(x2 ) Ω= ... ... Cov(x1 , x2 ) ... ... Cov(x1 , xn ) ... ... ... ... ... V ar(xn ) (64) Ω = [[x − E(x)] ∗ [x − E(x)]0 ] = E(x ∗ x0 ) − E(x) ∗ E(x)0 Ableitung daraus: a1 a = ... an (65) 40 Titel 4 mehrdimensionale Zufallsvariablen In der Portfoliotheorie gilt: n X ai = 1 (66) i=1 V ar(a0 x) = a0 ∗ Ω ∗ a=1x1-Matrix Herleitung: V ar(a0 X) = E[[a0 X − a0 E(x)] ∗ [a0 X − a0 E(x)]] 0 0 0 0 ausnutzen: a x = x a und Ω = E(X ∗ X ) − E(X)[E(X)] Gesucht: 4.9 Bivariate Normalverteilung • X, Y sind ZV • X, Y haben eine gem. Verteilungsfunktion • X, Y sind gem. bivariat normalverteilt Fxy (x, y) = P (X ≤ x ∧ Y ≤ y) 1 Q p exp(− ) 2 2(1 − ρ2 ) 2Πσx σy 1 − ρ (67) (x − µx )(y − µy ) y − µy 2 x − µx 2 ) − 2ρ +( ) σx σx σy σy (68) fxy (x, y) = mit Q= ( Eigenschaften • f(x,y)≥ 0 • RR • P(a<xb;c<y<d)= fxy (x,y)dydx=1 Z bZ d f (x, y)dydx a (69) c • fxy (x, y)= ∂ 2 F (x, y) ∂x∂y (70) 41 Titel 4 mehrdimensionale Zufallsvariablen Kann man von der gemeinsamen Verteilung auf die Randverteilung kommen? fx (x) = R fxy (x, y)dy über obige gemeinsame Verteilung (Beweis als Anlage) fx (x) = √ 1 2Πσx x 2 ∗ exp(− 12 ( x−µ σx ) ) Damit ist die Randverteilung von X: X ∼ N (µx , σx2 ) Wie sieht die bedingte Dichte aus? f = f (x,y) xy(xy)= xy f y(y) σx 1 1 x − (µx + ρ σy (y − µy )) 2 p f (x y) = √ p exp(− ( ) ) 2 2Π 1 − ρ2 σx σx 1 − ρ2 (71) Dabei handelt es sich um eine Dichtefunktion mit: Bedingtem Erwartungswert: E(x Y = y) = µ = µx + ρ σσxy (y − µy ) Bedingte Varianz: V (X Y = y) = (1 − ρ2 )σx2 Ergänzende Bemerkungen: ρxy = ± 1 wenn x und y linear abhängig wenn x und y (stochastisch) unabhängig: ρxy = 0 bzw. Covxy = 0 generell gilt: Umkehrung nicht möglich, auÿer bei Normalverteilung! wenn x und y gemeinsam normalverteilt, dann ist die Linearkombination der beiden ZV: Z=aX+bY ebenfalls normalverteilt: Z ∼ N (aµx + bµy ; a2 σx2 + b2 σy2 + 2abCovxy ) Multivariate Erweiterung: n-ZVen Hier ergibt sich die Dichtefunktion von gem. NV-ZVen: f (X) = 1 1 exp(− (x 2 (2Π)n/2 |Ω|0,5 − µ)0 Ω−1 (x − µ)) (72) 42