Zusammenfassung der Vorlesung – Stochastik WS 2004/05 1 Inhaltsverzeichnis 1 Ein Modell für Zufallsexperimente 2 2 Laplace-Experimente, elementare Kombinatorik 3 3 Bedingte Wahrscheinlichkeiten und Unabhängigkeit 3.1 Bedingte W’keiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 Diskrete Zufallsgrößen 4.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Einige wichtige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Binomialverteilung X ∼ bin(n, p) . . . . . . . . . . . . . . . . 4.2.2 Hypergeometrische Verteilung X ∼ Hyp(M, m, n) (LOTTO) 4.2.3 geometrische Verteilung X ∼ geom(p) . . . . . . . . . . . . . 4.2.4 Poissonverteilung X ∼ pois(λ) . . . . . . . . . . . . . . . . . 4.3 Erwartungswert und Momente . . . . . . . . . . . . . . . . . . . . . 5 5 5 5 5 6 6 6 5 Stetige Zufallsgrößen 5.1 Allgemeines . . . . . . . . . . . . . . 5.2 Einige wichtige stetige Verteilungen . 5.2.1 Gleichverteilung . . . . . . . 5.2.2 Exponentialverteilung . . . . 5.2.3 Normalverteilung . . . . . . . 5.3 Erwartungswerte und Momente . . . . . . . . . 9 9 9 9 9 10 11 6 Mehrdimensionale Zufallsgrößen und Unabhängigkeit 6.1 Faltung von PX und PY . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Transformationssatz für W’-Dichten . . . . . . . . . . . . . . . . . . 12 14 14 7 Erzeugende Funktionen 7.1 w’erzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 momenterzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . 15 15 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabellenverzeichnis 1 2 3 Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind ) Tabelle mit EW und Var diskreter Verteilungen . . . . . . . . . . . . Tabelle mit Verteilungsfunktionen und Dichten der stetigen Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 8 10 Abbildungsverzeichnis 1 2 Gleichverteilung (Verteilungsfunktion, Dichtefunktion) . . . . . . . . Normalverteilung (Dichtefunktion) . . . . . . . . . . . . . . . . . . . 9 10 Zusammenfassung der Vorlesung – Stochastik WS 2004/05 1 2 Ein Modell für Zufallsexperimente Ω: Ergebnisraum, enthält die möglichen Ergebnisse des Zufallsexperimentes A: System der Ereignisse A ⊂ Ω P : ω → [0, 1]: Abbildung, die jedem Ereignis A seine Wahrscheinlichkeit P (A) zuordnet. Es gilt: P (A) ≥ 0, P (ω) = 1 und Für alle A1 , A2 , · · · ∈ ω mit Ai ∩Aj = ∅ für i 6= j (Folge von paarweise disjunkten Ereignissen) gilt: P( ∞ [ Ai ) = i=0 ∞ X (σ − Additivität) P (Ai ) i=1 Satz 1 erste Folgerungen 1. P (∅) = 0 2. P (A) ≤ 1 3. P (Ac ) = 1 − P (A) 4. A ⊂ B ⇒ P (A) ≤ P (B) Homogenität 5. P (A1 + · · · + Ak ) = P (A1 ) + . . . P (Ak ) endliche Additivität Satz 2 weitere Folgerungen 1. boolesche Ungleichung: P (A1 ∪ · · · ∪ Ak ) ≤ P (A1 ) + · · · + P (Ak ) wichtig hierbei ist, dass nicht vorrausgesetzt wird, das A1 , ..., Ak paarweise disjunkt sind. 2. Formel von Sylvester-Poincarré, Siebformel P( n [ i=1 P( 3 [ Ai ) = n X (−1)k+1 · k=1 Ai ) : P (A1 ∪ A2 ∪ A3 ) X H⊂{1,...,n} P( \ Ai ) (Siebformel) i∈H = P (A1 ) + P (A2 ) + P (A3 ) i=1 −P (A1 ∩ A2 ) − P (A1 ∩ A3 ) − P (A2 ∩ A3 ) +P (A1 ∩ A2 ∩ A3 ) P( 2 [ i=1 Ai ) : P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ) Zusammenfassung der Vorlesung – Stochastik WS 2004/05 2 3 Laplace-Experimente, elementare Kombinatorik Ein Laplace-Experiment liegt vor, wenn 1. #Ω < ∞ (endlicher Ergebnisraum) 2. A = R(Ω) (alle Teilmengen von Ω kommen als Ergebnis in Frage) 3. P (A) = #A Anzahl der günstigen Möglichkeiten = #Ω Anzahl der Möglichkeiten isg Urnenmodelle und passende Formeln: ziehen von k Kugeln aus einer Urne mit n Kugeln mit Zurücklegen (mW) mit Beachtung derReihenfolge P ermnk nk ohne Beachtung derReihenfolge Komnk n+k−1 k ohne Zurücklegen (oW) n! (n−k)! = n(n − 1) · ... · (n − k + 1) mit Mehrfachbesetzung n! (n−k)!k! = n k ohne Mehrfachbesetzung unterschiedliche Objekte nicht unterscheidbare Objekte Verteilen von k Objekten auf n Positionen Tabelle 1: Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind ) Erinnerung: n! = 1 · 2 · 3 · . . . · n Fakultät n n! k = (n−k)!k! ”n über k” oder ”k aus n”, Binomial-Koeffizient Zusammenfassung der Vorlesung – Stochastik WS 2004/05 3 4 Bedingte Wahrscheinlichkeiten und Unabhängigkeit 3.1 Bedingte W’keiten Es seien A und B Ereignisse in einem Zufallsexperiment. Welche Wahrscheinlichkeit hat B, wenn bekannt ist, dass A eintrit? Definition 1 Es sei A ein Ergebnis mit P (A) > 0. Die bedingte Wahrscheinlichkeit von B unter A wird definiert durch P (B|A) = P (A ∩ B) P (A) Satz 3 (einige Definitionen) 1. Multiplikationsregel Sind A1 , ..., An Ereignisse mit P (A1 ∩ ... ∩ An ) > 0, so gilt P (A1 ∩ ... ∩ An ) = P (A1 ) · P (A2 |A1 ) · P (A3 |A1 ∩ A2 ) · ... · P (An |A1 ∩ ... ∩ An−1 ) 2. Gesetz der totalen Wahrscheinlichkeit = Zerlegung Ist A1 , ..., An eine Ereignispartition von Ω, d.h. A1 ∩...∩An = Ω, Ai ∩Aj = ∅ für i 6= j, so gilt für alle Ereignisse B P (B) = n X P (B|Ai )P (Ai ) i=1 Hierbei ist P (Ai ) = 0 zugelassen, der Summand wird dann als 0 interpretiert. 3. Formel von Bayes Es seien A1 , ...An und B wie oben und P (B) > 0. Dann ist P (Ai ) P (B|Ai ) P (Ai |B) = Pn k=1 P (B|Ak ) P (Ak ) 3.2 Unabhängigkeit Einer der zentralen Begriffe der Stochastik ist der , der (stochastischen) Unabhängigkeit. B ist von A unabhängig, wenn die Information ”A ist eingetreten” die W’keit für B nicht ändert ⇒ P (B|A) = P (B) P P(B∩A) (A) = P (B). Definition 2 (Unabhängigkeit) Zwei Ereignisse A und B heissen stochastisch unabhängig, wenn P (A ∩ B) = P (A) · P (B) gilt. P (A ∩ B) = P (A) · P (B) ⇒ A, B unabhängig Aus einer paarweisen Unabhängigkeit in einer Ereignisfamilie P (Ai ∩ Aj ) = P (Ai ) P (Aj ), für alle i, j ∈ I, i 6= j folgt nicht die totale Unabhängigkeit. Zusammenfassung der Vorlesung – Stochastik WS 2004/05 4 5 Diskrete Zufallsgrößen 4.1 Allgemeines Oft interessiert man sich nicht für das Ereignis ω eines Zufallsexperimentes, sondern nur für einen hiervon abhängigen Wert X(ω). Definition 3 (ZV, Verteilung, WMF, Verteilungsfunktion) 1. Eine diskrete Zufallsvariable (ZV ) ist eine Abbildung X : Ω → R mit endlich vielen oder abzählbar unendlich (N, Z, Q) vielen Werten. 2. Die Verteilung einer diskreten ZV X ist die Abbildung A → P (X ∈ A) (= P (ω ∈ Ω : X(ω)) ∈ A), diese ist ein W’Maß. 3. Die Wahrscheinlichkeitsmassenfunktion (WMF) P X einer diskreten ZV X wird definiert durch P X : R → [0, 1], P X (x) = P (X = x) 4. Die Verteilungsfunktion FX einer diskreten ZV X wird definiert durch FX : R → [0, 1], FX (x) = P (X ≤ x) Massenfunktionen können beispielsweise durch ein Stabdiagramm illustriert werden. Bem.: i) Zu jeder ZV gehört eine Verteilung und verschiedene ZV können durchaus die gleiche Verteilung haben. ii) Da durch die Abbildung X in der Regel unterschiedlich viele Argumentwerte ω zu einem Bildwert X(ω) zusammengefasst werden, sind in der Regel selbst bei einem Laplace-Experiment die Werte P (X = x) nicht gleichgroß. 4.2 4.2.1 Einige wichtige Verteilungen Binomialverteilung X ∼ bin(n, p) X heißt binomialverteilt mit Parametern n und p, wenn gilt n k P (X = k) = p (1 − p)n−k für k = 0, 1, ..., n k Man erhält Bin(n, p) als Verteilung der Anzahl X der Erfolge bei n unabhängigen Versuchswiederholungen mit Erfolgswahrscheinlichkeit p. 4.2.2 Hypergeometrische Verteilung X ∼ Hyp(M, m, n) (LOTTO) Eine ZV heißt hypergeometrisch verteilt mit Parametern M,m,n (alles natürliche Zahlen), wenn gilt m M −m P (X = k) = k n−k M n Typische Fragestellung ist nach der W’keit für zwei Richtige im Zahlenlotto ”6 aus (6)(49−6) 49”: 2 496−2 (6) Die Verteilung taucht bei Stichproben ohne Zurücklegen auf. Für große M ; Binomialverteilung Zusammenfassung der Vorlesung – Stochastik WS 2004/05 4.2.3 6 geometrische Verteilung X ∼ geom(p) Eine Art ”Wartezeitverteilung”: ”Angenommen, ein Würfel wird solange geworfen, bis eine sechs erscheint...” X heißt geometrisch verteilt mit Parameter p, wenn gilt P (X = n) = (1 − p)n−1 · p, für n ∈ N Diese Verteilung taucht immer dann auf, wenn ein Zufallsexperiment solange wiederholt wird, bis ein bestimmtes Ereignis eintritt, der Parameter ist die W’keit des Ereignisses, auf das gewartet wird. Zählt man stattdessen die Anzahl der Misserfolge, so erhält man eine andere Version der geometrischen Verteilung: P (X = n) = (1 − p)n · p, 4.2.4 für n ∈ N Poissonverteilung X ∼ pois(λ) Die ZV X heißt poisson-verteilt, mit Parameter λ (λ > 0), wenn gilt P (X = k) = e−λ · λk , k ∈ N0 k! Satz 4 (”Das Gesetz der seltenen Ereignisse”) Ist (pn )n∈N ⊂ [0, 1] eine Nullfolge mit lim n pn = λ, so gilt für alle k ∈ N0 n→∞ n k λk lim pn (1 − pn )k = e−λ n→∞ k k! W’keit für k Erfolge bei n Wiederholungen mit Erfolgswahrscheinlichkeit p. Bekannt ist: limn→∞ (1 + nx )n = ex 4.3 Erwartungswert und Momente In diesem Abschnitt werden einige Verteilungsparameter eingeführt. Dies sind Zahlen, die bestimmte Aspekte einer Verteilung, wie beispielsweise die Lage oder die Streuung, beschreiben. Definition 4 (Erwartungswert E(X)) Sei X eine diskrete Zufallsvariable mit WMF PX . Dann wird der Erwartungswert E(X) von X defniniert durch E(X) = X x · P (X = x) x∈N P Hierbei wird vorrausgesetzt, dass die Reihe absolut konvergiert, d.h. |x|px (x) < ∞. Ist dies nicht der Fall, so sagt man, dass der Erwatungswert nicht existiert. Beobachtungen: • Der Erwartungswert einer Poissonverteilung mit Parameter λ ist gerade λ. Zusammenfassung der Vorlesung – Stochastik WS 2004/05 7 Erwartungswert von Funktionen von Zufallsvariablen Oft kann man die interessierende Zufallsvariable Y als Funktion g einer anderen ZV schreiben g Ω X → R → R Y =: g(x). P P Satz 5 Es gilt E g(X) = x∈R g(X) · PX (x) = x∈R g(X) · P (X = x), vorrausgesetzt, die Summen konvergieren absolut. Satz 6 (Rechenregeln für Erwartungswerte) Seien X,Y diskrete ZV und c ∈ R. Vorrausgesetzt, dass die beteiligten Summen absolut konvergieren, dann gilt: 1. E(X) = E(E(X)) 2. E(X + Y ) = E(X) + E(Y ) E(X1 + X2 + ... + Xn ) = E(X1 ) + E(X2 ) + ... + E(Xn ) 3. E(cX) = c · E(X) 4. X ≤ Y ⇒ E(X) ≤ E(Y ) Definition 5 (k-te Moment) Das k-te Moment von X ist definiert als E(X k ) , vorrausgesetzt, die Reihe ist P absolut konvergent ( x |x|k P (X = x) < ∞). Die Varianz von X ist definiert als var(X) = E(X − EX)2 (Maß für die Streuung) (Vorraussetzung ist, dass EX 2 < ∞, sonst sagt man, die Varianz existiert nicht) p Schließlich heißt σ(X) = var(X) die Standardabweichung von X. Die Varianz ist ein Maß für die Streuung einer ZV um ihren Erwartungswert. Rechenregeln: 1. var(X) = E(X − EX)2 = = = = E(X 2 − 2X(EX) + (EX)2 ) E(X 2 ) − E(2X(EX)) + E((E(X))2 ) E(X 2 ) − 2E(X) · E(X) + (E(X))2 E(X 2 ) − (E(X))2 also var(X) = E(X 2 ) − (E(X))2 2. Sei c ∈ R, dann var(X + c) = E((X + c) − E(X + c))2 = E(X + c − EX − c)2 = E(X − EX)2 = var(X) ⇒ var(X + c) = var(X) 3. var(cX) = E(c2 X 2 ) − (E(cX))2 = c2 (E(X 2 )) − c2 (EX)2 = c2 (E(X 2 ) − (EX)2 ) = c2 var(X) ⇒ var(cX) = c2 var(X) damit klar: σ(X + c) = σ(x) und σ(cX) = |c| · σ(X). Tabelle mit Erwartungswerten und Varianzen der bisher genannten Verteilungen: Zusammenfassung der Vorlesung – Stochastik WS 2004/05 EW WMF=P X = P (X = k) Verteilung Parameter Var Poisson λ λ λ binomial n, p n·p np(1 − p) geometrisch p 1/p 1−p p2 hypergeom. M, m, n n·m M m·n M 8 · M −m M e−λ · n k λk k! , k ∈ N0 pk (1 − p)k−1 , für k = 0, 1, ..., n (1 − p)n−1 · p , für n ∈ N · M −n M −1 Tabelle 2: Tabelle mit EW und Var diskreter Verteilungen M −m (m k )( n−k ) (M n) Zusammenfassung der Vorlesung – Stochastik WS 2004/05 5 5.1 9 Stetige Zufallsgrößen Allgemeines Viele Zufallsgrößen können ein Kontinuum von Werten annehmen: Lebensdauer, Messfehler, Proportionen, etc. Definition 6 (Dichte, stetig verteilt) Eine ZV X heißt absolut stetig verteilt (kurz stetig) mit Wahrscheinlichkeitsdichtefunktion fX (kurz Dichte), wenn gilt Zx P (X ≤ x) = fX (y) dy ∀x∈R −∞ Die Funktion FX : R → R, FX (x) = P (X ≤ x), heißt die Verteilungsfunktion zu X. Im diskreten Fall ist FX vom reinen Sprungtyp. Im stetigen Fall ist FX ”glatt”. Grob ist fx die Ableitung von FX , insbesondere also FX stetig. Insbesondere gilt P (X = x) = 0 ∀ x ∈ R bei stetigen ZV. 5.2 5.2.1 Einige wichtige stetige Verteilungen Gleichverteilung Eine Zufallsvariable ZV heißt gleichverteilt auf dem Intervall ( (a,b), kurz: L(X) = 1 ,a < x < b unif, X ∼ unif (a, b), wenn X die Dichtefunktion f (x) = b−a hat. 0 R∞ Die zugehörifge Verteilungsfunktion ist F (X) = f (y) dy −∞ Abbildung 1: Gleichverteilung (Verteilungsfunktion, Dichtefunktion) 5.2.2 Exponentialverteilung Die Exponentialverteilung mit Parameter λ(> 0) wird durch die Dichte ( λe−λx , x ≥ 0 f (x) = }Stammfkt:1 − e−λx 0 , sonst beschrieben; die zugehörige Verteilungsfunktion ist ( 1 − e−λx , x ≥ 0 F (x) = 0 , x<0 Diese Verteilung taucht häufig im Zusammenhang mit Wartezeiten und Lebensdauern auf. In Beispielen sieht man, daß dann das Alter keine Rolle spielt, diese Tatsache nennt man auch die Gedächtnislosigkeit der Exponentialverteilung. Zusammenfassung der Vorlesung – Stochastik WS 2004/05 5.2.3 10 Normalverteilung Die wichtigste stetige Verteilung ist die Normalverteilung mit Parametern µ ∈ R und σ 2 > 0, kurz: N (µ, σ 2 ), mit der Dichtefunktion: f (x) = √ 1 2πσ 2 exp(− 1 (x − µ)2 ), 2σ 2 −∞ < x < ∞. Dies ist die Gaußsche Glockenkurve mit ihren Wendepunkten in µ ± σ Taucht oft Abbildung 2: Normalverteilung (Dichtefunktion) im Zusammenhang mit Messfehlern auf (Zentraler Grenzwertsatz) !Man findet keine Stammfunktion, deshalb gibt es Tabellen! Für die zugehörige Verteilungsfunktion gibt es keine einfache Formel. Für die Werte µ = 0, σ 2 = 1 (Man nennt N(0,1) auch Standardnormalverteilung) sind die Werte der Verteilungsfunktion 1 Φ(x) = √ 2π Z∞ 2 e−1/2y dy −∞ vertafelt (Tabelle), beispielsweise gilt Φ(1, 645) = 0.95. Tabelle mit den behandelten stetigen Verteilungen Verteilung Gleich kurz unif (a, b) Vert.funktion FX (x) = R∞ Dichte fX (x) = f (y) dy 1 b−a −∞ Exponential exp(λ) FX (x) = 1 − e−λx für x ≥ 0, 0 sonst. Normal N (µ, σ 2 ) Es gibt keine Funktion, für N (0, 1) sind Werte vertafelt. fX (x) = R∞ −1/2y2 1 √ e dy 2π fX (x) = λe−λx für x ≥ 0, 0 sonst. Stammfkt: − e−λx fX (x) = , √ 1 exp(− 2σ1 2 (x 2πσ 2 −∞ < x < ∞ −∞ Tabelle 3: Tabelle mit Verteilungsfunktionen und Dichten der stetigen Verteilungen Lemma 5.2 Für alle β ∈ R, α 6= 0 gilt X ∼ N (µ, σ 2 ) ⇒ αX + β ∼ N (αµ + β, α2 σ 2 ) − µ)2 ) Zusammenfassung der Vorlesung – Stochastik WS 2004/05 5.3 11 Erwartungswerte und Momente Definition 7 (Erwartungswert stetiger ZV) Ist X eine stetige Zufallsgröße mit Dichte f , so wird der Erwartungswert EX von X definiert durch Z EX = x f (x) dx , vorrausgesetzt, es gilt nicht existiert. R |x|f (x) dx < ∞ sont sagt man, dass der Erwartungswert Satz 7 Z E g(x) = g(x) f (x) dx Satz 8 (Linearität und Monotonie) Unter der Vorraussetzung, dass die beteligten Erwartungswerte existieren, gilt 1. E(X + Y ) = EX + EY , E(cX) = c EX c ∈ R (Linearität) 2. X ≤ Y ⇒ EX ≤ EY (Monotonie) Definition 8 (Momente stetiger ZV) Das i-te Moment einer (stetigen) ZV X ist mit E(X k ), diep Varianz mit var(X) = E(X − EX)2 und die Standardabweichung mit σ(X) = var(X) gegeben. Rechenregeln sind (für c ∈ R): var(X) var(cX) var(X + c) = EX 2 − (EX)2 = c2 var(X) = var(X) Merke: zur Standardnormalverteilung N (0, 1) gehören der Erwartungswert 0 und die Varianz 1. im allgemeinen Fall X ∼ N (µ, σ 2 ) gilt EX = µ und var(X) = σ 2 Zusammenfassung der Vorlesung – Stochastik WS 2004/05 6 12 Mehrdimensionale Zufallsgrößen und Unabhängigkeit Hat man mehrere, von dem Ergebnis ω eines Zufallsexperimentes abhängige Größen X1 (ω), ..., Xn (ω) ∈ R, so kann man diese zu einem stochastischen Vektor X zusammenfassen: ω 7→ (X1 (ω), ..., Xn (ω)). Definition 9 (gemeinsame Verteilungsfunktion von ZVektoren) Die gemeinsame Verteilungsfunktion FX,Y : R2 → R zweier ZV X und Y , oder auch: die Verteilungsfunktion des Zufallsvektors (X, Y ), wird definiert durch FX,Y (x, y) = P (X ≤ x und Y ≤ y) = P ({ω ∈ Ω : X(ω) < x ∧ Y (ω) < y}). Definition 10 (Unabhängigkeit von Zufallsvektoren) Es seien X, Y ZV mit gemeinsamer Verteilungsfunktion FX,Y . Weiter sei FX die Verteilungsfunktion zu X und FY die Verteilungsfunktion zu Y . Dann heißen X und Y stochastisch unabhängig, wenn gilt: FX,Y (x, y) = FX (x) · FY (y) für alle x, y ∈ R speziell bei diskreten stetigen ZV setzt man: Definition 11 (diskreter, stetiger Zufallsvektor) 1. Nehmen X und Y nur endlich viele oder höchstens abzählbar viele Werte an, so nennt man (X, Y ) einen diskreten Zufallsvektor und PX,Y (x, y) := P (X = x, Y = y) die gemeinsame Massenfunktion von X und Y . 2. Gibt es eine Funktion fX,Y : R2 → R+ mit der Eigenschaft Zx Zy FX,Y (x, y) = fX,Y (s, t) ds dt ∀ x, y ∈ R −∞ −∞ so nennt man (X, Y ) einen absolut stetig verteilten Zufallsvektor und fX,Y eine gemeinsame Dichtefunktion von X und Y . Satz 9 () Es seien X und Y Zufallsvektoren und g : R2 → R eine Funktion, dann gilt 1. Ist (X, Y ) ein diskreter Zufallsvektor mit Massenfunktion PX,Y , so gilt E g(x, y) = XX X g(x, y) PX,Y (x, y). Y 2. Ist (X, Y ) ein stetiger Zufallsvektor mit Dichtefunktion FX,Y , so gilt Z Z E g(x, y) = g(x, y) fX,Y (x, y) dx dy. Interpretation: Wahrscheinlichkeiten als Volumina unter der durch die Dichte definierte Oberfläche. Zusammenfassung der Vorlesung – Stochastik WS 2004/05 13 Satz 10 (Zusammenhang zur Unabhängigkeit:) 1. Ist X, Y diskret mit Massenfunktion PX,Y , so sind X und Y genau dann unabhängig, wenn pX,Y (x, y) = pX (x) · pY (y) für alle x, y ∈ R gilt (konkret: P (X = x, Y = y) = PP (X = x) · P (Y = y)). P Hierbei sind pP X (x) = P (X = x) = Y P (X = x, Y = y) = Y pX,Y (x, y) und pY (y) = X pX,Y (x, y) die Massenfunktionen zu X und Y . 2. Ist X, Y stetig mit Dichtefunktion fX und fY , so sind sie genau dann unabhängig, wenn fX,Y mit fX,Y (x, y) = fX (x)·fY (y) eine Dichtefunktione zum Zufallsvektor (X, Y ) ist. Satz 11 (Multiplikationsregel für Erwartungewerte) Für unabhängige ZV X und Y gilt E(XY ) = E(X) · E(Y ) (vorrausgesetzt, die Erwartungswerte existieren) Definition 12 (CoVarianz) Die Kovarianz cov(X, Y ) zweier ZV X und Y wird definiert durch cov(X, Y ) = E(X − EX) · (Y − EY )) . cov(X,Y ) als Korrelationskoeffizient ϕ(X, Y ) berechnet man ϕ(X, Y ) = σ(X)σ(Y ) (vorrausgesetzt, die ZV haben eine endliche, von 0 verschiedene Varianz). Es gilt cov(X, Y ) = E(XY − (EX)Y − X(EY ) + (EX)(EY )) = E(XY ) − (EX)(EY ) − (EX)(EY ) + (EX)(EY ) = E(XY ) − (EX)(EY ) Sind X, Y unabhängig gilt cov(X, Y ) = 0 und man sagt, X,Y sind unkorreliert. Die Umkehrung gilt nicht. cov und ϕ können als Maß eier linearen Abhängigkeit angesehen werden. Cauchy-Schwarz-Ungleichung p |E(X − EX)(y − EY )| ≤ (E(X − EX)2 )(E(Y − EY )2 ) p |cov(X, Y )| ≤ var(X) · var(Y ) = σ(X)σ(Y ) Insbesondere nimmt der Korrelationskoeffizient Werte im Intervall [−1, 1] an. Zwei Zufallsvariablen X und Y sind unabhängig, wenn sich die gemeinsame (Massen)Verteilungsfunktion also Produkt der marginalen (Massen-)Verteilungsfunktionen schreiben lassen. Bei der Dichtefunktion ist zu beachten, dass man die marginalen Dichtefunktioen durch ”ausintegrieren” der anderen Komponente erhalten kann: Z∞ fX (x) = Z∞ FX,Y (x, y) dy = 0 e−x−y = e−x 0 Damit lassen sich W’keiten ausrechnen, die sich auf beide ZV beziehen, zum Beispiel: P (X ≤ 2Y ) = x {(x,y):x≤2y, x,y≥0} Z Z fX,Y (x, y) dydx = ∞ Z∞ 0 x/2 e−x−y dydx = 2/3 Zusammenfassung der Vorlesung – Stochastik WS 2004/05 14 Satz 12 (Gleichheit von Bienaymé) Sind X1 , ..., Xn unabhängige Zufallsvektoren, mit endlicher Varianz, so gilt var(X1 )+ ... + var(Xn ) Ist die gemeinsame Verteilung zweier ZV X und Y bekannt, so lässt sich (im Prinzip) die Verteilung von Z := g(X, Y ) unter g : R2 → R gegeben, bestimmen. Besonders wichtig, Z = X + Y , also g : R2 → R, x = xx12 → x1 + x2 . 6.1 Faltung von PX und PY Satz 13 1. Sind X, Y unabhängige diskrete ZV mit Massenfunktionen pX , pY , so ist X + Y wieder eine diskrete ZV mit Massenfunktion X PX+Y (z) = pX (x)pY (z − x) x = X pX (z − y)pY (y) y Terminologie: Man nennt PX+Y die Faltung von PX und PY 2. Sind X, Y unabhängige stetige ZV mit Dichtefunktionen fx , fy , so ist auch X + Y eine stetige ZV, und die Dichtefunktion lautet Z Z fX+Y (z) = fX (x)fY (z − x) dx = fX (z − y)fY (y) dy Terminologie: Man nennt fX+Y die Faltung von fX und fY . 6.2 Transformationssatz für W’-Dichten Satz 14 (Transformationssatz für W’-Dichten) Es seien U und V offene Teilmengen von Rd und Ψ : U → V eine bijektive, stetige diffbare Abbildung mit det((Ψ0 (x)) 6= 0 für alle x ∈ U . Ist dann X ein Zufallsvektor mit Dichte fX und P (X ∈ U ) = 1, so hat Y := Ψ(x) die Dichte fY (y) = |det(Ψ−1 )0 (y)| fX (Ψ−1 (y)), y ∈ V. Zusammenfassung der Vorlesung – Stochastik WS 2004/05 7 15 Erzeugende Funktionen In diesem Kapitel geht es um Transformationsmethoden, die in vielen Bereichen der Mathematik von großer Bedeutung sind und eine starke Verbindung zur Analysis herstellen. 7.1 w’erzeugende Funktion Die w’erzeugende Funktion im allgemeinen ist definiert durch gX (s) = ∞ X fX (k)sk = EsX k=0 siehe hierzu Übung11 siehe Skript von Frau Prof. Bäuerle S.29 ff. 7.2 momenterzeugende Funktion Die momenterzeugende Funktion zu einer Zufallsvariablen is definiert als: Z ∞ ϕX (t) = EetX = etx · fX (x)dx 0