Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik 2 Dr. Thomas Zehrt 7 Zufallsvariablen 1 Benötigtes Vorwissen: Der Stoff der Vorlesung ,,Statistik“ wird als bekannt vorausgesetzt, insbesondere das Kapitel ,,Zufallsvariablen“. Als Zusammenfassung kann dafür der erste Teil dieses Skriptes dienen. Weiterhin wird das Kapitel ,,Integration“ aus der Vorlesung ,,Mathematik 1“ als bekannt vorausgesetzt. Inhaltsverzeichnis 1 Zufallsvariablen(Wiederholung) 2 2 Stetige Zufallsvariablen 5 3 Erwartungswert, Varianz und Quantil 7 4 Die Ungleichung von Tschebyschev 12 5 Paare von Zufallsvariablen 14 6 Standardisierung und arithmetisches Mittel 18 7 Übungsaufgaben 19 2 1 Zufallsvariablen(Wiederholung) Definition 1.1 Sei (Ω, P ) ein diskreter Wahrscheinlichkeitsraum. Dann heisst eine Abbildung X : Ω −→ R eine (reellwertige) Zufallsvariable, falls alle Ereignisse der Form • {ω ∈ Ω : X(ω) = x} ⊂ Ω (alle ω ∈ Ω die von X auf x abgebildet werden) für alle reellen Zahlen x und • AI = {ω ∈ Ω : X(ω) ∈ I} ⊂ Ω (alle ω ∈ Ω die von X in das Intervall I abgebildet werden) für alle Intervalle I Wahrscheinlichkeiten besitzen, die dem Axiomsystem von Kolmogorov genügen. Oft wird man sich aber für die Wahrscheinlichkeit interessieren, dass X(ω) in einem bestimmten Intervall I = [a, b] oder auch I = (−∞, b] liegt, also dass X(ω) ∈ I gilt. Dazu wählen wir die folgenden Schreibweisen: P (X ∈ I) = P ( {ω ∈ Ω : X(ω) ∈ I} ) P (a ≤ X ≤ b) = P ( {ω ∈ Ω : a ≤ X(ω) ≤ b} ) P (X ≤ b) = P ( {ω ∈ Ω : X(ω) ≤ b} ) Definition 1.2 Sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, P ). Dann heisst die Abbildung F : R −→ [0, 1] mit F (x) = P (X ≤ x) = P (−∞ ≤ X ≤ x) Verteilungsfunktion der Zufallsvariablen. Satz 1 (Eigenschaften von Verteilungsfunktionen) • F ist monoton wachsend • F ist rechtsseitig stetig, d.h. F (x) = • lim F (x) = 0 x→−∞ • lim F (x) = 1 x→∞ lim h>0,h→0 F (x + h) 3 Satz 2 (Rechenregeln für Verteilungsfunktionen) Für alle a, b ∈ R mit a < b gilt: P (X < a) P (X > a) P (X ≥ a) P (a < X ≤ b) P (a < X < b) P (a ≤ X < b) P (X ≤ a) − P (X = a) = F (a) − P (X = a) 1 − F (a) 1 − F (a) + P (X = a) F (b) − F (a) F (b) − F (a) − P (X = b) F (b) − F (a) − P (X = b) + P (X = a) = = = = = = Beispiel 1.1 Wir betrachten den zweifachen Wurf eines fairen Würfels und wissen: Ω = { (ω1 , ω2 ) : ωi ∈ {1, . . . , 6} } und P ist die Gleichverteilung auf Ω. Wir definieren eine Zufallsvariable X: Ω −→ R (ω1 , ω2 ) 7−→ ω1 + ω2 für alle (ω1 , ω2 ) ∈ Ω, d.h. X ist eine Funktion die jedem Ergebnis des Experimentes die Augensumme zuordnet. Es gilt zunächst RX = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 } und z.B. 1 1 1 3 + + = 36 36 36 36 Damit ergibt sich letztendlich die folgenden Verteilung für X: P (X = 4) = P ( (3, 1) oder (2, 2) oder (1, 3) ) = xi 2 3 4 5 6 7 8 9 10 11 12 P (X = xi ) 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 P IR X F (x) = 0 , 1/36 , 3/36 , 6/36 , 10/36, 15/36, 21/36, 26/36, 30/36, 33/36, 35/36, 36/36, x<2 2≤x<3 3≤x<4 4≤x<5 5≤x<6 6≤x<7 7≤x<8 8≤x<9 9 ≤ x < 10 10 ≤ x < 11 11 ≤ x < 12 12 ≤ x 4 Im folgenden unterscheiden wir zwei Typen von Zufallsvariablen • diskrete Zufallsvariablen: RX = X(Ω) ist eine abzählbare Menge, z.B. 0, 1, 2, . . . , 100 (siehe Vorlesung ,,Statistik“, Kapitel 8) • stetige Zufallsvariablen: RX = X(Ω) ist eine überabzählbare Menge, z.B. [0, 200]. 5 2 Stetige Zufallsvariablen Definition 2.1 Eine Funktion f heisst Dichte oder Wahrscheinlichkeitsdichte falls sie die folgenden Eigenschaften hat: 1. f (t) ≥ 0 für alle t ∈ R, 2. f (t) ist stetig bis auf abzählbar viele Punkte, Z ∞ f (t) dt = 1. 3. −∞ Definition 2.2 Eine Zufallsvariable X heisst stetig mit der Dichte f falls sich die Verteilungsfunktion F : R −→ [0, 1] in der folgenden Weise schreiben lässt: Z x F (x) = P (−∞ < X ≤ x) = f (t) dt. −∞ Dichte f Verteilung F x = f(t) dt F(x) 8 − x x Merke: Der Flächeninhalt unter der Dichtefunktion (links von x) entspricht dem Funktionswert der Verteilungsfunktion an der Stelle x und dieser Flächeninhalt ist als die Wahrscheinlichkeit deutbar, mit der die Zufallsvariable X Werte nicht rechts von x realisiert. F ist eine (spezielle) Stammfunktion von f und wie wir aus der Vorlesung Mathematik 1 bzw. aus der Schule wissen, gilt natürlich: f (x) = F 0 (x) = lim h→0 F (x + h) − F (x) 1 = lim P (x ≤ X ≤ x + h) h→0 h h 6 Satz 3 Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable einen beliebigen Wert x0 annimmt, ist gleich Null: P (X = x0 ) = 0 Beweis: Sei x0 ∈ R und wir betrachten das Intervall (x0 − δ, x0 ]. Dann gilt zunächst allgemein: P (x0 − δ < X ≤ x0 ) = F (x0 ) − F (x0 − δ) also P (X = x0 ) = lim P (x0 − δ < X ≤ x0 ) δ→0 = lim [F (x0 ) − F (x0 − δ)] δ→0 = F (x0 ) − F (x0 ) = 0. 2 Bei stetigen Zufallsvariablen sind Punktereignisse X = xi nicht von Interesse!! Zusammenfassung: Wahrscheinlichkeit, dass X einen Wert zwischen a und b annimmt Ausgedrückt durch die Verteilungsfunktion P (a ≤ X ≤ b) = P (a < X < b) = P (a ≤ X < b) = F (b) − F (a) Z Ausgedrückt durch die Dichte: b f (t) dt = a Aufgabe 2.1 Ist die folgende Funktion eine Wahrscheinlichkeitsdichte? Begründen Sie Ihre Aussage. Bestimmen Sie die zugehörige Verteilungsfunktion. 1 t ∈ [2, 4] 2 f (t) = 0 sonst Lösung: x<2 0 1 F (x) = x − 1 x ∈ [2, 4] 2 1 x>4 7 3 Erwartungswert, Varianz und Quantil Definition 3.1 (Zur Erinnerung) X sei eine diskrete Zufallsvariable mit RX = { x1 , x2 , x3 , . . . , xn }. Dann ist der Erwartungswert E(X) = µ von X definiert durch E(X) = n X xi P (X = xi ) | {z } i=1 pi Die Varianz V ar(X) = σ 2 von X (mit µ = E(X)) ist: V ar(X) = n X (xi − µ)2 P (X = xi ) | {z } i=1 pi Definition 3.2 X sei eine stetige Zufallsvariable mit zugehöriger Dichte f . Dann ist der Erwartungswert E(X) = µ von X definiert durch Z ∞ E(X) = t f (t) dt −∞ Die Varianz V ar(X) = σ 2 von X (mit µ = E(X)) ist: Z ∞ V ar(X) = (t − µ)2 f (t) dt −∞ Für manche Probleme ist es praktisch, den Begriff des Erwartungswertes weiter zu verallgemeinern. Definition 3.3 X sei eine stetige Zufallsvariable mit zugehöriger Dichte f . Dann sind für r = 1, 2, . . . die r-ten Momente definiert durch r Z ∞ mr = E(X ) = −∞ tr f (t) dt 8 Aufgabe 3.1 Die folgende Funktion sei die Wahrscheinlichkeitsdichte einer Zufallsvariablen X. 1 t ∈ [2, 4] 2 f (t) = 0 sonst Bestimmen Sie Erwartungswert, die Varianz und die r-ten Momente von X. Lösung: Z ∞ E(X) = Z 1 dt = 3 2 2 Z 4 1 1 2 (t − 3)2 dt = (t − 3) f (t) dt = 2 3 2 t f (t) dt = −∞ Z ∞ V ar(X) = −∞ Z ∞ mr = −∞ 4 tr f (t) dt = t 2r (2r+1 − 1) r+1 9 Definition 3.4 Sei X eine stetige Zufallsvariable mit Verteilungsfunktion F . Ein p-Quantil xp (0 < p < 1) ist der Wert der Verteilungsfunktion, für den F (xp ) = p gilt. xp xp 8 Man kann sich also xp als den Wert einer Verteilung vorstellen, der die Wahrscheinlichkeitsmasse so teilt, dass links von xp genau die Masse p und rechts von xp genau die Masse 1 − p liegt. f(t) dt= 1−p f(t) dt = p xp 8 − Spezialfälle: unteres Quartil: x0.25 , Median, Zentralwert: x0.5 , oberes Quartil: x0.75 Aufgabe 3.2 Die folgende Funktion sei die Wahrscheinlichkeitsdichte einer Zufallsvariablen X. 1 t ∈ [2, 4] 2 f (t) = 0 sonst Bestimmen Sie x0.25 , x0.5 und x0.75 . Lösung: Allgemein: F (xp ) = 1 x 2 p − 1 = p oder xp = 2(p + 1) 10 In der induktiven Statistik spielen p- und (1 − p)-Quantile (zu p = 0.025, p = 0.05, ...) insbesondere in der Testtheorie eine wichtige Rolle. Dort stellen diese Quantile Grenzen der Irrtumswahrscheinlichkeit dar, die die Grundlage für eine Testentscheidung bilden. Aufgabe 3.3 Sei X eine stetige Zufallsvariable mit Dichtefunktion f . Weiterhin sei eine Zahl p mit 0 < p < 1 gegeben. Bestimmen Sie zwei Zahlen l und r, so dass P (l ≤ X ≤ r) = 1 − p 1−p p 2 p 2 r l In dieser Form ist die Frage nicht eindeutig zu beantworten. Deshalb verlangen wir noch, dass die restliche Wahrscheinlichkeit gleichmässig auf die beiden Aussenbereiche verteilt wird. Lösung: Die Forderung P (l ≤ X ≤ r) = 1 − p ist mit der obigen Annahme gleichwertig zur Forderung: p = P (−∞ ≤ X ≤ l) + P (r ≤ X ≤ ∞) Verlangen wir nun eine gleichmässige Aufteilung der Wahrscheinlichkeit p auf diese beiden Aussenbereiche folgt: • p = P (−∞ ≤ X ≤ l) = F (l) 2 oder l = x p2 das p − Quantil 2 • p = P (r ≤ X ≤ ∞) = 1 − F (r) 2 oder r = x1− p2 p das (1 − ) − Quantil 2 11 Falls X eine Zufallsvariable mit gerader Dichtefunktion f ist (d.h. es gilt f (−t) = f (t) für alle t), so gilt stets x1−p = −xp . Das kann man (hoffentlich) leicht an folgender Zeichnung einsehen. 1111111 0000000 0000000 1111111 x 00000000000 11111111111 00000000000 11111111111 x 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 − p 1−p 11111111 00000000 00000000 11111111 00000000 11111111 x 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 1−p 11111111111 00000000000 p 12 4 Die Ungleichung von Tschebyschev Satz 4 (Die Ungleichung von Tschebyschev) Sei X eine beliebige Zufallsvariable mit µ = E(X) und σ 2 = V ar(X). Dann gelten für jede positive Zahl c die folgenden beiden (äquivalenten) Ungleichungen: P ( |X − µ| < c ) ≥ 1 − σ2 c2 P ( |X − µ| ≥ c ) ≤ oder σ2 c2 d.h. man kann relativ leicht die Wahrscheinlichkeit abschätzen, mit der X einen Wert innerherhalb (oder ausserhalb) des Intervalls [µ − c, µ + c] annimmt. Die Ungleichung von Tschebyschev für diskrete Zufallsvariablen P σ2 < − c2 2 > − 1− σ 2 c µ− c µ IR X µ+ c Die Ungleichung von Tschebyschev für stetige Zufallsvariablen P σ2 < − c2 2 > − 1− σ 2 c µ− c µ µ+ c IR X 13 Beweis: Wir beweisen die Ungleichung für stetige Zufallsvariablen. Der Beweis für diskrete Zufallsvariablen verläuft analog. Z ∞ 2 (t − µ)2 f (t) dt σ = −∞ Z ≥ (t − µ)2 f (t) dt t s.d. |t−µ|≥c Z ≥ c2 f (t) dt t s.d. |t−µ|≥c = c2 P (|X − µ| ≥ c) und auflösen nach P (|X − µ| ≥ c) ergibt die Ungleichung von Tschebyschev für den Aussenbereich. 2 14 5 Paare von Zufallsvariablen Seien X und Y zwei Zufallsvariablen (auf dem selben Stichprobenraum) mit den Verteilungsfunktionen FX und FY . Natürlich sind dann auch z.B. X + Y und X · Y neue Zufallsvariablen, deren Verteilungen aber im allgemeinen nicht einfach herzuleiten ist. Bei vielen Problemen in der Praxis muss man auch sehr gut zwischen unabhängigen und nicht unabhängigen Zufallsvariablen unterscheiden. Definition 5.1 Die Zufallsvariablen X und Y heissen unabhängig, falls für alle x ∈ RX und alle y ∈ RY die Ereignisse (X ≤ x) und (Y ≤ y) unabhängig sind, also falls P ( (X ≤ x) und (Y ≤ y) ) = P ( X ≤ x ) · P ( Y ≤ y ). Beispiel 5.1 X und Y seien die beiden diskreten (unabhängigen) Zufallsvariablen mit den folgenden Verteilungen: k −1 1 2 P (X = k) 1/3 1/3 1/3 k P (Y = k) −1 1/5 1 4/5 Die Verteilung der Zufallsvariablen X + Y ist: k P (X + Y = k) −2 1/15 0 5/15 1 1/15 2 4/15 3 4/15 P (X + Y ≤ k) 1/15 6/15 7/15 11/15 15/15 Die Verteilung der Zufallsvariablen X · Y ist: k P (X · Y = k) −2 1/15 −1 5/15 1 5/15 2 4/15 P (X · Y ≤ k) 1/15 6/15 11/15 15/15 Beispiel 5.2 Schwieriger ist es Summen und Produkte unabhängiger stetiger Zufallsvariablen X und Y mit den zugehörigen Dichtefunktionen fX und fY zu verstehen. Wir geben hier ohne Begründung die Dichtefunktionen der Zufallsvariablen X + Y und X · Y an. Insbesondere können wir natürlich nicht einfach die Dichtefunktionen addieren oder multiplizieren! Z ∞ fX+Y (z) = fX (x) fY (z − x) dx −∞ Z ∞ z 1 dx fX·Y (z) = fX (x) fY x x −∞ 15 Sind X und Y nun zunächst beliebige (aber der Einfachheit halber diskrete) Zufallsvariablen. Dann gilt für den Erwartungswert der Zufallsvariablen X · Y : X X E(X · Y ) = xi · yj · P (X = xi und Y = yj ). i j Falls nun X und Y unabhängig sind, können wir diesen Ausdruck vereinfachen: X X E(X · Y ) = xi · yj · P (X = xi und Y = yj ) i j = X X = X X i xi · yj · P (X = xi ) · P (Y = yj ) j i xi · P (X = xi ) · yj · P (Y = yj ) j ! ! = X xi · P (X = xi ) i · X yj · P (Y = yj ) j = E(X) · E(Y ) Beispiel 5.3 Für das letzte Beispiel gilt zunächst E(X) = −1 · 1 1 2 1 +1· +2· = 3 3 3 3 E(Y ) = −1 · 1 4 3 +1· = 5 5 5 E(X · Y ) = −2 · 5 5 4 6 1 −1· +1· +2· = 15 15 15 15 15 Es gilt also tatsächlich (in diesem Fall, da beide Zufallsvariablen unabhängig sind) die Identität E(X · Y ) = E(X) · E(Y ). Im allgemeinen stimmt diese Relation nicht! Definition 5.2 Seien X und Y zwei beliebige Zufallsvariablen mit den Erwartungswerten µX = E(X) und µY = E(Y ). Die Grösse Cov(X, Y ) = E(X · Y ) − E(X) · E(Y ) heisst Kovarianz zwischen X und Y . Der Korrelationskoeffizient von X und Y ist ρXY Cov(X, Y ) p = p . V ar(X) · V ar(Y ) 16 Weiterhin können wir mit Hilfe des Verschiebungssatzes die folgende allgemeine Rechnung vornehmen: V ar(X + Y ) = E((X + Y )2 ) − [E(X + Y )]2 = E(X 2 + 2X · Y + Y 2 ) − [E(X) + E(Y )]2 = E(X 2 ) + 2 E(X · Y ) + E(Y 2 ) − [E(X)]2 − 2 E(X) E(Y ) − [E(Y )]2 = E(X 2 ) − [E(X)]2 + E(Y 2 ) − [E(Y )]2 +2(E(X · Y ) − E(X)E(Y )) | {z } | {z } | {z } =V ar(X) =V ar(Y ) =:Cov(X,Y ) = V ar(X) + V ar(Y ) + 2 Cov(X, Y ) Satz 5 (Rechenregeln für Erwartungswert, Varianz und Kovarianz I) Seien X, Y Zufallsvariablen und a, b, c reelle Zahlen. Dann gelten die folgenden Rechenregeln: 1. E(aX + bY + c) = a E(X) + b E(Y ) + c 2. V ar(aX + b) = a2 V ar(X) 3. Verschiebungssatz der Varianz: V ar(X) = E(X 2 ) − [E(X)]2 4. V ar(X ± Y ) = V ar(X) + V ar(Y ) ± 2Cov(X, Y ) Satz 6 (Rechenregeln für Erwartungswert, Varianz und Kovarianz II) Seien X und Y unabhängige Zufallsvariablen. Dann gilt: E(X · Y ) = E(X) · E(Y ) V ar(X + Y ) = V ar(X) + V ar(Y ) Cov(X, Y ) = 0 17 Unabhängigkeit und Unkorelliertheit Sind die beiden Zufallsvariablen X und Y unabhängig, so gilt auch Cov(X, Y ) = 0 und somit auch ρXY = 0. Unabhängige Zufallsvariablen sind also stets unkorreliert! Die Umkehrung gilt im Allgemeinen nicht! Unkorrelierte Zufallsvariablen können (nicht müssen) also durchaus abhängig sein. Beispiel 5.4 X sei stetig gleichverteilt auf dem Intervall [−1, 1] und Y = X 2 . Die beiden Variablen sind unkorreliert, denn Cov(X, X 2 ) = E(X · X 2 ) − E(X)E(X 2 ) = 0 denn sowohl X als auch X 3 haben eine gerade Dichtefunktion (Graph symmetrisch zur y-Achse), also gilt E(X 3 ) = E(X) = 0. Aber X und Y sind nicht unabhängig. Eigentlich möchte man schon der Definition von Y eine (allerdings kausale!) Abhängigkeit von X ansehen. Es fällt aber auch nicht schwer, zwei (stochastisch) abhängige Ereignisse zu finden: 0 = P (X 2 < 1/4 | X > 1/2) 6= P (X 2 < 1/4) = 1/2 18 6 Standardisierung und arithmetisches Mittel Definition 6.1 Eine Zufallsvariable heisst standardisiert, wenn sie den Erwartungswert 0 und die Varianz 1 hat. Sei X eine Zufallsvariable. Dann heisst die Zufallsvariable X − E(X) Z = p V ar(X) Standardisierung von X. Definition 6.2 Wir bezeichnen Zufallsvariablen X1 , X2 , . . . , Xn als unabhängig und identisch verteilt, falls alle Xi • ein und dieselbe Verteilung besitzen und • voneinander unabhängig sind. Für die unabhängigen und identisch verteilten Zufallsvariablen X1 , X2 , . . . , Xn gelte nun E(Xi ) = µ und V ar(Xi ) = σ 2 für i = 1, 2, . . . , n. Dann heisst die neue Zufallsvariable n 1 X X = Xi n i=1 das arithmetische Mittel. Es gilt E(X) = E n 1 X Xi n i=1 ! n 1 X 1 = ·n·µ = µ E(Xi ) = n i=1 n und V ar(X) = V ar = n 1 X Xi n i=1 ! 1 σ2 2 · n · σ = n2 n n X 1 = 2 V ar Xi n i=1 ! n 1 X V ar(Xi ) = 2 n i=1 19 7 Übungsaufgaben 1. Eine stetige Zufallsvariable X besitze folgende Verteilungsfunktion für x < 2 0 − 41 x2 + 2x − 3 für 2 ≤ x ≤ 4 . F (x) = 1 für x > 4 (a) Bestimmen Sie die Dichtefunktion der Zufallsvariablen X. (b) Bestimmen Sie den Erwartungswert E(X) und die Varianz V ar(X). 2. Gegeben sei die Funktion f (t) = 2t − 4 0 für 2 ≤ t ≤ 3 . sonst (a) Zeigen Sie, dass f eine Dichtefunktion ist. (b) Ermitteln Sie die zugehörige Verteilungsfunktion. (c) Bestimmen Sie x0.25 , x0.5 und x0.75 . 3. (a) X sei eine stetige Zufallsvariable mit folgender Dichtefunktion ct für 1 ≤ t ≤ 3 f (t) = . 0 sonst Für welchen Wert der Konstanten c ist die oben genannte Funktion tatsächlich eine korrekte Dichtefunktion? (b) Setzen Sie den entsprechenden Wert für c ein und bestimmen Sie P (X > 2). 4. Von einer stetigen Zufallsvariablen X sei nur bekannt, dass sie den Erwartungswert 15 und die Varianz 4 besitzt. (a) Wie gross ist P (10 ≤ X ≤ 20) mindestens? (b) Bestimmen Sie das kleinste, symmetrisch um 15 gelegene Intervall der Form [15 − c, 15 + c], in welches mit einer Wahrscheinlichkeit von mindestens 0.9 die Werte von X fallen. 5. Die Zufallsvariablen X und Y nehmen die Werte 1, 2 und 3 an. Dabei seien die folgenden Wahrscheinlichkeiten bekannt: P (X = 1) = 0.5, P (X = 2) = 0.3, P (Y = 1) = 0.7, P (Y = 2) = 0.2, P (X = 1 und Y = 1) = 0.35, P (X = 2 und Y = 2) = 0.06, P (X = 3 und Y = 1) = 0.20. Bestimmen Sie die gemeinsame Verteilung. Sind X und Y unabhängig? 20 Lösungen einiger Übungsaufgaben 1. a) 0 −1t + 2 f (t) = 2 0 für t < 2 für 2 ≤ t ≤ 4 . für t > 4 b) E(X) = 8/3 und V ar(X) = 2/9 2. a) − b) 0 x2 − 4x + 4 F (x) = 1 c) F (xp ) = x2p − 4xp + 4 = p also xp = 2 + für x < 2 für 2 ≤ x ≤ 3 . für x > 3 √ p 3. a) c = 1/4 b) P (X > 2) = 5/8 4. a) P (10 ≤ X ≤ 20) ≥ 0.84 b) [15 − c, 15 + c] = [15 − 6.325, 15 + 6.325] 5. Y Vert. 1 2 3 von X 1 0.35 0.14 0.01 0.5 X 2 0.15 0.06 0.09 0.3 3 0.2 0 0 0.2 Vert. von Y 0.7 0.2 0.1 Nein, da .... Ergänzung: E(X) = 1.7, E(Y ) = 1.4, V ar(X) = 0.61, V ar(Y ) = 0.44, Cov(X, Y ) = −0.0400 und ρXY = −0.077.