7 Inhaltsverzeichnis - WWZ

Werbung
Wirtschaftswissenschaftliches Zentrum
Universität Basel
Mathematik 2
Dr. Thomas Zehrt
7
Zufallsvariablen 1
Benötigtes Vorwissen: Der Stoff der Vorlesung ,,Statistik“ wird als bekannt vorausgesetzt, insbesondere das Kapitel ,,Zufallsvariablen“. Als Zusammenfassung kann dafür
der erste Teil dieses Skriptes dienen. Weiterhin wird das Kapitel ,,Integration“ aus der
Vorlesung ,,Mathematik 1“ als bekannt vorausgesetzt.
Inhaltsverzeichnis
1 Zufallsvariablen(Wiederholung)
2
2 Stetige Zufallsvariablen
5
3 Erwartungswert, Varianz und Quantil
7
4 Die Ungleichung von Tschebyschev
12
5 Paare von Zufallsvariablen
14
6 Standardisierung und arithmetisches Mittel
18
7 Übungsaufgaben
19
2
1
Zufallsvariablen(Wiederholung)
Definition 1.1 Sei (Ω, P ) ein diskreter Wahrscheinlichkeitsraum. Dann heisst eine Abbildung
X : Ω −→ R
eine (reellwertige) Zufallsvariable, falls alle Ereignisse der Form
• {ω ∈ Ω : X(ω) = x} ⊂ Ω (alle ω ∈ Ω die von X auf x abgebildet werden) für alle
reellen Zahlen x und
• AI = {ω ∈ Ω : X(ω) ∈ I} ⊂ Ω (alle ω ∈ Ω die von X in das Intervall I abgebildet
werden) für alle Intervalle I
Wahrscheinlichkeiten besitzen, die dem Axiomsystem von Kolmogorov genügen.
Oft wird man sich aber für die Wahrscheinlichkeit interessieren, dass X(ω) in einem
bestimmten Intervall I = [a, b] oder auch I = (−∞, b] liegt, also dass X(ω) ∈ I gilt. Dazu
wählen wir die folgenden Schreibweisen:
P (X ∈ I) = P ( {ω ∈ Ω : X(ω) ∈ I} )
P (a ≤ X ≤ b) = P ( {ω ∈ Ω : a ≤ X(ω) ≤ b} )
P (X ≤ b) = P ( {ω ∈ Ω : X(ω) ≤ b} )
Definition 1.2 Sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, P ). Dann
heisst die Abbildung F : R −→ [0, 1] mit
F (x) = P (X ≤ x) = P (−∞ ≤ X ≤ x)
Verteilungsfunktion der Zufallsvariablen.
Satz 1 (Eigenschaften von Verteilungsfunktionen)
• F ist monoton wachsend
• F ist rechtsseitig stetig, d.h.
F (x) =
• lim F (x) = 0
x→−∞
• lim F (x) = 1
x→∞
lim
h>0,h→0
F (x + h)
3
Satz 2 (Rechenregeln für Verteilungsfunktionen) Für alle a, b ∈ R mit a < b gilt:
P (X < a)
P (X > a)
P (X ≥ a)
P (a < X ≤ b)
P (a < X < b)
P (a ≤ X < b)
P (X ≤ a) − P (X = a) = F (a) − P (X = a)
1 − F (a)
1 − F (a) + P (X = a)
F (b) − F (a)
F (b) − F (a) − P (X = b)
F (b) − F (a) − P (X = b) + P (X = a)
=
=
=
=
=
=
Beispiel 1.1 Wir betrachten den zweifachen Wurf eines fairen Würfels und wissen:
Ω = { (ω1 , ω2 ) : ωi ∈ {1, . . . , 6} }
und P ist die Gleichverteilung auf Ω. Wir definieren eine Zufallsvariable
X: Ω
−→ R
(ω1 , ω2 ) 7−→ ω1 + ω2
für alle (ω1 , ω2 ) ∈ Ω, d.h. X ist eine Funktion die jedem Ergebnis des Experimentes die
Augensumme zuordnet. Es gilt zunächst RX = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 } und z.B.
1
1
1
3
+
+
=
36 36 36
36
Damit ergibt sich letztendlich die folgenden Verteilung für X:
P (X = 4) = P ( (3, 1) oder (2, 2) oder (1, 3) ) =
xi
2
3
4
5
6
7
8
9
10
11
12
P (X = xi )
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
P
IR X
F (x) =







































0
,
1/36 ,
3/36 ,
6/36 ,
10/36,
15/36,
21/36,
26/36,
30/36,
33/36,
35/36,
36/36,
x<2
2≤x<3
3≤x<4
4≤x<5
5≤x<6
6≤x<7
7≤x<8
8≤x<9
9 ≤ x < 10
10 ≤ x < 11
11 ≤ x < 12
12 ≤ x
4
Im folgenden unterscheiden wir zwei Typen von Zufallsvariablen
• diskrete Zufallsvariablen:
RX = X(Ω) ist eine abzählbare Menge, z.B. 0, 1, 2, . . . , 100
(siehe Vorlesung ,,Statistik“, Kapitel 8)
• stetige Zufallsvariablen:
RX = X(Ω) ist eine überabzählbare Menge, z.B. [0, 200].
5
2
Stetige Zufallsvariablen
Definition 2.1 Eine Funktion f heisst Dichte oder Wahrscheinlichkeitsdichte falls sie
die folgenden Eigenschaften hat:
1. f (t) ≥ 0 für alle t ∈ R,
2. f (t) ist stetig bis auf abzählbar viele Punkte,
Z ∞
f (t) dt = 1.
3.
−∞
Definition 2.2 Eine Zufallsvariable X heisst stetig mit der Dichte f falls sich die Verteilungsfunktion F : R −→ [0, 1] in der folgenden Weise schreiben lässt:
Z
x
F (x) = P (−∞ < X ≤ x) =
f (t) dt.
−∞
Dichte f
Verteilung F
x
=
f(t) dt
F(x)
8
−
x
x
Merke: Der Flächeninhalt unter der Dichtefunktion (links von x) entspricht dem Funktionswert der Verteilungsfunktion an der Stelle x und dieser Flächeninhalt ist als die
Wahrscheinlichkeit deutbar, mit der die Zufallsvariable X Werte nicht rechts von x realisiert.
F ist eine (spezielle) Stammfunktion von f und wie wir aus der Vorlesung Mathematik 1
bzw. aus der Schule wissen, gilt natürlich:
f (x) = F 0 (x) = lim
h→0
F (x + h) − F (x)
1
= lim
P (x ≤ X ≤ x + h)
h→0 h
h
6
Satz 3 Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable einen beliebigen Wert x0
annimmt, ist gleich Null:
P (X = x0 ) = 0
Beweis:
Sei x0 ∈ R und wir betrachten das Intervall (x0 − δ, x0 ]. Dann gilt zunächst
allgemein: P (x0 − δ < X ≤ x0 ) = F (x0 ) − F (x0 − δ) also
P (X = x0 ) = lim P (x0 − δ < X ≤ x0 )
δ→0
= lim [F (x0 ) − F (x0 − δ)]
δ→0
= F (x0 ) − F (x0 ) = 0.
2
Bei stetigen Zufallsvariablen sind Punktereignisse X = xi nicht von Interesse!!
Zusammenfassung:
Wahrscheinlichkeit, dass X
einen Wert zwischen a und b
annimmt
Ausgedrückt durch die
Verteilungsfunktion
P (a ≤ X ≤ b)
= P (a < X < b)
= P (a ≤ X < b)
= F (b) − F (a)
Z
Ausgedrückt durch die Dichte:
b
f (t) dt
=
a
Aufgabe 2.1 Ist die folgende Funktion eine Wahrscheinlichkeitsdichte? Begründen Sie
Ihre Aussage. Bestimmen Sie die zugehörige Verteilungsfunktion.

1


t ∈ [2, 4]
2
f (t) =


0
sonst
Lösung:

x<2

 0
1
F (x) =
x − 1 x ∈ [2, 4]

 2
1
x>4
7
3
Erwartungswert, Varianz und Quantil
Definition 3.1 (Zur Erinnerung) X sei eine diskrete Zufallsvariable mit
RX = { x1 , x2 , x3 , . . . , xn }. Dann ist der Erwartungswert E(X) = µ von X definiert
durch
E(X) =
n
X
xi P (X = xi )
| {z }
i=1
pi
Die Varianz V ar(X) = σ 2 von X (mit µ = E(X)) ist:
V ar(X) =
n
X
(xi − µ)2 P (X = xi )
| {z }
i=1
pi
Definition 3.2 X sei eine stetige Zufallsvariable mit zugehöriger Dichte f . Dann ist der
Erwartungswert E(X) = µ von X definiert durch
Z
∞
E(X) =
t f (t) dt
−∞
Die Varianz V ar(X) = σ 2 von X (mit µ = E(X)) ist:
Z
∞
V ar(X) =
(t − µ)2 f (t) dt
−∞
Für manche Probleme ist es praktisch, den Begriff des Erwartungswertes weiter zu verallgemeinern.
Definition 3.3 X sei eine stetige Zufallsvariable mit zugehöriger Dichte f . Dann sind
für r = 1, 2, . . . die r-ten Momente definiert durch
r
Z
∞
mr = E(X ) =
−∞
tr f (t) dt
8
Aufgabe 3.1 Die folgende Funktion sei die Wahrscheinlichkeitsdichte einer Zufallsvariablen X.

1


t ∈ [2, 4]
2
f (t) =


0
sonst
Bestimmen Sie Erwartungswert, die Varianz und die r-ten Momente von X.
Lösung:
Z
∞
E(X) =
Z
1
dt = 3
2
2
Z 4
1
1
2
(t − 3)2 dt =
(t − 3) f (t) dt =
2
3
2
t f (t) dt =
−∞
Z
∞
V ar(X) =
−∞
Z
∞
mr =
−∞
4
tr f (t) dt =
t
2r
(2r+1 − 1)
r+1
9
Definition 3.4 Sei X eine stetige Zufallsvariable mit Verteilungsfunktion F . Ein p-Quantil
xp (0 < p < 1) ist der Wert der Verteilungsfunktion, für den F (xp ) = p gilt.
xp
xp
8
Man kann sich also xp als den Wert einer Verteilung vorstellen, der die Wahrscheinlichkeitsmasse so teilt, dass links von xp genau die Masse p und rechts von xp genau die Masse
1 − p liegt.
f(t) dt= 1−p
f(t) dt = p
xp
8
−
Spezialfälle: unteres Quartil: x0.25 , Median, Zentralwert: x0.5 , oberes Quartil: x0.75
Aufgabe 3.2 Die folgende Funktion sei die Wahrscheinlichkeitsdichte einer Zufallsvariablen X.

1


t ∈ [2, 4]
2
f (t) =


0
sonst
Bestimmen Sie x0.25 , x0.5 und x0.75 .
Lösung: Allgemein: F (xp ) =
1
x
2 p
− 1 = p oder xp = 2(p + 1)
10
In der induktiven Statistik spielen p- und (1 − p)-Quantile (zu p = 0.025, p = 0.05, ...)
insbesondere in der Testtheorie eine wichtige Rolle.
Dort stellen diese Quantile Grenzen der Irrtumswahrscheinlichkeit dar, die die Grundlage
für eine Testentscheidung bilden.
Aufgabe 3.3 Sei X eine stetige Zufallsvariable mit Dichtefunktion f . Weiterhin sei eine
Zahl p mit 0 < p < 1 gegeben. Bestimmen Sie zwei Zahlen l und r, so dass
P (l ≤ X ≤ r) = 1 − p
1−p
p
2
p
2
r
l
In dieser Form ist die Frage nicht eindeutig zu beantworten. Deshalb verlangen wir noch,
dass die restliche Wahrscheinlichkeit gleichmässig auf die beiden Aussenbereiche verteilt
wird.
Lösung: Die Forderung P (l ≤ X ≤ r) = 1 − p ist mit der obigen Annahme gleichwertig
zur Forderung:
p = P (−∞ ≤ X ≤ l) + P (r ≤ X ≤ ∞)
Verlangen wir nun eine gleichmässige Aufteilung der Wahrscheinlichkeit p auf diese beiden
Aussenbereiche folgt:
•
p
= P (−∞ ≤ X ≤ l) = F (l)
2
oder
l = x p2
das
p
− Quantil
2
•
p
= P (r ≤ X ≤ ∞) = 1 − F (r)
2
oder
r = x1− p2
p
das (1 − ) − Quantil
2
11
Falls X eine Zufallsvariable mit gerader Dichtefunktion f ist (d.h. es gilt f (−t) = f (t)
für alle t), so gilt stets
x1−p = −xp .
Das kann man (hoffentlich) leicht an folgender Zeichnung einsehen.
1111111
0000000
0000000
1111111
x
00000000000
11111111111
00000000000
11111111111
x
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
− p
1−p
11111111
00000000
00000000
11111111
00000000
11111111
x
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
1−p 11111111111
00000000000
p
12
4
Die Ungleichung von Tschebyschev
Satz 4 (Die Ungleichung von Tschebyschev) Sei X eine beliebige Zufallsvariable mit
µ = E(X) und σ 2 = V ar(X). Dann gelten für jede positive Zahl c die folgenden beiden
(äquivalenten) Ungleichungen:
P ( |X − µ| < c ) ≥ 1 −
σ2
c2
P ( |X − µ| ≥ c ) ≤
oder
σ2
c2
d.h. man kann relativ leicht die Wahrscheinlichkeit abschätzen, mit der X einen Wert
innerherhalb (oder ausserhalb) des Intervalls [µ − c, µ + c] annimmt.
Die Ungleichung von Tschebyschev für diskrete Zufallsvariablen
P
σ2
<
− c2
2
>
− 1− σ 2
c
µ− c
µ
IR X
µ+ c
Die Ungleichung von Tschebyschev für stetige Zufallsvariablen
P
σ2
<
− c2
2
>
− 1− σ 2
c
µ− c
µ
µ+ c
IR X
13
Beweis:
Wir beweisen die Ungleichung für stetige Zufallsvariablen. Der Beweis für diskrete
Zufallsvariablen verläuft analog.
Z ∞
2
(t − µ)2 f (t) dt
σ =
−∞
Z
≥
(t − µ)2 f (t) dt
t s.d.
|t−µ|≥c
Z
≥
c2 f (t) dt
t s.d.
|t−µ|≥c
= c2 P (|X − µ| ≥ c)
und auflösen nach P (|X − µ| ≥ c) ergibt die Ungleichung von Tschebyschev für den
Aussenbereich.
2
14
5
Paare von Zufallsvariablen
Seien X und Y zwei Zufallsvariablen (auf dem selben Stichprobenraum) mit den Verteilungsfunktionen FX und FY . Natürlich sind dann auch z.B. X + Y und X · Y neue
Zufallsvariablen, deren Verteilungen aber im allgemeinen nicht einfach herzuleiten ist.
Bei vielen Problemen in der Praxis muss man auch sehr gut zwischen unabhängigen und
nicht unabhängigen Zufallsvariablen unterscheiden.
Definition 5.1 Die Zufallsvariablen X und Y heissen unabhängig, falls für alle x ∈ RX
und alle y ∈ RY die Ereignisse (X ≤ x) und (Y ≤ y) unabhängig sind, also falls
P ( (X ≤ x) und (Y ≤ y) ) = P ( X ≤ x ) · P ( Y ≤ y ).
Beispiel 5.1 X und Y seien die beiden diskreten (unabhängigen) Zufallsvariablen mit
den folgenden Verteilungen:
k
−1
1
2
P (X = k)
1/3
1/3
1/3
k P (Y = k)
−1
1/5
1
4/5
Die Verteilung der Zufallsvariablen X + Y ist:
k P (X + Y = k)
−2
1/15
0
5/15
1
1/15
2
4/15
3
4/15
P (X + Y ≤ k)
1/15
6/15
7/15
11/15
15/15
Die Verteilung der Zufallsvariablen X · Y ist:
k P (X · Y = k)
−2
1/15
−1
5/15
1
5/15
2
4/15
P (X · Y ≤ k)
1/15
6/15
11/15
15/15
Beispiel 5.2 Schwieriger ist es Summen und Produkte unabhängiger stetiger Zufallsvariablen X und Y mit den zugehörigen Dichtefunktionen fX und fY zu verstehen. Wir
geben hier ohne Begründung die Dichtefunktionen der Zufallsvariablen X + Y und X · Y
an. Insbesondere können wir natürlich nicht einfach die Dichtefunktionen addieren oder
multiplizieren!
Z ∞
fX+Y (z) =
fX (x) fY (z − x) dx
−∞
Z ∞
z 1 dx
fX·Y (z) =
fX (x) fY
x
x
−∞
15
Sind X und Y nun zunächst beliebige (aber der Einfachheit halber diskrete) Zufallsvariablen. Dann gilt für den Erwartungswert der Zufallsvariablen X · Y :
X X
E(X · Y ) =
xi · yj · P (X = xi und Y = yj ).
i
j
Falls nun X und Y unabhängig sind, können wir diesen Ausdruck vereinfachen:
X X
E(X · Y ) =
xi · yj · P (X = xi und Y = yj )
i
j
=
X X
=
X X
i
xi · yj · P (X = xi ) · P (Y = yj )
j
i
xi · P (X = xi ) · yj · P (Y = yj )
j
!
!
=
X
xi · P (X = xi )
i
·
X
yj · P (Y = yj )
j
= E(X) · E(Y )
Beispiel 5.3 Für das letzte Beispiel gilt zunächst
E(X) = −1 ·
1
1
2
1
+1· +2· =
3
3
3
3
E(Y ) = −1 ·
1
4
3
+1· =
5
5
5
E(X · Y ) = −2 ·
5
5
4
6
1
−1·
+1·
+2·
=
15
15
15
15
15
Es gilt also tatsächlich (in diesem Fall, da beide Zufallsvariablen unabhängig sind) die
Identität E(X · Y ) = E(X) · E(Y ). Im allgemeinen stimmt diese Relation nicht!
Definition 5.2 Seien X und Y zwei beliebige Zufallsvariablen mit den Erwartungswerten µX = E(X) und µY = E(Y ). Die Grösse
Cov(X, Y ) = E(X · Y ) − E(X) · E(Y )
heisst Kovarianz zwischen X und Y . Der Korrelationskoeffizient von X und Y ist
ρXY
Cov(X, Y )
p
= p
.
V ar(X) · V ar(Y )
16
Weiterhin können wir mit Hilfe des Verschiebungssatzes die folgende allgemeine Rechnung
vornehmen:
V ar(X + Y ) = E((X + Y )2 ) − [E(X + Y )]2
= E(X 2 + 2X · Y + Y 2 ) − [E(X) + E(Y )]2
= E(X 2 ) + 2 E(X · Y ) + E(Y 2 ) − [E(X)]2 − 2 E(X) E(Y ) − [E(Y )]2
= E(X 2 ) − [E(X)]2 + E(Y 2 ) − [E(Y )]2 +2(E(X · Y ) − E(X)E(Y ))
|
{z
} |
{z
}
|
{z
}
=V ar(X)
=V ar(Y )
=:Cov(X,Y )
= V ar(X) + V ar(Y ) + 2 Cov(X, Y )
Satz 5 (Rechenregeln für Erwartungswert, Varianz und Kovarianz I)
Seien X, Y Zufallsvariablen und a, b, c reelle Zahlen. Dann gelten die folgenden Rechenregeln:
1. E(aX + bY + c) = a E(X) + b E(Y ) + c
2. V ar(aX + b) = a2 V ar(X)
3. Verschiebungssatz der Varianz: V ar(X) = E(X 2 ) − [E(X)]2
4. V ar(X ± Y ) = V ar(X) + V ar(Y ) ± 2Cov(X, Y )
Satz 6 (Rechenregeln für Erwartungswert, Varianz und Kovarianz II)
Seien X und Y unabhängige Zufallsvariablen. Dann gilt:
E(X · Y ) = E(X) · E(Y )
V ar(X + Y ) = V ar(X) + V ar(Y )
Cov(X, Y ) = 0
17
Unabhängigkeit und Unkorelliertheit Sind die beiden Zufallsvariablen X und Y
unabhängig, so gilt auch Cov(X, Y ) = 0 und somit auch ρXY = 0. Unabhängige Zufallsvariablen sind also stets unkorreliert!
Die Umkehrung gilt im Allgemeinen nicht! Unkorrelierte Zufallsvariablen können (nicht
müssen) also durchaus abhängig sein.
Beispiel 5.4 X sei stetig gleichverteilt auf dem Intervall [−1, 1] und Y = X 2 . Die beiden
Variablen sind unkorreliert, denn
Cov(X, X 2 ) = E(X · X 2 ) − E(X)E(X 2 ) = 0
denn sowohl X als auch X 3 haben eine gerade Dichtefunktion (Graph symmetrisch zur
y-Achse), also gilt E(X 3 ) = E(X) = 0.
Aber X und Y sind nicht unabhängig. Eigentlich möchte man schon der Definition von Y
eine (allerdings kausale!) Abhängigkeit von X ansehen. Es fällt aber auch nicht schwer,
zwei (stochastisch) abhängige Ereignisse zu finden:
0 = P (X 2 < 1/4 | X > 1/2) 6= P (X 2 < 1/4) = 1/2
18
6
Standardisierung und arithmetisches Mittel
Definition 6.1 Eine Zufallsvariable heisst standardisiert, wenn sie den Erwartungswert
0 und die Varianz 1 hat. Sei X eine Zufallsvariable. Dann heisst die Zufallsvariable
X − E(X)
Z = p
V ar(X)
Standardisierung von X.
Definition 6.2 Wir bezeichnen Zufallsvariablen X1 , X2 , . . . , Xn als unabhängig und
identisch verteilt, falls alle Xi
• ein und dieselbe Verteilung besitzen und
• voneinander unabhängig sind.
Für die unabhängigen und identisch verteilten Zufallsvariablen X1 , X2 , . . . , Xn gelte nun
E(Xi ) = µ und V ar(Xi ) = σ 2 für i = 1, 2, . . . , n.
Dann heisst die neue Zufallsvariable
n
1 X
X =
Xi
n i=1
das arithmetische Mittel. Es gilt
E(X) = E
n
1 X
Xi
n i=1
!
n
1 X
1
=
·n·µ = µ
E(Xi ) =
n i=1
n
und
V ar(X) = V ar
=
n
1 X
Xi
n i=1
!
1
σ2
2
·
n
·
σ
=
n2
n
n
X
1
= 2 V ar
Xi
n
i=1
!
n
1 X
V ar(Xi )
= 2
n i=1
19
7
Übungsaufgaben
1. Eine stetige Zufallsvariable X besitze folgende Verteilungsfunktion

für x < 2
 0
− 41 x2 + 2x − 3
für 2 ≤ x ≤ 4 .
F (x) =

1
für x > 4
(a) Bestimmen Sie die Dichtefunktion der Zufallsvariablen X.
(b) Bestimmen Sie den Erwartungswert E(X) und die Varianz V ar(X).
2. Gegeben sei die Funktion
f (t) =
2t − 4
0
für 2 ≤ t ≤ 3
.
sonst
(a) Zeigen Sie, dass f eine Dichtefunktion ist.
(b) Ermitteln Sie die zugehörige Verteilungsfunktion.
(c) Bestimmen Sie x0.25 , x0.5 und x0.75 .
3. (a) X sei eine stetige Zufallsvariable mit folgender Dichtefunktion
ct
für 1 ≤ t ≤ 3
f (t) =
.
0
sonst
Für welchen Wert der Konstanten c ist die oben genannte Funktion tatsächlich
eine korrekte Dichtefunktion?
(b) Setzen Sie den entsprechenden Wert für c ein und bestimmen Sie P (X > 2).
4. Von einer stetigen Zufallsvariablen X sei nur bekannt, dass sie den Erwartungswert
15 und die Varianz 4 besitzt.
(a) Wie gross ist P (10 ≤ X ≤ 20) mindestens?
(b) Bestimmen Sie das kleinste, symmetrisch um 15 gelegene Intervall der Form
[15 − c, 15 + c], in welches mit einer Wahrscheinlichkeit von mindestens 0.9 die
Werte von X fallen.
5. Die Zufallsvariablen X und Y nehmen die Werte 1, 2 und 3 an. Dabei seien die
folgenden Wahrscheinlichkeiten bekannt:
P (X = 1) = 0.5, P (X = 2) = 0.3, P (Y = 1) = 0.7, P (Y = 2) = 0.2,
P (X = 1 und Y = 1) = 0.35, P (X = 2 und Y = 2) = 0.06,
P (X = 3 und Y = 1) = 0.20.
Bestimmen Sie die gemeinsame Verteilung. Sind X und Y unabhängig?
20
Lösungen einiger Übungsaufgaben
1. a)

 0
−1t + 2
f (t) =
 2
0
für t < 2
für 2 ≤ t ≤ 4 .
für t > 4
b) E(X) = 8/3 und V ar(X) = 2/9
2. a) −
b)

 0
x2 − 4x + 4
F (x) =

1
c) F (xp ) = x2p − 4xp + 4 = p also xp = 2 +
für x < 2
für 2 ≤ x ≤ 3 .
für x > 3
√
p
3. a) c = 1/4
b) P (X > 2) = 5/8
4. a) P (10 ≤ X ≤ 20) ≥ 0.84
b) [15 − c, 15 + c] = [15 − 6.325, 15 + 6.325]
5.
Y
Vert.
1
2
3
von X
1
0.35 0.14 0.01
0.5
X 2
0.15 0.06 0.09
0.3
3
0.2 0
0
0.2
Vert. von Y 0.7 0.2 0.1
Nein, da ....
Ergänzung:
E(X) = 1.7, E(Y ) = 1.4, V ar(X) = 0.61, V ar(Y ) = 0.44, Cov(X, Y ) = −0.0400
und ρXY = −0.077.
Herunterladen