Bedingte Erwartungswerte im Stochastikunterricht

Werbung
)
-
24 -
BEDINGTE ERWARTUNGSWERTE IM STOCHASTIK-UNTERRICHT
lichkeitsraum
Menge
~
W = (!l;P)
25 -
, bestehend aus einer nichtleeren
, dem Ergebnisraum, und einer Funktion
P, die
von Hans Kilian, Hagen
jeder Teilmenge von
1. Einleitung
die deshalb gewissen Bedingungen genügen muß, die hier nicht
~
, den Ereignissen, eine reelle Zahl
aus dem Intervall CO;l] als Wahrscheinlichkeit zuordnet und
Es ist das Ziel diese Aufsatzes zu zeigen, daß die Behandlung bedingter Erwartungswerte eine naheliegende, fruchtbare
aufgezählt zu werden brauchen.
keitsbelegung von
und einfach durchzuführende Erweiterung des Curriculums für
Dann wird, zu im Prinzip jedem
den Stochastikunterricht ist. Die Aussage über die Einfach-
neue Wahrscheinlichkeitsbelegung
heit dieses Vorhabens gilt allerdings nur für diejenigen
Ergebnisraum
Schüler, die den Komplex "bedingte Wahrscheinlichkeiten"
~und
P
heißt die Wahrscheinlich-
W
D ~
SJ.. mit
P (D)
t
0 , eine
p(. ID) *) zu dem alten
damit ein neuer Wahrscheinlichkeitsraum
gründlich verstanden haben. Sonst muß man die Einführung be-
WD := (~;P( .\D))
eingeführt. Wie dieses vorgehen motiviert
wird, sei hier ebenfalls dahingestellt, wird aber im fOlgen-
dingter Erwartungswerte mit einer Wiederholung bedingter
den noch eine Rolle spielen. Wichtig ist, daß zu den Wahr-
Wahrscheinlichkeiten verknüpfen. Eine implizite Wiederholung
dieses Gegenstandes ist die Behandlung bedingter Erwartungs-
scheinlichkeitsräumen Wund WD dieselben Ergebnisräume
und dieselben Ereignisalgebren, hier 1?(~) , gehören, aber
werte allemal, und diesen Nebeneffekt kann man in Rechnung
verschiedene Wahrscheinlichkeitsbelegungen. Zwischen diesen
stellen, wenn man überlegt, woher man die Unterrichts zeit für
besteht, per definitionem, der folgende Zusammenhang:
das neue Thema nehmen soll.
Bedingte Erwartungswerte spielen in der Wahrscheinlichkeitstheorie und
(1)
P(A"D)
p(AIO)
P(D)
,
(A
r.
.0.)
der Statistik eine wichtige Rolle. Ich ver-
weise dazu beispielsweise auf die Regressionstheorie der elementaren Statistik. Ihre Behndlung im Unterricht würde darüberhinaus dem gelegentlich gegenüber der Stochastik erhobeneh
Vorwurf, daß sie im Wesentlichen nur eine Sammlung von Beispielen bzw. mathematischen Minimodellen und insofern keine
"richtige" Mathematik sei, entgegenwirken. Hier werden mathematische Begriffsbildungen aus dem "normalen Stochastikunter-
Anmerkung: Diese Art des Vorgehens hat seine guten Gründe,
insbesondere den, daß man die alte Ereignisalgebra einfach
weiterverwenden kann. Andererseits erscheint die Beibehaltung
von
~als
Ergebnisraum aber auch oft unnatürlich, weil man
häufig gerade deshalb zu der bedingten Wahrscheinlichkeit
P( .ID)
übergeht, weil man nur noch die Ergebnisse betrachten
möchte, die zu
0
gehören. Insbesondere ist
Wo
im allge-
*) Mit
soll die bedingte Wahrscheinlichkeitsbelegung
.richt" variiert und verallgemeinert. Im folgenden sollen diese Parallelen bzw. Verallgemeinerungen möglichst deutlich
herausgearbeitet werden.
2. Bedingte Wahrscheinlichkeiten
P( .\D)
als Funktion als Ganzes bezeichnet werden, analog wie mit
P
die Ausgangswahrscheinlichkeitsbelegung als Ganzes bezeichnet
Ich rekapituliere deshalb ganz kurz die in diesem Zusammen-
wird. Die ebenfalls anzutreffende Bezeichnung
PD
hat vieles
hang wesentlichen Aspekte bedingter Wahrscheinlichkeiten. Ge-
für sich, ist aber aus historischen Gründen in der Literatur
geben ist zunächst ein endlicher oder diskreter Wahrschein-
kaum noch anzutreffen.
-
-
26 -
27 -
eigentlich nur noch eine geeignete Bezeichnung, um diese
meinen kein Laplaceraum mehr, wenn
W selbst einer war. Die
Schüler ziehen deshalb gerade im Fall von Laplaceräumen
die Wahl von
D
W
als neuem Ergebnisraum häufig intuitiv vor.
Erwartungswerte, die sich auf
scheinlichkeitsbelegung
bezogen auf
P( .\D)
WD
und damit auf die Wahrbeziehen, von den E(X) ,
W, bzw. P , zu unterscheiden. Die allgemein
übliche und auch naheliegende Bezeichnung ist
3. Bedingte Erwartungwerte von Zufallsgrößen
Zu jedem Wahrscheinlichkeitsraum
lich noch Zufallsgrößen
größen von
W
tionen von
~
X,Y, ...
W=
Ich stelle diese Zusammenhänge noch einmal in einer
(~;P)
sind schließ-
ffi
einer Zufallsgröße
X
•
einfachen Tabelle dar und einander gegenüber:
eingeführt worden. Zufalls-
sind (im diskreten Fall) einfach alle Funknach
Unter dem Erwartungswert
E(X)
:=
versteht man (vgl.(11) folgende Summe:
Ergebnisraum
L::::
weSl.
Wahrscheinlichkeitsraum WD
Wahrscheilichkeitsraum W
E(X)
Definition 1 :
(2 )
n.
Ergebnisraum
'\2
(bzw. (J{
(U)
P :
\<
)
Häufiger wird die folgende Definition gebraucht, obwohl sie
X
Definition 2
einer Zufallsgröße
endlichen Wahrscheinlichkeitsraumes
(3)
t""e.s:tlx(",,)
E(X)
:=
xi P(Ai)
l=A
~
.. ;xn € ffi
~
l-A
...
X
Erwartungswerte
E(X\D)
ist mit
+ x n P(A n )
fallsgröße
raum
xi P(X=xi)
diejenigen Werte, die
(~;P)
X
X
des Wahrscheinlichkeits-
stets auch eine Zufallsgröße des Wahr-
WD = (~;P( .\D)) ist, ist damit im
Prinzip auch schon erklärt, was unter dem Erwartungswert von
scheinlichkeitsraumes
X
E(XID)
sind
also nichts anderes als die normalen Erwartungswerte der ZuWD =
X
von
(~;P(
n.,
.ID))
bezogen auf den Wahrscheinlichkeits. Insbesondere gilt also:
E(X\D)
L
X(u)P(",ID)
W€S2.
Da somit jede Zufallsgröße
W=
:U-ffi
E(X)
annimmt.
raumes
:1(Q.)-[0;1]
(bzw.Ol )
Zufallsgrößen
:Q-ffi
Die sogenannten bedingten Erwartungswerte
xl P(A l ) + x2 P(A 2 ) +
xl;x2; ..
P(·ID)
Erwartungswerte
eines
= xi1
....
L:::::
Dabei sind
(~;P)
X
)
Wahrscheinlichkeitsbelegung
Zufallsgrößen
weniger geeignet ist (vgl.(l}):
E(X)
(~)-- [0;1]
(bzw. (Jt
(U)
(bzw.1J't )
meines Erachtens für den schulischen Stochastikunterricht
Der Erwartungswert
'12
~
Ereignisalgebra
Ereignisalgebra
X( ... )P( .... )
Wahrscheinlichkeitsbelegung
Ai :=
E(X\D)
in bezug auf
WD
zU verstehen ist, und man braucht
usw. Anmerkung: Dies gilt so allerdings nur für diskrete
Wahrscheinlichkeitsräume.
-
- 29 -
28 (7 )
E(X+Y\D)
E(X\D) + E(Y\D)
4. Eigenschaften von bedingten Erwartungswerten
Die obige Entwicklung und Erläuterung der Bezeichnung "bedingte Erwartungswerte" sollte so deutlich wie möglich machen, daß hier eigentlich nichts zu definieren ist, kein
neuer Begriff gebildet wird, sondern eben nur eine neue Bezeichnung für eine spezielle Sorte von Erwartungswerten
Etwas Neues enthält die folgende Aussage, die auch die Ausgangsbasis für die Interpretation von bedingten Erwartungswerten bildet ebenso wie für einen wichtigen Anwendungsaspekt:
Satz
einzuführen ist. Das "eigentlich" in dieser Aussage bezieht
sich darauf, daß von den mir bekannten Lehrbüchern der
(8 )
1
E(X\D)
elementaren Wahrscheinlichkeitstheorie kaum eines diesen
Sachverhalt klar herausstellt: Es gibt eigentlich nichts
Neues zu definieren, und damit auch nichts zu verstehen,
sondern es muß lediglich eine neue Bezeichnung eingeführt
Beweis:
P(-...\ 0)
p(t ...
werden, und man muß sich dann vielleicht noch überlegen, wie
die bedingten Erwartungswerte zu interpretieren sind.
Insbesondere haben bedingte Erwartungswerte alle die
üblichen Eigenschaften von Erwartungswerten. Sie sind in der
folgenden Liste zusammengestellt, zusammen mit üblichen
l"
2:::'
P(D) ""e't:>
0)
=
P(D)
r
X(",,)
P(w)
P({UO\)/P(D) , falls
10
falls
,
w~
"'$
0
0
Daraus ergibt sich die Behauptung mit der obigen Darstellung (4) von E(X\D) . QED
Im folgenden Abschnitt werden noch weitere besondere
Eigenschaften bedingter Erwartungswerte angegeben werden.
Darstellungen von Erwartungswerten, spezialisiert auf den
vorliegenden Fall. Es gibt auch hier nichts mehr zu beweisen!
Folgerung: Es seien
scheinlichkeitsraumes
mit
P(D). 0 . Es sei
X, Y
(~;P)
Wo =
Zufallsgrößen eines Wahrund
(~;P(
0
ein Ereignis von
.10))
der zu
D
gehörige
5. Interpretation und erste Anwendungen bedingter
Erwartungswerte
Interpretation und Anwendung bedingter Erwartungswerte
ergeben sich aus der Interpretation und Anwendung bedingter
Wahrscheinlichkeitsraum mit der bedingten Wahrscheinlich-
Wahrscheinlichkeiten. Im Unterricht wird dadurch auch hier
keitsbelegung
die entsprechende Wiederholung herausgefordert.
p(.ID)
tungswert in bezug auf
E(XID)
L
Dann gilt für den bedingten ErwarWD
X("")
stets:
P( .... \D)
werden, bei denen das Ereignis
""eSL
E(XID)
L X i P ( X=x i \ D ) ,
i=l
falls
X
(6 )
xl;x2;",;xm
a E(X\D)
eingetreten ist, kommt in
die verschiedenen Werte sind, die
(a e IR)
E(X1D)
klar zum Ausdruck, besonders für den, der sich an den Beweis
von (8) erinnert. Der Faktor
annehmen kann
E(aXID)
D
der Darstellung (8) des bedingten Erwartungswertes
m
(5 )
Erstens: Der Bezug auf die Bedingung, die dadurch gegeben
ist, daß nur noch Versuchsausgänge/Ergebnisse betrachtet
l/P(D)
ist offensichtlich ein
Normierungsfaktor: Es wird gewissermaßen nicht mehr der
Mittelwert aus allen Meßwerten gebildet, sondern nur noch aus
denen, die die Bedingung Derfüllen.
-
30 -
-
31 -
Beispiel 1: Wurf mit 2 Würfeln (vgl. das Beispiel 3 in
[lJ) .
Es sei
Z
die Augensumme der Würfel und
"Die Augensumme ist gerade". Gesucht sei
Lösung: Nach Satz
E(ZIG)
G
das Ereignis
E(ZIG)
!
x
gilt
p(G)
=z=
I..>EG
Die hier anstehende Summe berechnen wir mit Hilfe eines
x
Ergebnisbaumes zu unserem Versuch (siehe Bild 1, vgl. [IJ
L3) ).
E(Z G)
11
>-
::
~:
( -)
2
2
1
--(1·2 + 3·4 + 5·6 + 5·8 + 3·10 + 1·12)
36
>-
x
N
~
~: - - >-"
N
N
C;
7
Zweitens: Die wichtigsten elemetaren Anwendungen bedingter
der totalen Wahrscheinlichkeit: Es sei
Zerlegung des Ergebnisraumes .l:l.. mi t
Dl ;D 2 ; ... ;Dm
P (Di)
0
für
X
A
x
Dieser Satz wird häufig angewandt, um die Wahrscheinlichzu berechnen oder zu definieren, da sich häufig
leichter angeben lassen,
~; ---
N
"
x
"
---.:.
>-"
• •• + P (A \ Dm) P ( Dm)
P(AID i )
>-
>-"
P(A1D l ) P(D l ) + P(A1D 2 ) P(D 2 ) + .••
die Wahrscheinlichkeiten
--~: ---
"
N
eine.
+
1 ~ i ~ m . Dann gilt bekanntlich für jedes Ereignis
P(A)
---
>-
Wahrscheinlichkeiten erfolgen vermutlich über den Satz von
keiten
N
1-(2+12) + 3·(4+10) + 5·(6+8))
1
--·14·(1+3+5)
18
P(A)
~
P(G) = 1/2
1 -1
36
"
N
,
---
N
---
N
~>E --- .
-~
>-"
da man dabei über die zusätzliche Information verfügt, daß
Di
>-
>-
Daraus folgt mit
(9)
~:
N
!2
eingetreten ist. Im Grunde handelt es sich um die Ein-
führung einer (vollständigen) Fallunterscheidung, und diese
Bild 1
- 33 -
- 32 -
Definition 1 des Erwartungswertes für theoretische Überlegungen besonders gut geeignet ist, versuchen wir deshalb
allgemeine Überlegung läßt uns vielleicht vermuten, daß es
eine analoge Aussage auch für Erwartungswerte geben muß. Dieses ist der Satz über den totalen Erwartungswert:
einen Beweis über diese Darstellung von Erwartungswerten.
2.Beweis
Wir gehen aus von der Summe
Satz 2
Es sei
o
Dl;D 2 ; ... ;D m eine Zerlegung von ~ mit P(D j )
jE. tl;2; ... ;mJ . Dann gilt für jede Zu-
t
für jedes
fallsgröße
(10 )
X
von
W=
(~;P)
bzw.
WD =
(~;P(
weil es meistens einfacher ist, einen komplizierten Ausdruck
zu vereinfachen, als umgekehrt und erhalten nach Satz 1
.\D):
E(X\D l ) P(D l ) + E(X\D 2 ) P(D 2 ) + .,.
E(X)
... + E(X\D rn ) P(Dm )
1.Beweis : Der übliche Beweis beruht im wesentlichen auf
einer Anwendung des Satzes über die totale Wahrscheinlichkeit. Nach (5) gilt mit
X(.s::L)
tXl;x2;",;xk1:
E(X\D i ) . Da-
nach der Darstellung (4), angewandt auf jedes
raus folgt offensichtlich
k
E(X)
'2:
xi P(X=xi)
i=l
k
z:
i=l
nach
(9),
Da nun jedes
m
xi
22
\".)~ ~
in genau einern der
Di
vorkommt, erhält
man als gesamte Summe einfach (vgl. 1 )
P(x=xi\D j ) P(D j )
j=l
angewandt auf
p(
X=xi)
für jedes
i .. tl; 2; ...
Vertauscht man die Reihenfolge der Additionen, so ergibt si-eh
m
E(X)
;k} .
QED
Dieser Beweis ist nicht nur einfacher als der 1.Beweis,
k
sondern er verschafft uns auch mehr Einsicht in den Sachver-
E(X)
j=l
halt: Es wird sehr deutlich, wie die Zerlegung
i=l
Dl; ... ;D m
benutzt wird, um die verschiedenen Fälle auseinander zu
Der zweite Faktor in der j-Summe ist nach (5) gerade der
bedingte Erwartungswert
E(X Dj }
und also folgt:
m
E(X}
L
sortieren, und wie die "Gewichte"
P(Di)
für die richtige
Normierung der einzelnen bedingten Erwartungswerte sorgen.
Ein besonders wichtiger Speialfall von (10) ist der, daß
E(X\D j } P(D j }
j=l
QED
Dieser Beweis dürfte den Schülern i.a. kaum zugänglich
sein. Von der in LI] begründeten Beobachtung, daß die
die Zerlegung von
Zufallsgröße
Y
~
dadurch gegeben ist, daß eine zweite
die verschiedenen Werte
Yl;Y2;"';Y s
-
-
34 -
35 -
annimmt. Dann folgt:
s
2:
E(X)
(11 )
E ( X \ Y=y j ) P ( Y=y j )
~N
...
-----
":...
-----
j=l
Beispiel 2 : Als erstes Beispiel zum totalen Erwartungswert betrachten wir den Erwartungswert des Produktes
beim Wurf mit 2 Würfeln. Es sei
Würfels und
(11)
Y
X
Pr
die Augenzahl des roten
die des schwarzen Würfels. Dann folgt mit
:
E(Pr)
~
E(XY)
6
j=l
~
E(XY Y=j)P(Y=j)
~
E(jX\Y=j)
j=l
6
4:
j=l
j
E (X (Y= j )
1 7
6 2
1 7 6 7
6
-.-.--
~
622
j=l
E(x!Y=j)
7/2
~~
i
~
-1<0
-'"
~.
"N
Die hier benutzte Aussage
E(XYIY=j)
i
jE(X(Y=j)
würde ich im unterricht als intuitiv klar betrachten. Man
"•
N
~~
":...
E(jXIY=j)
\=:
N+
"_
...
12.25
'jj'
N
-'"
:Z
mit
'"+
"
/~.
-'"
"
\=
-1<0
kann sie aber auch allgemein beweisen (siehe unten). Die
weitere Aussage
E(XIY = j)
E(X)
würde ich in diesem
/~.
Würfelbeispiel ebenfalls als klar betrachten. Man kann das
aber auch nachrechnen, ausgehend von
\ ( 1; j) ; ( 2; j) ; ... ; ( 6 ; j
)3
oder einfach an einern Ergebnisbaum ablesen (siehe Bild 2).
'"+ '0'
" F"
N
:Z
~
~.
-t-o
LN
~s-
Bild 2
N
"!
7 1==..
N
i
..
t:=
-
36 -
- 37 -
Der folgende Satz 3 faßt noch einige wichtige Eigenschaften
6. Vermischte Beispiele
von bedingten Erwartungswerten in endlichen (bzw. diskreten
Es folgt noch eine Reihe von Beispielen, hauptsächlich zur
Wahrscheinlichkeitsräumen zusammen.
Berechnung von totalen Erwartungswerten. Für mehrere von
Satz 3 :
ihnen ist es charakteristisch, daß ähnlich wie in dem
Es seien
Würfelspiel gewisse bedingte Erwartungswerte als aus der
X,Y
Zufallsgrößen eines (diskreten Wahrschein-
lichkeitsraumes
Funktion und
W=
(~;P)
ye. Y (a)
.
,g
irgendeine reelwertige
Situation heraus intuitiv klar behandelt werden. Auf diese
Weise kann man auch in der Schule zu die Schüler überzeugen-
Dann gilt stets:
den Lösungen von Problemen kommen, die ihnen sonst gar nicht
E(X)
E(XID..)
(12 )
I
(13)
II
E(X'g(Y)(Y=y)
g(y).E(X!Y=y)
III
E(X+g(Y)\Y=y)
E(X\Y=y) + g(y)
oder nur über eine längere Rechnung zugänglich wären.
Bemerkung: Oft definiert man noch
o
Beispiel 3 : Das Problem des Diebes von Bagdad
The thief of Bagdad has been placed in a dungeon with three
E(X\D) = 0 ,falls
P(D)
ist. Dann kann man bei dem Satz über den totalen Erwar-
tungswert die Voraussetzung weglassen, daß alle
sein müssen, und man kann I ergänzen um
E(XI~)
P(Di) t 0
= 0 .
doors. One of the doors leads into a tunnel that returns hirn
to the dungeon after one day's travel through the tunnel.
Another door leads to a similar tunnel whose traversal
requires three days rather than one day. The third door leads
to freedom.
gilt:
Beweis von II : Nach Satz
Assurne that the thief is equally likely to choose each door
E( x·g( Y) \ Y=y)
each time he makes a choice. (The thief has a poor memoryl)
P(Y=y)
Find the exspected number of days the thief will be
In dieser Summe kommen nur solche Summanden vor, in denen
Y(w)
den Wert
g(y)
hat. Also kann man
g(y)
ausklammern
the thief immidiately chooses a door each time he enters the
dungeon.
und erhält
E(x.g(Y)IY=y)
g(y)
1
P(Y=y)
2:
Y=yl
W€t
imprisoned, from the moment he first chooses a door to the
moment he chooses the door leading to freedom. Assurne that
X( ... )
P(w)
dungeon: Kerker,Verlies ; traversal: Durchgang,Durchquerung
g(y) E(X\Y=y)
Lösung: Wir wenden den Satz vom totalen Erwartungswert in
der Form eines Ereignisbaumes an. Es sei T die Dauer bis zur
unter nochmaliger Anwendung von Satz 1.
Wahl der richtigen Tür. Dann gilt "offensichtlich":
Ich erwähne hier nur, daß für unabhängige Zufallsgrößen
X,Y
und
y,,- Y(Q.)
stets
E(X\Y=y) = E(X)
ist. Der Beweis
ist leicht, wenn man von der Darstellung (5) ausgeht.
- 39 - 38 -
J1 Dieb
Andererseits ist intuitiv klar:
Damit folgt insgesamt:
1
1
J
J
P'(l+E(Sn_I)) + (l-p)'E(Sn_l)
p + E(Sn_l)
Dies ist eine Rekursionsformel zur Berechnung von
1. Tür
2.Tür
3. Tür
Mit
E(SI)
Beispiel 5
P
folgt
E(Sn) = np
Das obige Beispiel kann man auch auf anderen
Wegen in der Schule berechnen. Das folgende dagegen bekannt-
E(T(1. Tür)
E(T(2. Tür)
= 1+E(T)
E(TI3.Tür)
= 3+E(T)
=
Bdingungen der Aufgabensteilung - das ganze Verfahren von
neuem ! Also folgt:
I
I
I
+ -·0
+ -·(3+E(T))
-·(l+E(T))
3
3
3
3E(T) = 4 + 2E(T) , also E(T) = 4.
Erwartungs~ert
einer binomial verteilten
Zufallsgröße
Die Größe
Sn
sei
b(n;p)
verteilt. Sn
kann interpre-
tiert werden als die Anzahl des Eintretens eines bestimmten
Ereignisses bei
n
die Wartezeit bis zum ersten Eintreten
p
eintritt. Die Versuche sollen un-
Wie oft muß man im Schnitt würfeln, bis zum ersten Mal eine
Sechs fällt?
Denn wenn der Dieb die Tür wählt, die ihn nach einem Tag
Beispiel 4 : Der
A, das bei jeder Versuchsdurchführung mit
abhängig voneinander durchgeführt werden. Konkretes Beispiel:
wieder in den Kerker zurückführt, so beginnt - nach den
Daraus folgt
T
der Wahrscheinlichkeit
0
Bild 3
E(T)
lich kaum: Es sei
eines Ereignisses
unabhängigen Versuchen. Es sei
E
das
Ereignis, daß bei der ersten Durchführung des Versuches das
betrachtete Ereignis eintritt, P(E)
=
P
Dann gilt:
Bild 4 zeigt einen Ereignisbaum zu diesem Problem:
-
41 -
40 -
Beispiel 6: Stichproben aus einer Urne mit zufälliger
Zusammensetzung
Aus einer Urne mit
fang
l-p
p
1. Versuch
n
N
Kugeln wird eine Stichprobe vom Um-
ohne Zurücklegen gezogen. Die Anzahl
X
der weißen
Kugeln in der Urne sei eine zufällige Größe. Es sei
Y
die
Anzahl der Kugeln in der Stichprobe.
Dann gilt bekanntlich:
A
(~) (~::~)
p(Y=ylx=x)
(~ )
und daraus folgt bekanntlich (das sei hier alles vorausgesetzt)
E(TfA)=l
E(Ylx=x)
Bild 4
P + (l-p)(l+E(T))
E(Y)
p + (l-p) + (l-p)E(T)
Es folgt
p.E(T) = 1
und also
N
~
x=O
E(Ylx=x)·P(X=x)
n
N
E(T) = l!p . Das ist m.E.
eine sehr bemerkenswerte Methode, dieses wichtige Resultat zu
erreichen.
N
Nach dem Satz über den totalen Erwartungswert erhalten wir
für E(Y) :
Damit folgt:
E(T)
x
n --
N
Z!
x=O
x·P(X=x)
n
N
E(X)
Man erhält dieses Ergebnis, ohne etwas über die Verteilung
der Zufallsgröße
X
zu wissen!
E(X)!N
ist der mittlere
Anteil der weißen Kugeln in der Urne. Man kann also
n.E(X)!N
in Analogie zum Erwartungswert einer binomial oder einer
hypergeometrisch verteilten Zufallsgröße sehen (mit p =
E(X)!N ).
Beispiel 7 : Ich verweise hier nur auf einen Aufsatz von
A.F.BISSEL in dieser Zeitschrift [2) über ein Problem mit
einer Nylonfadenmaschine. Dort werden Zusammenhänge zwischen
Erwartungswerten angegeben, die man m.E. nur über den Satz
über den totalen Erwartungswert verstehen und herleiten kann.
- 43 - 42 Lösung: Es sei
Beispiel 8 : Bei einem Hersteller von Elektrogeräten
K
die Zufallsgröße, die die Kosten pro
Versuchsreihe angibt. Dann ist
E(K) =
10DM/p
treffen täglich Lieferungen eines gewissen Bauteiles ein, die
Man kann dieses Beispiel auf das Beispiel 5 zurückführen (K
einen in gewissen Grenzen zufällig schwankenden Umfang haben.
10DM-T) oder völlig analog zu 5 direkt bestimmen.
Es sei N die Anzahl der Bauteile pro Lieferung. Die Wahrscheinlichkeitsfunktion der Zufallsgröße N sei:
n:
10
P(N=n) : 0.05
11
12
13
14
15
0.10
0.10
0.20
0_35
0.20
Beispiel 10 : Die ersten 5 Wiederholungen eines Experimentes kosten je 20DM, alle weiteren Wiederholungen kosten
jeweils 10DM. Das Experiment wird solange wiederholt, bis ein
Erfolg (ein bestimmtes Ereignis A) erreicht wird. Die Wahr-
Von den gelieferten Bauteilen können einzelne defekt sein.
scheinlichkeit für das Eintreten des Ereignisses A bei
einer einzelnen Durchführung des Experimentes sei p (z.B. p
Die Wahrscheinlichkeit dafür sei für alle gelieferten Bautei-
= 0.9) und die Wiederholungen seien unabhängig voneienander.
le gleich groß, und zwar
p = 0.1 . Mit wievielen defekten
Bauteilen pro Lieferung muß der Empfänger im Schnitt rechnen ?
Was wird eine solche Versuchsreihe im Mittel kosten 7
Lösung: Es sei
Lösung: Es sei X die Anzahl der täglich ankommenden defekten Bauteile_ Gesucht ist der Erwartungswert von X. Nach
dem Satz über den totalen Erwartungswert gilt
E(X)
~
E(X\N=n)-p(N=n)
n=lO
Für gegebenes
teilt, also ist
n ist die ZufallsgrÖße
E(X!N=n) = np = O.ln .
X
binomial ver-
Daraus folgt:
15
E(X)
0.1 ~ n-P(N=n)
n=lO
0.1 E(N)
1. 33
Beispiel 9 : Die Kosten für die Durchführung eines bestimmten Versuches mögen 10DM betragen. Der Versuch wird
solange wiederholt, bis ein gewünschtes Ereignis A eingetreten ist. Die Wahrscheinlichkeit für das Eintreten vori A
bei einer einzelnen Versuchsdurchführung sei
p
und die
Wiederholungen unabhängig voneinander. Was wird eines solche
Versuchsdurchführung im Mittel kosten 7
A
und
F
spätestens bis
zum fünften Experiment eingetreten ist. Dann erhalten wir
folgenden Ereignisbaum (mit q = I-p) zu der Fallunterscheidung
15
K = "Kosten einer Versuchsreihe"
das Ereignis, daß das gewünschte Ereignis
F,
F :
- 4S - 44 Dieser Aufsatz enthält nichts grundsätzlich Neues, mit der
eventuellen Ausnahme des 2. Beweises zu dem Satz 2 und der
Benutzung von Ereignisbäumen. Auch die meisten Beispiele habe
ich in der Literatur gefunden, und einige von ihnen finden
sich in vielen Büchern über Wahrscheinlichkeitsrechnung. Deshalb erscheint es mir nicht sinnvoll, im einzelnen Literaturhinweise zu geben.
P(F)=1_q5
P(f)=_ I-P(F)=q5
LITERATUR
[IJ KILIAN,H.: Zur Definition von Erwartungswerten und von
bedingten Erwartungswerten und zu deren Berechnung mit
F
Hilfe von Bäumen
- Beiträge zum Mathematikunterricht
1987,S.188-191
[2] BISSEL,A.F.: Anwendungen der Wahrscheinlichkeitstheorie
in der Industrie
- Stochastik in der Schule 1(1979),
Heft 2, S.lS-17
E(KIF)
E(KIF') = (100 + .!Q)DM
p
(nach Beispiel 9)
[3] KOOPS,H. et al.: Mathematik für Lehrer in der
Sekundarstufe I/Hauptschule .- Ein Fernstudienlehrgang,
HE12 Wahrscheinlichkeitsrechnung; DIFF, Tübingen 1981
Bild S
Es bleibt noch
wir dafür
E(K F)
P(F)
P(F)
E(K!F) zu berechnen. Nach Satz 1 erhalten
(20DM P + 40DM pq + ... + lOODM pq4)
(1 + 2q + 3q2 + 4q3 + Sq4) 20DM
Insgesamt erhalten wir also:
E(K)
p(1+2q+3q2+4q3+Sq4)20DM + qS(lOO +
~)DM
P
Herunterladen