Stochastik in der Schule SiS

Werbung
Stochastik in der Schule
SiS
Zeitschrift des Vereins zur Förderung des schulischen Stochastikunterrichts
Inhaltsverzeichnis
NORBERT HENZE
Heft 1, Band 36 (2016)
Stochastische Extremwertprobleme im Fächer-Modell II:
Maxima von Wartezeiten und Sammelbilderprobleme
2
GERHARD KOCKLÄUNER
Pareto-Einkommensverteilung
10
KATRIN WÖLFEL
Der Satz von Bayes: Eine geschichtsträchtige Idee
mit vielfältigen Anwendungsmöglichkeiten
15
Stochastische Simulationen mit TinkerPlots –
ROLF BIEHLER,
DANIEL FRISCHEMEIER UND Von einfachen Zufallsexperimenten zum informellen
Hypothesentesten
SUSANNE PODWORNY
22
KYLE CAUDLE UND
ERICA DANIELS
28
Wurde die Lotterie bei den Hungerspielen manipuliert?
Berichte
PHILIPP ULLMANN
Bericht über die Herbsttagung des AK Stochastik
vom 20.–22. November 2015 in Paderborn
32
Bibliographische Rundschau
35
Vorwort der Herausgeberin
Liebe Leserin, lieber Leser,
im ersten Heft des neuen Jahres finden Sie vielfältige
Beiträge zum Lehren und Lernen von Stochastik an
Schule und Universität. Gemeinsam ist, dass sie die besondere Bedeutung von Verteilungen als grundlegendes
stochastisches Konzept zur Modellierung stochastischer
Situationen hervorheben.
Nachdem Norbert Henze zuvor Minima von Wartezeiten und Kollisionsprobleme untersucht hat (SiS Heft 3
2015), folgt nun der zweite Teil seines anlässlich der
Herbsttagung des AK Stochastik 2014 gehaltenen Vortrages zum Thema „Stochastische Extremwertprobleme
im Teilchen-Fächer-Modell“. Darin greift er Maxima
von Wartezeiten und Sammelbilderprobleme auf. Diese
stochastischen Probleme führen auf die Gumbel-Verteilung, eine Grenzverteilung für Maxima von unabhängigen und identisch verteilten Zufallsvariablen.
Gerhard Kockläuner befasst sich mit der Modellierung
der Nettoeinkommensverteilung in Deutschland mit der
Pareto-Verteilung sowie mit Darstellungen der zugehörigen Lorenzfunktion und des Gini-Koeffizienten.
Stochastik in der Schule 36 (2016) 1
Anschließend lädt Kathrin Wölfel auf eine Reise in die
Geschichte des Satzes von Bayes ein und arbeitet dabei das ursprüngliche Problem der Wahrscheinlichkeit
von Ursachen sowie den Verdienst von Pierre Simon
Laplace heraus, der diesen Satz zu seinem Durchbruch
verhalf.
Rolf Biehler, Daniel Frischemeier und Susanne Podworny untersuchen das Potential der Software TinkerPlots
für stochastische Simulationen einfacher Zufallsexperimente im schulischen Kontext. Dabei werden Stichprobenverteilungen erzeugt und zur Schätzung von Ereigniswahrscheinlichkeiten genutzt.
Das Heft schließt mit einer Übersetzung aus der Zeitschrift Teaching Statistics. Hierfür haben wir einen Artikel ausgewählt, der aufgrund seines Bezugs zu einer
aktuellen Romanverfilmung, der „Tribute von Panem“,
für Lernende motivierend sein dürfte. Kyle Caudle und
Erica Daniels führen darin die Grundidee des Randomisierungstests mittels Simulation aus.
Ich wünsche Ihnen eine anregende Lektüre.
Paderborn, Januar 2016
Katja Krüger
1
Stochastische Extremwertprobleme im Fächer-Modell II:
Maxima von Wartezeiten und Sammelbilderprobleme
N ORBERT H ENZE , K ARLSRUHE
Zusammenfassung: Im Fächermodell mit n Fächern
werden in einem Besetzungsvorgang s verschiedene
der Fächer zufällig mit je einem Teilchen besetzt.
Diese Besetzungsvorgänge werden in unabhängiger
Folge wiederholt, bis jedes Fach mindestens ein Teilchen enthält. Die zufällige Anzahl Vn,s der hierzu erforderlichen Besetzungsvorgänge ist ein Maximum
von Wartezeiten auf den ersten Treffer in BernoulliKetten. Wir geben die Verteilung von Vn,s an und
zeigen, dass sich diese Verteilung bei wachsendem
n unter gewissen Voraussetzungen einer GumbelVerteilung annähert. Letztere ist eine der klassischen
Grenzverteilungen für Maxima von unabhängigen
und identisch verteilten Zufallsvariablen.
Das sogenannte Sammelbilderproblem (Problem der
vollständigen Serie, Coupon-Collector-Problem) betrifft die in diesem Zusammenhang in natürlicher
Weise auftretende Zufallsvariable
1 Einleitung
Zu diesem Problem gibt es eine umfangreiche Literatur, siehe z.B. Althoff 2000, Boneh/Hofri 1997, Fricke 1984, Haake 2006, Jäger/Schupp 1987, Treiber
1988.
Wer hat es nicht schon einmal erlebt, das Sammelfieber, das wieder anlässlich der FußballWeltmeisterschaft 2014 in Brasilien bei Millionen
von Fans ausbrach, als es galt, ein Sammelalbum
mit 640 Plätzen zu füllen, wobei man Tüten mit
je 5 verschiedenen Sammelbildern kaufen konnte.
In der im Folgenden gewählten abstrakten Einkleidung als Fächermodell nehmen wir an, dass n von
1 bis n nummerierte Fächer vorliegen. Bei einem
Besetzungsvorgang werden dann s verschiedene der
n Fächer zufällig“ ausgewählt und jeweils mit ei”
nem Teilchen besetzt. Dieser Vorgang wird solange in unabhängiger Folge wiederholt, bis jedes Fach
mindestens ein Teilchen enthält. Dabei bedeute in
”
unabhängiger Folge“, dass Ereignisse, die sich auf
unterschiedliche Besetzungsvorgänge beziehen, stochastisch unabhängig sind.
Offenbar liegt beim WM-Sammelalbum der Fall
n = 640, s = 5 vor. Weitere konkrete Einkleidungen sind der Würfelwurf (n = 6, s = 1), wenn man
die sechs möglichen Augenzahlen als Fächer auffasst
und solange wirft, bis jede Zahl aufgetreten ist, sowie ein Lotto-Wartezeitproblem mit n = 49, s = 6.
Hier entsprechen die Fächer den möglichen Gewinnzahlen, und ein Besetzungsvorgang besteht in der
Notierung der 6 Gewinnzahlen einer Ausspielung.
Von Interesse ist dann die Anzahl der Ausspielungen, bis jede Zahl mindestens einmal Gewinnzahl
war. Eine weitere Einkleidung ist das Geburtstags”
Sammelproblem“ mit n = 365, s = 1: Wie viele Per-
2
sonen müssen zusammenkommen, damit jeder Tag
des Jahres Geburtstag mindestens einer dieser Personen ist? Dabei schließen wir wie üblich den 29. Februar als Geburtstag aus.
Vn,s := Anzahl der Besetzungsvorgänge, bis jedes
Fach besetzt ist.
Offenbar ist Vn,s ein Maximum von Wartezeiten, denn
bezeichnet für jedes j = 1, . . . , n die Zufallsvariable
W j die Anzahl der Besetzungsvorgänge, bis Fach Nr.
j mindestens ein Teilchen enthält, so gilt
Vn,s = max(W1 , . . . ,Wn ).
(1)
Hat jemand bei den Besetzungsvorgängen nur Fach
j im Auge und blendet alle anderen Fächer aus, so
beschreibt W j die Wartezeit bis zum ersten Treffer in
einer Bernoulli-Kette, wenn die Besetzung von Fach
j mit einem Teilchen als Treffer angesehen wird. Im
Fall s = 1 und gleich wahrscheinlicher Fächer ist diese Trefferwahrscheinlichkeit gleich 1/n, so dass W j
den Erwartungswert n besitzt. Der Erwartungswert
von Vn,s als Maximum aller W j ist jedoch deutlich
größer, vgl. Abschnitt 2.
In diesem Aufsatz betonen wir die strukturellen Eigenarten des Sammelbilderproblems, gehen auf die
Frage nach der Verteilung von Vn,1 auch bei ungleichen Wahrscheinlichkeiten für die einzelnen Fächer
ein und stellen einen Grenzwertsatz für die Wartezeit auf eine vollständige Serie vor. Als Grenzverteilung ergibt sich mit der Gumbel-Verteilung eine
der klassischen Grenzverteilungen für Maxima unabhängiger und identisch verteilter Zufallsvariablen.
Im Fall s = 1 schreiben wir kurz Vn anstelle von Vn,1 .
Stochastik in der Schule 36 (2016) 1, S. 2–9
2 Der Fall s = 1, gleich wahrscheinliche
Fächer
In diesem insbesondere in Zeitschriften zur Didaktik
der Mathematik ausführlich behandelten einfachsten
Fall lässt sich Vn wie folgt als Summe von unabhängigen Zufallsvariablen modellieren: Das erste Teilchen
belegt eines der n Fächer; wir haben also im Hinblick
auf eine vollständige Serie einen ersten Teilerfolg
erzielt. Sind bereits j < n verschiedene Fächer belegt, so gelte das Besetzen irgendeines der noch n − j
freien Fächer als (weiterer) Teilerfolg. Dabei tritt ein
Teilerfolg mit der von den Nummern der j bereits
besetzten Fächern unabhängigen Wahrscheinlichkeit
p j = (n − j)/n auf. Bezeichnet Y j die Anzahl der
Besetzungsvorgänge zwischen dem j-ten und dem
( j + 1)-ten Teilerfolg (einschließlich des letzteren),
so gilt
(2)
Vn = 1 +Y1 +Y2 + . . . +Yn−1 ,
wobei Y1 , . . . ,Yn−1 stochastisch unabhängig sin d. Die
Zufallsvariable Y j beschreibt die Anzahl der Versuche bis zum ersten Treffer in einer Bernoullikette mit
Trefferwahrscheinlichkeit p j = (n− j)/n. Es gilt also
k−1 j
j
, k ≥ 1.
1−
P(Y j = k) =
n
n
Wegen E(Y j ) = 1/p j = n/(n − j) folgt dann mit Darstellung (2) E(Vn ) = 1 + ∑n−1
j=1 E(Y j ), also
n−1
1
1
n
= n· 1+ + ... +
. (3)
E(Vn ) = ∑
2
n
j=0 n − j
Speziell erhält man hiermit E(V6 ) = 14, 7, E(V365 ) =
2364, 46 · · ·. Folglich müssen im Mittel 2365 Personen zusammenkommen, damit jeder Tag des Jahres
Geburtstag mindestens einer dieser Personen ist.
Für die durchschnittliche Teilchenzahl pro Fach bis
zum Erreichen einer vollständigen Serie, also die Zufallsvariable Vn /n, folgt aus (3)
1 1
1
Vn
= 1+ + + ... + .
(4)
E
n
2 3
n
Hier steht rechts die sogenannte n-te harmonische
Zahl
1
1
(5)
Hn := 1 + + . . . + .
2
n
Wegen
(6)
lim (ln n − Hn ) = γ,
Für die Varianz von Vn /n − ln n gilt mit der allgemeinen Rechenregel V(aX + b) = a2 V(X ) (s. z.B. Henze
2013, S. 163)
1
Vn
− ln n = 2 V(Vn ).
V
n
n
Darstellung (2) liefert wegen der Unabhängigkeit
von Y1 , . . . ,Yn−1 sowie V(Y j ) = (1 − p j )/p2j (vgl.
Henze 2013, S. 188)
V(Vn ) =
n−1
∑ V(Y j )
j=1
=
n−1
n2
=
1 − pj
2
j=1 p j
n−1
∑
j
∑ (n − j)2 · n
j=1
n−k
2
k=1 k
n−1
= n∑
n−1
n−1
1
1
.
−
n
∑
2
k=1 k
k=1 k
= n2 ∑
−2 = π2 /6 (s. z.B. Heuser 2004, S. 150)
Wegen ∑∞
k=1 k
und Hn /n → 0 für n → ∞ folgt
π2
Vn
− ln n =
.
lim V
n→∞
n
6
(8)
Sowohl Erwartungswert als auch Varianz von Vn /n −
ln n konvergieren also für n → ∞. Dieser Sachverhalt
lässt vermuten, dass die Zufallsvariable Vn /n− ln n in
Verteilung konvergiert. Diese Namensgebung bedeutet, dass eine Verteilungsfunktion G existiert, so dass
für jede Stetigkeitsstelle x von G die Limesbeziehung
Vn
− ln n ≤ x = G(x)
lim P
n→∞
n
besteht.
Wir werden dieser Frage in Abschnitt 4 nachgehen. Obwohl Vn nach (2) eine Summe unabhängiger Zufallsvariablen darstellt, greift hier kein Zentraler Grenzwertsatz mit einer asymptotischen Normalverteilung, weil die Summanden sehr unterschiedlich
große Beiträge zur Summe liefern.
Um diesen Sachverhalt zu verdeutlichen, nehmen wir
eine gerade Anzahl n = 2m von Fächern an und spalten die Summe in (2) in die Bestandteile
n→∞
wobei γ = 0, 57221 . . . die Euler-Mascheronische
Konstante bezeichnet (s. z.B. Heuser 1994, S. 185),
folgt mit (4)
Vn
− ln n = γ.
(7)
lim E
n→∞
n
Hn,1 := 1 +
m−1
∑ Yj,
j=1
2m−1
Hn,2 :=
∑
Yj
j=m
auf. Hier steht Hn,1 für die Anzahl der Teilchen, die
zur Besetzung der Hälfte aller Fächer benötigt wird,
3
und Hn,2 beschreibt die Anzahl der danach noch erforderlichen Teilchen, um die vollständige Serie zu
komplettieren. Es gilt
2m
2m
+ ...+
E(Hn,1 ) = 1 +
2m − 1
2m − (m − 1)
1
1
1
+
+ ... +
= 2m
2m 2m − 1
m+1
2m
2m
2m
+
+ ...+
E(Hn,2 ) =
m m−1
1
1
1
1
+
+ ... + + 1 ,
= 2m
m m−1
2
und wir erhalten die in Tabelle 1 angegebenen Werte.
n
E(Hn,1 )
E(Hn,2 )
6
3.7
11
20
13.4
58.6
100
68.8
449.9
640
443.1
4062.1
Tab. 1: Erwartungswerte der Wartezeiten auf die
erste bzw. zweite Hälfte einer vollständigen Serie
Im Verhältnis zur mittleren Wartezeit auf die erste Hälfte wächst also die mittlere Wartezeit auf die
zweite Hälfte bei zunehmender Fächeranzahl über alle Grenzen!
3 Die Verteilung von Vn,s
In diesem Abschnitt betrachten wir die allgemeinere
Situation, dass bei jedem Besetzungsvorgang gleichzeitig s verschiedene Fächer
je ein Teilchen erhalten.
Dabei nehmen wir alle ns Auswahlen dieser Fächer
als gleich wahrscheinlich an. Offenbar kann Vn,s jeden Wert a, a + 1, a + 1, . . . annehmen, wobei
n
n
a :=
= min m ∈ Z : ≤ m
(9)
s
s
gesetzt ist. Die Verteilung von Vn,s ergibt sich, wenn
man für festes k zunächst das Ereignis {Vn,s > k}
betrachtet. Wegen (1) gilt Vn,s > k genau dann,
wenn mindestens eines der Ereignisse {W j > k}, j =
1, . . . , n, eintritt. Es folgt also
P(Vn,s > k) = P
n
{W j > k} .
j=1
Es ist frappierend, dass sich etwa im Fall n = 640 die
mittleren Wartezeiten auf die erste bzw. zweite Hälfte einer vollständigen Serie grob im Verhältnis 1 zu 9
aufteilen. Hier sollte man sich jedoch vor Augen halten, dass allein die Besetzung des letzten freien Fachs
im Mittel 640 Teilchen erfordert.
Für die Wahrscheinlichkeit der Vereinigung beliebiger Ereignisse A1 , . . . , An gibt es die auch als Formel
des Ein- und Ausschließens bekannte Darstellung
Obige Tabelle zeigt, dass die Quotienten
E(Hn,2 )/E(Hn,1 ) bei wachsendem n immer größer
werden. In der Tat gilt mit n = 2m und den angegebenen Darstellungen für E(Hn,1 ) und E(Hn,2 ) sowie
der Definition (5) der n-ten harmonischen Zahl
(siehe z.B. Henze 2013, Kapitel 11). Dabei bezeichnet
Sr :=
∑ P (Ai1 ∩ . . . ∩ Air ) (11)
E(Hn,2 )
E(Hn,1 )
=
1
1
1
m + m−1 + . . . + 2 + 1
1
1
1
2m + 2m−1 + . . . + m+1
=
Hm
.
H2m − Hm
Nach (6) können wir für den vorzunehmenden
Grenzübergang n → ∞ Hn = ln n − γ + o(1) setzen,
wobei o(1) eine gegen Null konvergierende Folge ist.
Damit folgt wegen ln(2m) = ln 2 + ln m
E(Hn,2 )
ln m − γ + o(1)
=
E(Hn,1 )
ln(2m) − γ + o(1) − (ln m − γ + o(1))
ln m − γ + o(1)
=
ln 2 + o(1))
und somit
4
E(Hn,2 )
= ∞.
lim
n→∞ E(Hn,1 )
P
n
Aj
=
n
∑ (−1)r−1Sr
(10)
r=1
j=1
1≤i1 <...<ir ≤n
n
die sich über r Summanden erstreckende Summe
der Wahrscheinlichkeiten aller Durchschnitte von r
der n Ereignisse. Wichtig für spätere Überlegungen
ist noch, dass die bei Abbruch der alternierenden
Summe entstehenden Partialsummen abwechselnd
zu groß und zu klein sind. Es gelten also die durch
Induktion nach n einzusehenden, als BonferroniUngleichungen bezeichneten Abschätzungen
n
P
P
j=1
n
≤
Aj
∑ (−1)r−1Sr ,
(12)
r=1
Aj
2l+1
≥
j=1
2l
∑ (−1)r−1Sr .
(13)
r=1
Dabei ist in (12) l ≥ 0 und 2l + 1 ≤ n sowie in (13)
l ≥ 1 und 2l ≤ n vorausgesetzt.
Wir wählen jetzt die Ereignisse in (10) als
A j := {W j > k},
j = 1, . . . , n.
(14)
Um die in (11) auftretenden Schnitt-Wahrscheinlichkeiten zu bestimmen, können wir uns auf den Fall r ≤
n − s beschränken, da bei jedem Besetzungsvorgang
s verschiedene Fächer belegt werden. Wir wählen
für festes r ∈ {1, . . . , n − s} Indizes i1 , . . . , ir mit 1 ≤
i1 < . . . < ir ≤ n. Das Ereignis Ai1 ∩ . . . ∩ Air tritt
genau dann ein, wenn bei den ersten k Besetzungsvorgängen die Fächer mit den Nummern i1 , . . . , ir leer
bleiben. Die Wahrscheinlichkeit, dass dies bei einem
Besetzungsvorgang geschieht, ist
n−r
(15)
qr := ns ,
s
Rechts-Schiefe“, d.h. die Wahrscheinlichkeiten stei”
gen zunächst schnell an und fallen dann nach Erreichen des Maximums langsamer wieder ab. Diese
Rechts-Schiefe ist nicht weniger ausgeprägt, wenn
wir die Anzahl n der Fächer vergrößern. So zeigt Abbildung 2 ein Stabdiagramm der Verteilung von V49,6 .
Diese Zufallsvariable beschreibt die Anzahl der Ausspielungen im Lotto 6 aus 49, die nötig ist, damit jede
Zahl mindestens einmal als Gewinnzahl auftritt.
P(V49,6 = k)
0, 05
0, 04
denn unabhängig von den Fachnummern i1 , . . . , ir
müssen r festgelegte
Fächer leer bleiben, und günstig
Auswahlen von s der restlichen
hierfür sind alle n−r
s
n − r Fächer. Da Ereignisse, die sich auf unterschiedliche Besetzungsvorgänge beziehen, stochastisch unabhängig sind, gilt dann
0, 03
0, 02
0, 01
0
P(Ai1 ∩ . . . ∩ Air ) = P(A1 ∩ . . . ∩ Ar ) = qkr
und somit nach (10)
P(Vn,s > k) =
n−s
∑ (−1)
r−1
r=1
n k
q
r r
(16)
mit qr wie in (15). Durch Differenzbildung gemäß
P(Vn,s = k) = P(Vn,s > k −1)−P(Vn,s > k) ergibt sich
hieraus die Verteilung von Vn,s zu
P(Vn,s = k) =
n−s
∑ (−1)
r−1
r=1
n k−1
q (1 − qr ), (17)
r r
k ∈ {a, a + 1, a + 2, . . .} mit a wie in (9), vgl. Henze
2013, S. 193.
10
20
30
40
50
60
70 k
Abb. 2: Verteilung der Wartezeit beim
Sammelbilder-Problem mit n = 49, s = 6
Beide Abbildungen wurden mithilfe von Formel (17)
erstellt, wobei die Summanden rekursiv berechnet
wurden. Mit einer genauen Arithmetik (extended
precision) kann diese Formel bis zu einer Fächerzahl
von n = 120 verwendet werden, ohne dass numerische Instabilitäten auftreten (ab n = 121 ergab die
Summe aller Wahrscheinlichkeiten Werte größer als
Eins). Für größere Werte von n hilft ein in Abschnitt
4 vorgestellter Grenzwertsatz.
Der Erwartungswert von Vn,s ergibt sich mithilfe von (17) und der Darstellungformel E(Vn,s ) =
∑∞
k=a kP(Vn,s = k) sowie
∞
∑ kxk−1 =
k=a
P(V6,1 = k)
=
0, 08
0, 06
d ∞ k
d xa
x
=
∑
dx k=a
dx 1 − x
axa−1 − (a − 1)xa
,
(1 − x)2
zu
0, 04
E(Vn,s ) =
0, 02
n−s
∑ (−1)
r−1
r=1
0
0
5
10
15
20
25
30
35
40
k
Abb. 1: Verteilung der Wartezeit beim
Sammelbilder-Problem mit n = 6, s = 1
Abbildung 1 zeigt ein Stabdiagramm der Verteilung von V6,1 , also der Anzahl der Würfe, bis
jede Augenzahl eines echten Würfels aufgetreten
ist. Deutlich zu erkennen ist hier eine ausgeprägte
|x| < 1,
a−1
n qr (qr − a(qr − 1))
,
1 − qr
r
s. z.B. Henze 2013, S. 193. Hiermit erhält man etwa
E(V49,6 ) = 35, 08 . . ..
4 Ein Grenzwertsatz für Vn
Wir haben in (7) und (8) gesehen, dass Erwartungswert und Varianz der im Folgenden mit
Vn∗ :=
Vn
− ln n
n
5
bezeichneten Zufallsvariablen beim Grenzübergang
n → ∞ konvergieren. Natürlich erhebt sich sofort
die Frage, ob nicht auch die Wahrscheinlichkeiten
P(Vn∗ ≤ x), x ∈ R, gegen von x abhängende Werte G(x) streben. Wir untersuchen im Folgenden für
festes x ∈ R die komplementäre Wahrscheinlichkeit
P(Vn∗ > x) und wählen hierzu n so groß, dass x +
ln n ≥ 1 gilt. Setzen wir kn := n(x + ln n), so gilt
nach Definition von Vn∗ , wegen der Ganzzahligkeit
von Vn sowie (16)
P(Vn∗ > x) = P(Vn > n(x + ln n))
= P(Vn > kn )
=
n−1
∑ (−1)
r−1
r=1
n kn
q
r r
(18)
Nach Übergang zum komplementären Ereignis und
Einsetzen von Vn∗ = Vn /n − ln n ergibt sich also der
Grenzwertsatz
lim P (Vn ≤ n(x + ln n)) = G(x),
n→∞
Die Funktion G ist nach Emil Julius Gumbel (1891
– 1966) benannt und heißt Verteilungsfunktion der
Gumbelschen Extremwertverteilung. Abbildung 3
zeigt ein Schaubild der Dichte g(x) = G
(x) =
exp(−(x + e−x )) dieser Verteilung.
0,2
0,1
lim inf P(Vn∗ > x) ≥
n→∞
∑ (−1)r−1
r=1
2l
∑ (−1)r−1
r=1
e−xr
r!
,
∑ (−1)r−1
r=1
e−xr
r!
∞
(−e−x )r
r!
r=1
= − exp(−e−x ) − 1
= −∑
= 1 − exp(−e−x ),
und wir erhalten
lim P(Vn∗
n→∞
6
−3 −2 −1
0
1
2
3
4
5
x
Abb. 3: Dichte der Gumbelschen
Extremwertverteilung
Der Graph dieser Dichte weist die gleiche Asymmetrie auf wie die Stabdiagramme in Abb.1 und Abb. 2.
Der Erwartungswert der Extremwertverteilung von
Gumbel ist die Euler-Mascheroni-Konstante γ, und
die Varianz ist gleich π2 /6.
Bevor wir Konsequenzen von (21) aufzeigen, soll
noch der Nachweis von (20) geführt werden. Hierzu
setzen wir nr := n(n − 1) · . . . · (n − r + 1) sowie
e−xr
r!
folgen. Lassen wir jetzt l gegen Unendlich streben,
so ergibt sich
∞
g(x) = exp(−(x + e−x ))
(20)
gelten. Mit (20) würde dann für jedes feste l
n→∞
(22)
0,3
gilt. Im Hinblick auf (18) ist diese Aussage wichtig;
es besteht jedoch das Problem, dass in (18) bei wachsendem n auch die Anzahl der Summanden zunimmt.
Hier helfen die Bonferroni-Ungleichungen (12) und
(13), wonach für festes l
2l+1
∗
r−1 n
qkr n ,
P(Vn > x) ≤ ∑ (−1)
r
r=1
2l
∗
r−1 n
qkr n
P(Vn > x) ≥ ∑ (−1)
r
r=1
lim sup P(Vn∗ > x) ≤
x ∈ R.
G(x) := exp(− exp(−x)),
(19)
Wir werden sehen, dass für jedes r ≥ 1
e−xr
n kn
qr =
lim
n→∞ r
r!
2l+1
(21)
wobei
mit qr wie in (15) mit s = 1, also
n−r
.
qr =
n
x ∈ R,
εn := n(x + ln n) − n(x + ln n).
Dann gilt
n kn
q
r r
1 nr r r kn
· r ·n · 1−
r! n
n
r
1 n
r n(x+ln n) r εn
· r · nr · 1 −
· 1−
.
r! n
n
n
=
=
Hier konvergieren der zweite Faktor und (wegen
−1 ≤ εn ≤ 0) auch der letzte gegen Eins, so dass nur
> x) = 1 − exp(− exp(−x)).
r n(x+ln n)
= e−xr
lim n · 1 −
n→∞
n
r
(23)
zu zeigen ist. Der Klammerausdruck links ist gleich
exp(an ) mit
r
.
an := r ln n + n(x + ln n) ln 1 −
n
Zu zeigen bleibt also limn→∞ an = −rx. Mit der
Ungleichung lnt ≤ t − 1 ergibt sich unmittelbar
an ≤ −rx, und die durch Ersetzen von t durch
1/t in obiger Logarithmus-Ungleichung folgende
Abschätzung lnt ≥ 1 − 1/t liefert
an ≥ r ln n − n(x + ln n) ·
= −r2 ·
r
n−r
n
ln n
−
· rx.
n−r n−r
Da diese untere Schranke für an gegen −rx konvergiert, folgt an → −rx, was noch zu zeigen war.
Wahrscheinlichkeiten besitzen? Intuitiv ist zu erwarten, dass Vn dann im Mittel größer wird“. Zur Präzi”
sierung bezeichne p j die Wahrscheinlichkeit, dass
ein Teilchen in Fach Nr. j fällt. Dabei gelte p j > 0
für jedes j sowie p1 + . . . + pn = 1. Wie in (14) sei
bei festem k A j das Ereignis, dass nach k Besetzungsvorgängen Fach Nr. j noch frei ist.
Zu vorgegebenen r ∈ {1, . . . , n − 1} und i1 , . . . , ir mit
1 ≤ i1 < i2 < . . . < ir ≤ n ist die Wahrscheinlichkeit, dass bei einem Besetzungsvorgang die Fächer
mit den Nummern i1 , . . . , ir frei bleiben, durch 1 −
pi1 − . . . − pir gegeben. Wegen der Unabhängigkeit
von Ereignissen, die sich auf verschiedene Besetzungsvorgänge beziehen, gilt dann
P(Ai1 ∩ . . . ∩ Air ) = (1 − pi1 − . . . − pir )k
Die Formel des Ein- und Ausschließens (vgl. (10),
(11)) liefert unter Beachtung von P(A1 ∩ . . .∩ An ) = 0
Der Grenzwertsatz (21) besagt
−x
P (Vn ≤ n(x + ln n)) ≈ exp(−e )
(24)
für großes n. Wählt man ein p mit 0 < p < 1 und
setzt p = exp(−e−x ), so folgt ln p = −e−x und somit ln(− ln p) = −x, also x p = − ln(− ln p). Insbesondere ergibt sich x0.5 ≈ 0, 3665, x0.9 ≈ 2, 250 und
x0,95 ≈ 2, 970. Für n = 640 folgt dann aus (24)
P(V640 ≤ 4370) ≈ 0, 5,
P(V640 ≤ 5575) ≈ 0, 9,
P(V640 ≤ 6036) ≈ 0, 95.
Würde man also die Sticker beim Sammelalbum zur
Fußball-WM 2014 einzeln kaufen können, so wäre
das Album mit einer fünfprozentigen Wahrscheinlichkeit selbst nach dem Kauf von stolzen 6036 Bildern immer noch nicht komplett. Diese Aussage gilt
auch, wenn die Sticker in Tüten zu je s verschiedenen
Stickern gekauft werden, denn es gilt in Verallgemeinerung von (21) in der Situation von Abschnitt 3
sVn,s
− ln n ≤ x = exp(− exp(−x)), x ∈ R.
lim P
n→∞
n
Der Beweis hierfür verläuft ganz analog wie der Fall
s = 1; man muss nur qr in (19) durch das in (15) eingeführte qr ersetzen.
5 Der Fall s = 1, nicht gleich
wahrscheinliche Fächer
Wie verhält sich die Wartezeit Vn auf eine vollständige Serie, wenn die einzelnen Fächer unterschiedliche
P(Vn > k) =
n−1
∑ (−1)r−1
r=1
∑
(1−pi1 − . . . −pir )k ,
1≤i1 <...<ir ≤n
und die Wahrscheinlichkeiten P(Vn = k) erhält
man hieraus bekanntermaßen durch Differenzbildung P(Vn = k) = P(Vn > k − 1) − P(Vn > k).
Für den Fall n = 3 ergibt sich speziell
P(V3 ≤ k) = 1 − (1 − p1 )k − (1 − p2 )k − (1 − p3 )k
+pk1 + pk2 + pk3 , k ≥ 3.
Als Beispiel betrachten wir die Situation von drei
Fächern, und zwar einmal mit der Gleichverteilung
p1 = p2 = p3 = 1/3, zum anderen mit der Verteilung
p1 = 1/2, p2 = 1/3, p3 = 1/6. Beide Fälle können
im Unterricht mit einem echten Würfel hergestellt
werden, wenn man einmal das Werfen einer 1 oder
2, 3 oder 4 bzw. 5 oder 6 als Belegung eines von 3
Fächern ansieht. Beim zweiten Szenario entsprechen
die Augenzahlen 1,2, oder 3 Fach 1, die Augenzahlen
4 oder 5 Fach 2 und die Augenzahl 6 Fach 3.
Tabelle 2 zeigt die Wahrscheinlichkeiten P(V3 ≤
k), nach höchstens k Besetzungsvorgängen eine
vollständige Serie erzielt zu haben, für diese beiden Szenarien. Wie zu erwarten ist für jedes k die
Wahrscheinlichkeit einer vollständigen Serie nach
höchstens k Besetzungsvorgängen im Fall verschieden wahrscheinlicher Fächer kleiner als im gleich
wahrscheinlichen Fall. Man spricht dann davon, dass
die Verteilung von V3 stochastisch größer als im
Fall gleich wahrscheinlicher Fächer ist. Das Attribut
größer“ bezieht sich dabei auf die komplementären
”
Wahrscheinlichkeiten P(V3 > k).
7
k
3
4
5
6
7
8
9
10
15
20
P(V3 ≤ k)
p1 = p2 = p3 =
0, 2222
0, 4444
0, 6173
0, 7407
0, 8258
0, 8834
0, 9921
0, 9480
0, 9931
0, 9991
1
3
P(V3 ≤ k)
p1 = 12 , p2 = 31 , p3 =
0, 1667
0, 3333
0, 4707
0, 5787
0, 6629
0, 7286
0, 9328
0, 8212
0, 9328
0, 9736
1
6
Tab. 2: Bei ungleichen Fächer-Wahrscheinlichkeiten
wird die Wartezeit V3 stochastisch größer
Da für eine ganzzahlige nichtnegative Zufallsvariable Z ganz allgemein der Erwartungswert in der Form
E(Z) =
=
∞
∞
j
∑ jP(Z = j) = ∑ ∑ 1
j=1
∞ ∞
P(Z = j)
j=1 i=1
∞
∑ ∑ P(Z = j) = ∑ P(Z ≥ i)
i=1 j=i
i=1
berechnet werden kann, ist auch der Erwartungswert
E(V3 ) =
1
1
1
+ +
p1 p2 p3
1
1
1
−
−
−
+1
1− p1 1− p2 1− p3
von V3 im Fall gleich wahrscheinlicher Fächer kleiner als im anderen Szenario: Im Fall p1 = p2 = p3 =
1
1
1
1
3 gilt E(V3 ) = 5, 5, im Fall p1 = 2 , p2 = 3 , p3 = 6
ist E(V3 ) = 7, 3.
Boneh/Hofri (1997) zeigen, dass ganz allgemein Vn
stochastisch minimal wird, wenn die Fächer gleich
wahrscheinlich sind. Somit ist auch die mittlere Wartezeit auf eine vollständige Serie am kürzesten, wenn
eine Gleichverteilung über alle Fächer vorliegt.
6 Abschließende Bemerkungen
a) Im Fall gleich wahrscheinlicher Fächer lässt sich
die Verteilung von Vn in der Form
P (Vn = k) =
n!
· Sk−1,n−1
nk
mithilfe der Stirling-Zahlen 2. Art darstellen (Hofri
1995, S. 129).
b) Im Unterschied zu Zentralen Grenzwertsätzen,
die das asymptotische Verhalten von Summen von
8
Zufallsvariablen untersuchen, interessiert man sich
bei stochastischen Extremwertproblemen insbesondere für das Verhalten des Maximums Mn =
max(X1 , . . . , Xn ) von Zufallsvariablen X1 , . . . , Xn
beim Grenzübergang n → ∞. So kann man fragen,
ob es im Fall unabhängiger und identisch verteilter
X1 , . . . , Xn Folgen (an ) und (bn ) mit bn > 0 gibt, so
dass für eine Verteilungsfunktion H
Mn − an
lim P
≤ t = H(t), t ∈ R,
(25)
n→∞
bn
gilt. Dabei soll der Entartungs-Fall ausgeschlossen
sein, dass eine Zufallsvariable mit der Verteilungsfunktion H mit Wahrscheinlichkeit Eins nur einen
Wert annimmt. Klassische Sätze der stochastischen
Extremwerttheorie besagen, dass – falls überhaupt
Konstantenfolgen (an ) und (bn ) mit (25) existieren,
die Funktion H bis auf eine affine Transformation
des Arguments nur eine von drei Funktionen sein
kann (siehe z.B. Löwe 2008). Eine davon ist die
durch (22) gegebene Verteilungsfunktion der Gumbel’schen Extremwertverteilung, die beiden anderen die Fréchet-Verteilung mit der Verteilungsfunktion Φα (x) = exp(−x−α ), x > 0, für ein α > 0 und
die Weibull-Verteilung mit der Verteilungsfunktion
Ψα (x) = exp(−(−x)α ), x < 0, und Ψα (x) = 1 für
x ≥ 0.
Das Resultat (21) besagt also, dass (25) für Vn anstelle von Mn (mit an = n ln n und bn = n) gilt, wobei
H die Verteilungsfunktion der Extremwertverteilung
von Gumbel ist.
An dieser Stelle sei darauf hingewiesen, dass sich für
Minima von Wartezeiten im Fächermodell bei wachsender Fächeranzahl asymptotisch eine WeibullVerteilung ergibt (siehe den Aufsatz Stochastische
Extremwertprobleme im Fächermodell I: Minima
von Wartezeiten und Kollisionsprobleme in Heft
3/2015).
c) Wenn man in der Situation von Abschnitt 2 solange Teilchen verteilt, bis für ein κ ∈ (0, 1) nκ Fächer
besetzt sind, so werden durch die Bedingung κ < 1
die üblicherweise extrem langen Wartezeiten auf die
letzten noch nicht besetzten Fächer ausgeschlossen.
Mit den in Abschnitt 2 eingeführten Zufallsvariablen
Y1 ,Y2 , . . . ,Yn−1 ist dann die die Wartezeit bis zur Besetzung von κn Fächern verteilt wie die Summe
1 +Y1 +Y2 + . . . +Yκn−1 .
In dieser Darstellung ist der Einfluss der einzelnen
Summanden auf die Gesamtsumme so gering, dass
mithilfe des Zentralen Grenzwertsatz von LindebergFeller (s. z.B. Brokate et al. 2015, Kapitel 23)
die asymptotische Normalverteilung dieser Summe
nachgewiesen werden kann.
d) Wartet man in der in Abschnitt 4 behandelten Situation auf c vollständige Serien und bezeichnet die
(c)
Anzahl der dafür nötigen Teilchen mit Vn , so gilt
der Grenzwertsatz (Erdős/Rényi 1961)
(c)
lim P Vn ≤ n(ln n + (c − 1) ln ln n + x)
n→∞
e−x
, x ∈ R.
= exp −
(c − 1)!
In diesem Artikel wird auch ein Resultat von Newman/Shepp (1960) ergänzt: Es gilt
(c)
= n(ln n + (c − 1) ln ln n + Kc + o(1)),
E Vn
wobei Kc = γ − ln(c − 1)! und o(1) eine Nullfolge
ist. Überraschenderweise kostet also bei einer großen
Anzahl von Fächern die erste vollständige Serie grob
gesprochen n ln n und jede weitere n ln ln n Teilchen.
Danksagung: Der Autor dankt den Gutachtern für
diverse Verbesserungsvorschläge.
Anmerkung: Diesem Aufsatz liegt ein im Rahmen
der Jahrestagung 2014 des Arbeitskreises Stochastik
der Gesellschaft für Didaktik der Mathematik gehaltener Vortrag zugrunde.
Literatur
Althoff, H. (2000): Zur Berechnung der Wahrscheinlichkeit für das Vorliegen einer vollständigen Serie (Sammelbilderproblem). In: Stochastik in der
Schule 20, S. 18–20.
Boneh, A., Hofri, M. (1997): The Coupon Collector
Problem revisited – A Survey of engineering Problems and computational Methods. In: Stochastic
Models 13, S. 39–66.
Brokate, M., Henze, N., Hettlich, F., Meister, A.,
Schranz-Kirlinger, G., Sonar, T. (2015): Grundwissen Mathematikstudium: Höhere Analysis,
Numerik und Stochastik. Springer Spektrum, Heidelberg.
Erdős, P., Rényi, A. (1961): On a Classical Problem
of Probability Theory. In: MTA Mat. Kut. Int. Kőzl.
6A, S. 215–220.
Fricke, A. (1984): Das stochastische Problem der
vollständigen Serie. In: Der Mathematikunterricht
30, S. 79–85.
Haake, H. (2006): Elementare Zugänge zum Problem
der vollständigen Serie. In: Stochastik in der Schule 26, S. 28–33.
Henze, N. (2013): Stochastik für Einsteiger. 10. Auflage: Verlag Springer Spektrum. Heidelberg.
Heuser, H. (1994): Lehrbuch der Analysis Teil 1, 11.
Auflage. B.G. Teubner, Stuttgart.
Heuser, H. (2004): Lehrbuch der Analysis Teil 2, 13.
Auflage. B.G. Teubner, Stuttgart.
Hofri, M. (1995): Analysis of Algorithms. Oxford
University Press, New York.
Jäger, J., Schupp, H. (1987): Wann sind alle Kästchen
besetzt? Oder: Das Problem der vollständigen Serie am Galton-Brett. In: Didaktik der Mathematik
15, S. 37
Löwe, M. (2008): Extremwertheorie. Lecture Note.
https://wwwmath.uni-muenster.de/statistik/loewe/
Newman, D.J,. Shepp, L. (1960): The double Dixie
Cup Problem. In: American Mathematics Monthly
67, S. 58–61.
Treiber, D. (1988): Zur Wartezeit auf eine vollständige Serie. In: Didaktik der Mathematik 16, S. 235–
237.
Anschrift des Verfassers:
Prof. Dr. Norbert Henze
Institut für Stochastik
Karlsruher Institut für Technologie (KIT)
Kaiserstr. 89–93
76131 Karlsruhe
[email protected]
9
Pareto-Einkommensverteilung
GERHARD KOCKLÄUNER, KIEL
auf Haushaltsnettoeinkommen beziehenden Tabelle 1. Haushaltsnettoeinkommen ergeben sich aus
den Haushaltsbruttoeinkommen, d. h. den gesamten
Einnahmen aller Mitglieder eines Haushaltes aus
Erwerbstätigkeit, Vermögen und eventuellen Transferzahlungen, indem davon sämtliche Steuern sowie
die Pflichtbeiträge zur Sozialversicherung abgezogen
werden.
Zusammenfassung: Nachfolgend wird die Einkommensverteilung in der Bundesrepublik Deutschland
über eine Pareto-Verteilung modelliert. Die ParetoVerteilung wird in Theorie und Empirie präsentiert.
Es zeigen sich einfache Darstellungen von zugehöriger Lorenz-Funktion und davon abhängigem GiniKoeffizienten. Die Modellanpassung erweist sich als
gut, die Einkommenskonzentration kann im Vergleich
zur Vermögenskonzentration noch als moderat beschrieben werden.
1
Rundungsbedingt ergeben die in Tabelle 1 aufgeführten Dezilanteile in der Summe nicht exakt 100 %.
Die 10 % Haushalte mit den niedrigsten Einkommen
erhalten nach Tabelle 1 nur einen Anteil von 3,7 %
an der Summe aller Haushaltsnettoeinkommen, die
10 % Haushalte mit den höchsten Einkommen verfügen dagegen über 23,1 % dieser Summe.
Einleitung
Das Einkommen, speziell das Haushaltsnettoeinkommen, ist in allen Ländern ungleich verteilt, wobei sich die Einkommenskonzentration durchaus von
Land zu Land unterscheidet (vgl. z. B. UNDP 2010,
S. 186 ff). Einen kondensierten Überblick hinsichtlich des jeweiligen Ausmaßes an Konzentration bzw.
Ungleichheit liefern, theoretisch wie empirisch, die
Lorenz-Funktion und der Gini-Koeffizient.
Die vorgenommene Anteilsberechnung beruht auf
Ergebnissen der 28. Befragung (Welle) des sozioökonomischen Panels (SOEPv28, Personen in Privathaushalten), durchgeführt vom Deutschen Institut für
Wirtschaftsforschung (DIW). Das sozioökonomische
Panel ist eine jährlich erfolgende repräsentative Wiederholungsbefragung von über 12000 Privathaushalten. Das weite Themenspektrum reicht dabei von der
Demographie über Einkommen und gegebenenfalls
auch Vermögen bis hin zur Bildung. Die hier betrachteten einzelnen Haushaltsnettoeinkommen sind dabei
gemäß OECD-Vorgaben äquivalenzgewichtet, d. h.
in jedem Haushalt bekommt der erste Erwachsene
das Gewicht 1, weitere Erwachsene sowie Kinder ab
14 Jahren das Gewicht 0,5, Kinder unter 14 Jahren
das Gewicht 0,3. So ergibt sich für einen 4-PersonenHaushalt bei zwei Erwachsenen und zwei Kindern,
beide unter 14 Jahren, die Gewichtssumme 2,1. Liegt
in diesem Haushalt nun das monatliche Nettoeinkommen bei z. B. 2100 €, wird dieser Haushalt so
bewertet, als ob alle Mitglieder über ein monatliches
Nettoeinkommen von jeweils 1000 € verfügten.
Die Modellierung von Einkommensverteilungen erfolgt traditionell durch eine Pareto-Verteilung oder
eine logarithmische Normalverteilung. Eine solche
Modellierung soll nachfolgend mit bundesdeutschen
Daten für das Jahr 2010 vorgenommen werden. Nach
der Vorstellung der betreffenden Einkommensdaten
wird, weil nur durch einen einzigen Parameter gekennzeichnet, die Pareto-Verteilung mit ihren speziellen Darstellungen für die Lorenz-Funktion und den
Gini-Koeffizienten in Theorie und Empirie präsentiert. Das Ergebnis zeigt neben einem im Vergleich
zur Vermögenskonzentration noch moderaten Ausmaß an Einkommenskonzentration eine gute Modellanpassung.
2
Daten
Die Bundeszentrale für politische Bildung (bpb)
veröffentlichte am 27.9.2013 die Angaben der sich
Dezil
1
2
3
4
5
6
7
8
9
10
Anteil
3,7
5,4
6,5
7,4
8,3
9,3
10,4
11,9
14,2
23,1
Tab. 1: Dezilanteile für das Haushaltsnettoeinkommen der Bundesrepublik Deutschland im Jahr 2010
www.bpb.de/nachschlagen/zahlen-und-fakten/soziale-situation-in-deutschland/61769/einkommensverteilung
10
Stochastik in der Schule 36 (2016) 1, S. 10–14
3
Pareto-Verteilung: Theorie
Die Pareto-Verteilung ist eine Wahrscheinlichkeitsverteilung für stetige Zufallsvariablen und wird traditionell zur Modellierung von Einkommensverteilungen genutzt. Für Y als Haushaltsnettoeinkommen und
y0 als kleinstes (positives) Haushaltsnettoeinkommen
ist die Verteilungsfunktion F der Pareto-Verteilung
durch
y
F(y) = 1 – __
y0
( )
–k
für k > 2 und y ≥ y0
(1)
definiert, die Dichtefunktion f als erste Ableitung von
F damit durch
y
k __
f(y) = __
y0 y0
( )
–k–1
für k > 2 und y ≥ y0
(2)
(Mood et al. 1974, S. 118). Gleichung (1) kennzeichnet Wahrscheinlichkeiten P(Y ≤ y) für Einkommen Y
von höchstens y. Da P(y – 1 ≤ Y ≤ y) mit steigendem
y sinkt, zeigen die Verteilungsfunktion F und die
Dichtefunktion f ein für Einkommensverteilungen typisches Bild. So treten empirisch höhere Einkommen
seltener als niedrige auf, was sich nach Gleichung (2)
in einem monoton fallenden Verlauf der Dichtefunktion f widerspiegelt.
Bei k > 2 als Vorgabe für den konstanten Parameter k
existieren der Erwartungswert E(Y) und die Varianz
V(Y), liegen diese doch bei
E(Y) =
∫
∞
y0
ky0
xf(x)dx = _____ und
k–1
ky20
V(Y) = _____ – E(Y)2
k–2
(3)
(Mood et al. 1974, S. 118). Der Erwartungswert aus
Gleichung (3) ist Bestandteil der nach Lorenz (1905)
benannten Funktion L, die eine Veranschaulichung
vorhandener Einkommenskonzentration ermöglicht.
Die Funktionswerte von L sind allgemein als – mit
dem minimalen Einkommen beginnend – kumulierte
Anteile von E(Y) (vgl. Gleichung (3)) definiert. D. h.
für die Stelle F(y), dass
1
L(F(y)) = ____
E(Y)
∫
y
y0
xf(x)dx für y ≥ y0
(4)
(Lambert 2001, S. 32).
Mit f(y) aus Gleichung (2) lässt sich L(F(y)) für eine
Pareto-Verteilung konkretisieren. Speziell ergibt sich
gemäß Gleichung (3) und Gleichung (4), aber analog auch für zur Pareto-Verteilung alternative Verteilungen, L(F(y0)) = 0 und L(F(∞)) = 1. Jede LorenzFunktion L ist damit selbst eine Verteilungsfunktion.
Bei F(y) = p, F–1 als Umkehrfunktion von F und somit F–1(p) = y kann Gleichung (4) aber nach Substitution auch als
1
L(p) = ____
E(Y)
∫
p
0
F–1(q)dq
(5)
geschrieben werden.
Wird nun nach Gleichung (1)
1
–__
F–1(p) = y0(1 – p) k für 0 ≤ p ≤ 1
(6)
bestimmt und Gleichung (6) in Gleichung (5) eingesetzt, ergibt eine einfache Integralrechnung für
L(0) = 0 und L(1) = 1 die von y0 unabhängige Lorenz-Funktionsgleichung der Pareto-Verteilung
L(p) = 1 – (1 – p)
1
1–__
k
für 0 ≤ p ≤ 1.
(7)
Gleichung (7) zeigt die Lorenz-Funktion der Pareto-Verteilung als einfach strukturierte Verteilungsfunktion. Gleichung (7) zeigt auch die allgemein für
Lorenz-Funktionen gültige Ungleichung L(p) ≤ p.
D. h. eine Lorenz-Funktion kann mit ihren Funktionswerten die Werte auf einer Winkelhalbierenden
nicht überschreiten. L(p) = p für alle p findet sich im
für Einkommensverteilungen unrealistischen Fall einer Ein-Punkt-Verteilung der Variable Y. Die Ungleichung L(p) < p ergibt sich für 0 < p < 1, wenn die Variable Y wie im Falle realer Einkommensverteilungen
unterschiedliche Werte annehmen kann. Ungleichheit
stellt damit eine Voraussetzung für vorhandene Konzentration dar.
Die Funktion L aus Gleichung (7) weist zudem bei
L' bzw. L" als erster bzw. zweiter Ableitung wegen
L'(p) ≥ 0 sowie L"(p) ≥ 0 den für alle Lorenz-Funktionen vorhandenen konvexen Verlauf auf. Für die
Pareto-Verteilung gilt speziell
1 (1 – L(p))
1 – __
k
______________
für p < 1.
(8)
L'(p) =
1–p
(
)
Aus Gleichung (8) ergibt sich folgende Interpretation
des Parameters k der Pareto-Verteilung: Bei F(y) = p
ist 1 – L(p) der Anteil von E(Y), der auf den Anteil
1 – p von Einkommen größer als y entfällt. Das für
diesen Anteil zu erwartende Einkommen liegt also
(1 – L(p))
für alle p < 1 bei ________
1 – p . Nach Gleichung (8) beträgt die Steigung der Lorenz-Funktion an der Stelle
1 -fache dieses zu erwartenden
p nun gerade das 1 – __
k
Einkommens (vgl. eine ausführliche Diskussion der
(Differenzial)gleichung (8) bei Kämpke et al. 2003).
(
)
11
Mit Hilfe der Lorenz-Funktion kann nun das Ausmaß
relativer Konzentration bzw. Ungleichheit für die
Verteilung von Y, also hier speziell des Haushaltsnettoeinkommens, auch quantitativ bestimmt werden.
Der für die Konzentrations- bzw. Ungleichheitsmessung üblicherweise genutzte Gini-Koeffizient G ist
allgemein als
G=2
∫
1
0
(p – L(p))dp = 1 – 2
∫
1
0
L(p)dp
(9)
definiert (Lambert 2001, S. 33). G erfasst als geometrisches Konzentrationsmaß in einem (p, L)-Koordinatensystem das Zweifache des Flächeninhalts
zwischen L(p) = p, d. h. dem Verlauf der LorenzFunktion im Fall ohne Konzentration, und der in der
Regel vorhandene Konzentration ausweisenden Lorenz-Funktion L (vgl. Gleichung (5)).
Einsetzen von Gleichung (7) in Gleichung (9) und
wiederum einfache Integralrechnung liefern für die
Pareto-Verteilung
1 .
G = ______
2k – 1
(10)
Nach Gleichung (10) hängt die Einkommenskonzentration gemäß Pareto ausschließlich vom Verteilungsparameter k ab.
4
Pareto-Verteilung: Empirie
Ein Vergleich von Kapitel 2 mit Kapitel 3 zeigt, dass
in Tabelle 1 die für eine empirische Bestimmung des
Parameters k einer Pareto-Verteilung erforderlichen
Daten vorliegen. Insbesondere sind die dort angegebenen Dezilanteile, in kumulierter Form, als kumulierte Anteile an der Summe aller Haushaltsnettoeinkommen auch kumulierte Anteile am arithmetischen
Mittel der betrachteten Haushaltsnettoeinkommen.
Sie bilden damit das empirische Gegenstück zu den
Funktionswerten einer Lorenz-Funktion.
Konkret bietet Tabelle 1 mit (pi , Li), i = 1, …, l = 10
und pi = 0,1i sowie Li als kumulierten Dezilanteilen,
also speziell L1 = 0,037, L2 = 0,037 + 0,054 = 0,091
usw. und rundungsbedingt L10 = 1,002 die Grundlage für einen Datensatz zur regressionsanalytischen
Berechnung des Verteilungsparameters k. Ergänzt
um den Punkt (p0 = 0, L0 = 0), ist dieser Datensatz in
der Abbildung 1 dargestellt. Diese zeigt mit den Variablenbezeichnungen p und l einen für vorhandene
Konzentration bzw. Ungleichheit charakteristischen
konvexen Verlauf. Werden die einzelnen Punkte aus
Abbildung 1 linear verbunden, ergibt sich der stückweise lineare Verlauf einer empirischen LorenzFunktion. Dieser findet sich als unterer Funktionsverlauf in Abbildung 3 unten.
12
Abb. 1: Kumulierte Dezilanteile (Daten)
Im Rahmen einer Regressionsanalyse ist nun speziell
die im Parameter k nichtlineare Lorenz-Funktion L
aus Gleichung (7) mit dem beschriebenen Datensatz
zu konfrontieren. Eine nichtlineare Regression wird
dafür aber nicht benötigt. Gleichung (7) kann linearisiert werden und zeigt sich in linearisierter Form als
(
)
1 ln(1 – p).
ln(1 – L(p)) = 1 – __
k
(11)
Gleichung (11) weist ln(1 – p) als unabhängige und
ln(1 – L(p)) als abhängige Variable aus. Dem entsprechen auf der Datenebene die Wertepaare (ln(1 – pi),
ln(1 – Li)), i = 1, …, n = 9. Der Fall l = 10, also
(p10 = 1, L10 = 1,002), muss offensichtlich ausgeschlossen werden. Ergänzt um den weiteren Punkt
(ln(1 – p0), ln(1 – L0)) sind diese Wertepaare in Abbildung 2 grafisch dargestellt.
Abb. 2: Transformierte kumulierte Dezilanteile (Daten)
In Abbildung 2 stehen die Bezeichnungen ltr und ptr
für die transformierten Variablen ln(1 – L(p)) bzw.
ln(1 – p). Im Gegensatz zu Abbildung 1 bietet Abbil-
dung 2 aber nun ein Punkt-Streudiagramm, zu dessen
modellbezogener Anpassung ein linearer Ansatz für
weite Bereiche (bis auf Punkte in der Nähe des Nullpunkts) angemessen erscheint (vgl. die Anpassungsdiskussion unten).
So kann für Gleichung (11) eine homogene lineare
1 als einzigem RegresRegressionsanalyse mit 1 – __
k
sionskoeffizienten erfolgen. Um k zu bestimmen, ist
für die gegebenen Daten die Summe von Quadraten
1 ln(1 – p ) i = 1, …,
der Residuen ln(1 – Li) – 1 – __
i
k
1
__
n = 9 bezüglich 1 – zu minimieren.
k
Wird eine solche Minimierung, z. B. mit einem Standard-Softwarepaket wie Excel oder SPSS durchgeführt, ergibt sich für die beschriebenen Daten
1 = 0,613 und damit k = 2,584.
1 – __
k
Einsetzen des ermittelten k-Wertes in Gleichung
(10) führt auf G = 0,240 ≤ 0,3 und damit ein im
Vergleich zu anderen Nationen und zur Vermögenskonzentration noch moderates Ausmaß an Einkommenskonzentration (vgl. unten). Die Korrelation
zwischen gegebenen und mit dem berechneten Wert
von k gemäß Gleichung (11) modellierten Werten
der Variable ln(1 – L(p)), also zwischen ln(1 – Li)
und 0,613 ln(1 – pi) für i = 1, …, n = 9, liegt zudem
bei 0,999 und deutet auf eine hervorragende Modellanpassung hin. Entsprechend sollten auch die über
Gleichung (7) modellierten kumulierten Dezilanteile
nahe bei denjenigen aus dem Datensatz liegen. Die
folgende Abbildung 3 zeigt – jeweils mit linearer
Verbindung und ergänzt um Randwerte – den Vergleich dieser Anteile.
(
)
Abb. 3: Kumulierte Dezilanteile (Daten und Modellierung)
Wie Abbildung 3 aber verdeutlicht, liegen die modellierten kumulierten Dezilanteile (vgl. die Bezeich-
nung (p, lm) mit dem Buchstaben m zur Modellkennzeichnung) in weiten Bereichen oberhalb der sich aus
den Daten ergebenden (vgl. (p, l)). Der Eindruck einer ausgezeichneten Modellanpassung wird dadurch
relativiert. Er wird entsprechend auch durch einen
Vergleich des nach Gleichung (10) berechneten Wertes von G mit dem Wert G = 0,271 getrübt, der sich
mit den beschriebenen Daten für das empirische Gegenstück zu Gleichung (9), d. h. für
G=1–
∑
l
1
(Li + Li–1) (pi – pi–1)
(12)
ergibt (vgl. Lambert 2001, S. 27). In Gleichung (12)
ist für i – 1 = 0 (p0 = 0, L0 = 0) zu setzen, im Beispiel
daneben rundungsbedingt L10 = 1,002. Wie Gleichung (12) zeigt, ergibt sich der empirische GiniKoeffizient, indem von Eins das Zweifache des Flächeninhalts zwischen der empirischen Lorenz-Kurve
und der p-Achse subtrahiert wird (vgl. die empirische
Lorenz-Funktion in Abbildung 3).
G = 0,271 liegt nahe bei dem in UNDP (2010, S. 186)
mit von Tabelle 1 abweichenden Daten für 2010 und
Deutschland ausgewiesenen Wert von G = 0,283; vergleiche dagegen ebendort für 2010 und Großbritannien
G = 0,360 sowie für die USA im selben Jahr G = 0,408.
Wie Spannagel & Seils (2014, S. 622) dokumentieren,
hat sich das Ausmaß der Konzentration der Haushaltsnettoeinkommen in Deutschland im Zeitablauf verändert. Es ist von 1991, damals lag der Gini-Koeffizient
bei G = 0,25, bis 2004 mehr oder weniger kontinuierlich auf das Niveau von G = 0,29 angestiegen, danach
auf das hier dokumentierte Niveau gesunken. Der in
diesem Beitrag untersuchten Einkommenskonzentration steht mit G = 0,78 für das Jahr 2012 in Deutschland aber ein entschieden größeres Ausmaß an Vermögenskonzentration bei den Nettovermögen gegenüber
(vgl. Grabka & Westermeier 2014). Deutschland weist
damit im internationalen Vergleich ein ausgesprochen
hohes Maß an Vermögensungleichheit auf.
Die Abweichung zwischen den beiden hier für die
Einkommenskonzentration in Deutschland gefundenen Werten des Gini-Koeffizienten erklärt sich
nach einer Residuenanalyse wie folgt: Bei homogenen Regressionen muss die Residuensumme nicht
notwendig Null betragen. So findet sich für die Residuen ln(1 – Li) – 0,613 ln(1 – pi), i = 1, …, n = 9,
der abhängigen Variable ln(1 – L(p)) aus Gleichung
(11): Ihre Mehrheit und auch die Summe ist positiv. Für die Residuen der abhängigen Variable L(p)
aus Gleichung (7) gilt stattdessen: Wie bereits Abbildung 3 zeigt, sind die dort ersichtlichen Residuen Li – (1 – (1 – pi)0,613), i = 1, …, n = 9 mehrheitlich
und auch in der Summe negativ. Letzteres bedeutet,
13
dass die modellierten Li-Werte die nach Tabelle 1
ermittelten tatsächlichen Li-Werte in der Regel, im
Beispiel für die ersten sieben Dezile, überschreiten.
Damit fällt das über den Gini-Koeffizienten erfasste
Ausmaß an Konzentration im gemäß Pareto modellierten Fall niedriger aus als im tatsächlichen. Ein genaueres Bild über die Residuenstruktur der Variable
L(p) liefert die folgende Abbildung 4.
Lorenz-Kurven angeht, gibt Chotikapanich (2008).
Darunter findet sich dann auch der Ansatz von Singh
& Maddala (1976), der eine dreiparametrige Erweiterung des Pareto-Ansatzes darstellend, gegenüber
diesem insbesondere für die ersten Dezile bessere
Anpassungen liefern kann.
Literatur
Chotikapanich, D. (Ed.) (2008): Modeling Income Distributions and Lorenz Curves. New York: Springer.
Grabka, M. M.; Westermeier, Ch. (2014): Anhaltend hohe
Vermögensungleichheit in Deutschland. DIW-Wochenbericht Nr. 9.2014.
Kämpke, T.; Pestel, R.; Radermacher, F. J. (2003): A Computational Concept for Normative Equity. In: European
Journal of Law and Economics Vol. 15, S. 129–163.
Lambert, P. J. (2001): The Distribution and Redistribution
of Income. Manchester: Manchester University Press.
Mood, A. et. al. (1974): Introduction to the Theory of Statistics. Tokyo: McGraw-Hill.
Singh, S. K.; G. S. Maddala (1976): A Function für the
Size Distribution of Incomes. In: Econometrica Vol. 44,
S. 963–970.
Abb. 4: Residuen bezüglich L(p)
In Abbildung 4 steht die Bezeichnung resl für die
Residuenvariable bezüglich L(p). Wie Abbildung 4
zeigt, weisen die dargestellten Residuen keine zufallsbehaftete, sondern eine deutlich nichtlineare Struktur
auf. Derartige Strukturen gelten in der Regressionsanalyse als Indiz für eine Fehlspezifikation.
Soll also auch für den Gini-Koeffizienten eine bessere Modellanpassung erfolgen, sind Alternativen zur
hier vorgestellten Pareto-Einkommensverteilung zu
betrachten.
Einen Überblick bezüglich entsprechender Ansätze,
speziell was mehrparametrige Modellierungen von
14
Spannagel, D.; Seils, E. (2014): Armut in Deutschland
wächst – Reichtum auch. WSI-Verteilungsbericht 2014.
In: WSI-Mitteilungen, S. 620–627.
UNDP (2010): Bericht über die menschliche Entwicklung
2010. Berlin: Deutsche Gesellschaft für die Vereinten
Nationen.
Anschrift des Verfassers
Gerhard Kockläuner
FB Wirtschaft
FH Kiel
Sokratesplatz 2
24149 Kiel
[email protected]
Der Satz von Bayes: Eine geschichtsträchtige Idee mit vielfältigen
Anwendungsmöglichkeiten
KATRIN WÖLFEL, ERLANGEN-NÜRNBERG
Zusammenfassung: Der Satz von Bayes ist eines der
bekanntesten Theoreme der Wahrscheinlichkeitstheorie. Wird er rein formal hergeleitet, gerät die ursprüngliche Problemstellung der Wahrscheinlichkeit
von Ursachen jedoch in den Hintergrund. Bei der Anwendung des Satzes zur Lösung vielfältiger Probleme
ist dieser Grundgedanke aber von großer Bedeutung.
Im Folgenden soll deshalb die intuitive Idee hinter
dem Theorem aus historischer Perspektive erörtert
und aufgezeigt werden, wie Fragen verschiedenster
Disziplinen dadurch „bayesianisch“ gelöst werden
können.
1
tung endlich vieler Ereignisse noch verallgemeinert
werden kann):
pr(A|B)pr(B)
pr(B|A) = ___________
pr(A)
Bei dieser formalen Herleitung des Satzes gerät dessen ursprüngliche Problemstellung, die auch heute
noch für vielerlei Anwendungen des Satzes von Bedeutung ist, ebenso wie der damalige stufenweise
Beweis dieses Theorems in den Hintergrund. Stone
(2013, S. 31) findet für diese Problematik folgende
treffende Worte:
„even though Bayes’ rule follows in a few lines of algebra from the rules of probability, no amount of staring
at the rules themselves will make Bayes’ rule obvious.
Perhaps if it were more obvious, Bayes and others
would not have had such trouble in discovering it, and
we would not expend so much effort in understanding
its subtleties.“
Einleitung
Jeder, der sich heute ein wenig mit Wahrscheinlichkeitstheorie beschäftigt, stößt schnell auf den sog.
Satz von Bayes, der häufig auch als „Formel“ oder
„Regel“ von Bayes bezeichnet wird und in diesem
Sinn im Hochschulbereich auch meist rein formal
notiert und hergeleitet wird (vgl. z. B. Koop 2003,
S. 1): Unter der Annahme, dass ein Ereignis A zuerst
eintritt, würde man die Wahrscheinlichkeit des Eintretens dieses Ereignisses A und eines weiteren Ereignisses B (pr(A 艚 B)) als Produkt der Wahrscheinlichkeit, dass A eintritt (pr(A)), und der Wahrscheinlichkeit, dass B eintritt unter der Bedingung, dass A
bereits eingetreten ist (pr(B|A)), mit Hilfe der ersten
Pfadregel berechnen, d. h.
pr(A 艚 B) = pr(A)pr(B|A).
(1)
Nimmt man hingegen an, dass B vor A eintritt, würde
sich pr(A 艚 B) berechnen lassen als
pr(A 艚 B) = pr(B)pr(A|B).
(2)
Da die linken Seiten der Gleichungen (1) und (2)
übereinstimmen, muss dies auch für die rechten Seiten gelten (da die zeitliche Präzedenz der Ereignisse
A und B für die Berechnung von pr(A 艚 B) irrelevant
ist):
pr(B|A)pr(A) = pr(A|B)pr(B)
(3)
Löst man (3) nach pr(B|A) auf, ergibt sich die als
Satz von Bayes bekannte Formel (die zur BetrachStochastik in der Schule 36 (2016) 1, S. 15–21
(4)
Neben der Tatsache, dass die Geschichte der Herkunft des Satzes von Bayes für sich selbst interessant ist, da es nicht sein Namensgeber Thomas Bayes
(1701–1761) selbst war, der die Bedeutung des Satzes erkannte und ihn deshalb bekannt machte (sondern dessen Freund Richard Price und später unabhängig davon Pierre Simon Laplace), offenbart diese
Geschichte die intuitive Idee hinter dem berühmten
Satz, die bei jeder modernen Anwendung des Satzes
bewusst sein sollte.
2
Grundidee des bayesianischen
Ansatzes
Im Zentrum der bayesianischen Idee steht die Frage nach der Wahrscheinlichkeit von Ursachen (engl.
probability of causes) bzw. die der „umgekehrten
Wahrscheinlichkeit“ (engl. inverse probability):
Wenn die Folge einer unbekannten Ursache bekannt
ist, was kann dann über die Wahrscheinlichkeit verschiedener möglicher Ursachen ausgesagt werden?
Gesucht wird also die Wahrscheinlichkeit einer von
n möglichen Ursachen Ci (i 僆 {1, …, n}) bei Kenntnis der Folge E: pr(Ci|E). Diese Situation der Unsicherheit besteht bei vielen Fragestellungen verschiedenster Disziplinen: Man beobachtet ein bestimmtes
Ereignis und möchte auf dessen Ursachen schließen
können. Die bayesianische Methode zur Lösung dieses Problems besteht darin, dass man zunächst eine
15
subjektive (möglicherweise sogar willkürliche) Vermutung über die Ursache abgibt („guess“, vgl. Bayes
und Price 1763, S. 392) und diese anschließend mit
Hilfe immer neuer (objektiver) Informationen aktualisiert, wodurch man eine korrigierte Vermutung
bekommt, die stets durch neue Informationen weiter
verbessert werden kann. Die Verbindung dieser intuitiven Herangehensweise mit dem dahinter stehenden
mathematischen Konzept wird deutlich, wenn man
die Entwicklung des Theorems genauer betrachtet.
3
Ursprung des Theorems bei Thomas
Bayes (1701–1791)
Heutiger Namensgeber des Satzes ist der Engländer Thomas Bayes (1701–1761), in dessen Werk der
Satz seinen Ursprung zu haben scheint. Bayes war
Amateur-Mathematiker. Auf Grund seiner Zugehörigkeit zur presbyterianischen Kirche hatte er keinen
Zugang zu englischen Universitäten, weshalb er in
Schottland (Edinburgh) Theologie und Mathematik
studierte, bevor er ca. 1722 durch seinen ebenfalls
geistlichen Vater zum Pastor ernannt wurde und als
solcher von da an in London und später in Tunbridge
Wells wirkte. Die einzige mathematische Veröffentlichung, die Bayes zu seiner Lebenszeit tätigte,
war anonym und stammt aus dem Jahre 1736 („An
Introduction to the Doctrine of Fluxions, and a Defence of the Mathematicians Against the Objections
of the Author of the Analyst“1). Darin verteidigte er
Newtons Ideen zur Infinitesimalrechnung und widersetzte sich damit George Berkeley (der der Autor des
„Analyst“ war). Zu Beginn der 1740er Jahre erlangte
Bayes zunehmend Respekt für seine mathematischen
Arbeiten und wurde deshalb 1742 in die „Royal Society“ in London aufgenommen, die zu dieser Zeit
eine Vereinigung von Amateur-Mathematikern war
und die Bayes die Möglichkeit bot, seine Ideen mit
anderen zu diskutieren und sich mathematisch weiter
zu entwickeln.2
Auf die Frage nach der Wahrscheinlichkeit von Ursachen wurde Bayes durch ein bekanntes Werk von
Abraham de Moivre aufmerksam, der „Doctrine of
Chances“, von der drei Auflagen in der Zeit zwischen
1718 und 1756 erschienen. Dort findet sich die Idee,
dass man die Ordnung des Universums möglicherweise durch Betrachtung verschiedener Naturphänomene erschließen könne (Moivre 1756, S. 252).
So versuchte Bayes diesem Problem in den 1740er
Jahren mit einem Gedankenexperiment näher zu
kommen: Eine Kugel wird auf einen quadratischen
Tisch geworfen. Nun stellt sich die Aufgabe, zu erschließen – ohne den Kugelwurf gesehen zu haben –,
16
an welcher Stelle des Tisches die Kugel gelandet ist.
Dazu wird eine weitere Kugel auf den Tisch geworfen, deren Position in Bezug zur ersten Kugel man
beobachten kann (d. h. man weiß, ob die zweite Kugel rechts oder links bzw. über oder unter der ersten
Kugel gelandet ist). Unter der Annahme, dass eine
Kugel mit gleicher Wahrscheinlichkeit an jeder Stelle
des Tisches auftreffen kann, kann man aus der Lage
der zweiten Kugel die der ersten Kugel etwas präzisieren: Liegt die zweite Kugel links (rechts) von der
ersten Kugel, ist es wahrscheinlicher, dass die erste
Kugel in der rechten (linken) Tischhälfte liegt. Das
Werfen weiterer Kugeln ermöglicht es, die Position
der ersten Kugel stets weiter auf diese Weise einzugrenzen. Somit kann man also mit Hilfe immer neuer
Beobachtungen (Positionen der geworfenen Kugeln)
nähere Aussagen über die Vergangenheit (die Position der ersten Kugel) treffen und diesen Aussagen
sogar Wahrscheinlichkeiten zuordnen. (Bayes und
Price 1763, S. 385–388; McGrayne 2011, S. 7 f.)
Dies sei an einem fiktivem Beispiel erläutert, das
zwar nicht schultauglich ist, aber die originäre bayesianische Idee verdeutlichen soll: Man nehme an,
Bayes’ Gedankenexperiment führt nach fünf Kugelwürfen (im Anschluss an den Wurf der ursprünglichen Kugel) zu folgendem Ergebnis:
• Erster Wurf: Kugel liegt rechts und oberhalb der
ursprünglichen Kugel.
• Zweiter Wurf: Kugel liegt links und oberhalb
der ursprünglichen Kugel.
• Dritter Wurf: Kugel liegt links und unterhalb der
ursprünglichen Kugel.
• Vierter Wurf: Kugel liegt links und oberhalb der
ursprünglichen Kugel.
• Fünfter Wurf: Kugel liegt links und unterhalb
der ursprünglichen Kugel.
Die Lage der ursprünglichen Kugel ist unbekannt.
Doch bieten die fünf anschließenden Kugelwürfe
Informationen über die relative Lage der ursprünglichen Kugel. Was kann man also daraus für die Position der ursprünglichen Kugel schließen, wenn man
bayesianisch argumentiert? Dazu sei angenommen,
dass die ursprüngliche Kugel a-priori genau in der
Mitte des Tisches liegt, dass eine Kugel mit gleicher
Wahrscheinlichkeit an jeder Stelle des quadratischen
Tisches aufkommen kann und die Kugeln jeweils
tatsächlich an einem festen Platz landen, nach dem
Wurf also nicht mehr weiterrollen.
Die a-priori-Annahme, dass die ursprüngliche Kugel
genau in der Mitte des Tisches gelandet ist, kann mit
Hilfe der Informationen aus den anschließenden fünf
Kugelwürfen aktualisiert werden: Da die anschließend geworfene Kugel bei vier der fünf Würfe links
der ursprünglichen Kugel aufgekommen ist, ist es
wahrscheinlicher, dass die ursprüngliche Kugel in
der rechten Hälfte des Tisches positioniert ist.
Stellt man sich ein Raster vor, das den Tisch von
links nach rechts in sechs gleich große Abschnitte
einteilt, würde man deshalb vermuten, dass die Kugel im zweiten Abschnitt von rechts liegt. Außerdem lässt die Beobachtung, dass die Kugel dreimal
oberhalb und zweimal unterhalb der ursprünglichen
Kugel gelandet ist, darauf schließen, dass diese eher
in der unteren Tischhälfte liegt. Betrachtet man wiederum eine Rastereinteilung des Tisches (in sechs
horizontale Streifen), würde man die ursprüngliche
Kugel deshalb im dritten Abschnitt von unten einordnen. Abb. 1 veranschaulicht die Aktualisierung der
a-priori-Vermutung durch neue Informationen bei
jedem weiteren Kugelwurf. Übersetzt man Bayes’
Ideen in die heutige übliche Formulierung, so entspricht die Wahrscheinlichkeit der ursprünglichen
bzw. ersten Vermutung über eine Ursache der sog.
a-priori-Wahrscheinlichkeit (engl. prior) prprior(Ci).
Die Wahrscheinlichkeit pr(E|Ci) ermöglicht die Aktualisierung der ursprünglichen Hypothese, da sie die
Wahrscheinlichkeit einer tatsächlichen Folge E unter
der Annahme, ihr läge eine bestimmte Ursache Ci zu
Grunde, beschreibt. Im Englischen wird hierfür der
Begriff Likelihood verwendet. Die Wahrscheinlichkeit der damit überarbeiteten Vermutung pr(Ci|E)
wird heute mit a-posteriori-Wahrscheinlichkeit (engl.
posterior) bezeichnet. Daraus lässt sich die Formel
prprior(Ci) · pr(E|Ci) ~ pr(Ci|E)
(5)
folgern (~ wird dabei als „proportional zu“ gelesen;
in der englischsprachigen Literatur wird meist ⬀ hierfür verwendet). Hierbei muss betont werden, dass in
Bayes’ Arbeit niemals eine Formel wie (5) erscheint.
Stattdessen verwendete er eine geometrische Betrachtung in der damals üblichen Schreibweise nach
Newton und formulierte obige Formel nie explizit.3
Bayes war sich wohl auch der Bedeutung dieser heute berühmten Aussage nie bewusst, denn er veröffentlichte seinen Aufsatz hierzu nicht, noch erwähnte er
darin irgendeine Anwendungsmöglichkeit des Satzes.
Dass der Ursprung des Theorems heute bekannt ist,
ist Richard Price (1723–1791) zu verdanken, der als
Freund Bayes’ nach dessen Tod dessen Aufzeichnungen fand, deren Potential erkannte und sie, ergänzt
durch eigene Anmerkungen, über die Royal Society
veröffentlichte. In „An Essay Towards Solving a
Problem in the Doctrine of Chances“ verlieh Price
Bayes’ Idee zudem eine religiöse Rechtfertigung,
nämlich „to confirm the argument taken from final
causes for the existence of the Deity“ (Bayes und
Price 1763, S. 374).
4
Obwohl er heute kaum explizit mit dem Satz von
Bayes in Verbindung gebracht wird, war es der
französische Mathematiker Pierre Simon Laplace
(1749–1827), der dem Theorem zu seinem eigentlichen Durchbruch verhalf.4 Laplace, der heute als
einer der berühmtesten Wahrscheinlichkeitstheoretiker gilt, war schon in jungen Jahren professioneller
Mathematiker und wurde so bereits 1773 im Alter
von 24 Jahren in die Académie des Sciences in Paris
aufgenommen (Hahn 2005, S. 41). Als er 1774 sei-
Der Verdienst von Pierre Simon
Laplace (1749–1827)
Abb. 1: Veranschaulichung von Bayes’ Gedankenexperiment: Vermutete Lage der unbekannten (zuerst geworfenen) Kugel nach je einem weiteren Kugelwurf (am Ende nach fünf weiteren Würfen)
17
ne „Mémoire sur la Probabilité des Causes par les
Événements“ veröffentlichte, wusste er höchstwahrscheinlich nichts von der Arbeit des Engländers Thomas Bayes’ (Gillispie et al. 1997, S. 16). Er schrieb
darin das Prinzip nieder, das als „erster Versuch“ der
heutigen Regel von Bayes angesehen werden kann:
„Si un événement peut être produit par un nombre n
de causes différentes, les probabilités de l’existence de
ces causes prises de l’événement sont entre elles comme les probabilités de l’événement prises de ces causes, et la probabilité de l’existence de chacune d’elles
est égale à la probabilité de l’événement prise de cette
cause, divisée par la somme de toutes les probabilités
de l’événement prises de chacune de ces causes“ (Laplace 1774, S. 29).
Dies kann (sinngemäß) wie folgt übersetzt werden:
„Wenn ein Ereignis n verschiedene Ursachen haben
kann, verhalten sich die Wahrscheinlichkeiten der Ursachen unter der Voraussetzung des Ereignisses untereinander wie die Wahrscheinlichkeiten des Ereignisses
unter Voraussetzung dieser Ursachen, und die Wahrscheinlichkeit jeder von ihnen ist gleich der Wahrscheinlichkeit des Ereignisses unter Voraussetzung der
Ursache geteilt durch die Summe aller Wahrscheinlichkeiten des Ereignisses unter Voraussetzung jeder dieser
Ursachen“
(Suite)“ (Laplace 1783–1786, S. 300 f.). Zu dieser
Zeit hatte Laplace wohl auch bereits Bayes’ Arbeit
kennengelernt, da Bayes in einem Vorwort zur „Mémoire sur les Probabilités“ von Condorcet erwähnt
wird (Gillispie et al. 1997, S. 16, 78), und Laplace in
sein Werk offensichtlich die ursprünglichen bayesianischen Ideen integrierte (Gillispie et al. 1997, S. 72).
Möglicherweise war der Aufenthalt von Richard Price in Paris im Jahre 1781 die Ursache der Verbreitung
von Bayes’ Arbeit unter den französischen Wissenschaftlern (McGrayne 2011, S. 23). Laplace’ Beweis
des Bayes-Theorems unter Annahme gleicher Wahrscheinlichkeiten für alle möglichen Ursachen, ist wie
folgt strukturiert: Ausgehend davon, dass sich die aposteriori-Wahrscheinlichkeit pr(Ci|E) gemäß der bereits bewiesenen (grundlegenden) Überlegungen der
Wahrscheinlichkeitstheorie berechnen lässt als
pr(Ci 艚 E)
(7)
pr(Ci|E) = _________ ,
pr(E)
können Zähler und Nenner des Bruches auf der rechten Seite von Gleichung (7) spezifiziert werden. Dazu
nimmt Laplace – wie bereits erwähnt – an, dass die apriori-Wahrscheinlichkeit jeder der möglichen n Ursachen 1/n ist (Laplace 1783–1786, S. 301). Deshalb
kann pr(Ci 艚 E) durch
In heutiger mathematischer Formulierung ergibt das
genau folgende Aussage:
1 pr(E|C )
pr(Ci 艚 E) = __
n
i
pr(E|Ci)
pr(Ci|E) = ____________
n
pr(E|Cr)
r=1
und pr(E) durch
∑
(6)
Im Unterschied zur heute bekannten (allgemeineren)
Formulierung unterstellte Laplace hier (implizit) die
Annahme, dass jede der n Ursachen gleich wahrscheinlich ist (andernfalls ist (6) keine wahre Aussage). Außerdem findet sich an dieser Stelle noch kein
Beweis dieser Aussage. Bemerkenswert ist weiterhin,
dass es Laplace war, der hier als erster den Begriff der
Wahrscheinlichkeit von Ursachen (franz. probabilité
des causes) verwendete – im Aufsatz von Bayes findet man diesen Begriff nicht. In Bayes’ Arbeit wird
die Idee der Wahrscheinlichkeit von Ursachen auch
hauptsächlich durch den von Price ergänzten Anhang
deutlich (Bayes und Price 1763, S. 405 f.; Dale 1982,
S. 29), wo dieser kurze Anwendungsbeispiele des
Satzes ergänzt. Doch gerade dieser Begriff der Wahrscheinlichkeit von Ursachen war es, der in späteren
Zeiten in viel Zwiespalt mündete (vgl. Abschnitt 5).
Ein erster Beweisversuch von (6) befindet sich in der
„Mémoire sur les Probabilités“ (Laplace 1778–1781,
S. 415–417), der vollständige Beweis folgt in der
späteren „Mémoire sur les Approximations des Formules qui sont Fonctions de Très Grands Nombres
18
pr(E) =
∑
n
r=1
1
__
n pr(E|Cr)
(8)
(9)
ausgedrückt werden. Werden (8) und (9) in (7) eingesetzt, folgt unmittelbar (6). (Laplace 1783–1786,
S. 300 f.).
Nach der Französischen Revolution (1789/99), während der die (Natur-)Wissenschaften sehr große Anerkennung erlangten, publizierte Laplace 1812 sein bekanntes Werk „Théorie Analytique des Probabilités“,
das eine Zusammenfassung seiner Hauptbeiträge zur
Wahrscheinlichkeitstheorie darstellt. Auch der Satz
von Bayes in der Fassung von Laplace (1774) bzw.
Laplace (1783–1786) ist darin enthalten (Laplace
1812, S. 177), jedoch nicht der Beweis des Allgemeinfalls. Erst 1814 in seinem „Essai Philosophique
sur les Probabilités“ verallgemeinerte er ihn zu der
uns heute bekannten Form, bei der die Ursachen apriori nicht gleichwahrscheinlich sein müssen:
„si ces diverses causes considérées à priori, sont inégalement probables; il faut au lieu de la probabilité de
l’événement, résultante de chaque cause, employer le
produit de cette probabilité, par celle de la cause ellemême“ (Laplace 1814, S. 18)
Sein wiederum nur in Worten formuliertes sechstes
Prinzip lässt sich daher wie folgt übersetzen und darstellen:
„wenn diese verschiedenen a-priori betrachteten Ursachen nicht gleichwahrscheinlich sind, muss man
anstelle der Wahrscheinlichkeit des Ereignisses, die
sich bei jeder Ursache ergibt, das Produkt dieser Wahrscheinlichkeit mit der Wahrscheinlichkeit der Ursache
selbst verwenden“
pr(E|Ci)prprior(Ci)
pr(Ci|E) = ___________________
n
pr(E|Cr)prprior(Cr)
r=1
∑
(10)
Das ist das uns heute als „Satz von Bayes“ bekannte
Theorem (vgl. (4)). Im Zentrum steht die Berechnung
der a-posteriori Wahrscheinlichkeit pr(Ci|E), d. h. der
Wahrscheinlichkeit einer bestimmten Ursache Ci ,
nachdem eine tatsächlich eingetretene Folge E bekannt ist. Zu deren Berechnung benötigt man eine
erste Einschätzung der Wahrscheinlichkeit von Ci ,
die sog. a-priori-Wahrscheinlichkeit prprior(Ci), die
Wahrscheinlichkeit des Eintretens von Folge E, sollte Ci tatsächlich Ursache davon sein (pr(E|Ci)), und
die Gesamtwahrscheinlichkeit einer derartigen Folge E (pr(E)), die sich als Summe der Eintrittswahrscheinlichkeiten von E unter allen möglichen, jeweils verschiedenen Ursachen Cr (r = 1, …, n) ergibt
pr(E) =
∑
n
r=1
pr(E|Cr)prprior(Cr).
Laplace formulierte die Regel nicht nur in moderner
Form und erbrachte deren Beweis, er zeigte auch
zahlreiche Anwendungsbeispiele dafür auf, die über
die Naturwissenschaften hinaus v. a. in den Bereich
der Sozialwissenschaften (Demographie und Justizwesen) reichten. Durch Laplace wurde die eigentliche Bedeutung und Nützlichkeit des Satzes von
Bayes erschlossen. Dementsprechend wäre es wohl
auch verdient gewesen, Laplace als Namensgeber
des Satzes zu würdigen. Allerdings gab dieser öffentlich in seinem Aufsatz von 1814 zu, dass es Thomas
Bayes war, der die Grundidee dazu bereits vor ihm
hatte (Laplace 1814, S. 186). Doch selbst daran gibt
es Zweifel. So schreibt Stigler (1983) von einem
Buch mit dem Titel „Observations on Man“ von David Hartley aus dem Jahr 1749, in dem ein „erfinderischer Freund“ erwähnt wird, der die Lösung des
„inversen Problems“ gefunden habe. Stiglers Suche
dieses nicht beim Namen genannten Freundes ergibt,
dass neben Bayes auch Nicholas Saunderson dafür
in Frage kommen und damit auch der Urheber des
Satzes von Bayes sein könnte.
5
Das bayesianische Konzept
in der Kritik
In den Jahrhunderten nach Laplace wurde die bayesianische Idee zu einem Streitpunkt, an dem sich die
Geister vieler Wissenschaftler schieden.5 Das liegt
v. a. daran, dass bald zwei Ansätze unterschieden
wurden, die – obwohl von Laplace ursprünglich als
vereinbar und äquivalent beschrieben (McGrayne
2011, S. 36) – als streng gegensätzlich interpretiert
wurden: Dem bayesianischen Konzept steht das „frequentistische“ Konzept (engl. frequentist, abgeleitet
von „frequency“ (Häufigkeit)) gegenüber. Gemäß
dem frequentistischen Ansatz werden Wahrscheinlichkeiten grundsätzlich aus der Häufigkeit, mit der
ein bestimmtes Ereignis in einer großen Grundgesamtheit auftritt, abgeleitet. Eine Wahrscheinlichkeit pr(E|Ci) wird demnach bestimmt, indem eine
Stichprobe betrachtet wird und mithilfe der asymptotischen Theorie (in deren Mittelpunkt Theoreme
wie der zentrale Grenzwertsatz und das Gesetz der
großen Zahlen stehen) von der Häufigkeit des Auftretens des Ereignisses E unter der Bedingung Ci in
der Stichprobe die allgemeine Wahrscheinlichkeit
gefolgert wird. Im frequentistischen Ansatz werden
bedingte Wahrscheinlichkeiten stets auf diese Art
betrachtet, während der bayesianschen Sichtweise
der Wahrscheinlichkeiten von Ursachen pr(Ci|E) viel
Skepsis entgegen gebracht wird. Frequentisten stoßen sich v. a. an der subjektiven a-priori-Vermutung,
die Bayesianer verwenden und die der für gewöhnlich objektiven mathematischen Herangehensweise
zu widersprechen scheint. So kann man sich beispielsweise im oben beschriebenen fiktiven Beispiel
zu Bayes’ Gedankenexperiment fragen, warum man
ohne weitere Überlegung zunächst davon ausgeht,
dass die Kugel genau in der Mitte des Tisches gelandet ist. Wäre es nicht genauso gut möglich, anzunehmen, dass sie z. B. am rechten Tischrand liegt
und würde das die folgende bayesianische Argumentation nicht entscheidend beeinflussen? Bayesianer entgegnen dem, dass zum Einen a-priori-Wahrscheinlichkeiten häufig durch relative Häufigkeiten
(d. h. frequentistisch) gewählt werden können (vgl.
Schlussbeispiel). Zum Anderen bietet die Wahl einer
beliebigen a-priori-Wahrscheinlichkeit (für den Fall,
dass keinerlei begründete Vermutung möglich ist) einen Startpunkt zur Bestimmung der Wahrscheinlichkeit einer Ursache, was rein frequentistisch schlicht
unmöglich wäre. Zudem mindert eine genügend umfangreiche Aktualisierung der a-priori-Wahrscheinlichkeit – zur besseren Vorstellung sei wieder auf das
Kugelbeispiel verwiesen – mit frequentistischen Mit-
19
teln (zur Bestimmung von Wahrscheinlichkeiten der
Art pr(E|Ci)) die Gewichtung der anfänglichen Vermutung in der zu bestimmenden a-posteriori-Wahrscheinlichkeit. Hier wird der von Laplace postulierte
ergänzende Charakter der beiden so häufig als gegensätzlich beschriebenen Ansätze deutlich.
Die Ökonometrie (empirische Wirtschaftsforschung)
stellt ein typisches Beispiel für eine ganze Wissenschaftsdisziplin dar, in der die Trennung zwischen
klassischer (d. h. frequentistischer) und bayesianischer Ökonometrie sehr ausgeprägt ist. Während die
klassische Regressionsanalyse vielen geläufig ist, bedarf das bayesianische Konzept noch zunehmender
Akzeptanz. Qin (1996) gibt eine knappe Übersicht
über die Entwicklung der bayesianischen Ökonometrie, aus der hervorgeht, dass das Potenzial dieses
Konzeptes erst in den 1950ern entdeckt wurde (vgl.
z. B. Marschak 1954), in den 1960ern in erste Versuche umgesetzt wurde (vgl. z. B. Raiffa und Schlaifer
1961), bevor 1971 das erste Lehrbuch zur bayesianischen Ökonometrie von A. Zellner herausgegeben
wurde („An Introduction to Bayesian Inference in
Econometrics“). Die grundlegendste Anwendung des
Satzes von Bayes in der Ökonometrie besteht darin,
die Parameter eines Regressionsmodells zu schätzen,
doch kann die bayesianische Idee auch in komplexeren Zusammenhängen, wie z. B. der bayesianischen
Modell-Mittelung, eingesetzt werden (vgl. Wölfel
2014 für eine knappe Schilderung dieses Konzepts).
Auch hier können frequentistische und bayesianische
Ökonometrie stets als gegenseitige Ergänzung betrachtet werden (anstelle der üblichen gegenpoligen
Sichtweise).
6
Schlussbeispiel und Fazit
Um die Idee des Satzes von Bayes vor dem historischen Hintergrund schultauglich zu veranschaulichen, sei mit einer typischen Fragestellung abgeschlossen:
Von einem bestimmten Drogentest ist bekannt, dass er
im Durchschnitt bei 95 von 100 Personen, die tatsächlich Drogen konsumiert haben, ein richtiges (d. h. positives) Testergebnis liefert. Wendet man ihn hingegen
auf Personen an, die nicht unter Drogeneinfluss stehen,
zeigt er mit 99-prozentiger Wahrscheinlichkeit ein
richtiges (d. h. negatives) Testergebnis. In Deutschland
konsumiert jeder hundertste Jugendliche regelmäßig
Drogen. Wie hoch ist die Wahrscheinlichkeit, dass ein
Jugendlicher, der positiv auf Drogen getestet wurde,
tatsächlich unter Drogeneinfluss steht?
In diesem Szenario lassen sich zwei (sich gegenseitig ausschließende) Ursachen identifizieren: „der
20
Jugendliche hat Drogen genommen“ (C1) und „der
Jugendliche hat keine Drogen genommen“ (C2). Die
Folge E, die hier betrachtet wird, ist ein positives
Ergebnis des Drogentests. Um den Satz von Bayes
(Gleichung (10)) anzuwenden, müssen die a-prioriWahrscheinlichkeiten der Ursachen und die Likelihoods spezifiziert werden. Für die a-priori-Wahrscheinlichkeiten der Ursachen gilt prprior(C1) = 0,01
und prprior(C2) = 0,99; für die Likelihoods gilt
pr(E|C1) = 0,95 und pr(E|C2) = 1 – 0,99 = 0,01. Für
die gesuchte Wahrscheinlichkeit pr(C1|E) ergibt sich
deshalb gemäß (10):
pr(E|C1)prprior(C1)
pr(C1|E) = _______________________________
pr(E|C1)prprior(C1) + pr(E|C2)prprior(C2)
0,95 · 0,01
pr(C1|E) = ____________________
0,95 · 0,01 + 0,01 · 0,99 ≈ 0,4897
Das bedeutet, dass ein positiv auf Drogen getesteter
Jugendlicher nur mit einer Wahrscheinlichkeit von
ca. 49 Prozent tatsächlich unter Drogeneinfluss steht
– ein im ersten Moment wohl verblüffendes Ergebnis, wenn man von der zunächst hoch erscheinenden
Zuverlässigkeit des Drogentests (95 bzw. 99 Prozent)
ausgeht.
Das Bayes-Theorem, dessen Ursprung in der Arbeit von Thomas Bayes zu liegen scheint, dessen
moderne Form mit vielerlei Anwendungsbeispielen
jedoch auf Pierre Simon Laplace zurückgeht, löst
so eine Problemstellung, die in verschiedensten Bereichen und Disziplinen auftritt: Wie kann man von
Beobachtungen in der Realität auf deren Ursachen
schließen (wenn verschiedene Ursachen als möglich
erachtet werden)? Die Betrachtung der Wurzeln des
Theorems zeigt die intuitive Lösungsmethode dieses
„inversen Problems“: Ausgehend von einer anfänglichen a-priori-Vermutung wird diese anhand immer
neuer Beobachtungen des Eintretens bestimmter Ereignisse unter bestimmten Bedingungen aktualisiert
und so schließlich eine a-posteriori Wahrscheinlichkeit ermittelt. Diese ursprüngliche Idee bleibt bei der
rein formalen Anwendung der Formel verborgen, ermöglicht aber einen interessanten Zugang zur bayesianischen Perspektive, die eine wichtige Ergänzung
des frequentistischen Ansatzes darstellt.
Anmerkungen
1
Für genauere Erläuterungen zu dieser Veröffentlichung vgl. Dale 2003, S. 182–257.
2
Für eine genauere Analyse des Lebens von Thomas
Bayes vgl. Dale 2003, S. 37–100.
3
4
5
Bayes selbst formulierte diese Regel als „Proposition
10“ in seinem Aufsatz, vgl. Bayes und Price 1763,
S. 394; Dale 1982, S. 27. Wiederum sei für eine ausführliche Untersuchung des Aufsatzes von Bayes und
Price auf Dale 2003, S. 258–369, verwiesen.
Für eine ausführliche Dokumentation über das Leben
Laplace’, seiner Ansichten und seiner Rolle in der Gesellschaft vgl. Hahn 2005.
Für eine übersichtliche Diskussion hierzu vgl. McGrayne 2011, S. 34–58.
Literatur
Bayes, Thomas; Price, Richard (1763): An Essay Towards
Solving a Problem in the Doctrine of Chances. In: Philosophical Transaction of the Royal Society of London
(H.53), S. 370–518.
Dale, Andrew I. (1982): Bayes or Laplace? An Examination of the Origin and Early Applications of Bayes’ Theorem. In: Archive for History of Exact Sciences 27(1),
S. 23–47.
Dale, Andrew I. (2003): Most Honourable Remembrance – The Life and Work of Thomas Bayes. New York
(u. a.): Springer.
Gillispie, Charles Coulston; Fox, Robert; Grattan-Guinness, Ivor (1997): Pierre-Simon Laplace – 1749–1827
– A Life in Exact Science. Princeton, NJ: Princeton
University Press.
Hahn, Roger (2005): Pierre-Simon Laplace – 1749–1827
– A Determined Scientist. Cambridge, MA (u. a.): Harvard University Press.
Koop, Gary (2003): Bayesian Econometrics. Chichester:
Wiley.
Laplace, Pierre Simon (1774): Mémoire sur la Probabilité
des Causes par les Événements. In: Œuvres Complètes
de Laplace (1878–1912). Bd. 8. Paris: Gauthier-Villars
et Fils, S. 27–65.
Laplace, Pierre Simon (1778–1781): Mémoire sur
les Probabilités. In: Œuvres Complètes de Laplace
(1878–1912). Bd. 9. Paris: Gauthier-Villars et Fils,
S. 383–485.
Laplace, Pierre Simon (1783–1786): Mémoire sur les Approximations des Formules qui sont Fonctions de Très
Grands Nombres (Suite). In: Œuvres Complètes de La-
place (1878–1912). Bd. 10. Paris: Gauthier-Villars et
Fils, S. 296–338.
Laplace, Pierre Simon (1812): Théorie Analytique des
Probabilité. Paris: Courcier.
Laplace, Pierre Simon (1814): Essai Philosophique sur les
Probabilités. Paris: Courcier.
Marschak, Jacob (1954): Probability in the Social Sciences. Cowles Foundation Paper (H.82), S. 166–215.
McGrayne, Sharon Bertsch (2011): The Theory that Would
Not Die – How Bayes’ Rule Cracked the Enigma Code,
Hunted Down Russian Submarines & Emerged Triumphant from Two Centuries of Controversy. New Haven/
London: Yale University Press.
Moivre, Abraham de (1756): The Doctrine of Chances –
Or, a Method of Calculating the Probabilities of Events
in Play. 3. Aufl., London: A. Millar.
Qin, Duo (1996): Bayesian Econometrics: The First Twenty Years. In: Econometric Theory 12(3), S. 500–516.
Raiffa, Howard; Schlaifer, Robert (1961): Applied Statistical Decision Theory. Boston: Division of Research,
Graduate School of Business Administration, Harvard
University.
Stigler, Stephen M. (1983): Who Discovered Bayes’s
Theorem? In: The American Statistician 37(4),
S. 290–296.
Stone, James V. (2013): Bayes’ Rule: A Tutorial Introduction to Bayesian Analysis. S. l.: Sebtel Press.
Wölfel, Katrin (2014): Bayesianische Modell-Mittelung
– Eine Möglichkeit zur Modellierung von Modellunsicherheit. In: Wirtschaftswissenschaftliches Studium
43(3), S. 159–161.
Zellner, Arnold (1971): An Introduction to Bayesian Inference in Econometrics. Malabar, FL: Krieger.
Anschrift der Verfasserin
Katrin Wölfel
Institut für Wirtschaftswissenschaft
(Institute of Economics)
Friedrich-Alexander-Universität Erlangen-Nürnberg
Kochstr. 4 (17)
91054 Erlangen
[email protected]
21
Stochastische Simulationen mit TinkerPlots –
Von einfachen Zufallsexperimenten zum informellen Hypothesentesten
ROLF BIEHLER, DANIEL FRISCHEMEIER & SUSANNE PODWORNY, PADERBORN
Zusammenfassung: Die Software TinkerPlots ist
eine dynamische Datenanalyse- und Simulationssoftware, die im Mathematikunterricht für den Einsatz in
den Klassenstufen 3 bis 10 vorgesehen ist. Mit ihrer
einfach zu benutzenden Zufallsmaschine bietet sie
ein anschauliches Werkzeug zum Modellieren und Simulieren von stochastischen Zufallsexperimenten. In
diesem Artikel soll das Potential der Zufallsmaschine
exemplarisch anhand einiger Beispiele entlang der
einzelnen Klassenstufen gipfelnd in der Hinführung
zu Grundgedanken des Hypothesentestens (am Beispiel des „Hörtests“) am Ende der Jahrgangsstufe
10 vorgestellt werden.
1
Einleitung
Die Wahrscheinlichkeitsrechnung ist neben der Datenanalyse und der beurteilenden Statistik ein elementarer Teil des Stochastikunterrichts der Sekundarstufen I und II. Sie gewinnt im Laufe der Schuljahre
zunehmend an Umfang (Kaun 2006). Eine Erklärung
dafür kann sein, dass die Modellierung, das Konstruieren des Ergebnisraums sowie das Berechnen
günstiger bzw. möglicher Fälle eine hohe Herausforderung u. a. an die kombinatorischen Fähigkeiten der
Lernenden stellt. Mit Hilfe von computergestützten
Simulationen können für Schülerinnen und Schüler
interessante Aufgaben zugänglich gemacht werden,
die zu diesem Zeitpunkt (noch) nicht mit Mitteln
der Schulmathematik behandelt werden können.
Zusätzlich können verschiedene Inhalte von Stochastikunterricht (frequentistische Interpretation des
Wahrscheinlichkeitsbegriffs, Durchführen ein- und
mehrstufiger Zufallsexperimente, informelles Hypothesentesten) vertieft und somit stärker durchdrungen
werden (detaillierter nachzulesen in Biehler & Maxara 2007). Um den Hintergrund von Simulationen
verstehen und die Ergebnisse von Simulationen korrekt deuten zu können, sollte frühzeitig im Unterricht
das__empirische Gesetz der großen Zahlen sowie das
1/√ n -Gesetz (zumindest in Form von „Faustformeln“) thematisiert werden (ebenda). Im Falle eines
einfachen Bernoulli-Experiments mit der Erfolgswahrscheinlichkeit p = 0,5 (z. B. Werfen einer fairen
Münze) hat man beispielsweise die in Tab. 1 angegebenen Faustformeln für die zu erwartende relative Häufigkeit in Abhängigkeit von der Wiederholungsanzahl n mit einer Sicherheit von 95 %. Führt
man den Münzwurf beispielsweise 1000 Mal durch,
22
so liegt die relative Häufigkeit für Wappen mit einer Wahrscheinlichkeit von 95 % im Intervall [0,47;
0,53] (95 %-Prognoseintervall). Umgekehrt erhält
man für einen Versuch mit 1000 Wiederholungen, bei
dem als relative Häufigkeit 0,4 aufgetreten ist, das
95 %-Konfidenzintervall [0,37; 0,43] für die unbekannte Wahrscheinlichkeit p (vgl. Biehler, Hofmann,
Maxara und Prömmel 2011, S. 50).
Wiederholungsanzahl
n
Abweichung
von relativen
Häufigkeiten und
Wahrscheinlichkeiten
in Prozentpunkten
50
± 14 %
100
± 10 %
1000
±3%
5000
± 1,5 %
10000
±1%
Tab. 1: Faustformeln zur Genauigkeit von Simulationen: Radius des 95 %-Prognose- und des 95 %Konfidenzintervalls in Abhängigkeit von der Wiederholungszahl n
Diese Faustformeln können den Lernenden an die
Hand gegeben werden. Erstens sollen sie dazu dienen, die Genauigkeit der Simulationen einzuschätzen
und zweitens den Lernenden bewusst nahelegen, auf
eine genügend große Wiederholungsanzahl zu achten1.
Unterrichtsvorschläge zu Simulationen werden oft
mittels eines Tabellenkalkulationsprogramms (wie
Excel), GeoGebra oder CAS realisiert. Dabei überwiegt häufig die technische Komponente, da die jeweiligen Programme ein hohes Maß an Formelkenntnis erfordern. Während sich ohne Simulation das
Problem der „Verschleierung“ des mathematischen
Phänomens aufgrund der Kombinatorik stellt, kann
bei Simulationen ein anderes Problem auftreten: Verschleierung des Phänomens durch Technik, bzw. eine
zu spezifische Formel- oder Programmiersprache,
die in der jeweiligen Software notwendig ist, um das
Modell aufzustellen, die Simulation durchzuführen
und/oder die Simulation auszuwerten. Die Software
TinkerPlots (Konold & Miller 2011) mit ihrer integrierten Zufallsmaschine bietet eine Modellierung
von Zufallsexperimenten fast ohne Formeln und
Stochastik in der Schule 36 (2016) 1, S. 22–27
Programmierkenntnisse an und visualisiert darüber
hinaus den Simulationsprozess. So können Lernende
mit TinkerPlots die Simulationen selbst modellieren
und erstellen. Dabei kann die Bedienung der Software häufig sehr intuitiv erfolgen, denn TinkerPlots
stellt bei der Modellierung von Zufallsexperimenten
keine „Blackbox“ dar, wenn man einmal von der Erzeugung von Zufallszahlen absieht.
2
den Merkmalsnamen platziert wird. Die Ergebnisse
der Simulation werden automatisch in einer Tabelle
dokumentiert. Die Geschwindigkeit der Ziehungen
kann per Regler variiert werden. Besonders die Einstellung einer langsamen oder mittleren Geschwindigkeit ermöglicht es dem Lernenden, die Prozesse
bei der Ziehung nachzuvollziehen.
Die Software TinkerPlots und
ihre Zufallsmaschine
Die Software TinkerPlots wurde in den USA für den
Mathematikunterricht in den Klassen 3–10 entwickelt und bietet mit der Zufallsmaschine ein mächtiges Tool zum Simulieren von Zufallsexperimenten.
Möglichkeiten für den Einsatz in der Schule werden
in Biehler (2007) und Biehler et al. (2013) beschrieben. Einsatzmöglichkeiten der Software im Rahmen
der Lehreraus- und -fortbildung können in Frischemeier & Podworny (2014) nachgelesen werden. Die
Autoren dieses Artikels haben eine noch unveröffentlichte deutsche Version erstellt, mit der bereits
mehrere Unterrichtsversuche an Schule und Hochschule durchgeführt wurden. Eine Besonderheit gegenüber anderer Software wie z. B. Fathom (Biehler
et al. 2006) oder Tabellenkalkulationsprogrammen
wie Excel ist, dass in TinkerPlots praktisch keine
Formeln oder Programmierkenntnisse beim Durchführen einer Simulation (weder in der Modellierung,
noch in der Durchführung oder Auswertung) von Nöten sind. Ein stochastisches Modell, das mental mit
Urnen, Boxen oder Glücksrädern formuliert wurde,
kann quasi direkt in die Zufallsmaschine übertragen
werden, wodurch TinkerPlots zum expressiven Medium wird. Wir stellen die wichtigste („Simulations-“)
Komponente der Software, die oben bereits erwähnte Zufallsmaschine, kurz vor: Per Drag & Drop lässt
sich die Zufallsmaschine einfach in die Arbeitsfläche
der Software ziehen. Mit den verschiedenen Bauteilen (Box, Stapel, Kreisel, Balken, Kurve und Zähler)
lassen sich sehr viele Zufallsexperimente direkt realisieren. In der Grundeinstellung ist die Box als Urne
mit drei Kugeln gegeben (Abb. 1). Die Box repräsentiert die Ziehung aus einer Urne. Es können Kugeln
in beliebiger Anzahl hineingelegt, individuell beschriftet und die Ziehung mit oder ohne Zurücklegen
durchgeführt werden. Außerdem können Einstellungen wie die Anzahl der Wiederholungen pro Simulationsdurchlauf (Durchgänge, max. 100.000) und die
Anzahl der Ziehungen (Ziehungen pro Durchgang,
max. 100) vorgenommen werden. Die Ziehung selbst
wird in TinkerPlots visualisiert als Durcheinanderwirbeln der Kugeln bis schließlich eine oben unter
Abb. 1: Die Zufallsmaschine von TinkerPlots in der
Grundeinstellung
Schauen wir uns dieses am bekannten Beispiel des
doppelten Würfelwurfs unter der folgenden Fragestellung an: „Jemand bietet Dir ein Würfelspiel an.
Dazu sollen zwei Würfel gleichzeitig geworfen und
die Augensumme gezählt werden. Du darfst Dir vorher aussuchen, ob Du mit den Augensummen 5, 6,
7, 8 (Ereignis A) oder mit allen übrigen Augensummen (Ereignis B) gewinnen möchtest. Begründe, ob
Du eine der beiden Gewinnmöglichkeiten bevorzugen würdest.“ (Müller, 2005). Selbst wenn man mit
einfachen kombinatorischen Überlegungen zu einer
Entscheidung kommt, so gibt es im Unterricht oft
mindestens zwei Argumentationslager, eines davon
hält die beiden Würfel für nicht unterscheidbar. Eine
Simulation kann zu einer Entscheidung über konkurrierende Modelle beitragen. Wir zeigen, wie diese
Simulation in TinkerPlots zu realisieren ist. Dazu
bilden wir den doppelten Würfelwurf als Urnenziehung ab. Sechs Kugeln, beschriftet mit den Zahlen
von „1“ bis „6“, liegen in einer Box2 (siehe Abb. 2,
links) und es wird je Durchgang zweimal aus der
Box mit Zurücklegen gezogen. Insgesamt führen
wir 10000 Durchgänge aus. TinkerPlots dokumentiert automatisch die Ergebnisse für jeden Durchgang
zeilenweise in einer Tabelle (Abb. 2, mittig). Mit einem vordefinierten Befehl („Summe in ,Gesamt‘“)
ermittelt die Software zeilenweise die Zufallsgröße
23
„Augensumme“ (Abb. 2, mittig, rechte Spalte in der
Tabelle). Mithilfe eines Graphen (Abb. 2, rechts)
kann die Verteilung der Zufallsgröße „Summe“ z. B.
in Form eines Säulendiagramms dargestellt werden.
Sogenannte „Einteiler“ (grau hinterlegter Bereich in
Abb. 2, rechts) ermöglichen die freie Auswahl eines
Intervalls einer Verteilung und die Ermittlung der
Anzahlen und Anteile der Fälle in diesem Intervall,
hier eine relative Häufigkeit für das Ereignis A von
ca. 55 %. Da die Simulation sehr häufig (mehr als
1000 Durchgänge) durchgeführt wurde, können wir
anhand der relativen Häufigkeiten zu den einzelnen
Ausprägungen der Zufallsgröße „Summe“ die Wahrscheinlichkeit für das Ereignis „A“ auf 55 % und die
Wahrscheinlichkeit für das Eintreten des Ereignisses
„B“ auf 45 % schätzen. Somit ist es günstiger, auf
das Ereignis A zu setzen. Schülerinnen und Schüler
könnten sich kritisch fragen, wie genau die relative
Häufigkeit von 55 % die gesuchte Wahrscheinlichkeit schätzt. Durch mehrfaches Wiederholen von
10000 Durchgängen bekommt man ein Gefühl für
die Schwankung. Es erscheint relativ sicher, dass die
Wahrscheinlichkeit über 50 % liegt. Um die Notwendigkeit größerer Durchgangszahlen zu motivieren,
kann man auch erstmal 50 Durchgänge machen, um
zu erleben, wie unsicher die Beurteilung auf dieser
Basis ist. Hat man den Lernenden Faustregeln zur
Genauigkeit von Simulationen an die Hand gegeben,
(bei 10000 Durchgängen ist die Genauigkeit nach
den Faustformeln ± 1 Prozentpunkt (mit 95 % Sicherheit)), so kann man auch hieraus schließen, dass A
günstiger ist als B.
3
Beispiele
Wir betrachten nun zwei weiterführende Beispiele:
das Augensummenproblem beim dreifachen Würfelwurf nach de Méré aus den Anfangszeiten der Wahrscheinlichkeitsrechnung sowie den Hörtest als Einstieg in das informelle Hypothesentesten.
3.1 Dreifacher Würfelwurf: De Méré
Hat man das oben formulierte Einstiegsproblem gelöst, so kann man nun beispielsweise mit dem dreifachen Würfelwurf fortfahren. Während das Einstiegsproblem noch relativ elementar anhand der Berechnung der Wahrscheinlichkeiten für die Ereignisse „A“
und „B“ (ohne große kombinatorische Fähigkeiten)
lösbar ist, wird das beim dreifachen Würfelwurf aufgrund der sechs Mal so großen Ergebnismenge schon
erheblich schwieriger. Ein bekanntes historisches
Problem von Chevalier de Méré ist, ob beim dreifachen Würfelwurf das Auftreten der Augensumme 11
wahrscheinlicher als das Auftreten der Augensumme
12 ist, obwohl es scheinbar gleich viele Kombinationsmöglichkeiten für beide Augensummen gibt3.
Diese Frage lässt sich mit etwas Vorbereitung ab
Klasse sechs behandeln. Es können erste Vorüberlegungen zu Kombinationsmöglichkeiten von drei
Würfeln auf die entsprechenden Augensummen im
Unterricht gemeinsam thematisiert werden. Dabei
kann die Reihenfolge der einzelnen Würfelergebnisse von Schülern entweder als relevant oder als irrelevant eingeschätzt werden und somit Auslöser einer
Diskussion sein. Diese Diskussion kann, nachdem
im Unterricht das Zufallsexperiment auch händisch
durchgeführt wurde, Anlass für die Beantwortung des
Problems mithilfe einer Simulation in TinkerPlots
sein. Der Würfelwurf lässt sich wieder durch sechs
Kugeln (beschriftet mit „1“ bis „6“) in der Box (siehe
Abb. 3, links) realisieren. Es sind drei Ziehungen pro
Durchgang zur Modellierung des dreifachen Werfens
nötig und für eine möglichst hohe Genauigkeit (Abweichungen nach den Faustformeln ≤ 1 %) werden
10000 Durchgänge durchgeführt. In der Tabelle muss
nun wieder das Merkmal „Summe“ erstellt werden,
das die Ergebnisse der drei Ziehungen aufsummiert.
Dies kann einfach durch ein vordefiniertes Merkmal
geschehen, das per Klick in der Tabelle realisiert
wird.
Abb. 2: Das Zufallsexperiment „Augensumme“ in TinkerPlots
24
Abb. 3: Das Problem von de Méré – Der dreifache Würfelwurf in TinkerPlots
Die Augensumme wird für jeden Durchgang in der
entsprechenden Spalte der Tabelle automatisch dargestellt (siehe Abb. 3, mittig). Mit dem Graph-Objekt
in TinkerPlots kann die Verteilung dieses Merkmals
„Summe“ dargestellt werden (Abb. 3, rechts). Es ist
zu sehen, dass die relative Häufigkeit für die Augensumme 11 größer ist als für die Augensumme 12 und
daraufhin lässt sich schätzen, dass die Wahrscheinlichkeit für das Ereignis „Augensumme = 11“ ca.
13 % und für das Ereignis „Augensumme = 12“ ca.
11 % beträgt. Man kann auch zunächst mit kleineren Durchgangsanzahlen beginnen und beobachten,
dass keine klare Entscheidung für 11 oder 12 möglich
ist. Anschließend wird die Durchgangszahl solange
erhöht, bis man einigermaßen wiederholungsstabile
Unterschiede in den relativen Häufigkeiten erhält. Im
Unterricht könnte man als Grund für die Schwierigkeiten einer klaren Entscheidungsfindung die leicht
unterschiedlichen Anzahlen für die jeweils günstigen
Ergebnisse ausmachen und dieses Phänomen differenzierter anhand der einzelnen Kombinationsmöglichkeiten begründen.
3.2 Eine Hinführung zum informellen
Hypothesentesten: Der Hörtest
Wir wollen abschließend aufzeigen, wie man auch
die Wahrscheinlichkeitsverteilung binomialverteilter
Zufallsgrößen mithilfe von Simulationen mit TinkerPlots untersuchen kann (vgl. Biehler, Frischemeier &
Podworny 2015) – eine Hinführung zum Hypothesentesten, die durch den simulativen Zugang bereits
vor der Sekundarstufe II zugänglich gemacht werden
kann (vgl. Riemer 2009).
Ein Beispiel ist in diesem Fall der Hörtest (diese Aufgabe existiert in diversen Variationen): Ein privater
Hörfunksender hat zum „Tag des offenen Studios“
folgendes Spiel geplant. Als Studiogast bekommt man
im Tonstudio über Raumboxen 12 Musikstücke eingespielt. Jedes Musikstück wird in einer der zwei Tonqualitäten MP3-128 oder CD vorgespielt, welche es
allerdings ist, das entscheidet der Moderator. Aufgabe ist es, die Klangqualität eines jeden eingespielten
Musikstücks zu erkennen. Tom, ein Studiogast, errät
10 von 12 Tonqualitäten korrekt. Die Aufgabe für die
Lernenden ist nun zu beurteilen, ob Tom besondere
Hörfertigkeiten hat oder ob er nur geraten hat. Aufgaben dieser Art lassen sich etwa ab Klasse 8 experimentell und simulativ realisieren (Schäfer 2008). Im
Unterricht kann zu Beginn ein Experiment gestartet
werden, bei dem alle Schülerinnen und Schüler Musikqualitäten raten.4 Nach der Simulation können die
„Hörfähigkeiten“ von Tom diskutiert werden, wobei
das so genannte P-Wert Konzept (s. u.) intuitiv genutzt wird, ohne dass es zuvor ausführlich behandelt
werden müsste.
Das Zufallsexperiment kann mit TinkerPlots wie
folgt simuliert werden: Wir gehen davon aus, dass
der Studiogast rät, also keine besonderen Hörfertigkeiten besitzt. Es gibt beim Raten der Musikstücke
zwei Möglichkeiten: entweder die Person rät richtig
oder falsch. Da es insgesamt 12 Musikstücke sind,
die vorgespielt werden, läuft das Zufallsexperiment
darauf hinaus, zwölfmal zufällig zwischen „richtig“
und „falsch“ auszuwählen. In TinkerPlots lässt sich
dies beispielsweise durch eine Ziehung von zwei Kugeln aus einer Box oder aber (siehe Abb. 4, links) mit
dem Bauteil Kreisel mit zwei gleichgroßen Sektoren
(beschriftet mit „richtig“ und „falsch“) modellieren.
Um wiederum möglichst genaue Ergebnisse zu erhalten, lassen wir die Zufallsmaschine 10000 mal
laufen, das entspricht 10000 Personen, die am Ratespiel teilnehmen. Die Ergebnisse der 10000 Personen
werden automatisch in der Tabelle protokolliert, uns
interessiert nun, wie häufig jeder einzelne die „richtige“ Tonqualität geraten hat. Dafür kann wieder ein
vordefiniertes Ergebnismerkmal verwendet werden:
Tabelle → Einstellungen → Ergebnismerkmale →
‚?‘ in Gesamt zählen → „richtig“. In der neu erstellten Spalte „Anzahl_richtig“ wird nun protokolliert,
wie häufig jeweils richtig geraten wurde. Im Graphen
(Abb. 4, unten mittig) lässt sich erkennen, dass von
10000 Personen gerade einmal 195 Personen (ca.
2 %) ein ebenso gutes oder noch besseres Ergebnis
als Tom durch reines Raten erreicht haben. Diese
25
Abb. 4: Der Hörtest in TinkerPlots
„Überschreitungswahrscheinlichkeit“ nennt man in
der Statistik den P-Wert der Ergebnisse von Tom.
Wenn Tom nur geraten hätte, wäre etwas Unwahrscheinliches passiert, also sprechen die Daten dafür,
dass Tom besser ist als Raten. An das Ergebnis der
Simulation kann nun eine weiterführende Diskussion
anschließen. Mit welcher Wahrscheinlichkeit schafft
man ein gleich gutes oder noch besseres Ergebnis als
Tom? Hat dieser einfach nur glücklich geraten? Hat
er besondere Hörfähigkeiten? Das formale P-Wert
Konzept könnte später in der Oberstufe als zusätzliche Bewertungsgrundlage eingeführt werden. Bei
einem P-Wert zwischen 1 % und 5 % spricht man in
der statistischen Praxis von einer mittleren Evidenz
gegen die Hypothese des reinen Ratens.
4
Schlussbemerkung
Dieser Artikel soll exemplarisch einige Anregungen
für den Einsatz der Software TinkerPlots im Mathematikunterricht der Sekundarstufe I geben. Dabei
kann TinkerPlots sowohl als Demonstrationsmedium
des Lehrers als auch als Medium zur eigenständigen Arbeit der Schülerinnen und Schüler eingesetzt
werden. Im Rahmen einer Bachelorarbeit (Reichert
2014) haben wir eine Unterrichtsreihe zu Simulationen mit TinkerPlots für eine neunte Klasse an einer
Realschule entwickelt, durchgeführt und evaluiert.
Die Evaluation hat unter anderem gezeigt, dass inte26
ressante stochastische Fragestellungen (bis hin zum
oben beschriebenen Hörtest) mit Unterstützung der
Software TinkerPlots bereits in einer neunten Klasse einer Realschule (ohne besondere Vorkenntnisse)
thematisiert werden können, wobei aber besonders
auf eine sorgfältige Klärung des Verhältnisses von
relativen Häufigkeiten und Wahrscheinlichkeiten zu
achten ist. Auch in der Aus- und Fortbildung für angehende Grund-, Haupt-, Real- und Gesamtschullehrer an der Universität Paderborn haben wir mit dem
oben beschriebenen Konzept gute Erfahrungen gemacht. Als weitere Unterstützungsmaßnahme haben
wir einen Simulationsplan5 entwickelt, der sowohl
zur Vorbereitung einer Simulation, als auch als Strukturierungshilfe während einer Simulation verwendet
werden kann. Außerdem ist er eine hilfreiche Offline-Dokumentation für die spätere Besprechung der
Simulationen im Unterricht (Podworny 2013).
Zu den angegebenen drei Simulationen können Beispieldateien auf der Homepage der Zeitschrift „Stochastik in der Schule“ heruntergeladen werden.
Anmerkungen
1
Siehe Biehler & Prömmel
(2013) für eine stufenweise
__
Hinführung zum 1/√ n -Gesetz zur Thematisierung der
Genauigkeit von Simulationen, solange mit Mitteln
der Schulmathematik der Themenbereich Konfidenzintervalle noch nicht erschlossen ist (vgl. auch Maxara
2009, S. 21 f.).
2
Äquivalent zu dieser Simulation können auch andere Bauteile (z. B. der Kreisel mit sechs gleichgroßen
Sektoren) verwendet werden.
und Stochastik lernen – Using Tools for Learning Mathematics and Statistics. Wiesbaden: Springer Spektrum, S. 337–348.
3
Bei diesem Ansatz wird außer Acht gelassen, dass die
jeweiligen Augensummen durch eine unterschiedliche
Anzahl an Permutationen der Würfelkombinationen
erzeugt werden können.
Kaun, A. (2006): Stochastik in deutschen Lehrplänen allgemeinbildender Schulen. In: Stochastik in der Schule
26(3), S. 11–17.
4
Geeignetes Material lässt sich leicht selbst erstellen
oder findet sich z. B. unter http://www.riemer-koeln.
de (abgerufen am 04.03.2015).
5
Dieser kann unter http://fddm.uni-paderborn.de/
personen/podworny-susanne/material/ heruntergeladen werden.
Software
Konold, C. & Miller, C. (2011): TinkerPlots 2.0. Emeryville, CA: Key Curriculum Press, deutsche Adaption
(unveröffentlicht): Biehler, R.; Frischemeier, D.; Podworny, S., siehe http://lama.uni-paderborn.de/personen/
rolf-biehler/projekte/tinkerplots.html).
Literatur
Biehler, R. (2007): TINKERPLOTS: Eine Software zur
Förderung der Datenkompetenz in Primar- und früher
Sekundarstufe. Stochastik in der Schule 27(3), S. 34–42.
Biehler, R., Ben-Zvi, D., Bakker, A. & Makar, K. (2013):
Technology for Enhancing Statistical Reasoning at the
School Level. In: Clements, K.; Bishop, A.; Keitel, C.;
Kilpatrick, J. & Leung, F. (Hrsg.). Third International Handbook of Mathematics Education. New York:
Springer 2013, S. 643–689.
Biehler, R, Frischemeier, D. & Podworny, S. (2015): Informelles Hypothesentesten mit Simulationsunterstützung
in der Sekundarstufe I. Praxis der Mathematik in der
Schule 66(6), S. 21–25.
Biehler, R., Hofmann, T., Maxara, C. & Prömmel, A.
(2006): Fathom 2: Eine Einführung. Berlin [u. a.]:
Springer.
Biehler, R., Hofmann, T., Maxara, C. & Prömmel, A.
(2011): Daten und Zufall mit Fathom. Unterrichtsideen
für die SI mit Software-Einführung. Braunschweig:
Schroedel.
Biehler, R. & Maxara, C. (2007): Integration von stochastischer Simulation in den Stochastikunterricht mit Hilfe von Werkzeugsoftware. Der Mathematikunterricht
53(3), S. 46–62.
Biehler, R. & Prömmel, A. (2013). Von ersten stochastischen
Erfahrungen mit großen Zahlen bis zum
__
1/√ n -Gesetz – ein didaktisch orientiertes Stufenkonzept. Stochastik in der Schule 33(2), 14–25.
Frischemeier, D. & Podworny, S. (2014): Explorative Datenanalyse und stochastische Simulationen mit TinkerPlots – erste Einsätze in Kassel & Paderborn. In: Wassong, T.; Frischemeier, D.; Fischer, P. R.; Hochmuth,
R.; Bender, P. (Hrsg.): Mit Werkzeugen Mathematik
Maxara, C. (2009). Stochastische Simulation von Zufallsexperimenten mit Fathom – Eine theoretische Werkzeuganalyse und explorative Fallstudie. Kasseler Online-Schriften zur Didaktik der Stochastik (KaDiSto)
Bd. 7. Universität Kassel [Online: http://nbn-resolving.
org/urn:nbn:de:hebis:34-2006110215452].
Müller, J. H. (2005): Die Wahrscheinlichkeit von Augensummen – Stochastische Vorstellungen und stochastische Modellbildung. In: Praxis der Mathematik in der
Schule 47(4), S. 17–22.
Podworny, S. (2013): Mit TinkerPlots vom einfachen Simulieren zum informellen Hypothesentesten. In: Greefrath, G.; Käpnick, F. & Stein, M. (Hrsg.): Beiträge zum
Mathematikunterricht 2013, Münster: WTM Verlag,
S. 324–327.
Reichert, Simon (2014): Design, Durchführung und (beispielhafte) Auswertung einer Unterrichtsreihe zur Einführung in die computergestützte Simulation von Zufallsexperimenten mit TinkerPlots in der Sekundarstufe
I. Unveröffentlichte Bachelorarbeit. Paderborn: Universität Paderborn.
Riemer, W. (2009): Soundcheck: CD contra MP3. Ein
Hörtest als Einstieg in die Stochastik. Mathematik lehren 153, S. 21–23.
Schäfer, T. (2008). Von den Anfängen bis zum Hörtest
– Konzeption und Evaluation eines Unterrichtsexperiments zur Stochastik in Klasse 8. Unveröffentlichte
Staatsexamensarbeit. Universität Kassel.
Anschrift der Verfasser
Rolf Biehler
Institut für Mathematik
Universität Paderborn
Warburger Straße 100
33098 Paderborn
[email protected]
Daniel Frischemeier
Institut für Mathematik
Universität Paderborn
Warburger Straße 100
33098 Paderborn
[email protected]
Susanne Podworny
Universität Paderborn
Institut für Mathematik
Warburger Straße 100
33098 Paderborn
[email protected]
27
Wurde die Lotterie bei den Hungerspielen manipuliert?1
KYLE CAUDLE UND ERICA DANIELS, RAPID CITY, USA
1
Original: Did the Gamemakers Fix the Lottery
in the Hunger Games?
In: Teaching Statistics 37 (2) (2015), S. 37–40.
Übersetzung: ANNA SCHÄFER, PADERBORN
Zusammenfassung: Die Hungerspiele sind eine
jährlich stattfindende Veranstaltung in dem fiktionalen Land Panem. Jedes Jahr werden 24 Jugendliche
aus den 12 Distrikten durch eine Lotterie ausgewählt, um in der Freilichtarena zur Unterhaltung der
Bewohner des Kapitols bis auf den Tod zu kämpfen.
Mit Hilfe statistischer Analysen und Computersimulationen untersuchen wir, ob es möglich ist, dass die
Lotterie manipuliert wurde. Anhand fiktiver Daten
aus Suzanne Collins’ Buch „Die Tribute von Panem
– Tödliche Spiele“, zeigen wir wie Lernende erste
Erfahrungen mit der Durchführung eines Permutationstest sammeln können.
1
Einleitung
Panem ist ein fiktionales Land in der entfernten Zukunft, das nach dem Zusammenbruch der USA entstand. Es besteht aus 13 Gebieten, den sogenannten
Distrikten und dem Kapitol. Aufgrund der zunehmenden Ausbeutung durch das Kapitol revoltierten
die Distrikte. Der blutige Bürgerkrieg endete mit der
Zerstörung des 13. Distriktes und der erneuten Unterwerfung der anderen zwölf Distrikte. Als Strafe für
den Aufstand wurden die Hungerspiele eingeführt.
Jährlich werden seither ein Junge und ein Mädchen
zwischen 12 und 18 Jahren aus jedem Distrikt durch
eine Lotterie ausgewählt, um an den Hungerspielen
teilzunehmen. Diese Jugendlichen, genannt Tribute,
kämpfen zur Unterhaltung der Bewohner des Kapitols bis zum Tode. Ein Jugendlicher, der nicht bei der
Lotterie ausgewählt wurde, kann dabei freiwillig für
einen anderen teilnehmen. Genau das macht die Romanheldin, Katniss, die sich freiwillig als Ersatz für
ihre jüngere Schwester Prim meldet. In den reicheren
Distrikten (Distrikt 1, 2 und 4) werden Jugendliche
sogar speziell für die Spiele trainiert und nehmen
dann freiwillig teil. Diese Freiwilligen werden Karrieros genannt.
Der letzte Überlebende in der Arena gewinnt die
Hungerspiele, und als Preis bekommt sein Distrikt
im folgenden Jahr zusätzliche Lebensmittel. Die Familie des Tributs erhält Verpflegung und Schutz für
das restliche Leben des Jugendlichen. Die von Panems Polizei kontrollierte starke Beschränkung der
28
Versorgung mit Waren und Gütern führt dazu, dass die
Bewohner der meisten Distrikte mittellos und nah am
Hungern leben. Jugendliche zwischen 12 und 18 Jahren haben indessen die Möglichkeit zusätzliche Lebensmittelrationen für sich und ihre Familie zu erhalten. Dazu müssen sie ihren Namen ein weiteres Mal in
die Lotterie geben. Sie können höchstens so viele zusätzliche Rationen bekommen, wie sie Familienmitglieder haben. Dabei müssen sie für jede Ration einen
zusätzlichen Namenseintrag in die Lotterie geben.
In diesem Artikel werden die Ziehungsergebnisse
dieser Lotterie analysiert und untersucht, ob diese
manipuliert wurde. Dafür verwenden wir die Daten
der 74. Hungerspiele aus dem Roman von Suzanne
Collins (2010), die von Keller (2012) zusammengetragen wurden.
2
Die Lotterie
Die Wahrscheinlichkeit bei der Lotterie ausgewählt
zu werden hängt für jeden Jugendlichen von zwei
Faktoren ab: Seinem Alter und der Anzahl zusätzlicher Rationen, die er verlangt hat. Nach den Regeln
der Lotterie wird der Name eines Jugendlichen im
Alter von 12 Jahren einmal in die Lotterie eingetragen. Wenn sie nicht gewählt wurden, erhalten sie
im nächsten Jahr einen weiteren Eintrag, so dass sie
dann insgesamt zwei Einträge besitzen. Dieser Ablauf wiederholt sich bis zu dem Alter von 18 Jahren,
so dass dann sieben Einträge zusammen kommen.
Tabelle 1 fasst die Anzahl der Einträge zusammen,
die ein ausgewählter Jugendlicher altersbedingt nach
den Regeln der Lotterie hat.
Alter (Jahre)
Einträge
Anteil
12
1
1
___
13
2
14
3
15
4
16
5
17
6
18
7
28
2
___
28
3
___
28
4
___
28
5
___
28
6
___
28
7
___
28
Tab. 1: Lotterie-Einträge nach Alter
Stochastik in der Schule 36 (2016) 1, S. 28–32
Man kann nun die altersbezogenen Anteile der Lotterieeinträge in der dritten Spalte als Wahrscheinlichkeit auffassen, dass ein Jugendlicher in diesem Alter
entsprechend der Lotterieregeln ausgewählt wird.1
Gemäß der Romanvorlage waren unter den 24 jugendlichen Teilnehmern der Hungerspiele sieben Karrieros, die nicht durch die Lotterie ausgewählt wurden,
sondern sich freiwillig gemeldet haben. Auch die
Romanheldin Katniss nahm freiwillig als Ersatz für
ihre 12jährige Schwester Prim teil, weshalb wir bei
der Analyse der Daten Prims und nicht Katniss’ Alter
berücksichtigt haben.
Demnach kennen wir das Alter von 17 Jugendlichen,
die durch die Lotterie ausgewählt wurden. Mit Hilfe der Tabelle 1 können wir die erwarteten absoluten
Häufigkeiten ausgewählter Jugendlicher in jedem Alter ermitteln. Abb. 1 stellt beide Anzahlen gegenüber.
Abb. 1: Tatsächliche versus erwartete absolute
Häufigkeiten
Bei Betrachtung der Abb. 1 erkennt man, dass sich die
erwartete und tatsächliche Verteilung, insbesondere
für das Alter von 15 und 18 Jahren, unterscheidet. Wir
nutzen diese Daten, um Lernenden zu zeigen, wie man
einen Randomisierungstest mittels Simulation durchführt. Deren Interesse an der Verfilmung der Tribute
von Panem macht dieses zu einem besonders guten
Beispiel zur Einführung von Randomisierungstests.
3
Randomisierungstests
Sawilowsky (2005) hat bemerkt, dass Lernende
Schwierigkeiten haben, das Prinzip der Zufallsauswahl zu verstehen und dieser daher misstrauen. Wir
sind davon überzeugt, dass die Randomisierung ein
machtvolles statistisches Werkzeug ist, das im Unterricht genutzt werden sollte, um Lernenden ein intuitives Gefühl für Variabilität zu vermitteln. Diese Idee
kann einfach mit Hilfe eines Spielkartensatzes in einem handlungsorientierten Unterricht vermittelt werden, (s. dazu das ausgezeichnete Unterrichtsbeispiel
in Enders et al. 2006). Als Vorstufe des komplizier-
teren Randomisierungstests, den wir für die Analyse
der Lotterie der Hungerspiele benötigen, stellen wir
im Folgenden zunächst ein einfaches Beispiel vor um
das Testverfahren zu demonstrieren.
3.1 Ein erstes Beispiel
Wir stellen uns vor, die Hauptfigur Katniss und ihr
Freund Gale jagen Eichhörnchen. Laut der Romanvorlage unterscheiden sich beide Jugendlichen nicht
in ihren Jagdfähigkeiten. Doch an einem Tag erlegt
Katniss vier Eichhörnchen und Gale kein einziges.
Ist es dennoch richtig, dass beide die gleichen Jagdfähigkeiten haben? Wenn es keinen Unterschied in ihren Fähigkeiten gibt, hat jeder von ihnen die gleiche
Chance eines der Eichhörnchen zu erlegen. Somit
gibt es 24 = 16 Möglichkeiten, die vier Eichhörnchen
unter ihnen aufzuteilen. Von diesen 16 möglichen
Ausgängen gibt es nur eine (günstige) Möglichkeit,
in der Katniss alle vier Eichhörnchen erlegt. Somit
1
ist die Wahrscheinlichkeit dafür ___
16 (6,025 %). Es ist
also nicht sehr wahrscheinlich, dass Katniss alle Tiere erlegt, unter der Voraussetzung, dass ihre Jagdfähigkeiten gleich denen von Gale sind. Daher könnte
dies eine falsche Annahme sein.
Betrachten wir nun ein anderes Szenario, in dem es
für Katniss im Vergleich zu Gale doppelt so wahrscheinlich ist, die Eichhörnchen zu töten. Um dies zu
untersuchen, nehmen wir 3 Karten und schreiben auf
zwei davon „Katniss“ und auf eine „Gale“. Um das
Erlegen eines Eichhörnchens zu simulieren, ziehen
wir eine der drei Karten. Für die drei weiteren Eichhörnchen legen wir die erste Karte zurück und ziehen
erneut eine Karte usw. Gegenüber den Lernenden
sollte hervorgehoben werden, dass die Karte wieder
zurückgelegt werden muss, um die ursprüngliche Annahme, dass Katniss, das Eichhörnchen mit doppelter
Wahrscheinlichkeit erlegt, jedes Mal zu erfüllen. In
diesem Szenario gibt es 34 = 81 mögliche Ausgänge
und 24 = 16 Möglichkeiten, dass Katniss’ Name jedes
Mal gezogen wird, d. h. dass sie alle Eichhörnchen
16
erlegt. Die Wahrscheinlichkeit dafür wäre dann ___
81 ,
also rund 20 %. Weil diese Wahrscheinlichkeit relativ
groß ist, verwerfen wir die Annahme, dass Katniss
im Vergleich zu Gale die Eichhörnchen doppelt so
wahrscheinlich erlegt, nicht.
3.2 Die Lotterie der Hungerspiele
Bei der Lotterie der Hungerspiele interessiert uns die
Frage: Ist die Altersverteilung der (74.) Hungerspiele
mit den im Roman beschriebenen Regeln der Lotterie
vereinbar? Da es entgegen dem vorherigen Beispiel
29
nicht möglich ist, jede der möglichen Anordnungen
(d. h. Lotterieauslosungen) zu betrachten, möchten
wir einen Randomisierungstest mittels wiederholter
Stichprobenziehung durchführen – ein ausgezeichneter Weg um Lernende mittels einer einfachen Aufgabe
aktiv in den Unterrichtsprozess mit einzubeziehen.
Dazu nehmen wir 28 Karten und schreiben die Nummer 12 auf eine der Karten, die Nummer 13 auf zwei
Karten usw., so dass sie den Altersanteilen in Tabelle
1 entsprechen. Dann lassen wir die Lernenden eine
Stichprobe der Größe 17 ziehen, wobei wieder darauf
zu achten ist, dass die Stichprobe mit Zurücklegen
gezogen wird, damit die Anteile konstant bleiben.
Nach jedem Zug soll die gezogene Nummer (das Alter) notiert werden.
Nun fragen wir die Lernenden, wie viele 12en sie
gezogen haben. Mit großer Wahrscheinlichkeit wird
die Anzahl zwischen 0 und 1 liegen. Wir fragen weiter, wie viele 12-jährige sie in ihrer Stichprobe der
Größe 17 ungefähr haben sollten. Anders gesagt: Ist
1 wahrscheinlich? Was ist mit 5? Oder 10? Sie sollten überlegen, dass die erwartete absolute Häufig1
keit ___
28 · 17 ≈ 0,61 ist. Somit wäre 1 oder 2 plausibel,
aber sicher nicht 10.
Die tatsächlich beobachtete Anzahl sollte in jeder Altersgruppe dicht bei der erwarteten absoluten Häufigkeit liegen, sonst wären die Regeln der Lotterie nicht
befolgt worden. Wir fragen die Lernenden, wie sie die
Unterschiede zwischen den erwarteten und tatsächlichen Anzahlen über alle Altersgruppen messen könnten. Folgende Impulse können hilfreich sein: Können
wir einfach die Differenzen aufaddieren? Was ist,
wenn einige der Differenzen negativ sind? Die Lernenden können selbst ausprobieren und so eine sinnvolle Methode finden, um mit einem einzelnen Wert
zu messen, wie weit die tatsächlichen von der erwarteten Anzahlen in jeder Kategorie entfernt liegen.
Eine Standard-Technik um die ‚Nähe‘ zu ermitteln
ist der Chi-Quadrat-Anpassungstest. Diese Methode
nutzt auch Keller (2012). Für die Hungerspiele ist
diese Methode jedoch nicht geeignet, da alle erwarteten Anzahlen kleiner als fünf sind (Marx et al. 2006).
Doch obwohl der Chi-Quadrat-Anpassungstest nicht
durchgeführt werden kann, ist die Chi-Quadrat-Teststatistik ein gutes Maß, um die Nähe zwischen den
Stichprobenanteilen und den theoretischen ermittelten Werten zu bestimmen. Die Chi-Quadrat-Teststatistik nimmt die quadrierten Differenzen zwischen
den Stichprobenwerten und den theoretischen Werten und normalisiert diese durch Division durch den
theoretischen Wert:
30
χ2 =
∑
k
(Oi – Ei)
________
i=1
2
Ei
,
(1)
wobei Oi die tatsächliche Anzahl in der Stichprobe
mit den Kategorien i = 1, 2, …, k und Ei = n · pi die
auf der Basis der theoretischen Anteile pi erwartete
Häufigkeit in jeder Kategorie für eine Stichprobe der
Größe n.
Um den auf den Romandaten basierenden Wert der
Teststatistik zu berechnen, benötigen wir die tatsächlichen und erwarteten Anzahlen (Tabelle 2).
Alter
(Jahre)
Anteil
tatsächliche
Anzahl
erwartete
Anzahl
12
1
___
2
0,61
0
1,21
1
1,82
5
2,43
4
3,04
3
3,64
2
4,25
13
14
15
16
17
18
28
2
___
28
3
___
28
4
___
28
5
___
28
6
___
28
7
___
28
Tab. 2: Tatsächliche versus erwartete Anzahl
Neben den bereits erwähnten Annahmen (Berücksichtigung von Prims Alter statt Katniss’ Alter; Karrieros werden nicht berücksichtigt) basieren die Anzahlen in der Tabelle 2 auf der folgenden Annahme:
Die Anzahl der Kinder im Alter von 12 Jahren, die
jedes Jahr in die Lotterie aufgenommen werden, ist
in etwa gleich der Anzahl derjenigen, die die Lotterie verlassen, weil sie nun 19 Jahre alt sind. Dadurch
bleibt die Gesamtanzahl der Jugendlichen in der Lotterie von Jahr zu Jahr annähernd gleich.
Mit den Daten aus der Tabelle 2 und der Gleichung
(1) ergibt sich folgender Wert der Teststatistik:
(2 – 0,61)2 _________
(0 – 1,21)2
(2 – 4,25)2
_________
Q = _________
+
+
…
+
0,61
1,21
4,25
Q = 9,11
(2)
Nun lassen wir die Lernenden zu ihren eigenen Stichproben der Größe 17 die Teststatistik berechnen. Damit sie einen besseren Eindruck von der Variabilität
der Teststatistik ihrer Stichprobe erhalten, wird diese
Aufgabe mehrmals wiederholt. Anschließend fragen
wir, wie sich ihre Teststatistiken mit der Teststatistik zu den Roman-Daten (9,11) vergleichen lassen.
Insbesondere fragen wir, ob ihre Simulationen einen
Hinweis darauf liefern, dass die Lotterie manipuliert
wurde.
3.3 Computer Simulationen
Mit der Hilfe des Computers ziehen wir schließlich
1000 zufällige Stichproben der Größe 17 aus der
theoretischen Verteilung (Tabelle 1).2 Für jede der
1000 Stichproben berechnen wir eine StichprobenTeststatistik entsprechend der Gleichung (1). Wir
beobachten dann, wie viele der Stichproben-Teststatistiken gleich 9,11 oder größer sind. In der von uns
durchgeführten Simulation haben wir 169 solcher
Stichproben erhalten. Daraus schlussfolgern wir, dass
es unter der Voraussetzung der im Roman beschriebenen Regeln für die Lotterie eine 16,9 %ige Wahrscheinlichkeit gibt, die bei den Hungerspielen aufgetretenen tatsächlichen Anzahlen oder noch extremere
Anzahlen zu erhalten. Da diese Wahrscheinlichkeit
relativ groß ist, liefern die Daten keine Evidenz für
eine Manipulation der Lotterie.
Wir müssen aber eingestehen, dass der obige Test
nicht realistisch ist, da er die zusätzlichen Lotterieeinträge aufgrund der Extra-Rationen nicht berücksichtigt. Durch die Romanlektüre ist uns klar, dass ältere
Jugendliche mit größerer Wahrscheinlichkeit ExtraRationen fordern. Für diese Annahme gibt es mehrere
Gründe. Erstens benötigen ältere Jugendliche mehr
Lebensmittel, sobald sie ein Alter erreichen, indem
sie stark wachsen. Zweitens beginnen sie sich für ihre
Geschwister verantwortlich zu fühlen, so dass sie sich
verpflichtet fühlen, zusätzliche Rationen anzufordern.
Und zuletzt wird in dem Roman geschildert, dass viele Familien aufgrund der gefährlichen Arbeitsbedingungen ohne Vater leben, so dass (ältere) Jugendliche
wahrscheinlicher zusätzliche Rationen fordern.
Wir nehmen daher abschließend an, dass Jugendliche
zwischen 12 und 15 Jahren noch keine zusätzlichen
Rationen fordern. Im Alter von 16, 17 oder 18 Jahren
soll ein Jugendlicher einen zusätzlichen Lotterieeintrag aufgrund der Extra-Ration bekommen und dafür
ein zusätzliches Los in Kauf nehmen. Wir räumen
ein, dass diese Annahmen möglicherweise die fiktionale Situation nicht genau erfassen, aber sie sind für
uns mit Blick auf den Roman zumindest plausibel.
Tabelle 3 fasst die neuen Anzahlen der Lotterie-Einträge zusammen.
Auf der Basis dieser Anteile haben wir die erwarteten
Anzahlen neu berechnet und damit eine neue beobachtete Teststatistik bestimmt. Diese liefert den Wert
12,55. Die Durchführung eines Randomisierungstests zeigte in unserer Simulation von 1000 zufälligen
Stichproben 48mal Teststatistiken, die so groß oder
noch größer waren als die beobachtete Teststatistik.
Dies entspricht einem Anteil von 0,048. Da dieser
Wert relativ klein ist, schlussfolgern wir auf der Basis
unserer neuen Annahmen, dass wir Evidenz für eine
Manipulation der Lotterie gefunden haben.
Alter (Jahre)
12
13
14
15
16
17
18
Einträge
Anteil
1
1
___
2
2
___
3
4
6
8
10
34
34
3
___
34
4
___
34
6
___
34
8
___
34
10
___
34
Tab. 3: Lotterie-Einträge mit zusätzlichen Rationen
4
Schlussfolgerungen
Randomisierungstests sind eine ausgezeichnete Alternative zu Chi-Quadrat-Tests wenn die Voraussetzung der Mindestgröße der erwarteten Häufigkeiten
nicht erfüllt ist. Computer-Simulationen sind dabei
eine gute Möglichkeit um Lernenden zu zeigen, was
passieren würde, wenn man Experimente in einer
großen Anzahl wiederholt. Beide Ideen sind bisher
selten ein Teil von Einführungskursen zur Statistik.
Wir glauben, dass beide Ideen von Lernenden mit geringem oder keinem statistischen Hintergrundwissen
verstanden werden können. Außerdem sind wir davon überzeugt, dass eine Kombination von Statistik
und ‚Popkultur‘ Interesse erzeugen kann und die statistischen Themen damit unterhaltsamer macht. Und
daher: ‚Möge das Glück stets mit euch sein!‘3
Anmerkungen
1
Diese Deutung setzt die Annahme voraus, dass es innerhalb der Distrikte gleichviele Jugendliche in jeder
Altersklasse gibt (Anm. der Übersetzerin).
2
Ein R-Paket zur Simulation kann unter http://www.
mcs.sdsmt.edu/kcaudle/HGames_1.0.tar.gz heruntergeladen werden.
3
Im englischen Original-Roman lautet dieser Satz:
„May the odds be forever in your favor.“ Eine geeignetere Übersetzung wäre also z. B. „Mögen die Chancen
stets zu deinen Gunsten sein.“ Im deutschen Roman
und in der Verfilmung wird aber die obige Übersetzung genutzt (Anm. der Übersetzerin).
31
Literatur
Collins, S. (2010): The Hunger Games Trilogy. Scholastic
Australia.
Enders, C. K.; Stuetzle, R. und Laurenceau, J. P. (2006):
Teaching random assignment. A classroom demonstration using a deck of playing cards. In: Technology of
Psychology 34(4), S. 239–242.
Keller, B. (2012): Hunger Games survival analysis.
Brett Keller Global Health Development. http://
www.bdkeller.com/index.php/writing/hunger-gamessurvival-analysis/ (Zugriff 1.1.2016).
Marx, M. L.; Larsen, R. J. (2006): Introduction to mathematical statistics and its applications. Pearson/Prentice Hall.
Sawilowsky, S. S. (2005): Teaching random assignment:
do you believe it works? In: Journal of Modern Applied
Statistical Methods 3(1), S. 221–226.
Anschrift der Verfasser
Kyle Caudle
South Dakota School of Mines and Technology
501 East Saint Joseph Street
Rapid City, SD 57701
[email protected]
Erica Daniels
[email protected]
Bericht über die Herbsttagung des AK Stochastik
vom 20.–22. November 2015 in Paderborn
PHILIPP ULLMANN, FRANKFURT
Jedes Jahr richtet der Arbeitskreis Stochastik eine
Herbsttagung aus, die sich an interessierte Kolleginnen und Kollegen aus Schule und Hochschule richtet.
In diesem Jahr sollten Digitale Medien im Stochastikunterricht auf ihre Chancen und Möglichkeiten hin
ausgelotet werden.1
***
Den Eröffnungsvortrag Kurzes Tutorium Statistik – Kurzgeschichten zur Statistik auf YouTube am
Freitagabend hielt Mathias Bärtl von der Hochschule
Offenburg. Im Rahmen seiner Lehrtätigkeit erstellt
er kurze Lehrvideos als Begleitmaterial für seine
Grundlagenvorlesung zur Statistik. Die Videos sollen
die Praxistauglichkeit statistischer Verfahren anhand
von Problemstellungen aus dem Alltag motivieren
und dadurch das Fach attraktiver machen und zugleich Einstiege in die einzelnen Themen erleichtern.
Inzwischen hat sich eine beachtliche Zahl an Videos
angesammelt, die im YouTube-Kanal Kurzes Tutorium Statistik gesammelt und frei zugänglich sind.2
probenverteilungen und Konfidenzintervallen (s)ein
Konzept vor, den Stochastikunterricht in der Sekundarstufe II mittels Computereinsatz verständnisorientiert zu gestalten. Dieser Ansatz wird von ihm in Niedersachsen seit vielen Jahren sowohl im Unterricht als
auch in der Lehrerfortbildung erfolgreich umgesetzt
und weiterentwickelt. Insbesondere komplexe Themen wie Stichprobenverteilungen oder Prognose- und
Konfidenzintervalle werden durch die konsequente
Visualisierung begrifflich leichter fassbar.
In einem kurzweiligen Vortrag wurden zunächst
fachliche und methodisch-didaktische Überlegungen sowohl zum Gesamtkonzept als auch zum Aufbau einzelner Videos erläutert. Anschließend wurde
über die Nutzung der und Reaktionen auf die Videos
berichtet. Die anregende Diskussion wurde dann im
Weinlokal Krüger weitergeführt.
***
Der Samstagvormittag stand ganz unter dem Zeichen
der Schulpraxis. Zu Beginn stellte Reimund Vehling
unter dem Titel Stochastik in der Sek II mit GeoGebra
und dem TI-Nspire. Von Prognoseintervallen, Stich32
Abb. 1: Einige Videos aus dem YouTube-Kanal Kurzes Tutorium Statistik
Stochastik in der Schule 36 (2016) 1, S. 32–34
Konzeptes hervorheben und verweise zu den Einzelheiten gerne auf den o. g. Beitrag.
Abb. 2: Bestimmung eines Konfidenzintervalls (KI)
zu einer (vorgegebenen) empirischen Häufigkeit h
vermittels der Konfidenzellipse.
In eine ähnliche Richtung zielte dann der Vortrag
Simulations, a Revolution in the Didactics of Statistics, in dem Carel van der Giessen zunächst den
Nutzen von Simulationen im Stochastikunterricht herausarbeitete, um anschließend einige Beispiele aus
dem von ihm mitentwickelten Softwarepaket VUstat
(für: visual understanding of statistics) vorzustellen.
VUstat ist ursprünglich in den Niederlanden entwickelt worden und wird dort seit langem erfolgreich
eingesetzt. Das Paket ist inzwischen auch auf Deutsch
verfügbar und kann kostenlos heruntergeladen werden.3 Insbesondere die schrittweise kontrollierbare
Wiederholung von Zufallsexperimenten und Stichproben-Ziehungen überzeugt und erleichtert stochastisches Verständnis.
In der Mittagspause folgte ein kurzer Stadtrundgang,
bei dem Katja Krüger bekannte und weniger bekannte Sehenswürdigkeiten Paderborns (wie den Hohen
Dom mit seinem Perspektivgitter) kenntnisreich vorstellte.
Der weitere Nachmittag galt der Nachwuchsförderung. Zwei Promotionsvorhaben wurden vorgestellt
und ausführlich diskutiert. Zum einen berichtete Lea
Hausmann unter dem Titel Abschätzungen bei Lorenzkurve und Gini-Koeffizient über eine Lernumgebung, die sie im Rahmen von Schülerwochen an
der RWTH Aachen entwickelt und erprobt hat. Zum
anderen stellte Candy Walther unter dem Titel Planung und Durchführung statistischer Erhebungen im
Mathematikunterricht sein Konzept und erste Schritte einer empirischen Untersuchung vor, mit der er
dieses schulische Themenfeld mit Blick auf typische
Schülerschwierigkeiten systematisch erfassen und
strukturieren möchte.
Nach der Sitzung des AK Stochastik und der sich
anschließenden Mitgliederversammlung des Vereins
zur Förderung des Stochastikunterrichts wurde der
Abend mit einem gemeinsamen Abendessen im Ratskeller beschlossen.
***
Am Sonntagvormittag berichtete Rolf Biehler über
Stochastik kompakt – Eine Fortbildungsreihe zum
GTR-unterstützten Stochastikunterricht in der Sekundarstufe II, die im Rahmen des Deutschen Zentrums
für Lehrerfortbildung in Mathematik (DZLM) mit
und für Lehrkräfte in Nordrhein-Westfalen und Thüringen konzipiert und weiterentwickelt worden ist. In
der viertägigen Fortbildung wird Lehrkräften technisches und didaktisches Wissen zum GTR-Einsatz
vermittelt. Die behandelten Beispiele umfassen Simulationen, die Berechnung und Veranschaulichung
von Verteilungen sowie interaktive Visualisierungen
***
Den Hauptvortrag Plattformunabhängige Lernobjekte zur Statistik für Schule und Hochschule – ein Erfahrungsbericht hielt dieses Jahr Hans-Joachim Mittag, der in seiner Lehrtätigkeit an der Fernuniversität
Hagen kleine Lernobjekte zur Statistik entwickelt
hat, die in einer Web-App zusammengefasst sind und
kostenlos genutzt werden können.4
In Heft 35 (2015), Seite 6–11 ist gerade ein Aufsatz
erschienen, in dem die App ausführlich vorgestellt
wird. Daher möchte ich hier nur den Charme der
universellen Einsetzbarkeit dieses minimalistischen
Abb. 3: Web-App Statistische Methoden und statistische Daten – interaktiv
33
komplexer stochastischer Zusammenhänge (Einsdurch-Wurzel-n-Gesetz, Fehler beim Hypothesentesten, Operationscharakteristik).
Im letzten Tagungsvortrag Tools für Excel und LibreOffice zur Unterstützung elementarer Datenanalyse
mit Dotplot, Histogramm, Boxplot, Streu-/Residuendiagramm und Mehrfeldertafel stellte Thomas Wassong schließlich Tabellenblätter für LibreOffice bzw.
Excel vor, in denen einschlägige elementare Techniken der Datenanalyse, die in statistischen Programmpaketen standardmäßig vorhanden sind, nun auch in
der Tabellenkalkulation zur Verfügung stehen. Die
entsprechenden Dateien sowie eine digitale Lernumgebung, die anhand von Videos den Umgang mit den
Tools erläutert, sind im Internet frei verfügbar.5
***
Die Vorträge der diesjährigen Herbsttagung haben
deutlich gezeigt, dass digitale Medien beim Lernen
und Lehren von Stochastik wenigstens fünf mögliche Stärken aufweisen: Sie können zeitlich, räumlich
und kulturell sehr flexibel gestaltet werden (Flexibilität), bieten vielfältiges Potenzial, selbst Hand anzulegen (Interaktivität), und ermöglichen eine anschaulich-intuitive Aufbereitung von Informationen
(Visualität); dabei kann auf erweiterte Möglichkeiten
des (Be-)Rechnens zurückgegriffen werden, sei es
im Vorder- oder Hintergrund (white/black box), und
schließlich können zufällige Prozesse unmittelbar
beobachtet und erlebt werden – wieder und wieder
(Simulation). Insbesondere der letzte Punkt stützt
einen spezifischen Aspekt der Stochastik, dessen
didaktische Möglichkeiten noch lange nicht ausgeschöpft sind: Das simulationsgestützte Sammeln von
Primär- bzw. Sekundärerfahrungen mit dem Zufall.
Damit aber digitale Werkzeuge auch so genutzt werden (können), dass stochastische Begriffe und Verfahren besser verstanden und als nützlich erfahren
werden, kommt alles darauf an, Inhalte und Methoden aufeinander abzustimmen. Was das im Einzelfall
genau bedeutet und wie dies im Unterricht jeweils
erreicht werden kann, muss immer wieder neu durchdacht und zur Passung gebracht werden. Angebote,
so flexibel und interaktiv sie sein mögen, müssen zuallererst genutzt werden. Visualisierungen, so durchdacht und strukturiert sie sein mögen, müssen zuallererst gelesen und verstanden werden. Auch und gerade im digitalen Zeitalter gehört es zu den zentralen
Problemfeldern stochastikdidaktischer Forschung,
• Einstiegshürden zu senken (welche fachlichen
bzw. Werkzeugkompetenzen sind in welcher
Situation unbedingt notwendig, wünschenswert
oder gar überflüssig?),
34
• die richtige Balance zwischen Rezeption und
Konstruktion zu finden (wann ist es ratsam, vorgegebene Lernobjekte zu erkunden, wann ist es
sinnvoll, eigene Objekte zu erstellen?) und
• den Mehrwert digitaler Hilfsmittel wie etwa Videos, (Web-)Apps, GTR, CAS oder GeoGebra
im Lehr-Lern-Prozess überzeugend zu nutzen
(wann bleibt das Arbeiten mit digitalen Werkzeugen bloßes „Rumfummeln am Gerät“, unter
welchen Bedingungen kann echtes, also inhaltliches Verständnis begünstigt werden?).
Ob sich in der schulischen Praxis ein breiter Konsens zur Nutzung digitaler Medien beim Lehren und
Lernen von Stochastik etabliert und wie ein solcher
aussehen kann – das bleibt abzuwarten. Die gegenwärtige Lage bietet jedenfalls Anlass zur Hoffnung:
Sowohl eine enge Abstimmung zwischen den (nicht
immer identischen) Bedürfnissen von Schule und
Hochschule als auch der (sanfte) Transfer zwischen
Theorie und Unterrichtspraxis scheint sich bereits in
einiger Breite etabliert zu haben – und zwar in beide
Richtungen und auf Augenhöhe. Einen kleinen Beitrag dazu hat gewiss auch diese Herbsttagung geleistet.
Zum Schluss bleibt nur, all jenen Personen zu danken, die zum Gelingen dieser Tagung beigetragen haben; ebenso herzlicher Dank gilt all jenen, die schon
jetzt die kommende Herbsttagung vorbereiten, die
vom 30. September bis 2. Oktober 2016 in Rostock
stattfinden wird!
Linksammlung
1
Programm der Herbsttagung:
http://www.mathematik.uni-dortmund.de/ak-stoch/
vergangene-herbsttagungen.html#2015
2
YouTube-Kanal Kurzes Tutorium Statistik:
https://www.youtube.com/channel/
UCtBEklAtHHji2V1TsaTzZXw/videos
3
Softwarepaket VUstat: http://vustat.de
4
Web-App Statistische Methoden und statistische
Daten – interaktiv:
https://www.hamburger-fh.de/statistik-app
5
Die EDA-Tools für Excel bzw. LibreOffice finden
sich unter http://eda-el.dzlm.de
Anschrift des Verfassers
Philipp Ullmann
Universität Frankfurt
Institut für Didaktik der Mathematik
Robert-Mayer-Str. 6–8
60325 Frankfurt
[email protected]
Bibliographische Rundschau
UNTER MITARBEIT VON REIMUND VEHLING
Vorbemerkung: Die hier nachgewiesenen Veröffentlichungen sind alphabetisch nach dem Erstautor angeordnet. Ein Kurzreferat versucht, die wesentlichen
Inhalte der nachgewiesenen Zeitschriftenaufsätze
und Bücher wiederzugeben.
Rolf Biehler, Daniel Frischemeier und Susanne Podworny: Informelles Hypothesentesten mit Simulationsunterstützung in der Sekundarstufe I: In: PM,
Praxis der Mathematik, Jahrgang 57 (Dezember
2015) Heft 66, S. 21–25
Der Artikel führt anhand einer Unterrichtsreihe, die
für den Mathematikunterricht in einer achten Jahrgangsstufe konzipiert, durchgeführt und evaluiert
wurde, aus, wie man bereits in der Sekundarstufe I
Grundgedanken des Hypothesentestens am Beispiel
eines „Hörtests“ mit Softwareunterstützung vermitteln kann. Als Softwareunterstützung für die Simulation der dahinterliegenden Zufallsexperimente werden zwei Lösungsansätze vorgestellt: einer bedient
sich der Tabellenkalkulationssoftware Excel, die in
vielen Schulen zugänglich ist, der andere bedient sich
der Datenanalyse- und Simulationssoftware TinkerPlots, einer speziellen Lernsoftware für explorative
Datenanalyse und stochastische Simulationen in der
Sekundarstufe I, die es Lernenden erlaubt, ohne große Vorkenntnisse selbst Simulationen durchzuführen.
(Autorenreferat)
Volker Eisen: Stochastik in der Einführungsphase:
Vorstellungen konsolidieren und erweitern. Ein Werkstattbericht aus der Unterrichtsentwicklung „vor
Ort“: In: PM, Praxis der Mathematik, Jahrgang 57
(Dezember 2015) Heft 66, S. 34–39
Zur Diskussion steht eine Unterrichtsreihe zur Stochastik für das erste Jahr der Oberstufe, die sich u. a.
an Ideen aus dem Dialogischen Lernen nach Gallin
und Ruf orientiert. Im Fokus stehen dabei die getroffenen didaktischen Entscheidungen (konkretisiert als
Wissensmatrix und Kernideen), die Umsetzung in
Aufgaben (insbesondere zur Begriffsentwicklung)
und die Reflexion von Unterrichtsprodukten; exemplarisch verdeutlicht am Gegenstand Erwartungswert. (Autorenreferat)
Stochastik in der Schule 36 (2016) 1, S. 35–36
Anna George: Wer die höhere Zahl hat, gewinnt!
Spielerische Begegnung mit Wahrscheinlichkeiten in
Klasse 5. In: PM, Praxis der Mathematik, Jahrgang
57 (Dezember 2015) Heft 66, S. 10–14
„Wer die höhere Zahl hat, gewinnt!“ Durch das Würfeln nicht-transitiver Würfel wird ermöglicht, dass
diejenige Person, die als zweites einen geeigneten
2
Würfel wählt, mit einer Wahrscheinlichkeit von __
3 gewinnen kann, indem sie eine höhere Augenzahl würfelt. Im Artikel sollen nicht-transitive Würfel vorgestellt und die Gewinnwahrscheinlichkeiten berechnet
werden. Darüber hinaus werden nach der Sachanalyse Umsetzungsmöglichkeiten für den Unterricht aufgezeigt. Zuletzt werden Schülerlösungen für die Bestimmung der Eintrittswahrscheinlichkeiten und der
Gewinnwahrscheinlichkeiten, nicht-transitiver Würfel, dargestellt und zusammengefasst. Insbesondere
wird gezeigt, wie Schülerinnen und Schüler einer
fünften Klasse mit dem Wahrscheinlichkeitsbegriff
umgehen. (Autorenreferat)
Anselm Knebusch, Ana Alboteanu-Schirner: Ein
„Mystery“ im Statistikunterricht: In: PM, Praxis der
Mathematik, Jahrgang 57 (August 2015) Heft 64,
S. 42–44
Bei der Erforschung realer Probleme basiert Erkenntnisgewinn oft auf Selektion und Bewertung bereits
vorhandener Informationen. Durch systematische
Überlegungen werden diese in einen sinnvollen Zusammenhang gebracht. Hierbei müssen wir gerade in
der heutigen Zeit relevante Informationen aus einem
Überangebot herausfiltern. Das vorgestellte Beispiel
der Methode „Mystery“ zeigt, wie Schülerinnen und
Schüler zu einer aktiven Auseinandersetzung mit Begriffen der Statistik motiviert werden und dabei eine
systematische Auswahl von Informationen trainieren
können; dies ist die Grundlage für eine weiterführende Problemlösekompetenz. (Autorenreferat)
Heinz Laakmann; Susanne Schell: Mit Zufall durch
die Schule – Wahrscheinlichkeit. In: PM, Praxis der
Mathematik, Jahrgang 57 (Dezember 2015) Heft 66,
S. 2–9
35
Zufall und Wahrscheinlichkeit sind Themen, die
die Schülerinnen und Schüler inzwischen von der
Grundschule an begleiten. Dabei sind es vor allem
drei verschiedene Zugänge, die herangezogen werden um Wahrscheinlichkeiten zu bestimmen: subjektivistische, empirische und theoretische. Im Artikel
werden diese drei Zugänge als Modellierungen charakterisiert und Möglichkeiten zur tieferen Reflexion
der Modellannahmen diskutiert. Darauf aufbauend
wird der spiralige Erwerb dieser Modelle sowie die
Herstellung der Beziehungen zwischen ihnen über
die verschiedenen Schuljahre hinweg thematisiert.
(Autorenreferat)
Heinz Laakmann; Marcel Untiet: Das „RendevousProblem. In: PM, Praxis der Mathematik, Jahrgang
57 (Dezember 2015) Heft 66, S. 15–20
Das „Rendezvous-Problem“ kann als stochastisches
Problem im Unterricht behandelt werden, das – je
nach Modellierungsaspekt und Vorwissen der Lernenden – sowohl mit dem frequentistischen als auch
mit dem klassischen Wahrscheinlichkeitsansatz gelöst
werden kann und über die Anwendung der LaplaceRegel hinaus zur Vorstellung einer geometrischen
Wahrscheinlichkeit führt. Dabei zeigt sich der Mehrwert des Einsatzes einer Tabellenkalkulation und einer dynamischen Geometrie-Software, da Schülerinnen und Schüler aktiv am Lernprozess beteiligt sind
und selbstständig mit einfachen Simulationen oder
ggfs. vorgefertigten Programmen durch Auszählen
und Berechnen zu einer Lösung mit frequentistischen
Vorstellungen gelangen. (Autorenreferat)
Bernd Ohmann; Susanne Schnell: „Ein Mensch denkt
schon ein bisschen komplexer als ein Würfel“ – Umgang mit Vermutungen in Klasse 7: In: PM, Praxis
der Mathematik, Jahrgang 57 (Dezember 2015)
Heft 66, S. 26–30
Das Testen von Hypothesen und das „Schließen unter
Unsicherheit“ ist ein Thema, das sich in der Oberstufe
einst weder bei Lehrenden noch bei Lernenden großer Beliebtheit erfreute. Gleichwohl ist nicht nur der
klassische Hypothesentest eines der meist genutzten
Verfahren in der human- und sozialwissenschaftlichen Forschung (Leuders 2005), sondern das Aufstellen, Prüfen, Bestätigen oder ggf. Verwerfen von Vermutungen sind Tätigkeiten, die der Stochastik genuin
innewohnen (Stochastik als „ars conjectandi – Kunst
des Vermutens“ nach Jakob Bernoulli 1713). Im Arti-
36
kel wird dargestellt, wie der hypothetische Charakter
des Wahrscheinlichkeitsbegriffs sowie die Grundidee
des Hypothesentests in Klasse 7 fokussiert werden
können. (Autorenreferat)
Wolfgang Riemer; Raphaela Sonntag: Gummibärenforschung. In: PM, Praxis der Mathematik, Jahrgang
57 (Dezember 2015) Heft 66, S. 31–33
Gummibärenforschung ist witzig und spannend.
Ausgewählte Aspekte passen in eine Doppelstunde
und decken mit den Merkmalen Farbe, Gewicht und
Geschmack alle Bereiche des Statistikunterrichts von
Klasse 6 bis zum Abitur ab. Sie kann in idealer Weise
das einlösen, was Heinrich Winter 1995 in seiner ersten Grunderfahrung eingefordert hat: „Der Mathematikunterricht sollte anstreben, Erscheinungen der
Welt in einer spezifischen Art wahrzunehmen und zu
verstehen.“ (Autorenreferat)
Wolfgang Riemer; Raphaela Sonntag: Permutationen schmecken. In: PM, Praxis der Mathematik,
Jahrgang 57 (Dezember 2015) Heft 66, S. 40–41
Hör- und Geschmackstests sorgen seit Jahren für
Motivation in der beschreibenden und beurteilenden Statistik. Dabei kommen wegen der Prüfungsrelevanz meist Binomialverteilungen zum Einsatz.
Zwecks Horizonterweiterung soll hier neben dem
Binomialmodell auch ein mathematisch anspruchsvolleres Permutations-Design für einen Gummibärchen-Geschmackstest erforscht und genutzt werden.
(Autorenreferat)
Hans-Stefan Siller, Daniel Habeck, Salih Almaci,
Walter Fefler: Sportwetten und Großereignisse als
Chance. In: PM, Praxis der Mathematik, Jahrgang
57 (Dezember 2015) Heft 66, S. 42–46
„Wir wollen Deutschland einen echten Kampf bieten und werden sehen, was möglich ist. Die Gruppe
ist eine echte Herausforderung. Aber wir werden sie
annehmen. Es ist eine der schwersten Gruppen der
gesamten Auslosung.“ Dieses Zitat von Jürgen Klinsmann (vgl. RP Online, 2014) kann den Einstieg in
eine Unterrichtsreihe zur Stochastik ermöglichen.
Der Artikel zeigt einen Zugang, wie die Wahrscheinlichkeit für das Erreichen des Achtelfinales einer
WM anhand eines mathematischen Modells berechnet werden kann. (Autorenreferat)
Herunterladen