Historische Entwicklung der Wahrscheinlichkeitstheorie – Antike

Werbung
Historische Entwicklung der Wahrscheinlichkeitstheorie
– Antike: Griechen und Römer haben gewürfelt“ mit dem Sprungbeinknochen aus
”
der Fußwurzel von Schaf oder Ziege (gr. astragalos, lat. taxillus).
Demokrit: Zufall ein Bild, geschaffen zur Beschönigung der eigenen Unberaten”
heit“
Lukrez: De rerum natura“ (Über die Natur der Dinge)
”
darin literarische Beschreibung der Brownschen Bewegung“
”
– 1654 Briefwechsel Pascal-Fermat (eigentliche Geburtsstunde der W-Rechnung)
Briefwechsel über zwei Probleme des Chevalier de Mere
1. Problem: Wie groß muss die Anzahl n der Würfe mit zwei Würfeln sein, damit
die Wahrscheinlichkeit für mindestens einen Sechser-Pasch größer als
0,5 ist?
2. Problem: Zwei gleichstarke Spieler verabreden: Gewinner des Turniers“ soll
”
der sein, der zuerst s Siegpunkte hat. Wie ist der Gewinn aufzuteilen,
wenn das Turnier vorher abgebrochen werden musste?
– 1657 Huygens, Buch De ratiociniis in ludo aleae“ (Über die bei Glücksspielen
”
möglichen Berechnungen), darin erste Definition des Erwartungswertes
– 1662 Londoner Sterbetafeln, Sterblichkeitswkt. als Funktion des Lebensalters
– 1713 Jacob Bernoulli, Ars conjectandi“ (Muthungskunst)
”
erstes Gesetz der großen Zahlen
– 1718 Moivre, Doctrine of Chance“, bis Laplace klass. Lehrbuch d. W-Rechnung
”
In Miscellanea Analytica“ (1730) erster zentraler Grenzwertsatz
”
– 1764 Thomas Bayes († 1763), posthum Veröffentlichung der Bayesschen Formel
– 1777 Buffonsches Nadelproblem (Geburtsstunde der stoch. Simulation)
– 1809 Gauß, Glockenkurve
– 1812 Laplace, Theorie analytique de probabilites“
”
Bibel“ der W-Rechnung bis Ende des 19. Jhdt.
”
– 19. Jhdt.: Poisson, Tschebyschew, Markov, Zeuner in Freiberg
– 1900 Hilbert, axiomatische Begründung der W-Theorie als ungelöstes Problem
Nr. 6
– 1907 Borel, Abhandlung über abzählbar additive Wahrscheinlichkeiten
(erster, der Wkt. als Maß auffasst)
– 1919 von Mises, statistische Wkts.definition (als Grenzwert der relativen Häufigkeit)
– 1933 Kolmogorow, axiomatische Definition der Wahrscheinlichkeit
– 1934 Levy, unbegrenzt teilbare Verteilungen
– 1937 Doob, stochastische Prozesse, Martingale
Feller, Zentraler Grenzwertsatz (Lindeberg-Feller)
– 1939 Levy, Brownsche Bewegung
Historische Entwicklung der Mathematischen Statistik
Ausgangspunkte: Gesetze der großen Zahlen (1713, Bernoulli)
Bayessche Formel (1764)
Methode der kleinsten Quadrate (Gauß 1809)
Bis Anfang 20. Jhdt. immer nur Anhang“ zur W-Theorie
”
eigenständige Entwicklung durch englische Statistiker:
Karl Pearson (1857 - 1936), Korrelation
R. A. Fisher (1890 - 1962), Versuchsplanung, F-Verteilung
Neyman
(1894 - 1981) und Egon Pearson (1895 - 1980), Testtheorie
Le Cam, Cramer, Lehmann
ab Ende 40er Jahre: MCMC (Markov Chain Monte Carlo)
1977 Tukey, explorative Datenanalyse, Beginn Computational Statistics
Literatur zur Wahrscheinlichkeitstheorie
einführend:
Krengel (1988, 8. Auflage 2005), Einführung in die Wahrscheinlichkeitstheorie und
Statistik
Kersting/Wakolbinger (2008), Elementare Stochastik
Standardwerke:

Feller I (1950, 3. Auflage 1968) 

Feller II (1966, 2. Auflage 1971) s.Modulbeschreibung

Bauer
(1991, 5. Auflage 2002) 
Renyi (1970, Paperback 2007), Probability Theory
Gnedenko (1960, 10. Auflage 1997), Lehrbuch der Wahrscheinlichkeitsrechnung
ein gutes aktuelles Buch:
Hesse (2003), Angewandte Wahrscheinlichkeitstheorie
Literatur zur Mathematischen Statistik
einführend (für Mathematik-Studenten nur bedingt geeignet, da ohne Beweise)
Storm (12. Auflage 2007), Wahrscheinlichkeitsrechnung, Mathematische Statistik
und statistische Qualitätskontrolle
Hartung (15. Auflage 2009), Statistik
Standardwerke
Cramer (1946, Paperback 1999), Mathematical methods of statistics
Lehmann/Casella (2. Auflage 1998), Theory of point estimation
Lehmann/Romano (3. Auflage 2005), Testing statistical hypothesis
Witting (1985), Mathematische Statistik I
beschreibende Statistik
Polasek (2. Auflage 1994), Explorative Datenanalyse
Kombinatorische Formeln
N Kugeln in einer Urne, n davon (Stichprobe) sollen gezogen werden. Anzahl der Stichproben?
a) Stichproben mit Zurücklegen (mit Wiederholung, mit Mehrfachbesetzung)
Stichproben ohne Zurücklegen (ohne Wiederholung, ohne Mehrfachbesetzung)
b) Stichproben mit Beachtung der Reihenfolge (geordnetes Ziehen, unterscheidbare
Kugeln)
Stichproben ohne Beachtung der Reihenfolge (ungeordnetes Ziehen, ununterscheidbare Kugeln)
Anzahl möglicher Stichproben
vom Umfang n aus
{1, 2, . . . , N }
mit Zurücklegen
mit Beachtung der Reihenfolge
Nn
ohne Beachtung der Reihenfolge
³
ohne Zurücklegen
³ ´
N
n
´
N +n−1
n
n!
³ ´
N
n
Darstellungssatz für Verteilungsfunktionen
Neben diskreten Verteilungsfunktionen (Def. 5.3) und absolutstetigen Verteilungsfunktionen (Def. 5.4) gibt es noch singulär-stetige Verteilungsfunktionen.
Def. 5.5:
Seien µ und ν Maße auf (Ω, A). ν heißt singulär bzgl. µ (in Zeichen: ν⊥µ),
wenn es eine Menge N ∈ A gibt mit ν(Ω\N ) = 0 und µ(N ) = 0.
Die Singularität von Maßen ist eine symmetrische Relation, d.h.
ν⊥µ ⇐⇒ µ⊥ν .
Def. 5.6:
Eine Verteilungsfunktion FX heißt singulär-stetig, wenn für die zugehörige
Verteilung PX gilt:
PX ⊥λ
und
∀x ∈ R : PX ({x}) = 0 .
Ein Beispiel für eine singulär-stetige Verteilung ist die Cantor-Verteilung (s. 5. Ü.;
Aufg. 2).
Eine beliebige Verteilungsfunktion F lässt sich immer als Konvexkombination aus
den drei Grundtypen (diskret, absolutstetig und singulär-stetig) darstellen. Genauer:
Satz 5.1
(Darstellungssatz für Verteilungsfunktionen)
Jede Verteilungsfunktion F auf R1 gestattet eine eindeutige (Lebesguesche) Zerlegung
F = αd Fd + αa Fa + αs Fs ; 0 ≤ αd , αa , αs ≤ 1
αd + αa + αs = 1,
wobei Fd eine diskrete, Fa eine absolutstetige und Fs eine singulär-stetige Verteilungsfunktion ist.
Beweis z.B. in Schmidt (Satz 12.1.14)
Wundersame Geldvermehrung durch Vertauschen von Briefen
Auf einem Tisch liegen zwei Umschläge mit Geld. In einem ist der doppelte Betrag
vom anderen Brief, mehr ist nicht bekannt. Mein Mitspieler und ich bekommen rein
zufällig (z.B. durch Münzwurf) einen Brief in die Hand. Der Moderator fragt mich:
Willst Du tauschen?“ Ich überlege: In meinem Brief befinden sich x Euro. Im an”
deren Brief sind entweder x2 Euro oder 2x Euro. Und da wir die Briefe rein zufällig
bekommen haben, hat jede Variante die Wahrscheinlichkeit 12 . Der Tausch der Briefe
ist also wie eine Lotterie mit den Preisen 2x und
1
2
x
2
1
2
2x · + · =
5
x,
4
x
2
und mit dem erwarteten Gewinn
d.h. ich setze x ein und erhalte mit Mittel 45 x zurück. Also tausche
ich! Dann fragt der Moderator erneut: Willst Du nochmal tauschen?“ Die Überle”
gung ist die gleiche, ich werde bei erneutem Tausch meinen Gewinn im Mittel wieder
auf das 54 -fache steigern. – Doch beim 2. Tausch habe ich ja meinen ursprünglichen
Brief mit den x Euro wieder! Was ist falsch an meinen Überlegungen?
Beweis von Satz 6.4 (Starkes Gesetz der großen Zahlen):
Wir zeigen Zn := X n − µ =
1
n
n
P
P −f.s.
(Xi − µ) −→ 0
i=1
P −f.s.
a) Zeigen zunächst, dass Zn2 −→ 0
V arZn2 =
1
n4
n2
P
i=1
V arXi ≤
M
,
n2
³
´
d.h. P |Zn2 | ≥ ε ≤
|
{z
↑
Xi unabh.
∞
P
Damit:
n=1
=: An
³S
k
V arZn2
ε2
≤
M
ε2 n2
↑
(5.21)
³
´
P (An ) < ∞ =⇒ P {ω : Zn2 (ω) ≥ 1/k unendlich oft} = 0
|
{z
=: A∗k
↑
Borel/Cantelli
ε = 1/k
Dann aus σ-Additivität von P :
P
}
´
A∗k = 0 =⇒ P
³S
k
´
A∗k = P
³\
A∗k
´
}
=1
k
| {z }
=: E
Für ω ∈ E gibt es also zu jedem k nur endlich viele n mit Zn2 (ω) ≥ 1/k, d.h.
für diese ω gilt lim Zn2 (ω) = 0.
n→∞
b) Für m ∈ N sei n(m) die natürliche Zahl mit (n(m))2 ≤ m < (n(m) + 1)2 . Wir
schreiben kurz n(m) = n und vergleichen Zm mit Zn2 , sei Sk :=
V ar(Sm − Sn2 ) =
m
P
i=n2 +1
V arXi ≤ M (m − n2 )
k
P
(Xi − µ).
i=1
und
2
)
, d.h.
P (|Sm − Sn2 | ≥ εn2 ) ≤ M (m−n
ε2 n4
↑
(5.21)
∞
P
m=1
P
³
1
|Sm
n2
=
M
ε2
´
− Sn2 | ≥ ε ≤
∞
P
2n(2n+1)
n=1
2n4
M
ε2
2
∞ (n+1)
∞
P
P −1 m−n2
P
1
=M
(1 + 2 + · · · + 2n)
4
2
n
ε
n4
n=1 m=n2
n=1
< ∞,
d.h. mit Borel/Cantelli folgt in analoger Schlussweise zu a):
Für P -fast alle ω und hinreichend große m : n12 |Sm − Sn2 | < ε.
|S |
Da nach a) nn22 = |Zn2 | < ε muss für Sm mind. |Snm2 | < 2ε sein.
Damit ist aber |Zm | = |Smm | ≤ |Snm2 | < 2ε, d.h. m→∞
lim Zm (ω) = 0.
Herunterladen