methods_deutsch_02 [Schreibgeschützt]

Werbung
Wahrscheinlichkeitstheorie
Alea iacta est!
"Wissenschaftliche Theorien, die auf Eigenschaften
einer großen Zahl von Individuen rekurrieren, [...] werden
anfällig gegen Fehlinterpretationen, wenn man die zufällige
Natur ihrer Beweisgrundlagen aus dem Auge verliert."
Ronald Aylmer Fisher (1890-1962)
Ein Ereignis wird als zufällig
bezeichnet, wenn sein Ausgang
variabel und nicht vorhersagbar ist.
Die klassische
Interpretation
Die Wahrscheinlichkeit eines
Ereignisses ist das Verhältnis
zwischen der Anzahl günstiger und
möglicher Ausgänge eines
Zufallsexperiments.
Pierre-Simon Laplace
(1749-1827)
Beispiel: Mit einem Würfel soll eine 5
geworfen werden. Von den sechs möglichen
Ausgängen des Wurfs ist hierfür nur einer
günstig. Also beträgt die Wahrscheinlichkeit
für "die Augenzahl lautet 5" ein Sechstel.
Die frequentistische
Interpretation
Die Wahrscheinlichkeit eines
Ereignisses in einer Serie von
Versuchen ist der Grenzwert der
relativen Häufigkeit des Ereignisses.
John Venn
(1834-1923)
Beispiel: Wirf einen Würfel sehr oft und
notiere jedes mal die Augenzahl. Die relative
Häufigkeit von "die Augenzahl lautet 5" ist
ungefähr ein Sechstel. Der Grenzwert der
relativen Häufigkeit ist genau ein Sechstel.
Die subjektive
Interpretation
Wahrscheinlichkeit ist ein Maß für
den Glauben an den Eintritt eines
Ereignisses.
Frank P. Ramsey
(1903-1930)
Beispiel: Nimm an Du wettest, dass die
Augenzahl 5 lautet. Du setzt einen Dollar ein
und bekommst sechs Dollar zurück, wenn Du
gewinnst. Diese Wette empfindest Du als
fair.
Die axiomatische
Interpretation
Eine Wahrscheinlichkeit ist etwas,
was die Axiome der
Wahrscheinlichkeitstheorie erfüllt.
Andrej N. Kolmogorov
(1903-1987)
Kolmogorovs Axiome
Es sei Ω eine nicht leere Menge und ∆ eine Familie von
Teilmengen von Ω, die Ω enthält und die abgeschlossen ist
bezüglich der Komplementbildung und Vereinigung von
Mengen. Es sei P eine Abbildung von ∆ in die reellen Zahlen
mit den folgenden Eigenschaften:
1. Nicht-Negativität P(A) ≥ 0 für alle A ∈ ∆
P(Ω) = 1
2. Normalität
3. Additivität
P(A1∪A2∪...) = P(A1)+P(A2)+...
für alle A1, A2, ... ∈ ∆ mit Ai∩Aj = Ø
P heißt "Wahrscheinlichkeitsfunktion" und (Ω, ∆, P) ist ein
so genannter "Wahrscheinlichkeitsraum".
Grundbegriffe der Wahrscheinlichkeitsrechnung (1933)
Würfelspiel
P=6/6
{1,2,3,4,5,6}
Ω
P=4/6
{1,2,3,4}
{1,2,4,5}
{1,3,4,5}
{1,4,5,6}
{2,3,5,6}
P=5/6
{1,2,3,4,5} {1,2,3,4,6}
{1,2,3,5,6} {1,2,4,5,6}
{1,3,4,5,6} {2,3,4,6,5}
{1,2,3,5}
{1,2,4,6}
{1,3,4,6}
{2,3,4,5}
{2,4,5,6}
P=2/6
{1,2,3,6}
{1,2,5,6}
{1,3,5,6}
{2,3,4,6}
{3,4,5,6}
P=3/6
{1,2,3}
{1,2,5}
{1,3,4}
{1,3,6}
{1,4,6}
{4,5,6}
{3,4,6}
{2,5,6}
{2,4,5}
{2,3,5}
{1,2,4}
{1,2,6}
{1,3,5}
{1,4,5}
{1,5,6}
∆
{1,2} {1,3} {1,4} {1,5}
{1,6} {2,3} {2,4} {2,5}
{2,6} {3,4} {3,5} {3,6}
{4,5} {4,6} {5,6}
P=1/6
{3,5,6}
{3,4,5}
{2,4,6}
{2,3,6}
{2,3,4}
{1} {2} {3}
{4} {5} {6}
P=0/6
Ø
Maßtheoretische Sicht der Wahrscheinlichkeit
Ω
A
B
Ω
A
AC
A∪B: Ereignis A oder Ereignis B oder beide treten ein.
A∩B: Ereignisse A und B treten gleichzeitig ein.
AC: Das Komplement (Gegenteil) von Ereignis A tritt ein.
P(A∪B) = P(A)+P(B)-P(A∩B)
P(A)+P(AC) = P(A∪AC) = P(Ω) = 1
P(AC) = 1-P(A)
Unabhängigkeit von Ereignissen
Zwei Ereignisse A und B heißen "unabhängig", wenn
P(A∩B) = P(A)⋅P(B)
Blutdruck und Blutfette
Etwa 25% der erwachsenen US-Amerikaner haben
einen erhöhten Blutdruck. (A)
Etwa 20% der erwachsenen US-Amerikaner haben
erhöhte Blutfettwerte. (B)
Etwa 17% der erwachsenen US-Amerikaner sind
hypertensiv und hyperlipidämisch. (A∩B)
P(A∩B) = 0.17 > 0.05 = 0.25⋅0.20 = P(A)⋅P(B)
Zufallsvariable
... bilden komplexe Zufallsereignisse aus der Realität auf
eine einfache (meistens numerische) Skala ab.
X: Häufigkeit, mit der die ersten fünf Würfel
die Augenzahl 6 zeigen
X=2
eine "Realisierung" von X
Diskrete Zufallsvariable
X: Häufigkeit, mit der die ersten fünf Würfel
die Augenzahl 6 zeigen
X=2
eine "Realisierung" von X
Wahrscheinlichkeitsfunktion von X
f(a)=P(X=a) für alle möglichen Werte a von X
Binomialverteilung Bin(n,π)
Modell: n unabhängige Wiederholungen eines Experiments
mit binärem Ausgang ("Erfolg", "Misserfolg") und
konstanter Erfolgswahrscheinlichkeit π bei jeder
Wiederholung
X: Anzahl der Erfolge
n k
n −k
f (k ) = P( X = k ) =   ⋅ π (1 − π)
k 
n
1 ⋅ 2 ⋅ ... ⋅ n
n!
  =
=
 k  1 ⋅ 2 ⋅ ... ⋅ k ⋅ 1 ⋅ 2 ⋅ ... ⋅ (n − k ) k! (n − k )!
"Binomialkoeffizient"
Münzwurf
n=5, k=3
π⋅(1-π)⋅π⋅(1-π)⋅π=π3⋅(1-π)2
(1-π)⋅π⋅π⋅(1-π)⋅π=π3⋅(1-π)2
1
2
3
4
5
Wieviel verschiedene Möglichkeiten gibt es, aus 5
Positionen genau 3 Positionen auszuwählen?
5⋅4 ⋅3
5 ⋅ 4 ⋅ 3 ⋅2 ⋅1
5!
= 10 =
=
3 ⋅2 ⋅1
3 ⋅ 2 ⋅ 1 ⋅ 2 ⋅ 1 3!⋅2!
Wirksamkeit von Antibiotika
Ein Antibiotikum wirkt bei 85% aller Patienten mit einer
bestimmten Krankheit. Mit welcher Wahrscheinlichkeit
werden mindestens 8 von 10 Patienten durch das
Medikament geheilt?
n=10, π=0.85, k=8, 9 oder 10
P(X≥8) = f(8) + f(9) + f(10) =
= 10 0.8580.152 + 10 0.8590.151 + 10 0.85100.150
8
9
10
= 45⋅0.272⋅0.023 + 10⋅0.232⋅0.150 + 1⋅0.197⋅1.000
= 0.820
Wahrscheinlichkeitsfunktion
Bin(10,0.85)
0.4
f(k)
0.3
0.2
0.1
0.0
0
1
2
3
4
5
6
k
7
8
9
10
Stetige Zufallsvariable
X = 22.5
Verteilungsfunktion von X
F(b)=P(X≤b) für reelle Zahlen b
Verteilungsfunktion
1,0
0,8
F(b)
0,6
0,4
0,2
0,0
-4
-3
-2
-1
0
1
2
3
b
0≤F(b)≤1
F(b) ist monoton wachsend
4
Verteilung einer
stetigen Zufallsvariablen
y
f(x) "Dichte"
x
b
F(b) =
∫ f (x)dx
−∞
b
y
P(a < X ≤ b) = F(b) − F(a)
x
a
b
Unabhängigkeit von Zufallsvariablen
Zwei Zufallsvariable X und Y
heißen "stochastisch unabhängig", wenn
P(X≤a,Y≤b) = P(X≤a)⋅P(Y≤b)
für jede Auswahl reeller Zahlen a und b.
Unabhängigkeit von Zufallsvariablen
Beispiele
unabhängig
nicht unabhängig
X: Körpergröße
Y: Untersuchungszeitpunkt
X: Body-Mass-Index
Y: Alter
X: Geschlecht
Y: Haarfarbe
X: Blutdruck
Y: Blutfettwerte
Erwartungswert E(X)
Der Erwartungswert (oder das "Populationsmittel") einer
Zufallsvariablen gibt ihren durchschnittlichen bzw. zentralen
Wert an. Er fasst wesentliche Charakteristika der Verteilung
der Variablen in einer Kennzahl zusammen.
http://www.stats.gla.ac.uk/steps/glossary/index.html
diskret
E( X ) = ∑ a ⋅ P( X = a)
a
stetig
E( X ) =
+∞
∫ x ⋅ f (x)dx
−∞
Würfelspiel
X: Augenzahl in einem Wurf
E(X) = 1⋅1/6 + 2⋅1/6 + 3⋅1/6 + 4⋅1/6 + 5⋅1/6 + 6⋅1/6 = 3.5
Y: Summe der Augenzahl in zwei Würfen
E(Y) = 2⋅1/36 + 3⋅2/36 + 4⋅3/36 + 5⋅4/36 + 6⋅5/36 + 7⋅6/36 +
8⋅5/36 + 9⋅4/36 + 10⋅3/36 + 11⋅2/36 + 12⋅1/36 = 7
Gesetz der Großen Zahlen
X1, X2, …, Xn unabhängig und identisch verteilt
mit E(X1) = ... = E(Xn) = µ
X1 + ... + X n
X=
→µ
n
wenn n sehr groß wird
Würfelspiel
Xi: Augenzahl eines einzelnen Wurfs (i=1,...,n)
X : durchschnittliche Augenzahl
5.5
100 Wiederholungen
5.0
4.5
4.0
X
3.5
3.0
2.5
2.0
1.5
n=10
n=100
n=500
Varianz Var(X)
Die Varianz einer Zufallsvariablen ist eine nicht negative
reelle Zahl, die einen Eindruck von der zu erwartenden
Streuung der Realisierungen einer Zufallsvariablen
vermittelt. Je größer die Varianz, umso verstreuter werden
diese Beobachtungen sein.
http://www.stats.gla.ac.uk/steps/glossary/index.html
Var(X) = E([X-E(X)]2)
Var(X)
"Standardabweichung"
Varianz Var(X)
E(X1)
E(X2)
Var(X1) < Var(X2)
Würfelspiel
X: Augenzahl in einem Wurf
Var(X) = (1-3.5)2⋅1/6 + (2-3.5)2⋅1/6 + (3-3.5)2⋅1/6 +
(4-3.5)2⋅1/6 + (5-3.5)2⋅1/6 + (6-3.5)2⋅1/6 = 2.9
Y: Summe der Augenzahl in zwei Würfen
Var(Y) = (2-7)2⋅1/36 + (3-7)2⋅2/36 + (4-7)2⋅3/36 + (5-7)2⋅4/36 +
(6-7)2⋅5/36 + (7-7)2⋅6/36 + (8-7)2⋅5/36 + (9-7)2⋅4/36 +
(10-7)2⋅3/36 + (11-7)2⋅2/36 + (12-7)2⋅1/36 = 5.8
Einige Rechenregeln
E(X+Y) = E(X) + E(Y)
E(α⋅X) = α⋅E(X)
Var(α⋅X) = α2⋅Var(X)
wenn X und Y unabhängig sind
E(X⋅Y) = E(X)⋅E(Y)
Var(X+Y) = Var(X) + Var(Y)
Normalverteilung N(µ,σ2)
f (x) =
1
σ 2π
e
−
( x −µ )2
2 σ2
µ = E( X), σ2 = Var ( X)
Standard-Normalverteilung N(0,1)
z
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0
0.5000
0.5398
0.5793
0.6179
0.6554
0.6915
0.7257
0.7580
0.7881
1
0.5040
0.5438
0.5832
0.6217
0.6591
0.6950
0.7291
0.7611
0.7910
2
0.5080
0.5478
0.5871
0.6255
0.6628
0.6985
0.7324
0.7642
0.7939
3
0.5120
0.5517
0.5910
0.6293
0.6664
0.7019
0.7357
0.7673
0.7967
4
0.5160
0.5557
0.5948
0.6331
0.6700
0.7054
0.7389
0.7704
0.7995
0.9
1.0
1.1
1.2
0.8159
0.8413
0.8643
0.8849
0.8186
0.8438
0.8665
0.8869
0.8212
0.8461
0.8686
0.8888
0.8238
0.8485
0.8708
0.8907
0.8729
0.8925
1.3
1.4
1.5
1.6
0.9032
0.9192
0.9332
0.9452
0.9049
0.9207
0.9345
0.9463
0.9066
0.9222
0.9357
0.9474
0.9082
0.9236
0.9370
0.9484
1.7
1.8
1.9
2.0
0.9554
0.9641
0.9713
0.9772
0.9564
0.9649
0.9719
0.9778
0.9573
0.9656
0.9726
0.9783
0.9582
0.9664
0.9732
0.9788
5
0.5199
0.5596
0.5987
0.6368
0.6736
0.7088
0.7422
0.7734
0.8023
6
0.5239
0.5636
0.6026
0.6406
0.6772
0.7123
0.7454
0.7764
0.8051
7
0.5279
0.5675
0.6064
0.6443
0.6808
0.7157
0.7486
0.7794
0.8078
8
0.5319
0.5714
0.6103
0.6480
0.6844
0.7190
0.7517
0.7823
0.8106
9
0.5359
0.5753
0.6141
0.6517
0.6879
0.7224
0.7549
0.7852
0.8133
0.8749
0.8944
0.8315
0.8554
0.8770
0.8962
0.8340
0.8577
0.8790
0.8980
0.8365
0.8599
0.8810
0.8997
0.8389
0.8621
0.8830
0.9015
0.9099
0.9251
0.9382
0.9495
0.9115
0.9265
0.9394
0.9505
0.9131
0.9279
0.9406
0.9515
0.9147
0.9292
0.9418
0.9525
0.9162
0.9306
0.9429
0.9535
0.9177
0.9319
0.9441
0.9545
0.9591
0.9671
0.9738
0.9793
0.9599
0.9678
0.9744
0.9798
0.9608
0.9686
0.9750
0.9803
0.9616
0.9693
0.9756
0.9808
0.9625
0.9699
0.9761
0.9812
0.9633
0.9706
0.9767
0.9817
0.8264
0.8289
P(Z≤z)=Φ(z)
0.8508
0.8531
Standardisierung von N(µ,σ2)
Wenn X normalverteilt ist mit Erwartungswert µ und
Varianz σ2, dann hat die Zufallsvariable
X −µ
Z=
σ
eine Standard-Normalverteilung.
Für die Verteilungsfunktion F(b) von X gilt
b−µ
F(b) = Φ(
)
σ
Blutdruck
Der diastolische Blutdruck von Normalpersonen sei normalverteilt
mit Erwartungswert µ=80 mmHg und Standardabweichung
σ=10 mmHg. Mit welcher Wahrscheinlichkeit weist eine zufällig
ausgewählte Normalperson einen Blutdruck zwischen 70 mmHg
und 85 mmHg auf?
P(70 ≤ X ≤ 85) = F(85) − F(70)
85 − 80
70 − 80
= Φ(
) − Φ(
)
10
10
= Φ(0.5) − Φ(−1) = 0.6915 − 0.1587
= 0.5328
Standard-Normalverteilung N(0,1)
P(-1.00≤Z≤+1.00) = 0.68
P(µ-σ≤X≤µ+σ) = 0.68
Standard-Normalverteilung N(0,1)
P(Z≤0.00) = 0.50= P(Z≥0.00)
P(X≤µ) = 0.50 = P(X≥µ)
Standard-Normalverteilung N(0,1)
P(-1.96≤Z≤+1.96) = 0.95
P(µ-1.96σ≤X≤µ+1.96σ) = 0.95
Standard-Normalverteilung N(0,1)
P(Z≤1.65) = 0.95 = P(Z≥-1.65)
P(X≤µ+1.65σ) = 0.95 = P(X≥µ-1.65σ)
Normalverteilung N(µ,σ2)
N(0,1)
N(1,1)
N(0,4)
N(0,0.25)
Zentraler Grenzwertsatz
X1, X2, …, Xn unabhängig und identisch verteilt
mit Erwartungswert µ und Varianz σ2
n  X1 + ... + X n

− µ → Z

σ 
n

für ein standard-normalverteiltes Z, wenn n sehr groß wird
"Galton-Brett"
Ein Brett mit mehreren Reihen versetzter, aber in gleichem
Abstand zueinander angebrachter Nägel;
benannt nach seinem Erfinder Francis Galton (1822-1911)
http://www.rand.org/methodology/stat/applets/clt.html
Würfelspiel
X : durchschnittliche Augenzahl aus n Würfen
3.7
3.6
30
3.5
X
25
3.4
Frequency
20
3.3
15
10
3.2
n=500
100 Wiederholungen
5
0
X
Die (Fast) Universelle Natur der Normalität
Länge
Sauerstoffverbrauch
Fruchtbarkeit
Schnabellänge
Gewicht
Zusammenfassung
- Die Wahrscheinlichkeitstheorie ist eine mathematische
Disziplin auf der Grundlage der Kolmogorovschen Axiome.
- Zufallsvariable bilden komplexe (reale) Ereignisse auf einer
einfachen numerischen, diskreten oder stetigen Skala ab.
- Die Verteilung einer Zufallsvariablen wird charakterisiert durch
ihre Wahrscheinlichkeitsfunktion bzw. Dichte.
- Zufallsvariable heißen unabhängig, wenn ihre gemeinsame
Verteilung gleich dem Produkt der einzelnen Verteilungen ist.
- Wichtige Kennzahlen der Verteilung von Zufallsvariablen sind
deren Erwartungswert und Varianz.
- Die Normalverteilung ist eine universelle Annäherung des
umfangreichen "Durchschnitts" anderer Zufallsvariable.
Herunterladen