Wahrscheinlichkeitstheorie Alea iacta est! "Wissenschaftliche Theorien, die auf Eigenschaften einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die zufällige Natur ihrer Beweisgrundlagen aus dem Auge verliert." Ronald Aylmer Fisher (1890-1962) Ein Ereignis wird als zufällig bezeichnet, wenn sein Ausgang variabel und nicht vorhersagbar ist. Die klassische Interpretation Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen der Anzahl günstiger und möglicher Ausgänge eines Zufallsexperiments. Pierre-Simon Laplace (1749-1827) Beispiel: Mit einem Würfel soll eine 5 geworfen werden. Von den sechs möglichen Ausgängen des Wurfs ist hierfür nur einer günstig. Also beträgt die Wahrscheinlichkeit für "die Augenzahl lautet 5" ein Sechstel. Die frequentistische Interpretation Die Wahrscheinlichkeit eines Ereignisses in einer Serie von Versuchen ist der Grenzwert der relativen Häufigkeit des Ereignisses. John Venn (1834-1923) Beispiel: Wirf einen Würfel sehr oft und notiere jedes mal die Augenzahl. Die relative Häufigkeit von "die Augenzahl lautet 5" ist ungefähr ein Sechstel. Der Grenzwert der relativen Häufigkeit ist genau ein Sechstel. Die subjektive Interpretation Wahrscheinlichkeit ist ein Maß für den Glauben an den Eintritt eines Ereignisses. Frank P. Ramsey (1903-1930) Beispiel: Nimm an Du wettest, dass die Augenzahl 5 lautet. Du setzt einen Dollar ein und bekommst sechs Dollar zurück, wenn Du gewinnst. Diese Wette empfindest Du als fair. Die axiomatische Interpretation Eine Wahrscheinlichkeit ist etwas, was die Axiome der Wahrscheinlichkeitstheorie erfüllt. Andrej N. Kolmogorov (1903-1987) Kolmogorovs Axiome Es sei Ω eine nicht leere Menge und ∆ eine Familie von Teilmengen von Ω, die Ω enthält und die abgeschlossen ist bezüglich der Komplementbildung und Vereinigung von Mengen. Es sei P eine Abbildung von ∆ in die reellen Zahlen mit den folgenden Eigenschaften: 1. Nicht-Negativität P(A) ≥ 0 für alle A ∈ ∆ P(Ω) = 1 2. Normalität 3. Additivität P(A1∪A2∪...) = P(A1)+P(A2)+... für alle A1, A2, ... ∈ ∆ mit Ai∩Aj = Ø P heißt "Wahrscheinlichkeitsfunktion" und (Ω, ∆, P) ist ein so genannter "Wahrscheinlichkeitsraum". Grundbegriffe der Wahrscheinlichkeitsrechnung (1933) Würfelspiel P=6/6 {1,2,3,4,5,6} Ω P=4/6 {1,2,3,4} {1,2,4,5} {1,3,4,5} {1,4,5,6} {2,3,5,6} P=5/6 {1,2,3,4,5} {1,2,3,4,6} {1,2,3,5,6} {1,2,4,5,6} {1,3,4,5,6} {2,3,4,6,5} {1,2,3,5} {1,2,4,6} {1,3,4,6} {2,3,4,5} {2,4,5,6} P=2/6 {1,2,3,6} {1,2,5,6} {1,3,5,6} {2,3,4,6} {3,4,5,6} P=3/6 {1,2,3} {1,2,5} {1,3,4} {1,3,6} {1,4,6} {4,5,6} {3,4,6} {2,5,6} {2,4,5} {2,3,5} {1,2,4} {1,2,6} {1,3,5} {1,4,5} {1,5,6} ∆ {1,2} {1,3} {1,4} {1,5} {1,6} {2,3} {2,4} {2,5} {2,6} {3,4} {3,5} {3,6} {4,5} {4,6} {5,6} P=1/6 {3,5,6} {3,4,5} {2,4,6} {2,3,6} {2,3,4} {1} {2} {3} {4} {5} {6} P=0/6 Ø Maßtheoretische Sicht der Wahrscheinlichkeit Ω A B Ω A AC A∪B: Ereignis A oder Ereignis B oder beide treten ein. A∩B: Ereignisse A und B treten gleichzeitig ein. AC: Das Komplement (Gegenteil) von Ereignis A tritt ein. P(A∪B) = P(A)+P(B)-P(A∩B) P(A)+P(AC) = P(A∪AC) = P(Ω) = 1 P(AC) = 1-P(A) Unabhängigkeit von Ereignissen Zwei Ereignisse A und B heißen "unabhängig", wenn P(A∩B) = P(A)⋅P(B) Blutdruck und Blutfette Etwa 25% der erwachsenen US-Amerikaner haben einen erhöhten Blutdruck. (A) Etwa 20% der erwachsenen US-Amerikaner haben erhöhte Blutfettwerte. (B) Etwa 17% der erwachsenen US-Amerikaner sind hypertensiv und hyperlipidämisch. (A∩B) P(A∩B) = 0.17 > 0.05 = 0.25⋅0.20 = P(A)⋅P(B) Zufallsvariable ... bilden komplexe Zufallsereignisse aus der Realität auf eine einfache (meistens numerische) Skala ab. X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen X=2 eine "Realisierung" von X Diskrete Zufallsvariable X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen X=2 eine "Realisierung" von X Wahrscheinlichkeitsfunktion von X f(a)=P(X=a) für alle möglichen Werte a von X Binomialverteilung Bin(n,π) Modell: n unabhängige Wiederholungen eines Experiments mit binärem Ausgang ("Erfolg", "Misserfolg") und konstanter Erfolgswahrscheinlichkeit π bei jeder Wiederholung X: Anzahl der Erfolge n k n −k f (k ) = P( X = k ) = ⋅ π (1 − π) k n 1 ⋅ 2 ⋅ ... ⋅ n n! = = k 1 ⋅ 2 ⋅ ... ⋅ k ⋅ 1 ⋅ 2 ⋅ ... ⋅ (n − k ) k! (n − k )! "Binomialkoeffizient" Münzwurf n=5, k=3 π⋅(1-π)⋅π⋅(1-π)⋅π=π3⋅(1-π)2 (1-π)⋅π⋅π⋅(1-π)⋅π=π3⋅(1-π)2 1 2 3 4 5 Wieviel verschiedene Möglichkeiten gibt es, aus 5 Positionen genau 3 Positionen auszuwählen? 5⋅4 ⋅3 5 ⋅ 4 ⋅ 3 ⋅2 ⋅1 5! = 10 = = 3 ⋅2 ⋅1 3 ⋅ 2 ⋅ 1 ⋅ 2 ⋅ 1 3!⋅2! Wirksamkeit von Antibiotika Ein Antibiotikum wirkt bei 85% aller Patienten mit einer bestimmten Krankheit. Mit welcher Wahrscheinlichkeit werden mindestens 8 von 10 Patienten durch das Medikament geheilt? n=10, π=0.85, k=8, 9 oder 10 P(X≥8) = f(8) + f(9) + f(10) = = 10 0.8580.152 + 10 0.8590.151 + 10 0.85100.150 8 9 10 = 45⋅0.272⋅0.023 + 10⋅0.232⋅0.150 + 1⋅0.197⋅1.000 = 0.820 Wahrscheinlichkeitsfunktion Bin(10,0.85) 0.4 f(k) 0.3 0.2 0.1 0.0 0 1 2 3 4 5 6 k 7 8 9 10 Stetige Zufallsvariable X = 22.5 Verteilungsfunktion von X F(b)=P(X≤b) für reelle Zahlen b Verteilungsfunktion 1,0 0,8 F(b) 0,6 0,4 0,2 0,0 -4 -3 -2 -1 0 1 2 3 b 0≤F(b)≤1 F(b) ist monoton wachsend 4 Verteilung einer stetigen Zufallsvariablen y f(x) "Dichte" x b F(b) = ∫ f (x)dx −∞ b y P(a < X ≤ b) = F(b) − F(a) x a b Unabhängigkeit von Zufallsvariablen Zwei Zufallsvariable X und Y heißen "stochastisch unabhängig", wenn P(X≤a,Y≤b) = P(X≤a)⋅P(Y≤b) für jede Auswahl reeller Zahlen a und b. Unabhängigkeit von Zufallsvariablen Beispiele unabhängig nicht unabhängig X: Körpergröße Y: Untersuchungszeitpunkt X: Body-Mass-Index Y: Alter X: Geschlecht Y: Haarfarbe X: Blutdruck Y: Blutfettwerte Erwartungswert E(X) Der Erwartungswert (oder das "Populationsmittel") einer Zufallsvariablen gibt ihren durchschnittlichen bzw. zentralen Wert an. Er fasst wesentliche Charakteristika der Verteilung der Variablen in einer Kennzahl zusammen. http://www.stats.gla.ac.uk/steps/glossary/index.html diskret E( X ) = ∑ a ⋅ P( X = a) a stetig E( X ) = +∞ ∫ x ⋅ f (x)dx −∞ Würfelspiel X: Augenzahl in einem Wurf E(X) = 1⋅1/6 + 2⋅1/6 + 3⋅1/6 + 4⋅1/6 + 5⋅1/6 + 6⋅1/6 = 3.5 Y: Summe der Augenzahl in zwei Würfen E(Y) = 2⋅1/36 + 3⋅2/36 + 4⋅3/36 + 5⋅4/36 + 6⋅5/36 + 7⋅6/36 + 8⋅5/36 + 9⋅4/36 + 10⋅3/36 + 11⋅2/36 + 12⋅1/36 = 7 Gesetz der Großen Zahlen X1, X2, …, Xn unabhängig und identisch verteilt mit E(X1) = ... = E(Xn) = µ X1 + ... + X n X= →µ n wenn n sehr groß wird Würfelspiel Xi: Augenzahl eines einzelnen Wurfs (i=1,...,n) X : durchschnittliche Augenzahl 5.5 100 Wiederholungen 5.0 4.5 4.0 X 3.5 3.0 2.5 2.0 1.5 n=10 n=100 n=500 Varianz Var(X) Die Varianz einer Zufallsvariablen ist eine nicht negative reelle Zahl, die einen Eindruck von der zu erwartenden Streuung der Realisierungen einer Zufallsvariablen vermittelt. Je größer die Varianz, umso verstreuter werden diese Beobachtungen sein. http://www.stats.gla.ac.uk/steps/glossary/index.html Var(X) = E([X-E(X)]2) Var(X) "Standardabweichung" Varianz Var(X) E(X1) E(X2) Var(X1) < Var(X2) Würfelspiel X: Augenzahl in einem Wurf Var(X) = (1-3.5)2⋅1/6 + (2-3.5)2⋅1/6 + (3-3.5)2⋅1/6 + (4-3.5)2⋅1/6 + (5-3.5)2⋅1/6 + (6-3.5)2⋅1/6 = 2.9 Y: Summe der Augenzahl in zwei Würfen Var(Y) = (2-7)2⋅1/36 + (3-7)2⋅2/36 + (4-7)2⋅3/36 + (5-7)2⋅4/36 + (6-7)2⋅5/36 + (7-7)2⋅6/36 + (8-7)2⋅5/36 + (9-7)2⋅4/36 + (10-7)2⋅3/36 + (11-7)2⋅2/36 + (12-7)2⋅1/36 = 5.8 Einige Rechenregeln E(X+Y) = E(X) + E(Y) E(α⋅X) = α⋅E(X) Var(α⋅X) = α2⋅Var(X) wenn X und Y unabhängig sind E(X⋅Y) = E(X)⋅E(Y) Var(X+Y) = Var(X) + Var(Y) Normalverteilung N(µ,σ2) f (x) = 1 σ 2π e − ( x −µ )2 2 σ2 µ = E( X), σ2 = Var ( X) Standard-Normalverteilung N(0,1) z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 1 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 2 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 3 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 4 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.9 1.0 1.1 1.2 0.8159 0.8413 0.8643 0.8849 0.8186 0.8438 0.8665 0.8869 0.8212 0.8461 0.8686 0.8888 0.8238 0.8485 0.8708 0.8907 0.8729 0.8925 1.3 1.4 1.5 1.6 0.9032 0.9192 0.9332 0.9452 0.9049 0.9207 0.9345 0.9463 0.9066 0.9222 0.9357 0.9474 0.9082 0.9236 0.9370 0.9484 1.7 1.8 1.9 2.0 0.9554 0.9641 0.9713 0.9772 0.9564 0.9649 0.9719 0.9778 0.9573 0.9656 0.9726 0.9783 0.9582 0.9664 0.9732 0.9788 5 0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 6 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 7 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 8 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 9 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8749 0.8944 0.8315 0.8554 0.8770 0.8962 0.8340 0.8577 0.8790 0.8980 0.8365 0.8599 0.8810 0.8997 0.8389 0.8621 0.8830 0.9015 0.9099 0.9251 0.9382 0.9495 0.9115 0.9265 0.9394 0.9505 0.9131 0.9279 0.9406 0.9515 0.9147 0.9292 0.9418 0.9525 0.9162 0.9306 0.9429 0.9535 0.9177 0.9319 0.9441 0.9545 0.9591 0.9671 0.9738 0.9793 0.9599 0.9678 0.9744 0.9798 0.9608 0.9686 0.9750 0.9803 0.9616 0.9693 0.9756 0.9808 0.9625 0.9699 0.9761 0.9812 0.9633 0.9706 0.9767 0.9817 0.8264 0.8289 P(Z≤z)=Φ(z) 0.8508 0.8531 Standardisierung von N(µ,σ2) Wenn X normalverteilt ist mit Erwartungswert µ und Varianz σ2, dann hat die Zufallsvariable X −µ Z= σ eine Standard-Normalverteilung. Für die Verteilungsfunktion F(b) von X gilt b−µ F(b) = Φ( ) σ Blutdruck Der diastolische Blutdruck von Normalpersonen sei normalverteilt mit Erwartungswert µ=80 mmHg und Standardabweichung σ=10 mmHg. Mit welcher Wahrscheinlichkeit weist eine zufällig ausgewählte Normalperson einen Blutdruck zwischen 70 mmHg und 85 mmHg auf? P(70 ≤ X ≤ 85) = F(85) − F(70) 85 − 80 70 − 80 = Φ( ) − Φ( ) 10 10 = Φ(0.5) − Φ(−1) = 0.6915 − 0.1587 = 0.5328 Standard-Normalverteilung N(0,1) P(-1.00≤Z≤+1.00) = 0.68 P(µ-σ≤X≤µ+σ) = 0.68 Standard-Normalverteilung N(0,1) P(Z≤0.00) = 0.50= P(Z≥0.00) P(X≤µ) = 0.50 = P(X≥µ) Standard-Normalverteilung N(0,1) P(-1.96≤Z≤+1.96) = 0.95 P(µ-1.96σ≤X≤µ+1.96σ) = 0.95 Standard-Normalverteilung N(0,1) P(Z≤1.65) = 0.95 = P(Z≥-1.65) P(X≤µ+1.65σ) = 0.95 = P(X≥µ-1.65σ) Normalverteilung N(µ,σ2) N(0,1) N(1,1) N(0,4) N(0,0.25) Zentraler Grenzwertsatz X1, X2, …, Xn unabhängig und identisch verteilt mit Erwartungswert µ und Varianz σ2 n X1 + ... + X n − µ → Z σ n für ein standard-normalverteiltes Z, wenn n sehr groß wird "Galton-Brett" Ein Brett mit mehreren Reihen versetzter, aber in gleichem Abstand zueinander angebrachter Nägel; benannt nach seinem Erfinder Francis Galton (1822-1911) http://www.rand.org/methodology/stat/applets/clt.html Würfelspiel X : durchschnittliche Augenzahl aus n Würfen 3.7 3.6 30 3.5 X 25 3.4 Frequency 20 3.3 15 10 3.2 n=500 100 Wiederholungen 5 0 X Die (Fast) Universelle Natur der Normalität Länge Sauerstoffverbrauch Fruchtbarkeit Schnabellänge Gewicht Zusammenfassung - Die Wahrscheinlichkeitstheorie ist eine mathematische Disziplin auf der Grundlage der Kolmogorovschen Axiome. - Zufallsvariable bilden komplexe (reale) Ereignisse auf einer einfachen numerischen, diskreten oder stetigen Skala ab. - Die Verteilung einer Zufallsvariablen wird charakterisiert durch ihre Wahrscheinlichkeitsfunktion bzw. Dichte. - Zufallsvariable heißen unabhängig, wenn ihre gemeinsame Verteilung gleich dem Produkt der einzelnen Verteilungen ist. - Wichtige Kennzahlen der Verteilung von Zufallsvariablen sind deren Erwartungswert und Varianz. - Die Normalverteilung ist eine universelle Annäherung des umfangreichen "Durchschnitts" anderer Zufallsvariable.