Idlhammer Markus 1 Idlhammer Markus Die Wahrscheinlichkeitsrechnung 1 Historisches zur Wahrscheinlichkeitsrechnung Ein Freund von Blaise Pascal (1623 – 1662), Chevalier de Mére´ (1607 – 1684) beschäftigte sich hauptberuflich mit dem Würfelspiel. Die Bank (de Mére´) gewann immer dann, wenn ein Spieler bei vier Würfen mit je einem Würfel wenigstens eine Sechs warf. Die Grundlage dieser Regeln führten dazu, dass Herr de Mére´ sehr reich wurde. Um noch mehr Geld zu verdienen, änderte er die Regeln etwas ab. Die Bank gewann nun, wenn ein Spieler bei 24 Würfen wenigstens eine doppelte Sechs würfelte. Ab diesem Zeitpunkt verlor de Mére´ fast sein ganzes Vermögen. Worauf dies basiert, wird in weiterer Folge noch beschrieben. 2 Grundbegriffe der Wahrscheinlichkeitsrechnung 2.1 Das Zufallsexperiment ist ein Vorgang: der nach bestimmten Vorschriften ausgeführt wird der beliebig oft wiederholbar ist bei dem das Ergebnis vom Zufall abhängt bei welchem die Ergebnisse bei mehrfacher Durchführung voneinander unabhängig sind Beispiel: Werfen eines Würfels: 2.2 Elementarereignis: Jedes Zufallsexperiment besitzt eine Reihe möglicher elementarer Ereignisse mit der Eigenschaft dass immer nur ein bestimmtes Ereignis auftreten kann. Beispiel: Zufallsexperiment: Werfen eines Würfels (sechs mögliche Elementarereignisse [1…..6]) Ereignisraum: Besitzt ein Zufallsexperiment n- mögliche Elementarereignisse (e1, …., en), dann bildet die Menge {e1,…….,en} den Ereignisraum E. E = {e1,…….,en} Der Ereignisraum kann endlich oder unendlich sein. Beispiel 1: Werfen eines Würfels Das einmalige Werfen einer Münze Zweimaliges Werfen einer Münze E = {1, 2, 3, 4, 5, 6} E = {Zahl, Kopf} E = {KK, KZ, ZK, ZZ} Ergebnis: Teilmenge von E; E = {1, 2, 3, 4, 5, 6} Ergebnis: gerade Zahl = {2, 4, 6} 2 Idlhammer Markus 2.2.1 Mögliche Operationen mit Ereignissen Vereinigung zweier Ergebnisse A: = {1,2} B: = {3} A B = {1,2,3} VENN-Diagramm: E A B 1,2 3 Vereinigung zweier Ergebnisse A: = {1,2,3} B: = {2,3,4} A B = {2,3} E A B 1 4 2 3 Zwei Ergebnisse sind disjunkt, wenn sie einander ausschließen! A B = {} = Ø leere Menge = unmögliches Ereignis E A B Zwei Ereignisse (A und A )sind komplementär wenn A A = E (sicheres Ereignis) und wenn A A = Ø (unsicheres Ereignis) E A A 3 Idlhammer Markus Beispiel 2: Zufallsexperiment: 2 mal würfeln E= {(1,1); (1,2); (1,3); (1,4); (1,5); (1,6); (2,1); (2,2); (2,3); (2,4); (2,5); (2,6); …. …. (6,1); …. ….. (6,6)} A: Beim ersten Wurf eine „6“ B: Beim zweiten Wurf eine „6“ A B = { (1,6); (2,6); (3,6); (4,6); (5,6); (6,6); (6,1); (6,2); (6,3); (6,4); (6,5)} 11 Elementareeignisse A B = {(6,6)} 1 Elementarereignis 2.3 Wahrscheinlichkeit Die Wahrscheinlichkeit ist ein Maß das zur Quantifizierung der Sicherheit bzw. Unsicherheit des Eintretens eines bestimmten Ereignisses dient, das im Rahmen eines Zufallsexperimentes abläuft. 2.3.1 Der klassische Wahrscheinlichkeitsbegriff Abb. 2: klassische „Zufallsgeräte“ nach P. S. Laplace P(E) = Abb.1: Pierre Simon Laplace 1749-1827 aus www.mathematik.de Zahl der günstigen Fälle [E] = [] Zahl der möglichen Fälle Beispiele3 und 4: (a) A: Gerade Zahl bei einem Wurf eines Würfels Zahl der günstigen Fälle: 3 Zahl aller möglichen Fälle: 6 4 Idlhammer Markus P(A) = 3 = 0,5 (50%) 6 (b) W: Morgen ist gutes Wetter! E = {W; W } P(W) = ½ = 0,5 = 50% Der klassische Wahrscheinlichkeitsbegriff funktioniert in diesem Fall nicht, da im Winter eine höhere Regenwahrscheinlichkeit existiert als im Sommer! 2.4 Statistischer Wahrscheinlichkteitsbegriff nach (R. v. Mises) Voraussetzung: Zufallsexperiment Beispiel: Münzwurf n: 1 000 000 P(Kopf) = Häufigkeit von Kopf n lim n P(A) = lim n h( A) = lim n f (A) n Abb.3: R. v. Mises 1883 - 1953 aus www.mathematik.de NOETHER (1971) hat Münzwürfe durchgeführt h(Kopf) F(Kopf) 10 7 0,7 100 47 0,47 1000 492 0,492 5000 2515 0,503 f(Kopf) n 0,5 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 10 100 1000 5000 n 5 Idlhammer Markus 2.5 Kolmogorov (Axiomatischer Wahrscheinlichkeitsbegriff) Axiom: Ein Grundsatz den man nicht mehr beweisen muss (z. B. 1 + 2 = 3) 1. Axiom: Nichtnegativität (0 P(A) 1) 2. Axiom: Normierung P(E) = 1 3. Axiom: Additivität = Kolomogrov 3 Sind 2 Ereignisse A und B disjunkt so gilt: P(A B) = P(A) + P(B) Abb.4: Andrej N. Kolomoforov 1903-1987 Erweiterung auf mehr als 2 disjunktive Ereignisse: aus: www.mesure.igpp.ucla.edu/solarterrestrial-luminaries/timeline.html Ai Aj = {} P(A1 A2 A3… An) = P(A1) + P(A2) + P(A3) + P(An) Beispiel 5: Zufallsexperiment: Ereignis A: P(A) = ? E= Wurf von zwei Würfeln Augensumme beider Würfel ist „4“ {(1,1); (1,2); (1,3); (1,4); (1,5); (1,6); (2,1); (2,2); (2,3); (2,4); (2,5); (2,6); …. …. (6,1); …. ….. (6,6)} Voraussetzung: Die Würfel sind fair! 36 gleichwahrscheinliche Elementarereignisse! P(Elementarereignisse) = 1/36 A:= { (1,3) (2,2) (3,1) } P(A) = P(1,3) + P(2,2) + P(3,1) K[3] (Kolomogrov 3) P(A) = 1/36 + 1/36 + 1/36 = 3/36 = 1/12 = 8,333% Komplementärereignis zu A: A (A A = E) 6 Idlhammer Markus P(A) + P( A ) = P€ = 1 P( A ) = 1-P(A) = 1-1/12 = 11/12 = 91,666% Ein Spezialfall des Additionssatzes: P(A B) = P(A) + P(B) A B = Ø (A und B sind disjunkt) 2.5.1 AllgemeinerAdditionssatz E Herleitung: Ergebnis: A B A B A ( A B) Alles was zu Aoder zu B Gehört Alle Ergebnisse aus A + Alle Ergebnisse, die gleichzeitig zu B und zu denen die nicht in A liegen gehören P( A B) P(A) P ( A B) Allgemeiner Additionssatz der Wahrscheinlichkeitsrechnung: P( A B) P(A) P( B) P( A B) Kolomogrov = Spezialfall dieses Satzes, da P(A╫B) bei disjunkten Ereignissen Ø ist, somit O: P( A B) P(A) P ( B) 0 P( A B) P(A) P ( B) 7 Idlhammer Markus Beispiel 6: 2 ideale Münzen werden geworfen! Fragestellung: P(mindestens eine Münze zeigt Kopf)= ? A: 1. Münze zeigt Kopf P(A) = 0,5 B: 2. Münze zeigt Kopf P(B) = 0,5 E ZZ Zahl/ Kopf A B Kopf/ Kopf Kopf/ Zahl P(A B) = P(A) + P(B) - P (A B) P(A B) = 0,5 + 0,5 – 0,25 Mindestens eine der Münzen zeigt Kopf! Eine von vier Möglichkeiten ist diese: Kopf/ Kopf P(A B) = 0,75 Vierfeldertafel: A A B P(A B ) = 0,25 P( A B ) = 0,25 = P(B) = 0,5 B P(A B ) =0,25 P( A B ) =0,25 = P( B ) = 0,5 = P(A) = 0,5 = P( A ) = 0,5 P(E) = 1 P(A B) = P(A B) + P(A B ) + P( A B) = 0,75 8 Idlhammer Markus Beispiel 7: Zwei ideale Würfel werden geworfen, wie groß ist die Wahrscheinlichkeit dass; a) eine Augensumme von 7 zu erreichen b) eine Augensumme von höchstens 11 zu erhalten? Ad a) A: Augensumme = 7 A = {(6,1);(1,6); (5,2); (2,5); (4,3); (3,4)} P(A) = 6/36 = 1/6 = 0,16666 = 16,66% Ad b) Es existieren für dieses Ereignis 35 Möglichkeiten! B: Augensumme höchstens 11 B : Augensumme = 12 P( B ) = 1/36 P(B) = 1 – 1/36 = 35/ 36 = 0,97222 = 97,22% Beispiel 8: Jemand bewirbt sich bei 2 Firmen A und B. Die Wahrscheinlichkeit P dass die Bewerbung bei der Firma A angenommen wird liegt bei P(A)= 0,5, bei der Firma B liegt sie bei P(B)= 0,6. Zusätzlich rechnet der Bewerber mit einer Wahrscheinlichkeit P(A B) = 0,3 dass er von beiden Firmen angenommen wird. a) Wie groß ist die Wahrscheinlichkeit dass der Bewerber von mindestens einer der beiden Firmen eine Zusage erhält? P(A B) = P(A) + P(B) – P(A B) = 0,5 + 0,6 – 0,3 = 0,8 = 80% b) der Bewerber erhält von höchstens einer Firma eine Zusage: P( A B ) = 1 – 0,3 = 0,7 = 70% 2.6 Bedingte Wahrscheinlichkeit gilt für zwei Ergebnisse A, B in einem Zufallsversuch: P(A B) = P(A) . P(B), dann sind die beiden Ergebnisse A, B unabhängig. Beispiel 9: Nach einem Laplace-Versuch wird eine Zahl aus der Menge {1, 2, 3, …., 36}gezogen und folgenden Ergebnisse werden untersucht: A: die gezogene Zahl ist durch 3 teilbar, B: die gezogene Zahl ist durch 4 teilbar, C: die gezogene Zahl ist durch 6 teilbar. 9 Idlhammer Markus Daher gilt: 1 1 1 P( A B) P( A) P( B) 12 3 4 und 1 1 1 P( A C ) P( A) P(C ) 12 4 6 Wie man sieht sind die Ergebnisse A und B voneinander unabhängig die Teilbarkeit durch 3 begünstigt oder erschwert nicht die Teilbarkeit durch 4. Dagegen sind B, C abhängig was bedeutet dass die Teilbarkeit durch 4 die Teilbarkeit durch 6 begünstigt. Die Zahl P(A/B):= P( A B) P( B) Nennt man bedingte Wahrscheinlichkeit von A unter der Bedingung B oder von A nach B. Dabei muss P(B) ≠ 0 sein, was wiederum bedeutet dass B nicht das unmögliche Ergebnis sein darf. Man deutet P(A/B) als die Wahrscheinlichkeit von A, falls von vornherein nur die Ausfälle von B in Betracht kommen. Daher gilt: P(A/B)P(B) = P(A B) = P(B/A)P(A) Im Fall P(A) ≠ 0 gilt insbesondere P(B/A) = P( A / B) P( B) P( A) Formel von Bayes für Wahrscheinlichkeiten: Genau dann sind A, B unabhängig, wenn P(A/B) = P(A) bzw. P(B/A) = P(B) 10 Idlhammer Markus Bedingte Wahrscheinlichkeiten stellt man mit der Hilfe eines Wahrscheinlichkeitsbaums dar: P(A) P( A ) A P(B/A) A P(B/ A ) P( B /A) B B P( B / A ) B B Beispiel 10: Aus einem Kartenspiel mit 32 Karten werden drei Karten gezogen. Wir untersuchen die Ereignisse A: nur „Bilder“ und B: “mindestens zwei Damen“ P(A) = 12 3 32 3 11 8 31 4 12 4 28 3 0 2 1 43 P(B) = 31 40 32 3 und weiters: 4 12 4 12 3 0 2 1 19 P(A B) = 31 40 32 3 Es gilt P(A B) ≠ P(A) P(B), die Ereignisse A und B sind also abhängig. Daher ist P(A/B) = P(B/A) = 19 31 40 19 0,4418 = 44,18% 31 40 43 43 19 8 31 19 0,344 = 34,54% 31 40 11 55 11 Idlhammer Markus Beispiel 11: Beim Ziehen der Lottozahlen („6 aus 45“) sei Ci das Ereignis, dass die ite gezogene Zahl in einem bestimmten Tip eine „Richtige“ ist. Dann ist: V = C1 C2 C3 C4 C5 C6 6 5 4 3 2 1 1 45 44 43 42 41 40 45 6 Man nennt die Ereignisse C1, C2, ….Cn Ω unabhängig, wenn je n – 1 Ereignisse unabhängig sind und außerdem P(C1, C2, ….Cn) = P(C1)P(C2)…..P(Cn) gilt. Dies bedeutet, dass jede Teilmenge der Menge der Ereignisse die Wahrscheinlichkeit des „Schnittereignisses“ gleich dem Produkt der einzelnen Ereignisse sein muss. Die Ereignisse aus dem Beispiel 11 sind nicht unabhängig, denn es 6 gilt P(Ci) = für i = 1, …, 6. 45 P(V) = 2.7 Zufallsexperiment Wenn ein Zufallsexperiment mit der (endlichen) Menge Ω der möglichen Ausfälle gegeben ist, dann nennt man jede Funktion X : Ω R eine Zufallsgröße oder Zufallsvariable auf diesem Zufallsversuch.. Der Wertebereich einer Zufallsgröße ist in Anwendungssituationen im Regelfall ein Größenbereich, dessen Elemente „benannte“ Zahlen sind, also z. B. physikalische Dimensionen (cm, kg, …)haben. Für jede Teilmenge T von R ist {ω є Ω | X (ω) є T}ein Ereignis. Die wichtigsten Beispiele hierfür sind: „X = a“ : = {ω є Ω | X (ω) = a} „X a“ „a X b“ : = {ω є Ω | X (ω) a } : = {ω є Ω | a X (ω) b} Man nennt die Funktion A P(X = a) die Wahrscheinlichkeitsverteilung von X, A P(X a) die Wahrscheinlichkeitsfunktion von X. 12 Idlhammer Markus Ist die Wertemenge X(Ω) von X sehr umfangreich, so arbeitet man mit Klassierungen. Die Klasse zum Intervall xk , xk 1 besteht aus allen Werten x є X(Ω) mit xk < x ≤ xk+1. Man stellt P (xk < X ≤ xk+1) als Rechtecksfläche über dem Intervall dar. Ist Δk := xk+1 – xk und dk die Höhe dieses Rechtecks, dann gilt: P (xk < X ≤ xk+1) = dk . Δk P (xk < X ≤ xk+1) dk Δk xk xk+1 Die Funktion: d : x dx für xk < x ≤ xk+1 Heißt Dichtefunkton von X zu der gegebenen Klassierung. Die graphische Darstellung von d nennt man Histogramm von X zu der gegebenen Klassierung. Mit der Dichte d lässt sich die Wahrscheinlichkeitsfunktion näherungsweise als Integral ausdrücken: P(X) ≤a) ≈ a d ( x) dx Dabei ist die Näherung umso genauer, je gleichmäßiger die Werte von X in den einzelnen Klassen über das ganze Intervall verteilt sind. P(X≤a) d x a Ist X(Ω) sehr umfangreich, so ist die Wahrscheinlichkeitsverteilung nicht sehr nützlich, nur die Wahrscheinlichkeitsfunktion ist brauchbar. 13 Idlhammer Markus Wenn X(Ω) = {x1, x2, ….., xk} dann definiert man den Erwartungswert von X als k E(X) : = P(X = xi) . xi i 1 Die Varianz von X als: k V(X) := P(X = xi) . (x – E(X))2 i 1 Und die Standardabweichung von X als: σ (X) := V (X ) Man benützt oft die Abkürzungen: μ := E(X) und σ := σ(X) Jakob Bernoulli (1654-1705), Quelle: www.esa.int/images 2.8 Die Binominalverteilung Ein Zufallsversuch mit genau zwei Ausfällen (Treffer/ Fehlschlag oder +/ -, oder 1/0) heißt Bernoulli- Versuch (nach Jakob Bernoulli, 1654 – 1705). Man nennt p := P (Treffer) die Trefferwahrscheinlichkeit; dann ist P (Fehlschlag) = 1 – p. Eine solche n-fache Wiederholung des Bernoulli-Versuchs heißt Bernoulli-Kette der Länge n. Die Menge der möglichen Ausfälle einer solchen Bernoulli-Kette ist: Ω = {1,0}n Ein Ausfall ist also ein n-Tupel aus 1 und 0. Es gib genau 2n verschiedene Ausfälle. ein Ausfall: ω = (0, 0, 1, 0, 1, 1, ….., 0, 1, 1,) mit genau k Treffern hat die Wahrscheinlichkeit P(ω) = ω pk(1-p)n-k Für die auf Ω definierte Zufallsgröße X = Anzahl der Treffer gilt: n P(X = k) = pk (1 – p)n-k k 14 Idlhammer Markus n Denn man kann auf genau Arten ein n-Tupel aus 1 und 0 bilden, welches genau k-mal 1 k enthält. Beispiel 12: Zwei Würfel werden gleichzeitig geworfen. a) Wie groß ist die Wahrscheinlichkeit, bei 3 Würfen jedes Mal einen Pasch zu werfen? b) Mit welcher Wahrscheinlichkeit erzielt man bei 5 Würfen höchstens einen Pasch? 3 1 a) P = = 0,0046 = 0,46 % 6 5 4 5 5 1 b) 5 0,8037 = 80,37% 6 6 6 15 Idlhammer Markus 3 Schlusswort Die Faszination die seit ihren Anfängen von der Wahrscheinlichkeitstheorie ausgeht, liegt in dem scheinbaren Widerspruch, dass der Zufall Gesetzmäßigkeiten gehorcht. Es bedurfte einer langen Entwicklung und viele heftige Auseinandersetzungen bis die mathematische Form gefunden wurde, die uns in die Lage versetzen soll solche Gesetzmäßigkeiten zu formulieren und zu beweisen. Die in den vorangegangenen Kapitel behandelten Themen sind bei weitem nicht alle Bereiche aus der Wahrscheinlichkeitstheorie und daher auch nicht vollständig. Dies soll nur ein kleiner Auszug darstellen. Literatur: - Bernhard – Kopp, Repetitorium Mathematik, Verlag Hölder- Pichler- Tempsky - Götz, Reichel, Müller, Hanisch, Lehrbuch der Mathematik 7, öbv&hpt - Harald Scheid, Wahrscheinlichkeitsrechnung, Mathematische Texte Band 6, Wissenschaftsverlag Mannheim, Leipzig, Wien, Zürich - Ivo Schneider, aus Geschichte der Algebra, Kapitel 8 Algebra in der frühen Glücksspiel- und Wahrscheinlichkeitsrechnung - Stöcker, Taschenbuch Mathematischer Formeln und moderner Verfahren, Verlag Harri Deutsch, Thun und Frankfurt am Main 16