Kapitel 2 Wahrscheinlichkeitstheorie Wir betrachten Ereignisse, die in fast gleicher Form öfter auftreten oder zumindest öfter auftreten können. Beispiele: Werfen eines Würfels, Sterben an Herzversagen während eines Gewitters, Ziehen von Losen aus einer Urne, Messen der Körpergröße einer bestimmten Person aus einer Menge von Personen, Werfen einer geraden Zahl beim Würfeln, Sterben eines preußischen Soldaten infolge eines Hufschlags durch ein Militärpferd in einem bestimmten Jahr Gewissen Ereignissen werden gewisse Wahrscheinlichkeiten zugesprochen. 1 2.1 2.1.1 Zufallsexperimente Bezeichnungen Jedes Ergebnis eines Zufallsexperiments ist ein Elementarereignis (z.B. eine sechs beim Würfeln). Die möglichen Ergebnisse eines Zufallsexperiments bilden eine Menge von Elementarereignissen, die wir mit E bezeichnen. Jedes Ereignis ist eine Menge von Elementarereignissen. (z.B. Würfeln einer geraden Zahl, gemessene Körpergröße zwischen 1,52 m und 1,56 m, mehr als 15 und weniger als 21 Vögel sind an einem bestimmten Standort zu sehen) Alle Ereignisse sind Teilmengen von E. Ist A ⊂ E ein Ereignis, so ist das Gegenteil Ā von A die Menge aller Elementarereignisse, die nicht zu A gehören: Ā = {e ∈ E : e ∈ / A}. Beispiel: Ist E = {1, 2, 3, 4, 5, 6}, A = {1, 3, 5}, so ist 2 Ā = {2, 4, 6}. Ā heißt auch Komplementärereignis zu A. Das Ereignis A oder B, in Zeichen A + B oder A ∪ B tritt ein, wenn ein Elementarereignis aus A oder ein Elementarereignis aus B eintritt. nicht ausschließendes oder! Das Ereignis A und B, in Zeichen A · B oder AB oder A ∩ B tritt ein, wenn ein Elementarereignis eintritt, das sowohl zu A als auch zu B gehört. Das Ereignis A − B oder A \ B tritt ein, wenn ein Elementarereignis eintritt, das zu A aber nicht zu B gehört. Es gibt: A − B = AB̄ ist die Differenzmenge von A und B (in dieser Reihenfolge!). Zwei Ereignisse A, B mit AB = ∅ heißen unvereinbar. E heißt das sichere Ereignis. 3 ∅ heißt das unmögliche Ereignis. 2.1.2 Axiome der Wahrscheinlichkeitstheorie Jedem betrachteten Ereignis A ⊂ E wird eine Wahrscheinlichkeit w(A) zugeordnet, so dass gilt: I. w(A) := wE (A) ≥ 0. II. w(E) = 1. III. AB = ∅ ⇒ w(A + B) = w(A) + w(B). In Worten besagt III.: Sind zwei Ereignisse A, B unvereinbar, so ist die Wahrscheinlichkeit, dass A oder B eintritt gleich der Summe der Wahrscheinlichkeiten des Eintretens von A und von B. Passt das zu unserer Vorstellung? Beispiel: E = {1, 2, 3, 4, 5, 6}, A = {1, 2}, B = {2, 3}, C = {3, 4} Dann ist A + B = {1, 2, 3}, A + C = {1, 2, 3, 4}. 4 Wie üblich schreiben wir den Elementarereignissen i als Wahrscheinlichkeit w(i) zu: 1 w(i) = . 6 Wir erwarten: w(A) = 31 , w(B) = 13 , w(A+B) = 21 , w(A+C) = 23 . Tatsächlich gilt nur für die unvereinbaren Ereignisse A und C die Beziehung w(A + C) = w(A) + w(C). 2.1.3 Einfache Folgerungen aus den Axiomen AĀ = ∅ ⇒ 1 = (AxiomII) = w(E) = w(A+Ā) = (AxiomIII) = w(A) + w(Ā) Folgerung 1: Für jedes Ereignis A gilt: w(Ā) = 1 − w(A) Nach Axiom I gilt: 0 ≤ w(Ā) Nach Folgerung 1 gilt w(Ā) = 1 − w(A). Folglich ist w(A) ≤ 1. 5 Folgerung 2: Für jedes Ereignis A gilt: 0 ≤ w(A) ≤ 1 Jedes Ereignis A mit w(A) = 1 heißt fast sicher. Jedes Ereignis A mit w(A) = 0 heißt fast unmöglich. Axiom IV kommt noch. 2.1.4 Additionsgesetz Seien A1, A2, . . . , An paarweise unvereinbare Ereignisse. Dann ist w(A1 + A2 + . . . + An) = w(A1 + (A2 + . . . + An)). Nach Axiom III ist also w(A1 + A2 + . . . + An) = w(A1) + w(A2 + . . . + An). Wiederholung des Vorgehens für den letzten Summanden ergibt das Additionsgesetz: Sind A1, A2, . . . , An paarweise unvereinbare Ereignisse, so gilt: 6 w(A1+A2+. . .+An) = w(A1)+w(A2)+. . .+w(An). 2.1.5 Allgemeiner Additionssatz Seien A, B beliebige Ereignisse. Dann gilt: A + B = A + (B − AB) Die Ereignisse A und B − AB sind unvereinbar. (Skizze!) Folglich gilt: w(A+B) = w(A+(B−AB)) = w(A)+w(B−AB) also w(A + B) = w(A) + w(B − AB) (∗) Wie kann man w(B − AB) noch ”schöner“ ausdrücken? w(B) = w(AB + (B − AB)) Wieder sind AB und B − AB unvereinbar. Folglich ist w(B) = w(AB) + w(B − AB), also 7 w(B − AB) = w(B) − w(AB) (∗∗) Aus (*) und (**) folgt der allgemeine Additionssatz für zwei Ereignisse: w(A + B) = w(A) + w(B) − w(AB) 2.1.6 Noch ein Axiom Das Additionsgesetz für endlich viele paarweise unvereinbare Ereignisse konnten wir aus den vorhergehenden Axiomen beweisen. Für unendlich viele können wir es nicht beweisen und setzen es als Axiom voraus: IV. A1, A2, . . . paarweise unvereinbar ⇒ w(A1 + A2 + . . .) = w(A1) + w(A2) + . . . 2.2 Abzählregel E Menge der Elementarereignisse, A ein Ereignis. Wir nehmen an, wir finden Ereignisse A1, A2, . . . , An, so dass gilt: (1) E = A1 + A2 + . . . + An 8 (2) A = A1 + A2 + . . . + Am (1 ≤ m ≤ n!) (3) w(A1) = w(A2) = . . . = w(An) (4) A1, A2, . . . , An paarweise unvereinbar. Dann ist 1 = w(E) = (1) = w(A1 + . . . + An) = (4) = w(A1) + . . . + w(An) (1 ≤ i ≤ n) Damit folgt aus (3): w(Ai) = n1 und w(A) = w(A1 +. . .+Am) = w(A1)+. . .+w(Am) = 1 m m· = . n n Pierre Simon de Laplace (1749 - 1827): w(A) = Anzahl der A günstigen unvereinbaren gleichwahrscheinlichen Ereignisse 9 geteilt durch Anzahl der möglichen unvereinbaren gleichwahrscheinlichen Ereignisse 2.3 2.3.1 Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit Vor.: w(A) 6= 0 Dann heißt wA(B) := w(AB) w(A) die bedingte Wahrscheinlichkeit von B unter der Bedingung A. Da tritt einfach A an die Stelle von E, und man betrachtet von B nur diejenigen Elementarereignisse, die in A liegen, also AB. Beispiel: An der MUT gibt es den Studiengang Hühnerologie und den Studiengang Gänsologie. In jedem der beiden Studiengänge befinden sich 50 Studierende im 1. Studienjahr. In den beiden Prüfungen in Brutistik und Fütteristik war die Anzahl der erfolgreichen Teilnehmer wie folgt: 10 Brutistik Fütteristik Hühnerologie 30 20 Gänsologie 10 40 Bezeichnungen: H . . . studiert Hühnerologie G . . . studiert Gänsologie B . . . hat die Prüfung in Brutistik bestanden F . . . hat die Prüfung in Fütteristik bestanden w(B) = 0,4 = 40 % w(F ) = 0,6 = 60 % wH (B) = 0,6 = 60 % wH (F ) = 0,4 = 40 % wG(B) = 0,2 = 20 % wG(F ) = 0,8 = 80 % wB (H) = 0,75 = 75 % wB (G) = 0,25 = 25 % wF (H) = 26 ≈ 33, 33 % wF (G) = 46 ≈ 66, 67 % Mitteilung: (ohne Beweis, aber nicht schwer zu überlegen) Auch für die bedingte Wahrscheinlichkeit unter der Bedingung A gelten die Axiome und die Rechenregeln aus den vorhergehenden Abschnitten. 11 Andere Schreibweise: wA(B) = w(B|A). 2.3.2 Multiplikationssatz Gilt w(A) 6= 0 und w(B) 6= 0, so gilt auch: w(AB) = w(A) · wA(B) = w(B) · wB (A) Das ist eigentlich kein Satz, nur die Definition der bedingten Wahrscheinlichkeiten wA(B) und wB (A) noch einmal anders hingeschrieben. 2.3.3 Unabhängigkeit von Ereignissen B heißt unabhängig von A, wenn gilt: w(B) = wA(B). (Das ist nur sinnvoll für w(A) 6= 0!) Satz: Ist w(A) 6= 0 6= w(B), so gilt: Ist B unabhängig von A, so ist auch A unabhängig von B. Warum? Das folgt aus dem Multiplikationssatz. 12 Darum darf man sagen: A und B sind unabhängig voneinander. 2.3.4 Produktsatz A, B voneinander unabhängig ⇒ w(AB) = w(A)·w(B) Das folgt aus dem Multiplikationssatz zusammen mit der Definition der Unabhängigkeit von Ereignissen. 2.3.5 Einfache Folgerungen Vor.: A, B voneinander unabhängig ⇒ wA(B̄) = 1 − wA(B) = 1 − w(B) = w(B̄) Satz: A, B voneinander unabhängig ⇒ A, B̄ unabhängig undB, Ā unabhängig Wir rechnen weiter: wĀ(B̄) = 1 − wĀ(B) = 1 − w(B) = w(B̄). Satz: A, B voneinander unabhängig ⇒ 13 Ā, B̄ voneinander unabhängig 2.3.6 Mehrere voneinander unabhängige Ereignisse Ereignisse A1, A2, . . . , An heißen voneinander unabhängig, wenn gilt: Jedes Ereignis Ak ist unabhängig von jedem der Ereignisse Ak1 Ak2 Ak3 . . . Akm , wobei m < n und k 6= k1, k 6= k2, . . . , k 6= km. Achtung: Daraus folgt, dass jedes Ereignis Ak unabhängig ist von jedem Ereignis Aj mit k 6= j. Die Umkehrung folgt nicht! Bei der Unvereinbarkeit ist paarweise Unvereinbarkeit eine Voraussetzung, die meist ausreicht. Bei der Unabhängigkeit ist die Voraussetzung meist komplizierter! Aber das kann man sich nicht aussuchen. 2.4 2.4.1 Zufallsvariable Definition der Zufallsvariablen Sei E die Menge der Elementarereignisse. 14 Eine Abbildung X : E → R heißt eine eindimensionale Zufallsvariable, falls gilt: Für jedes x ∈ R steht die Wahrscheinlichkeit fest, dass X einen Wert ≤ x annimmt. Für diese Wahrscheinlichkeit schreibt man: w(X ≤ x). 2.4.2 Beispiele für Zufallsvariable 1. Münzwurf: X(Zahl oben) = 0, X(Zahl unten) = 1 (oder umgekehrt!) 2. Würfeln: X(Wurf) = Augenzahl 3. Würfeln mit zwei Würfeln gleichzeitig: X(Wurf) = Summe der Augenzahlen beider Würfel 4. Bernoulli-Experiment: 15 X = Zahl der ”Erfolge“ in n Versuchen, die unter gleichen Bedingungen durchgeführt werden, und für die gilt: Die Wahrscheinlichkeit für ”Erfolg“ ist in allen Versuchen gleich groß. (Würfeln einer Zahl größer als vier, Sechser im Lotto (bei immer gleichbleibendem System!), kein Sechser im Lotto (bei immer gleichbleibendem System!)) 5. Qualitätskontrolle: X = Istwert - Sollwert w(X ≤ x) ist hier nicht von vornherein bekannt, wenn man nicht über die Fertigung mehr weiß und darüber sinnvolle Annahmen trifft. 16 6. X = Schlachtgewicht der angelieferten Schweine in einem Schlachthof 2.4.3 Diskrete Zufallsvariable Eine Zufallsvariable heißt diskret, wenn sie nur endliche viele Werte annimmt (oder höchstens abzählbar unendlich viele Werte). Achtung: Diskrete Zufallsvariable mit vielen Werten ersetzt man oft (näherungsweise) durch ”stetige Zufallsvariable“, weil man für bestimmte ”stetige Zufallsvariable“ oft Gesetze oder Rechenverfahren anwenden kann oder Tabellen hat. 2.4.4 Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen X diskrete Zufallsvariable, die die Werte x1, x2, . . . mit den Wahrscheinlichkeiten p1, p2, . . . annimmt. 17 Dann heißt f : R → [0, 1], definiert durch pk für x = xk f (x) := 0 sonst die Wahrscheinlichkeitsfunktion von X. 2.4.5 Verteilungsfunktion einer Zufallsvariablen X Zufallsvariable. Dann heißt F (x) := w(X ≤ x) die Verteilungsfunktion von X. Ist X diskret, so gilt: X pk F (x) = xk ≤x 2.4.6 Münzwurf: 3 Würfe X := Summe der Werte aus dem Beispiel ”Münzwurf“ bei drei aufeinanderfolgenden Würfen Tafelskizze der zugehörigen Wahrscheinlichkeitsfunktion Tafelskizze der zugehörigen Verteilungsfunktion 18 2.4.7 Eigenschaften von Verteilungsfunktionen 1. F : R → [0, 1] 2. lim F (x) = 0 =: F (−∞) x→−∞ lim F (x) = 1 =: F (∞) x→∞ 3. F (x1) ≤ F (x2), falls x1 ≤ x2 (F ist monoton wachsend (nicht notwendig streng!)) 4. F (x) ist rechtsseitig stetig. 2.4.8 Stetige Zufallsvariable Eine Zufallsvariable X heißt stetig, wenn für ihre Verteilungsfunktion F gilt: Es gibt eine stetige Funktion f : R → R, so dass gilt: 1. f (x) ≥ 0 2. Z x F (x) = f (t)dt −∞ 19 Dabei heißt f die (Wahrscheinlichkeits-)Dichte von X. Achtung: Eine stetige Zufallsvariable ist nicht das Gegenteil einer diskreten Zufallsvariablen. 20