Die Welt des Zufalls M. Disertori 1 1.1 Zufallsexperimente. Ein Glücksspiel: Münzen werfen Anna und Tom spielen folgendes Glücksspiel: Sie werfen eine Münze. Jedesmal, wenn Kopf fällt, zahlt Tom an Anna 1 Euro. Jedesmal, wenn Zahl fällt, zahlt Anna an Tom 1 Euro. Fragen. Wie hoch ist die Wahrscheinlichkeit, dass Anna nach zwei Würfen 2 Euro gewinnt? Wie viel gewinnt Anna durchschnittlich nach sehr vielen Münzwürfen? 1.2 Bakterienbevölkerung In einer Pflanze lebt eine Kolonie von N Bakterien. Die Bakterien selbst sind harmlos und beeinflussen die Pflanze nicht, allerdings mutiert ein kleiner Teil der Bakterien zu guten Bakterien, die die Pflanze vor vielen Krankheiten schützen. Nach einer festen Zeitspanne generiert jedes Bakterium ein neues Bakterium des gleichen Typs (H für harmlos oder G für gut) und stirbt danach. Manchmal generiert ein Bakterium zwei statt nur einem neuen Bakterium, was zum Wachstum der Bakterienkolonie führt. Um die Untersuchung der Kolonie zu vereinfachen nehmen wir an, dass zu jedem Zeitpunkt genau ein zufällig gewähltes Bakterium zwei Nachfahren generiert. Wir modellieren den Prozess wie folgt: Zum Zeitpunkt 0 generiert ein zufällig ausgewähltes Bakterium zwei Nachfahren desselben Gentyps und stirbt. Alle anderen Bakterien generieren einen Nachfahren des eigenen Gentyps und sterben danach. Dieser Vorgang wird für jede Zeitspanne wiederholt; die Bakterienkolonie wächst pro Zeitschritt um 1 Bakterium und das Verhältnis harmlose/gute Bakterien ändert sich. Wir wiederholen den Vorgang viele Male. Frage. Werden die guten Bakterien auf lange Sicht überleben? (Oder geht ihr Anteil in der Kolonie gegen Null?) 2 2.1 Die Modellierung des Zufalls Ergebnismenge Um ein Zufallsexperiment formal beschreiben zu können, müssen wir zunächst alle möglichen Ausgänge des Experimentes auflisten. Definition 2.1 (Ergebnismenge) Die Menge aller möglichen Ausgänge eines Zufallsexperiments heißt Ergebnismenge Ω. Ihre Elemente ω ∈ Ω heißen Ergebnisse oder Elementarereignisse. Ein Ereignis ist eine Teilmenge E ⊆ Ω. Man sagt, Ereignis E sei eingetreten, wenn ein Zufallsexperiment ein Ergebnis ω ∈ E liefert. 1 Ein Würfelwurf. Wenn wir mit einem normalen 6-seitigen Würfel würfeln, besteht Ω = {1, 2, 3, 4, 5, 6} aus allen möglichen Augenzahlen. Ein Ereignis kann nun ein einzelnes Element aus Ω sein, die sechs Augenzahlen sind also auch Ereignisse (nämlich die Elementarereignisse). Wir können aber auch ’Wir würfeln eine gerade Augenzahl’ als Ereignis E betrachten. In eine Teilmenge von Ω übersetzt, erhalten wir E = {2, 4, 6}. Die Teilmenge E ist nun ein Ereignis, aber kein Ergebnis. Eine Münze werfen. Als Beispiel für ein Zufallsexperiment betrachten wir den Münzwurf. Die möglichen Ergebnisse eines Münzwurfes sind 0 Kopf 0 oder 0 Zahl0 . Die Ergebnismenge ist dann Ω = {0 Kopf 0 ,0 Zahl0 }. Die Anzahl der Elemente in Ω ist 2, |Ω| = 2. Erste Bakteriengeneration. Seien h, g die Anzahlen der harmlosen bzw. guten Bakterien zum Zeitpunkt 0. Wir nummerieren die Bakterien durch und bezeichnen sie als b1 , . . . , bh+g , wobei die Bakterien b1 , . . . , bg vom genetischen Typ G, und die Bakterien bg+1 , . . . , bg+h vom genetischen Typ H sind. Als Experiment möchten wir zufällig eines der Bakterien auswählen und bezeichnen seinen genetischen Typ mit X1 . Ein Elementarereignis ist dann ω =’wähle Bakterium bi aus’. Dann ist die Ergebnismenge Ω = {(b1 ), . . . , (bg ), (bg+1 ), . . . , (bg+h )}, und |Ω| = g + h. Der genetische Typ X1 kann entweder H oder G sein, weshalb wir die beiden Ereignisse H1 := (X1 = H) =’Das ausgewählte Bakterium ist harmlos’ und G1 := (X1 = G) =’Das ausgewählte Bakterium ist gut’ betrachten. H1 = {(bg+1 ), . . . , (bg+h )}, G1 = {(b1 ), . . . , (bg )}, H1 , G1 sind Teilmenge von Ω, aber keine Elementarereignisse. (Allerdings ist jedes Elementarereignis natürlich auch eine Teilmenge von Ω). 2.2 Zufallsvariablen Eine Münze werfen. Wir sind im Annas Gewinn interessiert. Um die Beziehung zum Glücksspiel herauszustellen, stellen wir ’Kopf’ mit +1 (Anna bekommt 1 Euro) dar und ’Zahl’ mit −1 (Anna verliert 1 Euro). Wir bezeichnen den Gewinn von Anna mit einer Funktion X : ω → {±1}, X(0 Kopf 0 ) = +1, X(0 Zahl0 ) = −1. Wir nennen X eine Zufallsvariable. Wir benutzen dann die Zufallsvariable X um die Ergebnisse von unserem Experiment zu beschreiben. Die Ergebnismenge ist dann Ω0 = {(+1), (−1)}, wobei (+1) das Ergebnis (X = +1) beschreibt. Da jedes Element in Ω0 zu genau einem Element in Ω gehört, gilt |Ω| = |Ω0 |, Die beiden Beschreibungen sind also äquivalent. Im Allgemeinen kann eine Zufallsvariable einen beliebigen reellen Wert annehmen. Definition 2.2 Eine Zufallsvariable ist eine Funktion X: Ω →R ω 7→ X(ω) die jedem Elementarereignis eine reelle Zahl zuordnet. 2 Erste Bakteriengeneration. Wir sind am Gentyp des ersten zusätzlichen Bakteriums interessiert. Wir bezeichnen seinen genetischen Typ mit die Zufallsvariable X wie folgt: X(ω) = G wenn das ausgewählte Bakterium gut ist (also ω = b1 , . . . bg ), X(ω) = H wenn das ausgewählte Bakterium harmlos ist (also ω = bg+1 , . . . bg+h ). Das Ereignis H1 :=’Das ausgewählte Bakterium ist harmlos’ entspricht dem Ereignis (X = H). Das Ereignis G1 :=’Das ausgewählte Bakterium ist gut’ entspricht dem Ereignis (X = G). Wenn wir X = G, H benutzen möchten, um das Ergebnis unseres Experimentes zu beschreiben, müssen wir die neue Ergebnismenge Ω0 = {G, H} einführen. Diese hat nur zwei Elemente, jedes entspricht allerdings mehreren Elementen in Ω. Die beiden Beschreibungen sind nicht äquivalent! Unmögliche und sichere Ereignisse. Ähnlich zu den Ereignissen H1 und G1 können wir uns beliebige Ereignisse ausdenken und versuchen, sie in Teilmengen von Ω zu übersetzen. Betrachten wir das Ereignis A =’Das ausgewählte Bakterium ist von beiden Typen H und G’, so ist es natürlich ein unmögliches Ereignis, es ist also kein Elementarereignis kompatibel mit A. Wir sagen, Ereignis A ist die ’leere Menge’ und schreiben A = ∅. Das Ereignis B =’Das ausgewählte Bakterium ist vom Typ H oder vom Typ G’ tritt immer ein. Also gilt B = Ω und wir sagen, das Ereignis B ist sicher. Definition 2.3 (Verknüpfen von Ereignissen) Für jedes Paar von Ereignissen E, F ⊆ Ω definieren wir ihre Schnittmenge als E ∩ F = {ω ∈ Ω| ω ∈ E und ω ∈ F }. Die Schnittmenge ist das Ereignis, dass sowohl E als auch F eintreten. Ihre Vereinigung E ∪ F = {ω ∈ Ω| ω ∈ E oder ω ∈ F } ist das Ereignis, dass E oder F eintritt (oder beide). Zwei Ereignisse E und F , die nicht gleichzeitig eintreten können, heißen disjunkt (’unvereinbar’). Ihre Schnittmenge ist leer: E ∩ F = {ω ∈ Ω| ω ∈ E und ω ∈ F } = ∅. Bei den Bakterien sind H1 und G1 disjunkte Ereignisse H1 ∩ G1 = ∅ und H1 ∪ G1 = Ω. 2.3 Mit Wahrscheinlichkeiten rechnen Definition 2.4 (Gleichverteilte Wahrscheinlichkeiten) Wir nehmen an, dass alle Elementarereignisse gleich wahrscheinlich sind. (Zum Beispiel beim Ziehen einer Karte aus einem gemischten Skat-Spiel.) Für jedes Ereignis, also jede Teilmenge E ⊆ Ω von Ω, bezeichnet dann P(E) := Anzahl günstiger Ergebnisse |E| = Anzahl möglicher Ergebnisse |Ω| die ’Wahrscheinlichkeit von E’. 3 Eine Münze werfen. Sei E =’Anna gewinnt 1 Euro beim ersten Wurf ’. Dann ist E = {(+)} und |E| 1 P(E) = = . |Ω| 2 Erste Bakteriengeneration. Da |H1 | = h und |G1 | = g, haben wir die Wahrscheinlichkeiten P(X1 = H) = P(H1 ) = h |H1 | = , |Ω| h+g P(X1 = G) = P(G1 ) = |G1 | g = . |Ω| h+g Einige Eigenschaften der Wahrscheinlichkeit P: a) Für jedes Ereignis E ⊆ Ω gilt 0 ≤ P[E] ≤ 1. (2.1) Wenn P(E) = 0 gilt, bezeichnen wir das Ereignis E als unmöglich. Wenn P(E) = 1 gilt, bezeichnen wir das Ereignis E als sicher. b) Seien E und F zwei disjunkte Ereignisse. Dann gilt P(E ∪ F ) = P(E) + P(F ). (2.2) Bei den Bakterien gilt H1 ∩ G1 = ∅, außerdem ist H1 ∪ G1 = Ω. Deshalb ist H1 ∪ G1 ein sicheres Ereignis: P(H1 ∪ G1 ) = P(H1 ) + P(G1 ) = 1 Neue Ergebnismengen aus alten konstruiren. Bei dem Beispiel unserer Bakterienkolonie interessiert uns nicht wirklich, auf welches Bakterium genau unsere zufällige Wahl zum Zeitpunkt 0 fällt, sondern lediglich, welchem Gentyp das Bakterium angehört. Daher benutzen wir {X = G} und {X = H} als Elementarereignisse, wobei X die oben definierte Zufallsvariable ist. Dann ist die neue Ergebnismenge gegeben durch Ω0 = {G, H}. Wir haben gesehen, dass P(X = H) = g h 0 h+g und P(X = G) = h+g gilt, was bedeutet, dass die Elementarereignisse in Ω nicht mehr gleichwahrscheinlich sind. Wir können also nicht mehr mit gleichverteilten Wahrscheinlichkeiten arbeiten. Definition 2.5 (nicht gleichverteilte Wahrscheinlichkeiten) Sind die Wahrscheinlichkeiten P(ω) ∈ [0, 1] aller Elementarereignisse ω bekannt und gilt X P(Ω) = P(∪ω∈Ω ω) = P(ω) = 1, ω∈Ω so definiert {P(ω)}ω∈Ω das Wahrscheinlichkeitsmaß für unser Experiment. Für jedes Ereignis E ⊆ Ω ist dann die ’Wahrscheinlichkeit von E’ gegeben durch X P(E) =: P(ω). ω∈E 4 Beispiel: Ein unfairer Würfel. Beim Werfen eines Würfels ist die Ergebnismenge Ω = {(1), (2), (3), (4), (5), (6)}. Wenn der Würfel fair ist, haben alle Elementarereignisse dieselbe Wahrscheinlichkeit von 1/6. Nehmen wir nun an, dass der Würfel unfair ist, sodass P(1) = 1 2 P(2) = P(3) = P(4) = P(5) = P(6) = 1 10 gilt, so ist die Wahrscheinlichkeit, dass wir eine ungerade Zahl würfeln P(’ungerade Augenzahl’) = P(1) + P(3) + P(5) = 1 2 9 + = . 2 10 10 Im Falle eines fairen Würfels hätten wir lediglich eine Wahrscheinlichkeit von 3/6 = 1/2. 2.4 Erwartungswert einer Zufallsvariablen Frage: Was ist das durchschnittliche Ergebnis beim Würfeln eines fairen/unfairen Würfels? Definition 2.6 Der Erwartungswert einer Zufallsvariablen X ist X E(X) := X(ω)P(ω). ω∈Ω Lemma 2.7 Sei X eine Zufallsvariable, die N verschiedene Werte annehmen kann: x1 , . . . , xN ∈ R. Dann ist der Erwartungswert von X gegeben durch E(X) = N X xj P(X = xj ). j=1 Beweis. Die Ereignisse (X = xi ), (X = xj ) mit i 6= j sind unabhängig und mit Ω = ∪N i=1 (X = xi ) ist dann X ω∈Ω X(ω)P(ω) = N X X j=1 ω∈(X=xj ) xj P(ω) = N X j=1 xj X ω∈(X=xj ) P(ω) = N X xj P(X = xj ). j=1 Beispiel 1: Ein fairer Würfel. Es gibt 6 mögliche Werte: x1 = 1, . . . , x6 = 6, alle haben Wahrscheinlichkeit 1/6. Dann ist E(X) = (1 + 2 + 3 + 4 + 5 + 6) · 16 = 3, 5. Beispiel 2: Ein unfairer Würfel. Es gibt erneut 6 mögliche Werte: x1 = 1, . . . , x6 = 6, 1 allerdings mit verschiedenen Wahrscheinlichkeiten: P(X = 1) = 12 , P(X = j) = 10 , j = 2, . . . , 6. Daher gilt 1 E(X) = 1 · 21 + (2 + 3 + 4 + 5 + 6) · 10 = 2, 5. 5 3 Zeitliche Entwicklung Wir wiederholen unser Zufallsexperiment (wiederholter Münzwurf oder Duplizieren eines Bakteriums) bis zum Zeitpunkt n > 1. Sei Xj das Resultat des j-ten Experimentes. Xj nimmt die Werte xi = +, − (Münze) oder xi = G, H (Bakterien) an. Das Ergebnis von n Wiederholungen ist ein n-Tupel X(n) = (X1 , . . . , Xn ). Die Ergebnismengen sind jetzt Ωn,Münzen = {X(n) = (x1 , . . . , xn )| xi = ±}, Ωn,Bakterien = {X(n) = (x1 , . . . , xn )| xi = H, G}. Wir wollen die Wahrscheinlichkeit jedes Ereignisses untersuchen. 3.1 Bedingte Wahrscheinlichkeit Zwei Münzenwürfe. Die mögliche Ergebnismenge lautet jetzt Ω2,Münzen = {(+, +), (+, −), (−, +), (−, −)}. Da die Münzen fair sind, sind alle Elementarereignisse gleichwahrscheinlich und wir können mit gleichverteilten Wahrscheinlichkeiten rechnen: 1 P(+, +) = P(+, −) = P(−, +) = P(−, −) = . 4 Bei jedem Münzwurf werfen wir + oder − mit der gleichen Wahrscheinlichkeit von 1/2. Es ist also P(X1 = +) = P(X1 = −) = P(X2 = +) = P(X2 = −). Allerdings wissen wir beim Werfen der zweiten Münze bereits das Ergebnis des ersten Wurfes. Sei + das Ergebnis des ersten Wurfes, wir wissen also, dass X1 = + wahr ist. Was ist dann die Wahrscheinlichkeit für X2 = +? Die Information (X1 = +) hat die Menge der möglichen Ergebnisse geändert. Die neue Ergebnismenge ist Ω0 = {ω ∈ Ω| ω kompatibel mit X1 = +} = {(+, +), (+, −)}, |Ω0 | = 2. Jedes Elementarereignis hat die gleiche Wahrscheinlichkeit (da dies schon in Ω wahr war). Das einzige Element in Ω0 kompatibel mit X2 = + ist (+, +). Daher ist die Wahrscheinlichkeit für X2 = +, wissend, dass X1 = + gilt, P ({X2 = +} | {X1 = +}) := P({X2 = +} wissend, dass {X1 = +}) = 1 . 2 Definition 3.1 (Bedingte Wahrscheinlichkeit) Für je zwei Ereignisse E, F ⊂ Ω wird die bedingte Wahrscheinlichkeit von E unter F , also die Wahrscheinlichkeit von E unter der Bedingung, dass F wahr ist, mit P(E|F ) bezeichnet und ist definiert durch P(E|F ) := P(E ∩ F ) . P(F ) (3.1) In unserem Beispiel seien E = {X2 = +} und F = {X1 = +}, was E ∩ F = (+, +) bedeutet. Es gilt dann |E ∩ F | 1 |F | 2 1 P(E ∩ F ) = = , P(F ) = = = . |Ω| 4 |Ω| 4 2 6 Eigenschaften der bedingten Wahrscheinlichkeit: a) Dekomposition. Seien F1 , . . . , Fn eine Familie von Ereignissen mit Fi ∩ Fj = ∅ ∀i < j (alle Ereignisse sind disjunkt), und F1 ∪ · · · ∪ Fn = Ω (die Familie deckt alle möglichen Elementarereignisse ab). Dann gilt P(E) = n X P(E|Fj )P(Fj ). (3.2) j=1 b) Unabhängigkeit. Wenn P(E|F ) = P(E) gilt, heißt das Ereignis E unabhängig von F . Dann haben wir P(E ∩ F ) = P(E)P(F ). (3.3) Doppelter Münzwurf. Sei F+ = {X1 = +} = {(+, +), (+, −)}, F− = {X1 = −} = {(−, +), (−, −)} und E+ = {X2 = +} = {(+, +), (−, +)}. Dann gilt F+ ∩ F− = ∅, F+ ∪ F− = Ω, und 1 1 1 1 1 P (E+ ) = P (E+ |F+ ) P (F+ ) + P (E+ |F− ) P (F− ) = · + · = . 2 2 2 2 2 Außerdem erhalten wir P (E+ |F+ ) = P (E+ ) , P (E+ |F− ) = P (E+ ) , P (E− |F+ ) = P (E− ) , P (E− |F− ) = P (E− ) . Das Ergebnis des zweiten Münzwurfes hängt nicht von der Vergangenheit ab. Das Zufallsexperiment hat kein Gedächtnis. Zweite Bakteriengeneration. Nach zwei Generationen ist die Ergebnismenge Ω2,Bakterien = {(H, H), (H, G), (G, H), (G, G)}. Wie groß ist P(H, H)? Für die erste Generation haben wir P(X1 = H) = h , h+g P(X1 = G) = g . h+g Gleichung (3.1) liefert uns P(H, H) = P (X1 = H) ∩ (X2 = H) = P (X2 = H)|(X1 = H) P(X1 = H). Da (X1 = H) erfüllt ist, haben wir h + 1 Bakterien des Typs H und g Bakterien des Typs G nach dem ersten Zeitschritt. Dass im zweiten Zeitschritt ein Bakterium des Typs H hinzukommt hat Wahrscheinlichkeit h+1 P (X2 = H)|(X1 = H) = . h+g+1 Liegt Unabhängigkeit vor? Gleichung (3.2) liefert P(X2 = H) = P (X2 = H)|(X1 = H) P(X1 = H) + P (X2 = H)|(X1 = G) P(X1 = G). Falls (X1 = G) erfüllt ist haben wir h harmlose und g + 1 gute Bakterien im zweiten Schritt, und damit h P (X2 = H)|(X1 = G) = . h+g+1 7 Das liefert aber h g h+1 h h+1 g + = − h+g+1h+g h+g+1h+g h + g + 1 (h + g)(h + g + 1) g = P (X2 = H)|(X1 = H) − 6= P (X2 = H)|(X1 = H) (h + g)(h + g + 1) P(X2 = H) = sofern g 6= 0. Die Ergebnisse von erster und zweiter Generation sind abhängig. Das Zufallsexperiment hat Gedächtnis. 3.2 Absoluter Gewinn, Absolute Anzahl Bakterien Frage. Wie viel gewinnt Anna nach n Münzwürfen? Um wie viele gute Bakterien ist die Kolonie nach n Generationen gewachsen? Gewinn. Bei jedem Wurf kann Anna einen Euro gewinnen, Xi = +1, oder verlieren, Xi = −1. Sei ω = X(n) ∈ Ω ein Elementarereignis. Der absolute Gewinn nach n Schritten (Würfen) ist Gn = n X Xj ∈ {−n, −n + 2, −n + 4, . . . , n − 2, n}. j=1 (Um zu sehen, dass die möglichen Werte für Gn immer eine gerade Differenz aufweisen, mache man sich klar, dass Anna nach 2 Würfen nicht genau einen Euro gewinnen oder verlieren kann und verallgemeinere die Aussage.) Für n = 1 gilt Ω1,Münzen = {(+), (−)} und die Zufallsvariable ist G1 (+) = 1, G1 (−) = −1. Die zugehörige Wahrscheinlichkeitsverteilung ist 1 2 1 P(G1 = −1) = P(−) = 2 P(G1 6∈ {−1, 1}) = 0. P(G1 = +1) = P(+) = Für n = 2 gilt Ω2,Münzen = {(+, +), (+, −), (−, +), (−, −)} und die Zufallsvariable ist G2 (+, +) = 2, G2 (+, −) = G2 (−, +) = 0, G2 (−, −) = −2. Die zugehörige Wahrscheinlichkeitsverteilung ist P(G2 = 2) = P(+, +) = 1 4 P(G2 = −2) = P(−, −) = 1 4 P(G2 = 0) = P(+, −) + P(−, +) = 1 2 P(G2 6∈ {−2, 0, 2}) = 0. Der durchschnittliche Gewinn nach einem, bzw. zwei Münzwürfen ist 1 1 E[G1 ] = +1 · P(G1 = 1) − 1 · P(G2 = −1) = − = 0 2 2 1 1 E[G2 ] = 2 · P(G2 = 2) + 0 · P(G2 = 0) − 2 · P(G2 = −2) = 2 · + 0 − 2 · = 0. 4 4 8 Anzahl guter Bakterien. In jedem Schritt kommt entweder ein gutes Bakterium dazu (Xi = G) oder nicht (also ein harmloses, Xi = H). Dann ist die absolute Anzahl guter Bakterien, die dazu gekommen sind, eine Zufallsvariable: Kn = Anzahl der G-Typen in der Sequenz X(n) = (X1 , . . . , Xn ) Für n = 1 gilt Ω1,Bakterien = {(G), (H)} und die Zufallsvariable ist K1 (G) = 1, K1 (H) = 0. K1 kann die Werte 0, 1 annehmen und die zugehörige Wahrscheinlichkeitsverteilung ist h g+h g P(K1 = 1) = P(G) = g+h P(K1 > 1) = 0. P(K1 = 0) = P(H) = Für n = 2 gilt Ω2,Bakterien = {(G, G), (G, H), (H, G), (H, H)} und die Zufallsvariable ist K2 (G, G) = 2, K2 (G, H) = K2 (H, G) = 1, K2 (H, H) = 0. K2 kann die Werte 0, 1, 2 annehmen und die zugehörige Wahrscheinlichkeitsverteilung ist P(K2 = 0) = P(H, H) = h h+1 g+hg+h+1 P(K2 = 1) = P(G, H) + P(H, G) = 2P(G, H) = 2 P(K2 = 2) = P(G, G) = g h g+hg+h+1 g g+1 g+hg+h+1 P(K2 > 2) = 0, wobei wir in der zweiten Zeile Lemma 3.3 benutzt haben. Der Durchschnitt nach einem Schritt beträgt E[K1 ] = 0 · P(K1 = 0) + 1 · P(K1 = 1) = 0 · P(H) + 1 · P(G) h g g =0· +1· = . g+h g+h g+h Der Durchschnitt nach zwei Schritten beträgt E[K2 ] = 0 · P(K2 = 0) + 1 · P(K2 = 1) + 2 · P(K2 = 2) g h g g+1 =2 +2 g+hg+h+1 g+hg+h+1 g h g+1 g =2 + =2 . g+h g+h+1 g+h+1 g+h 9 3.3 3.3.1 Allgemeine Zeit Folgen von n Ereignissen Fakt 3.2 (Bedingte Wahrscheinlichkeiten zum Zeitpunkt n) Angenommen wir haben unser Experiment n mal wiederholt und haben das folgende Ergebnis erhalten: X(n) = (X1 , . . . , Xn ) = (x1 , . . . , xn ) ∈ Ωn,Münzen oder Ωn,Bakterien . a) Münzwurf. Die Wahrscheinlichkeit Xn+1 = ± unter der Bedingung X(n) = (x1 , . . . , xn ) ∈ Ωn,Münzen hängt nicht von (x1 , . . . , xn ) ab. Es gilt 1 P Xn+1 = + | X(n) = (x1 , . . . , xn ) = 2 1 P Xn+1 = − | X(n) = (x1 , . . . , xn ) = . 2 Der Schritt n → n + 1 ist unabhängig von den bisherigen Ergebnissen des Experimentes (kein Gedächtnis). b) Bakterien. Sei g(n) die Anzahl von Typ-G-Bakterien zum Zeitpunkt n und k die Anzahl Bakterien vom Typ G, die bis zum Zeitpunkt n hinzugekommen sind. Dann ist die Größe der gesamten Kolonie zum Zeitpunkt n h(n) + g(n) = h + g + n, g(n) = g + k, und die Wahrscheinlichkeit von Xn+1 = G, H unter der Bedingung X(n) = (x1 , . . . , xn ) ∈ Ωn,Bakterien ist g(n) g+k = , h+g+n h+g+n h+n−k h(n) = . = H | X(n) = (x1 , . . . , xn ) = h+g+n h+g+n P Xn+1 = G | X(n) = (x1 , . . . , xn ) = P Xn+1 Die Wahrscheinlichkeiten hängen von der Vergangenheit ab (Gedächtnis). Die Bakterienevolution hat einen partiellen Gedächtnisverlust. Für n = 2 stellen wir fest, dass h g g h P(H, G) = = = P(G, H). g+hg+h+1 g+hg+h+1 Für n = 3 gilt P(H, G, H) = h g h+1 g h h+1 = = P(G, H, H). g+hg+h+1g+h+2 g+hg+h+1g+h+2 Die Wahrscheinlichkeit hängt nicht davon ab, in welcher Reihenfolge die Gen-Typen ausgewählt werden, sofern die Anzahl der Typen sich nicht verändert. Das ist kein Zufall, sondern genereller Fakt: 10 Lemma 3.3 (Partielle Austauschbarkeit) Die Wahrscheinlichkeit eines bestimmten n-Tupels von Genen hängt nicht von der Reihenfolge ab, sondern nur davon, wie oft Typ G und wie oft Typ H auftaucht. Diese Eigenschaft nennt man partielle Austauschbarkeit. Genauer gesagt seien (x1 , x2 , . . . , xn ), (x01 , x02 , . . . , x0n ) ∈ Ωn,Bakterien zwei Gen-Sequenzen mit der gleichen Anzahl k an guten Genen. Sei xn+1 = G oder H. Dann gilt P Xn+1 = xn+1 |X(n) = (x1 , . . . , xn ) = P Xn+1 = xn+1 |X(n) = (x01 , . . . , x0n ) . Satz 3.4 Die unbedingte Wahrscheinlichkeit für eine Sequenz von n Münzwürfen oder n Genen ist durch folgende Formeln gegeben: a) Münzwurf. Sei (x1 , . . . , xn )) ∈ Ωn,Münzen . Dann gilt 1 P X(n) = (x1 , . . . , xn ) = n . (3.4) 2 b) Bakterien. Sei (x1 , . . . , xn )) ∈ Ωn,Bakterien und k die Anzahl guter Bakterien in der Sequenz. Dann gilt Qk−1 (g + i) Qn−k−1 (h + i) i=0 , (3.5) P X(n) = (x1 , . . . , xn ) = i=0 Qn−1 (h + g + i) i=0 was auch in folgender Form geschrieben werden kann: (g + k − 1)!(h + n − k − 1)! P X(n) = (x1 , . . . , xn ) = cg,h , (h + g + n − 1)! wobei cg,h = (g + h − 1)! (g − 1)!(h − 1)! (3.6) (3.7) eine Konstante unabhängig von k und n ist. 3.3.2 Gewinn/Anzahl Bakterien nach n Schritten Satz 3.5 Die Wahrscheinlichkeitsverteilung zur Zufallsvariablen Gn ist 1 n P(Gn = k) = k+n n wenn k + n gerade und − n ≤ k ≤ n 2 2 =0 wenn k > n, k < −n oder k + n ungerade, (3.8) (3.9) wobei für q ∈ N und 0 ≤ q ≤ n der Binomial-Koeffizient definiert ist als n n! = . q!(n − q)! q Die Wahrscheinlichkeitsverteilung für die Zufallsvariable Kn ist n P(Kn = k) = pg,h (k), wenn 0 ≤ k ≤ n k =0 wenn k > n oder k < 0, 11 (3.10) (3.11) mit (g + k − 1)!(h + n − k − 1)! . (h + g + n − 1)! Bemerkung 3.6 Der Binomial-Koeffizient nq gibt die Anzahl der Möglichkeiten an, aus n Objekten q Objekte auszuwählen, wobei die Reihenfolge nicht beachtet wird; es ist egal, ob ich erst Objekt 1 und dann Objekt 2 auswähle oder erst Objekt 2 und dann Objekt 1. pg,h (k) = cg,h · Satz 3.7 (Erwartungswert nach n Schritten) Der Erwartungswert von Annas Gewinn ist nach n Würfen stets 0: E[Gn ] = 0 ∀ n ≥ 1 Der Erwartungswert neuer guter Bakterien in der n-ten Generation ist gegeben durch g E[Kn ] = n . g+h Insbesondere ist der Anteil guter Bakterien an den nach n Schritten hinzugefügten Bakterien g Kn = E n g+h unabhängig von n. 3.4 Langzeitstudien und Grenzwerte Wir können nun Antworten auf die anfänglichen Fragen geben: Was passiert, wenn wir unsere Experimente für wirklich lange Zeit fortführen? Werden die guten Bakterien auf lange Sicht überleben? Satz 3.8 (Gemittelter absoluter Gewinn nach vielen Würfen.) Wenn wir die Münze viele, viele Male werfen, wird der gemittelter Gewinn von Anna sicher 0 (d.h. mit Wahrscheinlichkeit 1). Wir meinen hier den Grenzwert Gn P lim = 0 = 1. n→∞ n Nach vielen Würfen werden die einzigen möglichen (mit Wahrscheinlichkeit ungleich 0) Ereignisse diejenigen sein, die einen Gewinn von 0 liefern. Da limn→∞ Gnn sicher den Wert 0 annehmen muss, ist es nicht länger zufällig. Satz 3.9 (Anteil guter Bakterien nach langer Zeit.) Seien 0 < a < b < 1 zwei Parameter. Wenn wir eine sehr lange Zeit warten, erfüllt die Wahrscheinlichkeit, dass der Anteil guter Bakterien an den bis zum Zeitpunkt n hinzugefügten Bakterien zwischen a und b liegt, die Gleichung Z b Kn P ∈ (a, b) → φg,h (x)dx wenn n → ∞ n a mit φg,h (x) = cg,h xg−1 (1 − x)h−1 . Die Funktion φg,h erfüllt φg,h (x) ≥ 0 ∀x ∈ [0, 1] und Z 1 φg,h (x)dx = 1. 0 12 Das obige Resultat zeigt, dass für jeden Zeitraum der Anteil guter Bakterien relativ konstant bleibt, insbesondere zu jedem Zeitpunkt sicher endlich bleibt. In einem realen Biosystem (ohne Effekte der natürlichen Selektion) würden wir erwarten, dass ein kleiner Anteil guter Bakterien nach einer gewissen Zeit verschwindet. Unser Modell eignet sich also nur für kleine Zeitintervalle. 4 Ein anderes Modell für Bakterienwachstum In diesem Modell bleibt die Größe der Bakterienkolonie konstant. Wir repräsentieren die Kolonie zum Zeitpunkt t als Urne Ut . Urne U0 beinhaltet die Startkolonie bestehend aus g guten und h harmlosen Bakterien. Die Gesamtzahl an Bakterien ist m = g + h. Um die erste Generation zu erzeugen, füllen wir die erste Urne wie folgt: Nimm zufällig ein Bakterium aus U0 und stecke ein neues Baby-Bakterium vom gleichen Gen-Typ in Urne U1 . Danach lege das Mutter-Bakterium zurück in Urne U0 . Wiederhole diesen Schritt, bis Urne U1 auch m Bakterien enthält. Eigenschaften. Bei diesem Schema kann ein Bakterium mehrere Kinder haben (da man dieselbe Mutter-Bakterium mehrere Male aus U0 nehmen kann), andere vielleicht gar keines. Die GesamtAnzahl an Bakterien bleibt von Generation zu Generation konstant, wohingegen sich jedoch das Verhältnis gute/harmlose Bakterien ändern kann. Satz 4.1 Wir betrachten die Zufallsvariable Gt , die die Anzahl guter Bakterien in Generation t beschreibt. Wir nehmen an, dass die Kolonie zum Zeitpunkt t aus i guten Bakterien besteht (und m − i harmlosen). Dann ist die Wahrscheinlichkeit, dass die Kolonie zum Zeitpunkt t + 1 aus k guten Bakterien besteht, gegeben durch m i k i m−k P Gt+1 = k| Gt = i = 1− k, i = 1, . . . , m, k m m wobei m m! = k!(m − k)! k wieder der Binomialkoeffizient ist. Insbesondere hängt die Wahrscheinlichkeit nicht von den Bakterienverhältnissen zum Zeitpunkt t0 ≤ t − 1 ab (partieller Gedächtnisverlust). Verhalten nach langer Zeit. Satz 4.2 Seien g > 0 und h > 0 die anfänglichen Anzahlen guter bzw. harmloser Bakterien. Früher oder später wird die Kolonie ausschließlich aus guten oder harmlosen Bakterien bestehen. Um zu messen, wie die Bakterienpopulation zum Zeitpunkt t aussieht, wählen wir zufällig zwei Bakterien aus Urne Ut aus und überprüfen, ob sie vom gleichen Gen-Typ sind. Lemma 4.3 Sei m = g + h die konstante Größe der Bakterienkolonie. Sei Ft die Wahrscheinlichkeit, dass zwei Bakterien gleichen Gentyps aus Urne Ut ausgewählt werden. Dann gilt 1 (t−1) Ft = 1 − 1 − (1 − F1 ) ∀t ≥ 1, (4.1) m und Ft → 1 wenn t → ∞. Dieses Resultat bedeutet, dass auf lange Sicht die Kolonie aus nur einem genetischen Typ besteht. 13