Die Welt des Zufalls 1 Zufallsexperimente. 2 Die Modellierung des

Werbung
Die Welt des Zufalls
M. Disertori
1
1.1
Zufallsexperimente.
Ein Glücksspiel: Münzen werfen
Anna und Tom spielen folgendes Glücksspiel: Sie werfen eine Münze. Jedesmal, wenn Kopf fällt,
zahlt Tom an Anna 1 Euro. Jedesmal, wenn Zahl fällt, zahlt Anna an Tom 1 Euro.
Fragen. Wie hoch ist die Wahrscheinlichkeit, dass Anna nach zwei Würfen 2 Euro gewinnt?
Wie viel gewinnt Anna durchschnittlich nach sehr vielen Münzwürfen?
1.2
Bakterienbevölkerung
In einer Pflanze lebt eine Kolonie von N Bakterien. Die Bakterien selbst sind harmlos und beeinflussen die Pflanze nicht, allerdings mutiert ein kleiner Teil der Bakterien zu guten Bakterien,
die die Pflanze vor vielen Krankheiten schützen. Nach einer festen Zeitspanne generiert jedes
Bakterium ein neues Bakterium des gleichen Typs (H für harmlos oder G für gut) und stirbt
danach. Manchmal generiert ein Bakterium zwei statt nur einem neuen Bakterium, was zum
Wachstum der Bakterienkolonie führt. Um die Untersuchung der Kolonie zu vereinfachen nehmen wir an, dass zu jedem Zeitpunkt genau ein zufällig gewähltes Bakterium zwei Nachfahren
generiert.
Wir modellieren den Prozess wie folgt: Zum Zeitpunkt 0 generiert ein zufällig ausgewähltes Bakterium zwei Nachfahren desselben Gentyps und stirbt. Alle anderen Bakterien generieren einen Nachfahren des eigenen Gentyps und sterben danach. Dieser Vorgang wird für jede
Zeitspanne wiederholt; die Bakterienkolonie wächst pro Zeitschritt um 1 Bakterium und das
Verhältnis harmlose/gute Bakterien ändert sich. Wir wiederholen den Vorgang viele Male.
Frage. Werden die guten Bakterien auf lange Sicht überleben? (Oder geht ihr Anteil in der
Kolonie gegen Null?)
2
2.1
Die Modellierung des Zufalls
Ergebnismenge
Um ein Zufallsexperiment formal beschreiben zu können, müssen wir zunächst alle möglichen
Ausgänge des Experimentes auflisten.
Definition 2.1 (Ergebnismenge) Die Menge aller möglichen Ausgänge eines Zufallsexperiments heißt Ergebnismenge Ω. Ihre Elemente ω ∈ Ω heißen Ergebnisse oder Elementarereignisse.
Ein Ereignis ist eine Teilmenge E ⊆ Ω. Man sagt, Ereignis E sei eingetreten, wenn ein Zufallsexperiment ein Ergebnis ω ∈ E liefert.
1
Ein Würfelwurf. Wenn wir mit einem normalen 6-seitigen Würfel würfeln, besteht Ω =
{1, 2, 3, 4, 5, 6} aus allen möglichen Augenzahlen. Ein Ereignis kann nun ein einzelnes Element
aus Ω sein, die sechs Augenzahlen sind also auch Ereignisse (nämlich die Elementarereignisse).
Wir können aber auch ’Wir würfeln eine gerade Augenzahl’ als Ereignis E betrachten. In eine
Teilmenge von Ω übersetzt, erhalten wir E = {2, 4, 6}. Die Teilmenge E ist nun ein Ereignis,
aber kein Ergebnis.
Eine Münze werfen. Als Beispiel für ein Zufallsexperiment betrachten wir den Münzwurf.
Die möglichen Ergebnisse eines Münzwurfes sind 0 Kopf 0 oder 0 Zahl0 . Die Ergebnismenge ist
dann Ω = {0 Kopf 0 ,0 Zahl0 }. Die Anzahl der Elemente in Ω ist 2, |Ω| = 2.
Erste Bakteriengeneration. Seien h, g die Anzahlen der harmlosen bzw. guten Bakterien
zum Zeitpunkt 0. Wir nummerieren die Bakterien durch und bezeichnen sie als b1 , . . . , bh+g ,
wobei die Bakterien b1 , . . . , bg vom genetischen Typ G, und die Bakterien bg+1 , . . . , bg+h vom
genetischen Typ H sind. Als Experiment möchten wir zufällig eines der Bakterien auswählen und
bezeichnen seinen genetischen Typ mit X1 . Ein Elementarereignis ist dann ω =’wähle Bakterium
bi aus’. Dann ist die Ergebnismenge
Ω = {(b1 ), . . . , (bg ), (bg+1 ), . . . , (bg+h )},
und |Ω| = g + h.
Der genetische Typ X1 kann entweder H oder G sein, weshalb wir die beiden Ereignisse H1 :=
(X1 = H) =’Das ausgewählte Bakterium ist harmlos’ und G1 := (X1 = G) =’Das ausgewählte
Bakterium ist gut’ betrachten.
H1 = {(bg+1 ), . . . , (bg+h )},
G1 = {(b1 ), . . . , (bg )},
H1 , G1 sind Teilmenge von Ω, aber keine Elementarereignisse. (Allerdings ist jedes Elementarereignis natürlich auch eine Teilmenge von Ω).
2.2
Zufallsvariablen
Eine Münze werfen. Wir sind im Annas Gewinn interessiert. Um die Beziehung zum Glücksspiel herauszustellen, stellen wir ’Kopf’ mit +1 (Anna bekommt 1 Euro) dar und ’Zahl’ mit −1
(Anna verliert 1 Euro). Wir bezeichnen den Gewinn von Anna mit einer Funktion X : ω → {±1},
X(0 Kopf 0 ) = +1, X(0 Zahl0 ) = −1. Wir nennen X eine Zufallsvariable. Wir benutzen dann die
Zufallsvariable X um die Ergebnisse von unserem Experiment zu beschreiben. Die Ergebnismenge ist dann Ω0 = {(+1), (−1)}, wobei (+1) das Ergebnis (X = +1) beschreibt. Da jedes Element
in Ω0 zu genau einem Element in Ω gehört, gilt |Ω| = |Ω0 |, Die beiden Beschreibungen sind also
äquivalent.
Im Allgemeinen kann eine Zufallsvariable einen beliebigen reellen Wert annehmen.
Definition 2.2 Eine Zufallsvariable ist eine Funktion
X: Ω →R
ω 7→ X(ω)
die jedem Elementarereignis eine reelle Zahl zuordnet.
2
Erste Bakteriengeneration. Wir sind am Gentyp des ersten zusätzlichen Bakteriums interessiert. Wir bezeichnen seinen genetischen Typ mit die Zufallsvariable X wie folgt:
X(ω) = G wenn das ausgewählte Bakterium gut ist (also ω = b1 , . . . bg ),
X(ω) = H wenn das ausgewählte Bakterium harmlos ist (also ω = bg+1 , . . . bg+h ).
Das Ereignis H1 :=’Das ausgewählte Bakterium ist harmlos’ entspricht dem Ereignis (X = H).
Das Ereignis G1 :=’Das ausgewählte Bakterium ist gut’ entspricht dem Ereignis (X = G).
Wenn wir X = G, H benutzen möchten, um das Ergebnis unseres Experimentes zu beschreiben, müssen wir die neue Ergebnismenge Ω0 = {G, H} einführen. Diese hat nur zwei Elemente,
jedes entspricht allerdings mehreren Elementen in Ω. Die beiden Beschreibungen sind nicht
äquivalent!
Unmögliche und sichere Ereignisse. Ähnlich zu den Ereignissen H1 und G1 können wir uns
beliebige Ereignisse ausdenken und versuchen, sie in Teilmengen von Ω zu übersetzen. Betrachten
wir das Ereignis A =’Das ausgewählte Bakterium ist von beiden Typen H und G’, so ist es
natürlich ein unmögliches Ereignis, es ist also kein Elementarereignis kompatibel mit A. Wir
sagen, Ereignis A ist die ’leere Menge’ und schreiben A = ∅. Das Ereignis B =’Das ausgewählte
Bakterium ist vom Typ H oder vom Typ G’ tritt immer ein. Also gilt B = Ω und wir sagen, das
Ereignis B ist sicher.
Definition 2.3 (Verknüpfen von Ereignissen) Für jedes Paar von Ereignissen E, F ⊆ Ω
definieren wir ihre Schnittmenge als
E ∩ F = {ω ∈ Ω| ω ∈ E und ω ∈ F }.
Die Schnittmenge ist das Ereignis, dass sowohl E als auch F eintreten. Ihre Vereinigung
E ∪ F = {ω ∈ Ω| ω ∈ E oder ω ∈ F }
ist das Ereignis, dass E oder F eintritt (oder beide).
Zwei Ereignisse E und F , die nicht gleichzeitig eintreten können, heißen disjunkt (’unvereinbar’). Ihre Schnittmenge ist leer:
E ∩ F = {ω ∈ Ω| ω ∈ E und ω ∈ F } = ∅.
Bei den Bakterien sind H1 und G1 disjunkte Ereignisse H1 ∩ G1 = ∅ und
H1 ∪ G1 = Ω.
2.3
Mit Wahrscheinlichkeiten rechnen
Definition 2.4 (Gleichverteilte Wahrscheinlichkeiten) Wir nehmen an, dass alle Elementarereignisse gleich wahrscheinlich sind. (Zum Beispiel beim Ziehen einer Karte aus einem gemischten Skat-Spiel.) Für jedes Ereignis, also jede Teilmenge E ⊆ Ω von Ω, bezeichnet dann
P(E) :=
Anzahl günstiger Ergebnisse
|E|
=
Anzahl möglicher Ergebnisse
|Ω|
die ’Wahrscheinlichkeit von E’.
3
Eine Münze werfen. Sei E =’Anna gewinnt 1 Euro beim ersten Wurf ’. Dann ist E = {(+)}
und
|E|
1
P(E) =
= .
|Ω|
2
Erste Bakteriengeneration. Da |H1 | = h und |G1 | = g, haben wir die Wahrscheinlichkeiten
P(X1 = H) = P(H1 ) =
h
|H1 |
=
,
|Ω|
h+g
P(X1 = G) = P(G1 ) =
|G1 |
g
=
.
|Ω|
h+g
Einige Eigenschaften der Wahrscheinlichkeit P:
a)
Für jedes Ereignis E ⊆ Ω gilt
0 ≤ P[E] ≤ 1.
(2.1)
Wenn P(E) = 0 gilt, bezeichnen wir das Ereignis E als unmöglich.
Wenn P(E) = 1 gilt, bezeichnen wir das Ereignis E als sicher.
b)
Seien E und F zwei disjunkte Ereignisse. Dann gilt
P(E ∪ F ) = P(E) + P(F ).
(2.2)
Bei den Bakterien gilt H1 ∩ G1 = ∅, außerdem ist H1 ∪ G1 = Ω. Deshalb ist H1 ∪ G1 ein sicheres
Ereignis:
P(H1 ∪ G1 ) = P(H1 ) + P(G1 ) = 1
Neue Ergebnismengen aus alten konstruiren. Bei dem Beispiel unserer Bakterienkolonie
interessiert uns nicht wirklich, auf welches Bakterium genau unsere zufällige Wahl zum Zeitpunkt
0 fällt, sondern lediglich, welchem Gentyp das Bakterium angehört. Daher benutzen wir {X = G}
und {X = H} als Elementarereignisse, wobei X die oben definierte Zufallsvariable ist. Dann ist
die neue Ergebnismenge gegeben durch Ω0 = {G, H}. Wir haben gesehen, dass P(X = H) =
g
h
0
h+g und P(X = G) = h+g gilt, was bedeutet, dass die Elementarereignisse in Ω nicht mehr
gleichwahrscheinlich sind. Wir können also nicht mehr mit gleichverteilten Wahrscheinlichkeiten
arbeiten.
Definition 2.5 (nicht gleichverteilte Wahrscheinlichkeiten) Sind die Wahrscheinlichkeiten P(ω) ∈ [0, 1] aller Elementarereignisse ω bekannt und gilt
X
P(Ω) = P(∪ω∈Ω ω) =
P(ω) = 1,
ω∈Ω
so definiert {P(ω)}ω∈Ω das Wahrscheinlichkeitsmaß für unser Experiment. Für jedes Ereignis E ⊆ Ω ist dann die ’Wahrscheinlichkeit von E’ gegeben durch
X
P(E) =:
P(ω).
ω∈E
4
Beispiel: Ein unfairer Würfel.
Beim Werfen eines Würfels ist die Ergebnismenge
Ω = {(1), (2), (3), (4), (5), (6)}.
Wenn der Würfel fair ist, haben alle Elementarereignisse dieselbe Wahrscheinlichkeit von 1/6.
Nehmen wir nun an, dass der Würfel unfair ist, sodass
P(1) =
1
2
P(2) = P(3) = P(4) = P(5) = P(6) =
1
10
gilt, so ist die Wahrscheinlichkeit, dass wir eine ungerade Zahl würfeln
P(’ungerade Augenzahl’) = P(1) + P(3) + P(5) =
1
2
9
+
= .
2 10
10
Im Falle eines fairen Würfels hätten wir lediglich eine Wahrscheinlichkeit von 3/6 = 1/2.
2.4
Erwartungswert einer Zufallsvariablen
Frage:
Was ist das durchschnittliche Ergebnis beim Würfeln eines fairen/unfairen Würfels?
Definition 2.6 Der Erwartungswert einer Zufallsvariablen X ist
X
E(X) :=
X(ω)P(ω).
ω∈Ω
Lemma 2.7 Sei X eine Zufallsvariable, die N verschiedene Werte annehmen kann: x1 , . . . , xN ∈
R. Dann ist der Erwartungswert von X gegeben durch
E(X) =
N
X
xj P(X = xj ).
j=1
Beweis. Die Ereignisse (X = xi ), (X = xj ) mit i 6= j sind unabhängig und mit Ω = ∪N
i=1 (X =
xi ) ist dann
X
ω∈Ω
X(ω)P(ω) =
N
X
X
j=1 ω∈(X=xj )
xj P(ω) =
N
X
j=1
xj
X
ω∈(X=xj )
P(ω) =
N
X
xj P(X = xj ).
j=1
Beispiel 1: Ein fairer Würfel. Es gibt 6 mögliche Werte: x1 = 1, . . . , x6 = 6, alle haben
Wahrscheinlichkeit 1/6. Dann ist E(X) = (1 + 2 + 3 + 4 + 5 + 6) · 16 = 3, 5.
Beispiel 2: Ein unfairer Würfel. Es gibt erneut 6 mögliche Werte: x1 = 1, . . . , x6 = 6,
1
allerdings mit verschiedenen Wahrscheinlichkeiten: P(X = 1) = 12 , P(X = j) = 10
, j = 2, . . . , 6.
Daher gilt
1
E(X) = 1 · 21 + (2 + 3 + 4 + 5 + 6) · 10
= 2, 5.
5
3
Zeitliche Entwicklung
Wir wiederholen unser Zufallsexperiment (wiederholter Münzwurf oder Duplizieren eines Bakteriums) bis zum Zeitpunkt n > 1. Sei Xj das Resultat des j-ten Experimentes. Xj nimmt die
Werte xi = +, − (Münze) oder xi = G, H (Bakterien) an. Das Ergebnis von n Wiederholungen
ist ein n-Tupel
X(n) = (X1 , . . . , Xn ).
Die Ergebnismengen sind jetzt
Ωn,Münzen = {X(n) = (x1 , . . . , xn )| xi = ±},
Ωn,Bakterien = {X(n) = (x1 , . . . , xn )| xi = H, G}.
Wir wollen die Wahrscheinlichkeit jedes Ereignisses untersuchen.
3.1
Bedingte Wahrscheinlichkeit
Zwei Münzenwürfe. Die mögliche Ergebnismenge lautet jetzt
Ω2,Münzen = {(+, +), (+, −), (−, +), (−, −)}. Da die Münzen fair sind, sind alle Elementarereignisse gleichwahrscheinlich und wir können mit gleichverteilten Wahrscheinlichkeiten rechnen:
1
P(+, +) = P(+, −) = P(−, +) = P(−, −) = .
4
Bei jedem Münzwurf werfen wir + oder − mit der gleichen Wahrscheinlichkeit von 1/2. Es
ist also P(X1 = +) = P(X1 = −) = P(X2 = +) = P(X2 = −). Allerdings wissen wir beim
Werfen der zweiten Münze bereits das Ergebnis des ersten Wurfes. Sei + das Ergebnis des
ersten Wurfes, wir wissen also, dass X1 = + wahr ist. Was ist dann die Wahrscheinlichkeit für
X2 = +? Die Information (X1 = +) hat die Menge der möglichen Ergebnisse geändert. Die neue
Ergebnismenge ist
Ω0 = {ω ∈ Ω| ω kompatibel mit X1 = +}
= {(+, +), (+, −)},
|Ω0 | = 2.
Jedes Elementarereignis hat die gleiche Wahrscheinlichkeit (da dies schon in Ω wahr war). Das
einzige Element in Ω0 kompatibel mit X2 = + ist (+, +). Daher ist die Wahrscheinlichkeit für
X2 = +, wissend, dass X1 = + gilt,
P ({X2 = +} | {X1 = +}) := P({X2 = +} wissend, dass {X1 = +}) =
1
.
2
Definition 3.1 (Bedingte Wahrscheinlichkeit) Für je zwei Ereignisse E, F ⊂ Ω wird die
bedingte Wahrscheinlichkeit von E unter F , also die Wahrscheinlichkeit von E unter der
Bedingung, dass F wahr ist, mit P(E|F ) bezeichnet und ist definiert durch
P(E|F ) :=
P(E ∩ F )
.
P(F )
(3.1)
In unserem Beispiel seien E = {X2 = +} und F = {X1 = +}, was E ∩ F = (+, +) bedeutet. Es
gilt dann
|E ∩ F |
1
|F |
2
1
P(E ∩ F ) =
= ,
P(F ) =
= = .
|Ω|
4
|Ω|
4
2
6
Eigenschaften der bedingten Wahrscheinlichkeit:
a) Dekomposition. Seien F1 , . . . , Fn eine Familie von Ereignissen mit Fi ∩ Fj = ∅ ∀i <
j (alle Ereignisse sind disjunkt), und F1 ∪ · · · ∪ Fn = Ω (die Familie deckt alle möglichen
Elementarereignisse ab). Dann gilt
P(E) =
n
X
P(E|Fj )P(Fj ).
(3.2)
j=1
b) Unabhängigkeit. Wenn P(E|F ) = P(E) gilt, heißt das Ereignis E unabhängig von F .
Dann haben wir
P(E ∩ F ) = P(E)P(F ).
(3.3)
Doppelter Münzwurf. Sei F+ = {X1 = +} = {(+, +), (+, −)}, F− = {X1 = −} =
{(−, +), (−, −)} und E+ = {X2 = +} = {(+, +), (−, +)}. Dann gilt F+ ∩ F− = ∅, F+ ∪ F− = Ω,
und
1 1 1 1
1
P (E+ ) = P (E+ |F+ ) P (F+ ) + P (E+ |F− ) P (F− ) = · + · = .
2 2 2 2
2
Außerdem erhalten wir
P (E+ |F+ ) = P (E+ ) ,
P (E+ |F− ) = P (E+ ) ,
P (E− |F+ ) = P (E− ) ,
P (E− |F− ) = P (E− ) .
Das Ergebnis des zweiten Münzwurfes hängt nicht von der Vergangenheit ab. Das Zufallsexperiment hat kein Gedächtnis.
Zweite Bakteriengeneration. Nach zwei Generationen ist die Ergebnismenge Ω2,Bakterien =
{(H, H), (H, G), (G, H), (G, G)}. Wie groß ist P(H, H)? Für die erste Generation haben wir
P(X1 = H) =
h
,
h+g
P(X1 = G) =
g
.
h+g
Gleichung (3.1) liefert uns
P(H, H) = P (X1 = H) ∩ (X2 = H) = P (X2 = H)|(X1 = H) P(X1 = H).
Da (X1 = H) erfüllt ist, haben wir h + 1 Bakterien des Typs H und g Bakterien des Typs G
nach dem ersten Zeitschritt. Dass im zweiten Zeitschritt ein Bakterium des Typs H hinzukommt
hat Wahrscheinlichkeit
h+1
P (X2 = H)|(X1 = H) =
.
h+g+1
Liegt Unabhängigkeit vor? Gleichung (3.2) liefert
P(X2 = H) = P (X2 = H)|(X1 = H) P(X1 = H) + P (X2 = H)|(X1 = G) P(X1 = G).
Falls (X1 = G) erfüllt ist haben wir h harmlose und g + 1 gute Bakterien im zweiten Schritt,
und damit
h
P (X2 = H)|(X1 = G) =
.
h+g+1
7
Das liefert aber
h
g
h+1
h
h+1
g
+
=
−
h+g+1h+g h+g+1h+g
h + g + 1 (h + g)(h + g + 1)
g
= P (X2 = H)|(X1 = H) −
6= P (X2 = H)|(X1 = H)
(h + g)(h + g + 1)
P(X2 = H) =
sofern g 6= 0. Die Ergebnisse von erster und zweiter Generation sind abhängig. Das Zufallsexperiment hat Gedächtnis.
3.2
Absoluter Gewinn, Absolute Anzahl Bakterien
Frage. Wie viel gewinnt Anna nach n Münzwürfen?
Um wie viele gute Bakterien ist die Kolonie nach n Generationen gewachsen?
Gewinn. Bei jedem Wurf kann Anna einen Euro gewinnen, Xi = +1, oder verlieren, Xi = −1.
Sei ω = X(n) ∈ Ω ein Elementarereignis. Der absolute Gewinn nach n Schritten (Würfen) ist
Gn =
n
X
Xj ∈ {−n, −n + 2, −n + 4, . . . , n − 2, n}.
j=1
(Um zu sehen, dass die möglichen Werte für Gn immer eine gerade Differenz aufweisen, mache
man sich klar, dass Anna nach 2 Würfen nicht genau einen Euro gewinnen oder verlieren kann
und verallgemeinere die Aussage.) Für n = 1 gilt Ω1,Münzen = {(+), (−)} und die Zufallsvariable
ist
G1 (+) = 1, G1 (−) = −1.
Die zugehörige Wahrscheinlichkeitsverteilung ist
1
2
1
P(G1 = −1) = P(−) =
2
P(G1 6∈ {−1, 1}) = 0.
P(G1 = +1) = P(+) =
Für n = 2 gilt Ω2,Münzen = {(+, +), (+, −), (−, +), (−, −)} und die Zufallsvariable ist
G2 (+, +) = 2, G2 (+, −) = G2 (−, +) = 0, G2 (−, −) = −2.
Die zugehörige Wahrscheinlichkeitsverteilung ist
P(G2 = 2) = P(+, +) =
1
4
P(G2 = −2) = P(−, −) =
1
4
P(G2 = 0) = P(+, −) + P(−, +) =
1
2
P(G2 6∈ {−2, 0, 2}) = 0.
Der durchschnittliche Gewinn nach einem, bzw. zwei Münzwürfen ist
1 1
E[G1 ] = +1 · P(G1 = 1) − 1 · P(G2 = −1) = − = 0
2 2
1
1
E[G2 ] = 2 · P(G2 = 2) + 0 · P(G2 = 0) − 2 · P(G2 = −2) = 2 · + 0 − 2 · = 0.
4
4
8
Anzahl guter Bakterien. In jedem Schritt kommt entweder ein gutes Bakterium dazu (Xi =
G) oder nicht (also ein harmloses, Xi = H). Dann ist die absolute Anzahl guter Bakterien, die
dazu gekommen sind, eine Zufallsvariable:
Kn = Anzahl der G-Typen in der Sequenz X(n) = (X1 , . . . , Xn )
Für n = 1 gilt Ω1,Bakterien = {(G), (H)} und die Zufallsvariable ist
K1 (G) = 1, K1 (H) = 0.
K1 kann die Werte 0, 1 annehmen und die zugehörige Wahrscheinlichkeitsverteilung ist
h
g+h
g
P(K1 = 1) = P(G) =
g+h
P(K1 > 1) = 0.
P(K1 = 0) = P(H) =
Für n = 2 gilt Ω2,Bakterien = {(G, G), (G, H), (H, G), (H, H)} und die Zufallsvariable ist
K2 (G, G) = 2, K2 (G, H) = K2 (H, G) = 1, K2 (H, H) = 0.
K2 kann die Werte 0, 1, 2 annehmen und die zugehörige Wahrscheinlichkeitsverteilung ist
P(K2 = 0) = P(H, H) =
h
h+1
g+hg+h+1
P(K2 = 1) = P(G, H) + P(H, G) = 2P(G, H) = 2
P(K2 = 2) = P(G, G) =
g
h
g+hg+h+1
g
g+1
g+hg+h+1
P(K2 > 2) = 0,
wobei wir in der zweiten Zeile Lemma 3.3 benutzt haben. Der Durchschnitt nach einem Schritt
beträgt
E[K1 ] = 0 · P(K1 = 0) + 1 · P(K1 = 1) = 0 · P(H) + 1 · P(G)
h
g
g
=0·
+1·
=
.
g+h
g+h
g+h
Der Durchschnitt nach zwei Schritten beträgt
E[K2 ] = 0 · P(K2 = 0) + 1 · P(K2 = 1) + 2 · P(K2 = 2)
g
h
g
g+1
=2
+2
g+hg+h+1
g+hg+h+1
g
h
g+1
g
=2
+
=2
.
g+h g+h+1 g+h+1
g+h
9
3.3
3.3.1
Allgemeine Zeit
Folgen von n Ereignissen
Fakt 3.2 (Bedingte Wahrscheinlichkeiten zum Zeitpunkt n) Angenommen wir haben unser Experiment n mal wiederholt und haben das folgende Ergebnis erhalten:
X(n) = (X1 , . . . , Xn ) = (x1 , . . . , xn ) ∈ Ωn,Münzen oder Ωn,Bakterien .
a) Münzwurf. Die Wahrscheinlichkeit Xn+1 = ± unter der Bedingung
X(n) = (x1 , . . . , xn ) ∈ Ωn,Münzen hängt nicht von (x1 , . . . , xn ) ab. Es gilt
1
P Xn+1 = + | X(n) = (x1 , . . . , xn ) =
2
1
P Xn+1 = − | X(n) = (x1 , . . . , xn ) = .
2
Der Schritt n → n + 1 ist unabhängig von den bisherigen Ergebnissen des Experimentes (kein
Gedächtnis).
b) Bakterien. Sei g(n) die Anzahl von Typ-G-Bakterien zum Zeitpunkt n und k die Anzahl
Bakterien vom Typ G, die bis zum Zeitpunkt n hinzugekommen sind. Dann ist die Größe der
gesamten Kolonie zum Zeitpunkt n
h(n) + g(n) = h + g + n,
g(n) = g + k,
und die Wahrscheinlichkeit von Xn+1 = G, H unter der Bedingung X(n) = (x1 , . . . , xn ) ∈
Ωn,Bakterien ist
g(n)
g+k
=
,
h+g+n
h+g+n
h+n−k
h(n)
=
.
= H | X(n) = (x1 , . . . , xn ) =
h+g+n
h+g+n
P Xn+1 = G | X(n) = (x1 , . . . , xn ) =
P Xn+1
Die Wahrscheinlichkeiten hängen von der Vergangenheit ab (Gedächtnis).
Die Bakterienevolution hat einen partiellen Gedächtnisverlust. Für n = 2 stellen wir fest,
dass
h
g
g
h
P(H, G) =
=
= P(G, H).
g+hg+h+1
g+hg+h+1
Für n = 3 gilt
P(H, G, H) =
h
g
h+1
g
h
h+1
=
= P(G, H, H).
g+hg+h+1g+h+2
g+hg+h+1g+h+2
Die Wahrscheinlichkeit hängt nicht davon ab, in welcher Reihenfolge die Gen-Typen ausgewählt
werden, sofern die Anzahl der Typen sich nicht verändert. Das ist kein Zufall, sondern genereller
Fakt:
10
Lemma 3.3 (Partielle Austauschbarkeit) Die Wahrscheinlichkeit eines bestimmten n-Tupels
von Genen hängt nicht von der Reihenfolge ab, sondern nur davon, wie oft Typ G und wie oft
Typ H auftaucht. Diese Eigenschaft nennt man partielle Austauschbarkeit. Genauer gesagt seien
(x1 , x2 , . . . , xn ), (x01 , x02 , . . . , x0n ) ∈ Ωn,Bakterien
zwei Gen-Sequenzen mit der gleichen Anzahl k an guten Genen. Sei xn+1 = G oder H. Dann
gilt
P Xn+1 = xn+1 |X(n) = (x1 , . . . , xn ) = P Xn+1 = xn+1 |X(n) = (x01 , . . . , x0n ) .
Satz 3.4 Die unbedingte Wahrscheinlichkeit für eine Sequenz von n Münzwürfen oder n
Genen ist durch folgende Formeln gegeben:
a) Münzwurf. Sei (x1 , . . . , xn )) ∈ Ωn,Münzen . Dann gilt
1
P X(n) = (x1 , . . . , xn ) = n .
(3.4)
2
b) Bakterien. Sei (x1 , . . . , xn )) ∈ Ωn,Bakterien und k die Anzahl guter Bakterien in der
Sequenz. Dann gilt
Qk−1 (g + i) Qn−k−1 (h + i)
i=0
,
(3.5)
P X(n) = (x1 , . . . , xn ) = i=0 Qn−1
(h
+
g + i)
i=0
was auch in folgender Form geschrieben werden kann:
(g + k − 1)!(h + n − k − 1)!
P X(n) = (x1 , . . . , xn ) = cg,h
,
(h + g + n − 1)!
wobei
cg,h =
(g + h − 1)!
(g − 1)!(h − 1)!
(3.6)
(3.7)
eine Konstante unabhängig von k und n ist.
3.3.2
Gewinn/Anzahl Bakterien nach n Schritten
Satz 3.5 Die Wahrscheinlichkeitsverteilung zur Zufallsvariablen Gn ist
1
n
P(Gn = k) = k+n n
wenn k + n gerade und − n ≤ k ≤ n
2
2
=0
wenn k > n, k < −n oder k + n
ungerade,
(3.8)
(3.9)
wobei für q ∈ N und 0 ≤ q ≤ n der Binomial-Koeffizient definiert ist als
n
n!
=
.
q!(n − q)!
q
Die Wahrscheinlichkeitsverteilung für die Zufallsvariable Kn ist
n
P(Kn = k) =
pg,h (k),
wenn 0 ≤ k ≤ n
k
=0
wenn k > n oder k < 0,
11
(3.10)
(3.11)
mit
(g + k − 1)!(h + n − k − 1)!
.
(h + g + n − 1)!
Bemerkung 3.6 Der Binomial-Koeffizient nq gibt die Anzahl der Möglichkeiten an, aus n
Objekten q Objekte auszuwählen, wobei die Reihenfolge nicht beachtet wird; es ist egal, ob ich
erst Objekt 1 und dann Objekt 2 auswähle oder erst Objekt 2 und dann Objekt 1.
pg,h (k) = cg,h ·
Satz 3.7 (Erwartungswert nach n Schritten) Der Erwartungswert von Annas Gewinn ist
nach n Würfen stets 0:
E[Gn ] = 0 ∀ n ≥ 1
Der Erwartungswert neuer guter Bakterien in der n-ten Generation ist gegeben durch
g
E[Kn ] = n
.
g+h
Insbesondere ist der Anteil guter Bakterien an den nach n Schritten hinzugefügten Bakterien
g
Kn
=
E
n
g+h
unabhängig von n.
3.4
Langzeitstudien und Grenzwerte
Wir können nun Antworten auf die anfänglichen Fragen geben: Was passiert, wenn wir unsere
Experimente für wirklich lange Zeit fortführen? Werden die guten Bakterien auf lange Sicht
überleben?
Satz 3.8 (Gemittelter absoluter Gewinn nach vielen Würfen.) Wenn wir die Münze viele, viele Male werfen, wird der gemittelter Gewinn von Anna sicher 0 (d.h. mit Wahrscheinlichkeit 1). Wir meinen hier den Grenzwert
Gn
P lim
= 0 = 1.
n→∞ n
Nach vielen Würfen werden die einzigen möglichen (mit Wahrscheinlichkeit ungleich 0) Ereignisse diejenigen sein, die einen Gewinn von 0 liefern. Da limn→∞ Gnn sicher den Wert 0 annehmen
muss, ist es nicht länger zufällig.
Satz 3.9 (Anteil guter Bakterien nach langer Zeit.) Seien 0 < a < b < 1 zwei Parameter. Wenn wir eine sehr lange Zeit warten, erfüllt die Wahrscheinlichkeit, dass der Anteil
guter Bakterien an den bis zum Zeitpunkt n hinzugefügten Bakterien zwischen a und b liegt, die
Gleichung
Z b
Kn
P
∈ (a, b) →
φg,h (x)dx
wenn n → ∞
n
a
mit
φg,h (x) = cg,h xg−1 (1 − x)h−1 .
Die Funktion φg,h erfüllt φg,h (x) ≥ 0 ∀x ∈ [0, 1] und
Z 1
φg,h (x)dx = 1.
0
12
Das obige Resultat zeigt, dass für jeden Zeitraum der Anteil guter Bakterien relativ konstant
bleibt, insbesondere zu jedem Zeitpunkt sicher endlich bleibt. In einem realen Biosystem (ohne
Effekte der natürlichen Selektion) würden wir erwarten, dass ein kleiner Anteil guter Bakterien
nach einer gewissen Zeit verschwindet. Unser Modell eignet sich also nur für kleine Zeitintervalle.
4
Ein anderes Modell für Bakterienwachstum
In diesem Modell bleibt die Größe der Bakterienkolonie konstant. Wir repräsentieren die Kolonie
zum Zeitpunkt t als Urne Ut . Urne U0 beinhaltet die Startkolonie bestehend aus g guten und h
harmlosen Bakterien. Die Gesamtzahl an Bakterien ist m = g + h.
Um die erste Generation zu erzeugen, füllen wir die erste Urne wie folgt: Nimm zufällig ein
Bakterium aus U0 und stecke ein neues Baby-Bakterium vom gleichen Gen-Typ in Urne U1 .
Danach lege das Mutter-Bakterium zurück in Urne U0 . Wiederhole diesen Schritt, bis
Urne U1 auch m Bakterien enthält.
Eigenschaften. Bei diesem Schema kann ein Bakterium mehrere Kinder haben (da man dieselbe
Mutter-Bakterium mehrere Male aus U0 nehmen kann), andere vielleicht gar keines. Die GesamtAnzahl an Bakterien bleibt von Generation zu Generation konstant, wohingegen sich jedoch das
Verhältnis gute/harmlose Bakterien ändern kann.
Satz 4.1 Wir betrachten die Zufallsvariable Gt , die die Anzahl guter Bakterien in Generation
t beschreibt. Wir nehmen an, dass die Kolonie zum Zeitpunkt t aus i guten Bakterien besteht
(und m − i harmlosen). Dann ist die Wahrscheinlichkeit, dass die Kolonie zum Zeitpunkt t + 1
aus k guten Bakterien besteht, gegeben durch
m i k i m−k
P Gt+1 = k| Gt = i =
1−
k, i = 1, . . . , m,
k
m
m
wobei
m
m!
=
k!(m − k)!
k
wieder der Binomialkoeffizient ist. Insbesondere hängt die Wahrscheinlichkeit nicht von den
Bakterienverhältnissen zum Zeitpunkt t0 ≤ t − 1 ab (partieller Gedächtnisverlust).
Verhalten nach langer Zeit.
Satz 4.2 Seien g > 0 und h > 0 die anfänglichen Anzahlen guter bzw. harmloser Bakterien.
Früher oder später wird die Kolonie ausschließlich aus guten oder harmlosen Bakterien bestehen.
Um zu messen, wie die Bakterienpopulation zum Zeitpunkt t aussieht, wählen wir zufällig zwei
Bakterien aus Urne Ut aus und überprüfen, ob sie vom gleichen Gen-Typ sind.
Lemma 4.3 Sei m = g + h die konstante Größe der Bakterienkolonie. Sei Ft die Wahrscheinlichkeit, dass zwei Bakterien gleichen Gentyps aus Urne Ut ausgewählt werden. Dann gilt
1 (t−1)
Ft = 1 − 1 −
(1 − F1 ) ∀t ≥ 1,
(4.1)
m
und
Ft → 1
wenn t → ∞.
Dieses Resultat bedeutet, dass auf lange Sicht die Kolonie aus nur einem genetischen Typ besteht.
13
Herunterladen