Verzweigungsprozesse - Cambridge Computer Laboratory

Werbung
Verzweigungsprozesse
Bachelorarbeit von
Alexander Kuhnle
Fakultät für Mathematik
Institut für Stochastik
Betreuer: Prof. Dr. Daniel Hug
Bearbeitungszeitraum:
4. Dezember 2013 – 4. März 2014
KIT — Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
www.kit.edu
Hiermit versichere ich, dass ich diese Arbeit selbständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel benutzt, die wörtlich oder inhaltlich übernommenen Stellen als
solche kenntlich gemacht und die Satzung des Karlsruher Instituts für Technologie zur Sicherung
guter wissenschaftlicher Praxis in der jeweils gültigen Fassung beachtet habe.
Karlsruhe, den 3. März 2014
..................................................
(Alexander Kuhnle)
Inhaltsverzeichnis
Inhaltsverzeichnis
1 Einleitung
2
2 Verzweigungsprozesse
4
2.1 Der generationenbasierte Verzweigungsprozess . . . . . . . . . . . . . . . . . . . . 5
2.2 Der Verzweigungsprozess als Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Zusammenhang der Betrachtungsweisen . . . . . . . . . . . . . . . . . . . . . . . 12
3 Die
3.1
3.2
3.3
Entwicklung von Verzweigungsprozessen
16
Generationen und Gesamtpopulation . . . . . . . . . . . . . . . . . . . . . . . . . 16
Aussterben oder Überleben? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Instabilität des Verzweigungsprozesses . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Hitting Time Theorem
24
5 Bedingte Verzweigungsprozesse
27
5.1 Der auf Aussterben bedingte Verzweigungsprozess . . . . . . . . . . . . . . . . . 27
5.2 Der auf Überleben bedingte Verzweigungsprozess . . . . . . . . . . . . . . . . . . 31
–1–
1 Einleitung
1 Einleitung
In der vorliegenden Arbeit wird eine Einführung in die Theorie der Verzweigungsprozesse gegeben. Der hierbei betrachtete Verzweigungsprozess ist ein zeitdiskreter stochastischer Prozess,
welcher auch bekannt ist unter dem Name Galton-Watson-Prozess. Francis Galton und Henry
William Watson stellten diesen 1874 in der Arbeit On the probability of extinction of families“
”
vor. Wie der Titel schon erahnen lässt, versuchten sie mithilfe des Prozesses die Entwicklung
der Häufigkeit verschiedener Familiennamen in der britischen Bevölkerung zu modellieren und
auf ihr Aussterben hin zu untersuchen.
Nachdem der Galton-Watson-Prozess in den darauffolgenden Jahren erst keine größere Beachtung fand, haben im Verlauf des 20. Jahrhunderts Wissenschaftler aus verschiedenen Forschungsrichtungen Interesse an dem Modell gezeigt. So wurden Galton-Watson-Prozesse respektive Verzweigungsprozesse zur Untersuchung der Entwicklung beispielsweise der Verbreitung von
Genmutationen in der Biologie [3] oder der Ausbreitung von nuklearen Kettenreaktionen in der
Atomphysik [5] verwendet. Es hat sich gezeigt, dass sich dieser ursprünglich zur Modellierung
der Bevölkerungsentwicklung entwickelte Prozess auf die Dynamik vielerlei Arten von Popula”
tionen“ übertragen lässt.
Seien es Nachnamen, Bakterien, Gene oder Neutronen, wir nennen die Entitäten einer solchen
Population im Folgenden Individuen. Ausgehend von einer anfänglichen Population treten Individuen als Nachkommen eines anderen Individuums in der Population auf, haben eine potentiell
unsichere Anzahl Nachkommen und sterben schließlich. Das Modell der Verzweigungsprozesse
macht hierbei die Annahme, dass das Reproduktionsverhalten eines Individuums zu jeder Zeit
für alle gleich ist. Für die Nachkommenzahl eines Individuums spielt es also keine Rolle, welcher
Generation es angehört, wie groß die momentane Population ist oder welche Vorfahren es hatte.
Diese Annahme macht das Modell nur unter Einschränkungen auf reale Situationen anwendbar. Wir werden sehen, dass bei Verzweigungsprozessen Populationen entweder aussterben oder
unendlich groß werden, wobei zumindest letztere Möglichkeit in der Realität für gewöhnlich
aufgrund äußerer Beschränkungen, beispielsweise limitierte Ressourcen oder begrenzter Raum,
nicht eintreten kann. Vor allem in der anfänglichen Entwicklung einer Population spielen derartige natürliche Schranken aber häufig keine bedeutende Rolle und die Untersuchung mithilfe
von Verzweigungsprozessen liefert brauchbare Ergebnisse.
Die Arbeit basiert hauptsächlich auf Kapitel 3 des Manuskripts Random Graphs and Complex
”
Networks“ [7] geschrieben von Remco van der Hofstad von der Eindhoven University of Technology. Hier werden im Zuge der Untersuchung komplexer Netzwerkstrukturen einige Aussagen
über Verzweigungsprozesse präsentiert. Einen vollständigeren und auch weit über den Inhalt
dieser Arbeit hinausgehenden Überblick über die Theorie der Verzweigungsprozesse findet man
beispielsweise in den Büchern The Theory of Branching Processes“ [4] von T. E. Harris oder
”
Branching Processes“ [1] von K. B. Athreya und P. E. Ney. Für eine allgemeine Einführung in
”
für die Arbeit relevante Themen der Stochastik sei auf die Skripte Stochastik 1: Einführung in
”
die Wahrscheinlichkeitstheorie und Statistik“ [6] von Norbert Henze und Markov-Ketten“ [2]
”
von Nicole Bäuerle verwiesen.
–2–
1 Einleitung
Wichtige mathematische Grundlagen
Im Folgenden sollen kurz einige in der Arbeit häufig verwendeten Grundlagen vorgestellt werden.
Wir werden diese als bekannt voraussetzen und an den entsprechenden Stellen nicht mehr näher
darauf eingehen.
Wir werden hauptsächlich mit N0 -wertigen Zufallsvariablen arbeiten. Ein wichtiges Hilfsmittel
zur Untersuchung einer solchen Zufallsvariable X ist ihre wahrscheinlichkeitserzeugende Funktion GX definiert durch
GX : [0, 1] → R ,
X
GX (p) := E p
=
∞
X
pk · P (X = k)
für p ∈ [0, 1].
k=0
Diese Funktion hat die folgenden Eigenschaften:
• GX (0) = P (X = 0) , GX (1) = 1.
• GX ist stetig, monoton steigend und konvex auf [0, 1].
• GX ist streng monoton steigend auf [0, 1], wenn P (X = 0) < 1, und strikt konvex, wenn
P (X ≤ 1) < 1.
• GX ist stetig differenzierbar auf (0, 1) und es gilt G0X (1) := lim G0X (s) = E [X].
s%1
Die Aussagen sind einfach einzusehen und folgen größtenteils direkt aus der Tatsache, dass GX
eine Potenzreihe mit positiven Koeffizienten ist, welche sich zu 1 aufsummieren. Für die letzte
Aussage benötigt man den Abelschen Grenzwertsatz.
Im Verlauf der Arbeit werden häufiger Reihen vorkommen. Wir lassen für eine Reihe auch den
Wert unendlich zu. Da alle auftretenden Reihen nur nichtnegative Summanden haben, bleibt
ihr Wert unter Umordnung invariant. Dies kann beispielsweise mit dem Satz von der monotonen
Konvergenz begründet werden. Wir betrachten Folgen als Funktionen N0 → R, und statten N0
mit dem Zählmaß A ⊆ N0 7→ |A| aus. Sei nun (ak )k∈N0 eine nichtnegative Folge und (ank )k∈N0
für n ∈ N0 die Teilfolge von (ak )k∈N0 , welche ab dem (n + 1)-ten Index abbricht, also ank = ak
für k ≤ n und ank = 0 sonst. Dann gilt nach dem Satz von der monotonen Konvergenz:
!
!
∞
n
∞
X
X
X
lim
ank = lim
ak =
ak .
n→∞
n→∞
k=0
k=0
k=0
Jede bijektive Umordnung π : N0 → N0 der Summanden, also der Indizes der Folge (ak )k∈N0 ,
kann genau so auf die Teilfolgen (ank )k∈N0 für n ∈ N0 übertragen werden. Da die Summe über eine
solche umgeordnete Teilfolge nur endlich viele nicht-verschwindende Summanden hat, gilt:
∞
X
anπ(k)
k=0
=
∞
X
ank
k=0
=
n
X
ak .
k=0
Wenden wir schließlich den Satz von der monotonen Konvergenz auf die umgeordnete Folge an,
ergibt sich die Gleichheit der umgeordneten Reihen:
!
!
∞
∞
n
∞
X
X
X
X
n
aπ(k) = lim
aπ(k) = lim
ak =
ak .
k=0
n→∞
n→∞
k=0
–3–
k=0
k=0
2 Verzweigungsprozesse
2 Verzweigungsprozesse
Den in dieser Arbeit untersuchten Verzweigungsprozessen liegt eine stark vereinfachte Anschauung des Mechanismus der Populationsentwicklung zugrunde. In einem stochastischen Modell
werden die Anzahl Nachkommen eines Individuums durch eine Zufallsvariable X beschrieben.
Hierbei geht man davon aus, dass die Verteilung der Nachkommenzahl für jedes Individuum
einerseits identisch und andererseits unabhängig von der aller anderer vorkommender Individuen ist. Zusammen mit einer weiteren Zufallsvariable Z, welche die Individuenzahl zu Beginn
des Prozesses angibt, kann die Entwicklung einer Population unter besagten einschränkenden
Annahmen durch einen Verzweigungsprozess vollständig beschrieben werden.
Anschaulich können wir uns den Prozess mithilfe des sich ergebenden Stammbaums der Population vorstellen. Ausgehend von jedem anfänglichen Individuum bildet sich durch die Nachkommen ein Baum, in welchem das Verzweigungsverhalten an jedem Knoten identisch und unabhängig von den anderen Knoten ist. Die folgende Darstellung zeigt eine mögliche Population
in den ersten drei Nachkommensgenerationen als Stammbaum. Diese beispielhafte Realisierung
wird im Verlauf des Kapitels an verschiedenen Stellen herangezogen werden, um Konzepte und
Zusammenhänge zu veranschaulichen.
Anfanspopulation:
1. Generation:
y
%
2. Generation:
3. Generation:
y
%
In den nächsten Abschnitten werden zwei verschiedene Betrachtungsweisen für Verzweigungsprozesse eingeführt. Zum einen kann die Populationsentwicklung mit Fokus auf die Generationenabfolge beschrieben werden, wie die obige Darstellung schon nahelegt; zum anderen kann
der Prozess in Form einer Irrfahrt auf dem Stammbaum gesehen werden, in der die einzelnen
Individuen unter Vernachlässigung der wirklichen“ zeitlichen Entwicklung sukzessive besucht
”
werden. Aus der Unabhängigkeit des Reproduktionsverhaltens der einzelnen Individuen ergibt
sich, dass die zentralen Größen beider Sichtweisen eine Markov-Kette bilden. Im letzten Abschnitt des Kapitels werden wir den Zusammenhang der beiden Definitionen mathematisch
präzisieren.
–4–
2 Verzweigungsprozesse
2.1 Der generationenbasierte Verzweigungsprozess
2.1 Der generationenbasierte Verzweigungsprozess
Wir beginnen mit der generationenbasierten Beschreibung eines Verzweigungsprozesses. Dazu fassen wir die Individuen zu Beginn des Prozesses zur nullten Generation zusammen. Die
Nachkommen der Individuen dieser nullten Generation bilden die erste Generation, deren Nachkommen wiederum die zweite Generation bilden, und so weiter. Ein Individuum tritt also als
Teil einer Generation auf und bestimmt durch seine Nachkommen die Größe der nachfolgenden
Generation mit, hat ansonsten aber keinen weiteren Einfluss auf andere Größen des Modells.
Definition 2.1 (Generationenbasierter Verzweigungsprozess)
Seien X und Z zwei unabhängige N0 -wertige Zufallsvariablen. Sei {Xn,i : n ∈ N0 , i ∈ N} eine
Familie unabhängiger und identisch X-verteilter Zufallsvariablen und Z0 eine weitere davon
unabhängige Z-verteilte Zufallsvariable. Definiere ausgehend von Z0 rekursiv die Zufallsvariablen
Zn+1 für n ∈ N0 :
Zn
X
Zn+1 :=
Xn,i .
i=1
Dann nennt man {Zn : n ∈ N0 } zusammen mit {Xn,i : n ∈ N0 , i ∈ N} einen generationenbasierten Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z. Darüber hinaus seien zu diesem Prozess die Zufallsvariablen Tn für n ∈ N0 und
T wie folgt definiert:
n
∞
X
X
Tn :=
Zj , T :=
Zj .
j=0
j=0
Die Zufallsvariablen Xn,i können in einem Raster angeordnet werden, in welchem die Reihen
n ∈ N0 die Generationen bilden, während die Einträge Xn,i einer Reihe n den Individuen der
zugehörigen Generation entsprechen. Diese Raster-Anschauung lässt sich auf unser Beispiel
übertragen.
Z0 = 2 :
X0,1
Z1 = 4 :
X1,1
Z2 = 6 :
X2,1
Z3 = 7 :
X3,1
X0,2
"
|
X1,2
X2,2
X3,2
(
X0,3
(
X1,3
"
X0,5
X0,6
X0,7
X1,4
X1,5
X1,6
X1,7
X2,6
X2,7
X2,3
X3,3
X0,4
(
"
X2,4
X2,5
X3,4
X3,5
(
"
X3,6
"
X3,7
Wie aus obiger Darstellung des generationenbasierten Verzweigungsprozesses ersichtlich wird,
können die Zufallsvariablen Xn,i verstanden werden als die Nachkommenzahl des i-ten Individuums der n-ten Generation. Die Zufallsvariablen Zn interpretiert man folgerichtig als die
Populationsgröße der n-ten Generation, Tn als Gesamtpopulationsgröße bis zur n-ten Generation und T als Gesamtpopulationsgröße.
Die rekursive Definition der Generationsgrößen Zn zusammen mit der Unabhängigkeit der
Nachkommenzahlen der einzelnen Individuen lässt vermuten, dass die Generationsgrößen die
Markov-Eigenschaft erfüllen, das heißt die Größe einer Generation nur von der Größe der ihr
–5–
2 Verzweigungsprozesse
2.1 Der generationenbasierte Verzweigungsprozess
vorangehenden Generation abhängt. Im Folgenden werden wir zeigen, dass diese Vermutung
tatsächlich zutrifft. Wir beginnen mit einer wichtigen Aussage über die Unabhängigkeit der
Nachkommenzahlen einzelner Individuen von den vorangehenden Generationsgrößen.
Lemma 2.2 Sei n ∈ N0 . Die Zufallsvariablen Xj,i sind unabhängig von Zn für j ∈ N0 mit
j ≥ n und i ∈ N.
Beweis. Vollständige Induktion über n ∈ N0 .
Induktionsanfang: Xj,i ist nach Definition unabhängig von Z0 für j ∈ N0 und i ∈ N.
P n
Xn,i . Hierbei sind nach Definition Xn,i unabhängig von
Induktionsschritt: Es gilt Zn+1 = Zi=1
Xj,i für j ∈ N0 mit j 6= n und i ∈ N. Weiter besagt die Induktionsannahme, dass Zn unabhängig
von Xj,i für j ∈ N0 mit j ≥ n und i ∈ N ist. Damit ist Zn+1 unabhängig von Xj,i für j ∈ N0 mit
j ≥ n + 1 und i ∈ N.
Mithilfe des Lemmas kann nun bewiesen werden, dass die Generationsgrößen eine MarkovKette bilden. Ihre Anfangsverteilung entspricht der anfänglichen Populationsgröße Z und ihre
Übergangswahrscheinlichkeiten P (Zn+1 = · | Zn = j) ergeben sich direkt aus der Verteilung der
Nachkommenzahl X über j-fache Faltung. Umgekehrt lässt sich auch die Verteilung der Nachkommenzahl aus den Übergangswahrscheinlichkeiten errechnen, nämlich als die Übergangswahrscheinlichkeiten ausgehend von einer Generationsgröße von einem Individuum. Es zeigt sich
also, dass ein generationenbasierter Verzweigungsprozess auch als Markov-Kette konsistent eingeführt werden kann, wenn die Übergangswahrscheinlichkeiten entsprechend über Faltung einer
Verteilung definiert werden. In der Literatur ist dies häufiger der Fall; beispielsweise wird der
Galton-Watson-Prozess in [4] und [1] so eingeführt.
Proposition 2.3 Die Populationsgröße einer Generation Zn+1 für n ∈ N0 hängt nur von der
Populationsgröße der ihr vorangehenden Generation Zn ab, das heißt gegeben k ∈ N0 und kj ∈
N0 für j = 0, . . . , n mit P (Zj = kj für j = 0, . . . , n) > 0 gilt die Markov-Eigenschaft:
P (Zn+1 = k | Zj = kj für j = 0, . . . , n) = P (Zn+1 = k | Zn = kn ) .
Die Zufallsvariablen (Zn )n∈N0 bilden eine Markov-Kette mit Zustandsraum N0 , Anfangsverteilung Z0 und Übergangswahrscheinlichkeiten von j ∈ N0 nach k ∈ N0 :
!
j
X
Y
P (Zn+1 = k | Zn = j) =
P (X = ki )
für n ∈ N0
und P (Zn = j) > 0 .
(k1 ,...,kj ):
Pj
i=1 ki =k
i=1
Beweis. Für n ∈ N0 seien kj ∈ N0 , j = 0, . . . , n, mit P (Zj = kj für j = 0, . . . , n) > 0 gegeben.
Dann gilt für k ∈ N0 :
P (Zn+1 = k | Zj = kj für j = 0, . . . , n)
=P
Zn
X
!
Xn,i = k, Zj = kj für j = 0, . . . , n
−1
· P (Zj = kj für j = 0, . . . , n)
i=1
=P
kn
X
!
Xn,i = k
−1
· P (Zj = kj für j = 0, . . . , n) · P (Zj = kj für j = 0, . . . , n)
i=1
–6–
2 Verzweigungsprozesse
=P
kn
X
2.1 Der generationenbasierte Verzweigungsprozess
!
Xn,i = k
−1
· P (Zn = kn ) · P (Zn = kn )
i=1
=P
Zn
X
!
Xn,i = k, Zn = kn
−1
· P (Zn = kn )
i=1
= P (Zn+1 = k | Zn = kn ) .
Für die zweite und vierte Gleichheit benötigen wir die in Lemma 2.2 gezeigte Unabhängigkeit.
Zum Beweis der Übergangswahrscheinlichkeit für n ∈ N0 von j ∈ N0 mit P (Zn = j) > 0 nach
k ∈ N0 beginnen wir wieder mit obiger Umformung der bedingten Wahrscheinlichkeit:
!
j
X
X
P (Zn+1 = k | Zn = j) = P
Xn,i = k =
P (Xn,i = ki für i = 1, . . . , j) .
i=1
(k1 ,...,kj ):
Pj
i=1 ki =k
Da nach Definition die Nachkommenzahlen der einzelnen Individuen unabhängig und X-verteilt
sind, erhalten wir schließlich:
!
j
X
Y
P (Zn+1 = k | Zn = j) =
P (X = ki ) .
k1 ,...,kj :
Pj
i=1 ki =k
i=1
Wir halten hier noch eine wichtige Eigenschaft der Markov-Kette sowie zwei Folgerungen fest.
Lemma 2.4 Der Zustand 0 der Markov-Kette (Zn )n∈N0 ist absorbierend. Für die Verteilung
der Gesamtpopulationsgröße gilt folglich:
!
∞
∞
X
X
für t ∈ N.
P (T = 0) = P (Z = 0) , P (T = t) =
P (Zn+1 = 0, Tn = t, Zn = k)
n=0
k=1
Damit erhalten wir für die Wahrscheinlichkeit einer endlichen Gesamtpopulation:
P (T < ∞) = P (∃ n ∈ N0 : Zn = 0) .
Beweis. (a) Um einzusehen, dass 0 ein absorbierender Zustand ist, bestimme die Übergangswahrscheinlichkeiten ausgehend von 0 zu einem Zustand k ∈ N0 :
X Y
X
P (Zn+1 = k | Zn = 0) =
=
1 = 1{k=0} .
():
P
∅ =k
∅
():0=k
(b) T ist die unendliche Summe der nichtnegativen ganzzahligen Zufallsvariablen Zn für n ∈ N0 .
Also ist T endlich genau dann, wenn nur endlich viele Summanden echt positiv sind. Da der
Zustand 0 nach (a) absorbierend ist, gibt es einen Zeitpunkt, ab welchem die Markov-Kette
(Zn )n∈N0 zum ersten Mal in 0 eintritt und dort verbleibt. Im Fall T = 0 ist die Markov-Kette
schon zu Beginn im Zustand 0, also P (T = 0) = P (Z0 = 0).
Sei nun t ∈ N. Im Fall T = t > 0 ist definitiv zu Beginn Z0 > 0. Betrachte das Ereignis
hinsichtlich des Eintrittszeitpunkts in den absorbierenden Zustand 0. Diese Eintrittszeit ist
–7–
2 Verzweigungsprozesse
2.1 Der generationenbasierte Verzweigungsprozess
für eine bestimmte Realisierung der Generationsgrößen eindeutig und wir können folglich das
Ereignis nach diesem Kriterium disjunkt unterteilen.
{T = t} = {∃ n ∈ N0 : Zn+1 = 0, Tn = t, Zn > 0}
=
[
˙
{Zn+1 = 0, Tn = t, Zn > 0}
n∈N0
=
[
˙
[
˙
n∈N0
k∈N
!
{Zn+1 = 0, Tn = t, Zn = k} .
(c) Mithilfe von (b) erhält man:
P (T < ∞) = P (Z0 = 0) +
∞
∞
X
X
t=1
= P (Z0 = 0) +
= P (Z0 = 0) +
∞
X
P (Zn+1 = 0, Tn = t, Zn > 0)
n=0
∞
∞
X
X
n=0
!!
!!
P (Zn+1 = 0, Tn = t, Zn > 0)
t=1
!
P (Zn+1 = 0, Zn > 0)
n=0
= P (Z0 = 0) + P (∃ n ∈ N0 : Zn+1 = 0, Zn > 0)
= P (∃ n ∈ N0 : Zn = 0) .
–8–
2 Verzweigungsprozesse
2.2 Der Verzweigungsprozess als Irrfahrt
2.2 Der Verzweigungsprozess als Irrfahrt
Eine alternative Beschreibungsmöglichkeit eines Verzweigungsprozesses ist die Sicht einer den
Stammbaum der Population erkundenden Irrfahrt. Hierbei wird, ausgehend von den zu Beginn
bekannten Individuen der anfänglichen Population in jedem Zeitschritt zufällig ein noch ausstehendes Individuum besucht. Die Nachkommen dieses Individuums werden der Menge der
bekannten, noch zu besuchenden Individuen hinzugefügt, während das Individuum selbst als
beearbeitet abgetan wird und für die weitere Betrachtung keine Rolle mehr spielt.
Definition 2.5 (Irrfahrt auf einem Verzweigungsprozess)
Seien X und Z zwei unabhängige N0 -wertige Zufallsvariablen. Sei {Xn : n ∈ N0 } eine Familie
unabhängiger und identisch X-verteilter Zufallsvariablen und S0 eine weitere davon unabhängige
Z-verteilte Zufallsvariable. Definiere ausgehend von S0 rekursiv die Zufallsvariablen Sn+1 für
n ∈ N0 :
Sn+1 := Sn + Xn − 1.
Dann nennt man {Sn : n ∈ N0 } zusammen mit {Xn : n ∈ N0 } die Irrfahrt auf einem Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z.
Wir veranschaulichen eine solche Irrfahrt wieder anhand unseres Beispiels. Um den Prozess des
Besuchens und Bearbeitens der Individuen deutlich zu machen, sind im Folgenden die ersten fünf
Zeitschritte abgebildet. Mit werden noch nicht besuchte Individuen repräsentiert, während
Xi ein besuchtes Individuum darstellt.
S0 = 2 :
x
S2 = 3 :
$
S4 = 5 :
$
$
X2
$
X0
x
X2
S5 = 5 :
X1
X0
X3
x
X1
$
S3 = 3 :
X0
x
X2
X0
x
x
S1 = 4 :
X0
X1
$
X1
X4
X3
Aus der Darstellung der Irrfahrt auf einem Verzweigungsprozess wird deutlich, dass die Zufallsvariable Xn der Nachkommenzahl des zum Zeitpunkt n besuchten Individuums entspricht
und die Zufallsvariable Sn der Anzahl der zum Zeitpunkt n noch zu besuchenden Individuen.
Diese Interpretation ist nur sinnvoll im Falle eines unendlich großen Stammbaums oder bis
–9–
2 Verzweigungsprozesse
2.2 Der Verzweigungsprozess als Irrfahrt
zum Zeitpunkt der vollständigen Erkundung des Stammbaums1 . In diesem Sinne korrespondiert die mathematische Definition also nur eingeschränkt zur obigen Beschreibung. Für die
weitere Arbeit spielt die Einschränkung aber keine wesentliche Rolle und es kann getrost auf
die Anschauung zurückgegriffen werden.
Aus der schrittweise rekursiven Definition der Zufallsvariable Sn ergibt sich durch Zusammenfassen mehrerer Schritte eine erweiterte Rekursionsformel für Sn abhängig von einem beliebigen
Vorgänger Sk .
Lemma 2.6 Für die Zufallsvariable Sn mit n ∈ N0 gilt folgender Zusammenhang zu ihrem
Vorgänger Sk mit k ∈ N0 , k ≤ n:
!
n−1
X
Sn = Sk +
Xi − (n − k).
i=k
Beweis. Induktion für n ∈ N0 über j ∈ N0 mit j ≤ n, wobei k = n − j.
Induktionsanfang (k = n − 0):
Sn = Sn + 0 − 0 = Sn−0 +
n−1
X
!
Xi
− n − (n − 0) = Sk +
i=n−0
n−1
X
!
Xi
− (n − k).
i=k
Induktionsschritt (k = n − (j + 1) mit j + 1 ≤ n): Wir können die Induktionsannahme auf Sn−1
anwenden, da k = n − (j + 1) = (n − 1) − j, und erhalten:


(n−1)−1
X
Sn−1 = Sk + 
Xi  − (n − 1) − k .
i=k
Eingesetzt in die Definition Sn = Sn−1 + Xn−1 − 1 ergibt sich dann:


!
(n−1)−1
n−1
X
X
Sn = Sk + 
Xi  − (n − 1) − k + Xn−1 − 1 = Sk +
Xi − (n − k).
i=k
i=k
Wie schon beim generationenbasierten Verzweigungsprozess stellt sich heraus, dass für die Irrfahrt auf einem Verzweigungsprozess die Zufallsvariablen Sn eine Markov-Kette bilden, und auch
der Beweis verläuft im Grunde gleich. Wir beginnen wieder mit einer Unabhängigkeitsaussage.
Lemma 2.7 Sei n ∈ N0 . Die Zufallsvariablen Xj sind unabhängig von Sn für j ∈ N0 mit j ≥ n.
Beweis. Vollständige Induktion über n ∈ N0 .
Induktionsanfang: Xj ist nach Definition unabhängig von S0 für j ∈ N0 .
Induktionsschritt: Es gilt Sn+1 = Sn + Xn − 1. Xn ist definitionsgemäß unabhängig von Xj für
j ∈ N0 mit j 6= n. Darüber hinaus ist nach Induktionsannahme Sn unabhängig von Xj für
j ∈ N0 mit j ≥ n. Insgesamt ist Sn+1 also unabhängig von Xj für j ∈ N0 mit j ≥ n + 1.
Die folgende Proposition besagt schließlich, dass die Irrfahrt als Markov-Kette beschrieben werden kann.
1
Ist der Stammbaum vollständig erkundet, also Sn = 0 für ein n ∈ N0 , so wird Sn+1 negativ für Xn = 0. Die
Beschreibung von Sn+1 als Anzahl noch zu besuchender Individuen ergibt dann keinen Sinn mehr.
– 10 –
2 Verzweigungsprozesse
2.2 Der Verzweigungsprozess als Irrfahrt
Proposition 2.8 Der Wert der Zufallsvariable Sn+1 für n ∈ N0 hängt nur vom Wert der ihr
vorangehenden Zufallsvariablen Sn ab, das heißt gegeben k ∈ Z und kj ∈ Z für j = 0, . . . , n mit
P (Sj = kj für j = 0, . . . , n) > 0 gilt die Markov-Eigenschaft:
P (Sn+1 = k | Sj = kj für j = 0, . . . , n) = P (Sn+1 = k | Sn = kn ) .
Die Zufallsvariablen (Sn )n∈N0 bilden eine Markov-Kette mit Zustandsraum Z, Anfangsverteilung
S0 und Übergangswahrscheinlichkeit von j ∈ Z nach k ∈ Z:
P (Sn+1 = k | Sn = j) = P (X = k − j + 1) für n ∈ N0
und P (Sn = j) > 0 .
Beweis. Für n ∈ N0 seien kj ∈ Z, j = 0, . . . , n, mit P (Sj = kj für j = 0, . . . , n) > 0 gegeben.
Dann gilt für k ∈ Z:
P (Sn+1 = k | Sj = kj für j = 0, . . . , n)
−1
= P (Sn + Xn − 1 = k, Sj = kj für j = 0, . . . , n) · P (Sj = kj für j = 0, . . . , n)
−1
= P (kn + Xn − 1 = k) · P (Sj = kj für j = 0, . . . , n) · P (Sj = kj für j = 0, . . . , n)
−1
= P (Sn + Xn − 1 = k) · P (Sn = kn ) · P (Sn = kn )
−1
= P (Sn + Xn − 1 = k, Sn = kn ) · P (Sn = kn )
= P (Sn+1 = k | Sn = kn ) .
Für die zweite und vierte Gleichheit benötigen wir die in Lemma 2.7 gezeigte Unabhängigkeit.
Wir nutzen obige Umformung der bedingten Wahrscheinlichkeit zur Berechnung der Übergangswahrscheinlichkeit für n ∈ N0 von j ∈ Z mit P (Sn = j) > 0 nach k ∈ Z:
P (Sn+1 = k | Sn = j) = P (j + Xn − 1 = k) = P (X = k − j + 1) .
– 11 –
2 Verzweigungsprozesse
2.3 Zusammenhang der Betrachtungsweisen
2.3 Zusammenhang der Betrachtungsweisen
Wir haben nun zwei verschiedene Ansätze zur Beschreibung von Verzweigungsprozessen eingeführt. Da beide durch den gleichen zu modellierenden Sachverhalt motiviert wurden, was
sich besonders auch in den Darstellungen zeigt, stellt sich die Frage, wie sich der zu erwartende Zusammenhang mathematisch ausdrückt. Diese Frage werden wir im nächsten Abschnitt
klären. Das für die weitere Arbeit wichtige Ergebnis ist eine äquivalente Beschreibung der Gesamtpopulationsgröße der generationenbasierten Betrachtungsweise für die Irrfahrt auf einem
Verzweigungsprozess.
Die Zufallsvariablen Sn der Irrfahrt auf einem Verzweigungsprozess betrachten in jedem Schritt
die Nachkommen eines weiteren Individuums, während die Zn des generationenbasierten Prozesses die Nachkommen einer ganzen Generation zusammenfassen. Die Irrfahrt ist also fein”
schrittiger“ und wir werden daher versuchen, Entsprechungen zu den Generationsgrößen in der
Irrfahrt zu finden. Der gesuchte Zusammenhang wird deutlich, wenn wir die Entwicklung einer
speziellen Irrfahrt visualisieren, welche die Individuen generationsweise besucht.
Z0 = 2 :
Z1 = 4 :
&
X0,1
X0,2
$
X1,2
$
$
X1,3
&
X4
#
X0
"
X2
X1
y
"
X1,4
X1
y
X0
S6 = 6 :
&
#
x
S2 = 4 :
X0,2
X1,1
$
Z2 = 6 :
$
X0,1
S0 = 2 :
X3
X5
Um den Zusammenhang formal besser fassen zu können, führen wir einige Hilfszufallsvariablen
ein.
Definition 2.9 Zur Irrfahrt auf einem Verzweigungsprozess definiere rekursiv die folgenden
Zufallsvariablen:
SZ0 := S0 ,
Z
ST
0 := S0 ,
SZn+1 := SSTn ,
Z
T
ST
n+1 := Sn + Sn+1
jeweils für n ∈ N0 .
Wie obige Darstellung deutlich macht, beschreibt die Zufallsvariable ST
n den Zeitpunkt, bis
zu welchem in einer generationsweise besuchenden Irrfahrt alle Individuen bis in die n-te Generation besucht wurden. In diesem Sinne entspricht sie der Gesamtpopulationsgröße bis zur
n-ten Generation Tn . Die Zufallsvariable SZn+1 = SSTn entspricht damit der Anzahl noch zu
– 12 –
2 Verzweigungsprozesse
2.3 Zusammenhang der Betrachtungsweisen
besuchender Individuen nach Besuch der ersten n Generationen, also der Generationsgröße der
(n + 1)-ten Generation Zn+1 . Bevor wir näher auf diese Verbindung eingehen, zeigen wir einige
Eigenschaften der eingeführten Zufallsvariablen.
Z
T
Lemma 2.10
Die
Zufallsvariablen
S
:
n
∈
N
und
S
:
n
∈
N
sind nichtnegativ und die
0
0
n
n
T
Folge Sn n∈N0 ist monoton steigend. Für n ∈ N0 gilt darüber hinaus, dass Sj > 0 für j ∈ N0
mit j < ST
n.
Beweis. Wir beweisen die Aussage mit vollständiger
Induktion
über n ∈ N0 . Die Monotonie
Z
Z
T
T
folgt dabei direkt aus der Nichtnegativität der Sn : n ∈ N0 , da ST
n+1 = Sn + Sn+1 ≥ Sn für
n ∈ N0 .
Z
Induktionsanfang: Nach Definition ist SZ0 = S0 ≥ 0 und damit ST
0 = S0 ≥ 0. Nach Lemma 2.6
T
Z
gilt für j ∈ N0 mit j < S0 = S0 :
Sj = S0 +
j−1
X
!
− j > SZ0 + 0 − SZ0 = 0.
Xi
i=0
Induktionsschritt: Die Induktionsannahme sichert uns zu, dass ST
n ≥ 0 und Sj > 0 für j ∈ N0
T > 0, dass SZ
=
S
= SSTn −1 + XSTn −1 − 1 ≥
mit j < ST
.
Damit
erhalten
wir
im
Fall
S
n
n
n+1
ST
n
Z
= S0 ≥ 0. Also ist SZn+1 ≥ 0 und damit
SSTn −1 − 1 ≥ 0. Ist hingegen ST
n = 0, so gilt Sn+1 = SST
n
T
Z
T
T
auch ST
n+1 = Sn + Sn+1 ≥ 0. Nach Lemma 2.6 gilt für j ∈ N0 mit Sn ≤ j < Sn+1 :


j−1
X
Z
T
Z
Z
T
Sj = SSTn + 
Xi  − (j − ST
n ) > Sn+1 + 0 − (Sn+1 − Sn ) = Sn+1 − Sn+1 = 0.
i=ST
n
Insgesamt folgt also Sj > 0 für alle j ∈ N0 mit j < ST
n+1 .
Im anschließenden Satz wenden wir uns schließlich dem Zusammenhang zu, welchen wir bisher
nur in Worten angedeutet haben. Wir werden zeigen, dass die Entsprechungen sich mathematisch in identischen Verteilungen der jeweiligen Zufallsvariablen ausdrücken.
Satz 2.11 (Zusammenhang der Sichtweisen)
Für einen generationenbasierten Verzweigungsprozess und der Irrfahrt auf einem Verzweigungsprozess, jeweils mit Nachkommenzahl X und anfänglicher Populationsgröße Z, ist für n ∈ N0
die gemeinsame Verteilung der folgenden Zufallsvariable identisch:
Z
(Tn , Zn ) ∼ (ST
n , Sn ).
Insbesondere sind für n ∈ N0 damit auch die jeweiligen Randverteilungen identisch:
Tn ∼ ST
n
und
Beweis. Vollständige Induktion über n ∈ N0 .
Induktionsanfang: T0 = Z0 ∼ Z ∼ S0 = SZ0 = ST
0.
– 13 –
Zn ∼ SZn .
2 Verzweigungsprozesse
2.3 Zusammenhang der Betrachtungsweisen
Z
Induktionsschritt: Aus der Induktionsannahme (Tn , Zn ) ∼ (ST
n , Sn ) folgt:
P (Tn+1 = t, Zn+1 = k) =
=
∞
X
P
Zn
X
j=0
i=1
∞
X
j
X
P
j=0
=
∞
X
!
Xn,i = k, Tn = t − k, Zn = j
!
Xn,i = k
· P (Tn = t − k, Zn = j)
i=1


ST
n−1 +j−1

P
j=0
X

Z
Xi = k  · P ST
n = t − k, Sn = j
i=ST
n−1


T
SX
∞
n −1
X


Z
=
P
Xi = k, ST
n = t − k, Sn = j 
j=0
=
i=ST
n−1
∞
X
Z
P SZn+1 = k, ST
=
t
−
k,
S
=
j
n
n
j=0
Z
=
k
.
=
t,
S
= P ST
n+1
n+1
Die nötigen Unabhängigkeiten der Zufallsvariablen für die zweite und vierte Gleichheit gelten
nach Lemma 2.2 respektive Lemma 2.7. Die fünfte Gleichheit gilt nach Lemma 2.6:
T
SX
n −1
i=ST
n−1
Xi = SSTn − SST
n−1
Z
Z
T
Z
Z
+ ST
n − Sn−1 = Sn+1 − Sn + Sn = Sn+1 .
T
Die Voraussetzung 0 ≤ ST
n−1 ≤ Sn ist erfüllt nach Lemma 2.10.
Aus dem Satz ergibt sich eine Charakterisierung der Gesamtpopulationsgröße für die Irrfahrt auf
einem Verzweigungsprozess. Das ermöglicht es uns, in den weiteren Kapiteln bei Betrachtung der
Gesamtpopulationsgröße für die Irrfahrt auf einem Verzweigungsprozess diese Charakterisierung
als sinnvolle Definition zu verwenden.
Satz 2.12 (Charakterisierung der Gesamtpopulationsgröße für die Irrfahrt)
Für einen generationenbasierten Verzweigungsprozess und der Irrfahrt auf einem Verzweigungsprozess, jeweils mit Nachkommenzahl X und anfänglicher Populationsgröße Z, ist die Verteilung
der folgenden Zufallsvariable identisch:
!
(
)
∞
n−1
X
X
T=
Zn ∼ min {n ∈ N0 : Sn = 0} = min n ∈ N0 : n − S0 =
Xi .
n=0
i=0
Im Falle der Nichtexistenz sei das Minimum als ∞ definiert.
Beweis. Die Gleichheit der hinteren beiden Zufallsvariablen folgt direkt aus Lemma 2.6:
Sn = 0
⇔
n − S0 =
n−1
X
i=0
– 14 –
Xi .
2 Verzweigungsprozesse
2.3 Zusammenhang der Betrachtungsweisen
Zum Beweis der Verteilungsidentität nutzen wir Lemma 2.4 sowie Satz 2.11. Wir beginnen mit
dem Fall T = 0:
P (T = 0) = P (Z0 = 0) = P (S0 = 0) = P min {n ∈ N0 : Sn = 0} = 0 .
Betrachte nun den Fall T = t für ein positives t ∈ N. Die zweite Gleichheit fasst die Umformungen zusammen, wie sie so auch im Beweis zu Satz 2.11 zu finden sind (zweite bis fünfte
Gleichheit im Induktionsschritt).
!
∞
∞
X
X
P (T = t) =
P (Zn+1 = 0, Tn = t, Zn = k)
n=0
k=1
∞
∞
X
X
Z
=
P SZn+1 = 0, ST
=
t,
S
=
k
n
n
n=0
!
k=1
Z
= P ∃ n ∈ N0 : SZn+1 = 0, ST
n = t, Sn > 0
= P ∃ n ∈ N0 : SZn+1 = 0, ST
=
t
n
= P ∃ n ∈ N0 : ST
n = t, St = 0
Die vorletzte Gleichheit gilt nach folgender Überlegung. 0 ist absorbierend für SZn
SZn+2 = SST = SSTn = SZn
n+1
T = t > 0 für
ST
.
Aus
S
n
n
SZn+1
T
= 0, wenn
= 0 für ein n ∈ N0 , und damit ST
n+1 = Sn
ein n ∈ N0 folgt, dass SZ0 > 0, da ansonsten SZj = ST
j =
, da
n∈N0
+ SZn+1
=
0 für alle
j ∈ N0 . Der Absorptionszeitpunkt ist für obiges Ereignis also auf jeden Fall echt positiv.
Wir wissen aus Lemma 2.10, dass aus ST
n = t für ein n ∈ N0 folgt, dass Sj > 0 für j ∈ N0 mit
j < t. Zusammen mit St = 0 ergibt sich also, dass min {n ∈ N0 : Sn = 0} = t. Wir zeigen nun,
dass die Tatsache min {n ∈ N0 : Sn = 0} = t impliziert, dass ST
n = t für ein n ∈ N0 .
Nach Lemma 2.10 ist klar, dass t = min {n ∈ N0 : Sn = 0} ≥ ST
j für j ∈ N0 . Nehmen wir an,
T
dass es kein j ∈ N0 gibt, für welches Gleichheit gilt, so finden wir ein k ∈ N0 mit ST
j ≤ Sk < t
für j ∈ N0 , da t < ∞ endlich. Dann gilt SZk+1 = SST > 0, da ST
k < t nach Annahme, und somit
k
T
T
T
ST
k+1 > Sk . Das ist aber ein Widerspruch zu Sk ≥ Sj für j ∈ N0 . Also ist die Annahme falsch.
Wir erhalten schließlich:
P (T = t) = P ∃ n ∈ N0 : ST
n = t, St = 0, Sj > 0 für 0 ≤ j < t
= P ∃ n ∈ N0 : ST
n = t, min {n ∈ N0 : Sn = 0} = t
= P min {n ∈ N0 : Sn = 0} = t .
– 15 –
3 Die Entwicklung von Verzweigungsprozessen
3 Die Entwicklung von Verzweigungsprozessen
Ziel der mathematischen Modellierung einer Population ist es, die Entwicklung der Population
besser einschätzen zu können. Eine der Grundfragen, die man hierbei zu beantworten versucht,
ist die Frage, ob sich eine Population unter gegebenen Bedingungen überhaupt erfolgreich entwickeln kann, und wenn ja, welche Situation auf lange Zeit zu erwarten ist. Mehrere Möglichkeiten
sind denkbar: Die Populationsgröße könnte sich auf einen festen Wert stabilisieren, sie könnte
sich endlos vergrößern, sie könnte sich periodisch oder chaotisch entwickeln.
Im Verlauf des Kapitel werden wir einige grundlegenden Aussagen zur Populationsentwicklung
für das Modell der Verzweigungsprozesse präsentieren. Insbesondere werden wir sehen, dass
es zur oben erwähnten Frage nach dem Ergebnis“ der Entwicklung ein einfaches Kriterium
”
gibt, um zu überprüfen, ob und mit welcher Wahrscheinlichkeit eine Population ausstirbt. Weiter werden wir zeigen, dass im Falle des Überlebens die Population kontinuierlich wächst. Mit
Verzweigungsprozessen ist es also nicht möglich, stabile (nicht-triviale) Populationsgrößen zu
beschreiben. Diese Tatsache macht das Modell nur eingeschränkt sinnvoll auf reale Situationen anwendbar. Gerade in den Anfängen der Entwicklung verschiedener Populationen ist aber
tatsächlich entweder ein frühes Aussterben oder ein scheinbar grenzenloses Vergrößern zu beobachten.
Den Verzweigungsprozessen in diesem Kapitel liegt stets die generationenbasierte Betrachtungsweise zugrunde.
3.1 Generationen und Gesamtpopulation
Die Entwicklung eines Verzweigungsprozesses wird maßgeblich von der Nachkommenzahl X
bestimmt, während die anfängliche Populationsgröße Z die Anfangsbedingungen beschreibt.
Ein wichtiger Spezialfall stellt der Verzweigungsprozess mit einer festen Anfangspopulation von
einem Individuum dar.
Definition 3.1 (Singulärer Verzweigungsprozess)
Zu einem Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z
sei der singuläre Verzweigungsprozess ein davon unabhängiger Verzweigungsprozess mit
Nachkommenzahl X und anfänglicher Populationsgröße 1. Wir kennzeichnen die zum singulären
Prozess gehörigen Zufallsvariablen mit einem Stern, also X∗n,i , Z∗n , T∗n und T∗ .
Der singuläre Verzweigungsprozess beschreibt die Entwicklung der Nachkommenschaft eines
einzelnen Individuums. Der Fall mehrerer anfänglicher Individuen sollte, aufgrund der Unabhängigkeit in der Entwicklung der Nachkommen einzelner Individuen, der Summe mehrerer
Kopien des singulären Prozesses entsprechen. Im folgenden Satz wird dieser Zusammenhang für
die Verteilung der Generations- und Populationsgrößen eines Verzweigungsprozesses gezeigt.
– 16 –
3 Die Entwicklung von Verzweigungsprozessen
3.1 Generationen und Gesamtpopulation
Satz 3.2 (Zusammenhang zum singulären Verzweigungsprozess, Teil 1)
Sei ein Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z gegeben. Für z ∈ N0 seien weiter z unabhängige singuläre Verzweigungsprozesse gegeben. Die
zum l-ten singulären Prozess gehörigen Zufallsvariablen werden zur Unterscheidung mit einem
hochgestellten Index [·](l) (anstelle von [·]∗ ) gekennzeichnet. Dann gilt für t, k ∈ N0 :
!
z
z
X
X
• P (Tn = t, Zn = k, Z0 = z) = P
T(l)
Z(l)
n = t,
n = k · P (Z = z) ..
l=1
z
X
• P (T = t, Z0 = z) = P
l=1
!
T(l) = t
· P (Z = z).
l=1
Beweis. Sei t, k, z ∈ N0 .
(a) Vollständige Induktion über n ∈ N0 .
Induktionsanfang: Schreibt man z also Summe von z Einsen, so ergibt sich:
!
z
z
X
X
P (T0 = t, Z0 = k, Z0 = z) = P
1 = t,
1 = k · P (Z = z)
l=1
z
X
=P
(l)
T0
= t,
l=1
z
X
l=1
!
(l)
· P (Z = z)
Z0 = k
l=1
Induktionsschritt: Mithilfe der Induktionsannahme erhalten wir:
P (Tn+1 = t, Zn+1 = k, Z0 = z)
=
=
=
∞
X
P
Zn
X
j=0
i=1
∞
X
j
X
P
j=0
i=1
∞
X
j
X
P
j=0
!
Xn,i = k, Tn = t − k, Zn = j, Z0 = z
!
· P (Tn = t − k, Zn = j, Z0 = z)
Xn,i = k
!
Xn,i = k
·P
z
X
i=1
T(l)
n = t − k,
z
X
l=1
!
Z(l)
n =j
· P (Z = z)
l=1

!
∞
z
z
z
X
X
X
X
(l)
 · P (Z = z)
=
P
Zn+1 = k,
T(l)
Z(l)
n = t − k,
n =j
j=0
=P
z
X
l=1
l=1
(l)
Tn+1
l=1
= t,
z
X
l=1
!
(l)
Zn+1
=k
· P (Z = z)
l=1
In der zweiten Gleichheit nutzen wir, dass Zn und Xn,i für i ∈ N nach Lemma 2.2 unabhängig
sind. Die vierte Gleichheit ergibt sich nach folgender Umformung:
P


 (l)


(l)
z
!
Zn
Zn
z
z
l=1
X
X
X
X


(l)
(l)

P
Xn,i = k  = P 
Xn,i  = k  = P
Zn+1 = k .
i=1
l=1
i=1
– 17 –
l=1
3 Die Entwicklung von Verzweigungsprozessen
3.1 Generationen und Gesamtpopulation
(l)
Hierbei werden die Xn,· durch von Zn nach Lemma 2.2 ebenso unabhängige, identisch verteilte
(l)
Zufallsvariablen Xn,· mit 1 ≤ l ≤ z ersetzt und gleichzeitig die Summe geschickt unterteilt.
(b) Für den Beweis verwenden wir Lemma 2.4. Betrachte zuerst den Fall T = 0:


z
X (l)

P (T = 0, Z0 = z) = 1{z=0} · P (Z0 = z) = P 
T = 0 P (Z = z) .
|{z}
l=1 ≥1
Als nächstes wenden wir uns dem Fall einer positiven Gesamtpopulationsgröße T = t ∈ N
zu. Unter Anwendung von (a) ergibt sich folgende Umformung, wobei die zweite Gleichheit
Umformungen aus dem Beweis von (a) zusammenfasst (zweite bis vierte Gleichheit im Induktionsschritt):
!
∞
∞
X
X
P (T = t, Z0 = z) =
P (Zn+1 = 0, Tn = t, Zn = k, Z0 = z)
n=0
=
∞
∞
X
X
n=0
P
k=1
z
X
k=1
(l)
Zn+1
z
X
= 0,
l=1
T(l)
n = t,
l=1
(l)
= P ∃ n ∈ N0 : Zn+1 = 0 ∀ l,
z
X
z
X
!
Z(l)
n =k
!
· P (Z = z)
l=1
!
(l)
T(l)
n = t, Zn > 0 ∃ l
· P (Z = z)
l=1
=P
z
X
!
T
(l)
=t
· P (Z = z) .
l=1
P
In der letzten Gleichheit nutzen wir, dass für zl=1 T(l) = t schon ab einem gewissen Zeitpunkt
P
(l)
n ∈ N0 gelten muss, dass zl=1 Tn = t. Dieser Zeitpunkt entspricht dem eindeutigen Übergangszeitpunkt der Generationsgrößen der am längsten echt positiv verbleibenden singulären
P
(l)
Prozesse in den absorbierenden Zustand 0. Da zl=1 Tn = t > 0, ist der Übergangszeitpunkt
auf jeden Fall echt positiv.
Auf Ebene der wahrscheinlichkeitserzeugenden Funktionen ergibt das Verhältnis zwischen einem
Verzweigungsprozess und seinem zugehörigen singulären Prozess eine besonders schöne Äquivalenz.
Satz 3.3 (Zusammenhang zum singulären Verzweigungsprozess, Teil 2)
Sei ein Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z gegeben. Dann gilt der folgende Zusammenhang für die wahrscheinlichkeitserzeugenden Funktionen
der Generationsgrößen und der Gesamtpopulationsgröße:
GZn ≡ GZ ◦ GZ∗n
für n ∈ N0 ,
GT ≡ GZ ◦ GT∗ .
Beweis. Sei n ∈ N0 , dann folgt mit Satz 3.2 für die wahrscheinlichkeitserzeugende Funktion
von Zn an der Stelle p ∈ [0, 1]:
"∞
#
∞
∞ X
X
Zn
X
GZn (p) =
E p · 1{Z0 =z} =
pk · P (Zn = k, Z0 = z)
z=0
z=0
– 18 –
k=0
3 Die Entwicklung von Verzweigungsprozessen
=
"∞
∞ X
X
z=0
=
∞
X
k=0
pk · P
3.1 Generationen und Gesamtpopulation
z
X
!#
Z(l)
n =k
· P (Z = z)
l=1
h Pz (l) i
E p l=1 Zn · P (Z = z) .
z=0
Die singulären Prozesse in Satz 3.2 sind unabhängig und damit sind insbesondere auch die
(l)
Zufallsvariablen Zn für l = 1, . . . , z unabhängig und identisch Z∗n -verteilt. Wir erhalten:
!
∞
z
∞ h
h (l) i
iz
X
Y
X
∗
Zn
GZn (p) =
E p
· P (Z = z) =
E p Zn
· P (Z = z) = GZ GZ∗n (p) .
z=0
l=1
z=0
Der Beweis für GT kann exakt gleich geführt werden; ersetze hierfür in den Umformungen einfach Zn durch T.
Der nächste Satz fasst einige Eigenschaften der Generationsgrößen und der Gesamtpopulationsgröße eines Verzweigungsprozesses zusammen. Besonders die zweite, vierte und fünfte Eigenschaft machen deutlich, dass die Nachkommenzahl X tatsächlich die entscheidende Rolle für
die Entwicklung der Population spielt, während die anfängliche Population Z den Effekt linear
”
verstärkend“ beeinflusst.
Satz 3.4 (Eigenschaften eines Verzweigungsprozesses)
Ein Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z hat die
folgenden Eigenschaften:
• G Z0 ≡ G Z ,
GZn+1 ≡ GZn ◦ GX für n ∈ N0 .
n
• E [Zn ] = E [Z] · E [X]
für n ∈ N0 .
• GT∗ (p) = p · GX GT∗ (p) .
Ist die erwartete Nachkommenzahl E [X] < 1, dann gelten zusätzlich folgende Eigenschaften:
n
• P (Zn > 0) ≤ E [Z] · E [X]
für n ∈ N0 .
• E [T] =
E [Z]
.
1 − E [X]
Beweis. (a) GZ0 ≡ GZ ist klar. Sei n ∈ N0 . Beginnt man für einen Verzweigungsprozess die
Beobachtung erst ab der n-ten Generation, so können wir den Sachverhalt nach der MarkovEigenschaft aus Proposition 2.3 wieder mit einem Verzweigungsprozess beschreiben. Dieser hat
die Nachkommenzahl X und die anfängliche Populationsgröße Zn . Da beide die gleiche Nachkommenzahl haben, sind insbesondere die zugehörigen singulären Verzweigungsprozesse äquivalent.
Für die wahrscheinlichkeitserzeugende Funktion der (n + 1)-ten Generation, also der ersten Generation des neuen Prozesses, ergibt sich damit nach Satz 3.3, dass GZn+1 ≡ GZn ◦ GZ∗1 . Da
Z∗1 ∼ X, erhalten wir GZn+1 ≡ GZn ◦ GX .
(b) Vollständige Induktion über n ∈ N0 .
Induktionsanfang: Mit (a) ergibt sich E [Z0 ] = G0Z0 (1) = G0Z (1) = E [Z].
Induktionsschritt: Wir beginnen wieder mit (a). Unter Anwendung der Kettenregel folgt dann:
E [Zn+1 ] = G0Zn+1 (1) = (GZn ◦ GX )0 (1) = G0Zn GX (1) · G0X (1) = E [Zn ] · E [X] .
– 19 –
3 Die Entwicklung von Verzweigungsprozessen
3.1 Generationen und Gesamtpopulation
Setzen wir schließlich noch die Induktionsannahme ein, so erhalten wir:
n
n+1
E [Zn+1 ] = E [Zn ] · E [X] = E [Z] · E [X] · E [X] = E [Z] · E [X]
.
(c) Für p ∈ [0, 1] gilt:
h ∗i
h ∗ i
GT∗ (p) = E pT = p · E pT −1 = p · GT∗ −1 (p).
Die Zufallsvariable (T∗ − 1) entspricht der Gesamtpopulationsgröße des singulären Verzweigungsprozesses, wenn man die Betrachtung erst mit der ersten Generation beginnt, also ausgenommen der anfänglichen Populationsgröße Z∗0 = 1. Wie in (a) entspricht das einem neuen
Verzweigungsprozess mit Nachkommen X und anfänglicher Populationsgröße Z∗1 ∼ X, dessen
singulärer Prozess äquivalent zum ursprünglichen Prozess ist. Nach Satz 3.3 ergibt sich daraus
GT∗ −1 ≡ GX ◦ GT∗ , und damit insgesamt GT∗ (p) = p · GX GT∗ (p) für p ∈ [0, 1].
(d) Nach der Markov-Ungleichung gilt für n ∈ N0 mit (b):
P (Zn > 0) = P (Zn ≥ 1) ≤
n
E [Zn ]
= E [Z] · E [X] .
1
(e) Für die erwartete Gesamtpopulationsgröße erhalten wir unter Anwendung von (b):
"∞
#
!
∞
∞
X
X
X
n
E [Z]
.
Zn =
E [Zn ] = E [Z] ·
E [X]
=
E [T] = E
1 − E [X]
n=0
n=0
n=0
Die letzte Gleichheit gilt, da es sich bei der Reihe im betrachteten Fall E [X] < 1 um eine geometrische Reihe handelt.
– 20 –
3 Die Entwicklung von Verzweigungsprozessen
3.2 Aussterben oder Überleben?
3.2 Aussterben oder Überleben?
Als nächstes wenden wir uns der Frage nach der Aussterbe- beziehungsweise Überlebenswahrscheinlichkeit eines Verzweigungsprozesses zu. Stirbt eine Population aus, so bedeutet das, dass
ab einer gewissen Generation keine Individuen mehr vorhanden sind, die Generationsgrößen also
in den absorbierenden Zustand 0 eintreten. Lemma 2.4 besagt die Äquivalenz der Ereignisse
{∃ n ∈ N0 : Zn = 0} und {T < ∞}.
Definition 3.5 (Aussterbe- und Überlebenswahrscheinlichkeit)
Für einen Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z
sei die Aussterbewahrscheinlichkeit η definiert durch:
η := P ∃ n ∈ N0 : Zn = 0 = P T < ∞ .
Entsprechend sei die Überlebenswahrscheinlichkeit ζ definiert durch:
ζ := P ∀ n ∈ N0 : Zn > 0 = P T = ∞ = 1 − η.
Die Aussterbe- und Überlebenswahrscheinlichkeit zum zugehörigen singulären Verzweigungsprozess bezeichnen wir mit η∗ und ζ∗ .
Lemma 3.6 Die Folge (P (Zn = 0))n∈N0 ist monoton steigend und konvergiert gegen η.
Beweis. Wir zeigen zuerst, dass die Folge monoton steigend ist. Hierbei nutzen wir Satz 3.4
und die Tatsache, dass wahrscheinlichkeitserzeugende Funktionen monoton steigend sind.
P (Zn+1 = 0) = GZn+1 (0) = GZn GX (0) = GZn P (X = 0) ≥ GZn (0) = P (Zn = 0) .
Bleibt also noch zu zeigen, dass P (Zn = 0) gegen η∗ konvergiert. Betrachte hierfür die Aussterbewahrscheinlichkeit bis zur n-ten Generation für n ∈ N0 . Aussterben bis zur n-ten Generation
entspricht einer Populationsgröße von 0 in der n-ten Generation, also P ∃ j ≤ n : Zj = 0 =
P Zn = 0 . Grenzwertbildung ergibt das gewünschte Ergebnis:
η = P ∃ n ∈ N0 : Zn = 0 = lim P ∃ j ≤ n : Zj = 0 = lim P Zn = 0 .
n→∞
n→∞
Das Überleben einer Population hängt offensichtlich von den Nachkommenzahlen der einzelnen
Individuen ab. Da diese in unserem Modell unabhängig voneinander sind, lässt sich vermuten,
dass die Betrachtung der Nachkommenzahl eines Individuums schon genügt. Im deterministischen Fall ist klar: Hat ein Individuum keine Nachkommen, so stirbt seine Nachkommenslinie
aus, hat es einen Nachkommen, so erhält sich die Linie, hat es zwei oder mehr Nachkommen,
so vergrößert sich die Nachkommenschaft sogar.
Versucht man die Betrachtung sinnvoll auf unser stochastisches Modell zu übertragen, so bietet
sich als entscheidende Größe die erwartete Nachkommenzahl eines Individuums an. Der folgende Satz bestätigt, dass dieser Mittelwert schon genügt, um entscheiden zu können, ob die
Möglichkeit besteht, dass die Population überlebt. Verzweigungsprozesse mit einer erwarteten
Nachkommenzahl unter einem Individuum sterben sicher irgendwann aus, während Verzweigungsprozesse mit einer erwarteten Nachkommenzahl von über einem Individuum potentiell
überleben. Solange die Möglichkeit besteht, dass ein Individuum keine Nachkommen hat, gibt
es aber auch hier noch die Möglichkeit, dass der Prozess ausstirbt. Der Verzweigungsprozess
– 21 –
3 Die Entwicklung von Verzweigungsprozessen
3.2 Aussterben oder Überleben?
mit einer erwarteten Nachkommenzahl von genau einem Individuum überlebt nur, wenn garantiert werden kann, dass es immer einen Nachkommen geben wird. In den anderen Fällen ist ein
solcher Prozess zu schwach“, um sich dauerhaft zu vergrößern, und die Möglichkeit, dass ein
”
Individuum keine Nachkommen hat, sorgt schließlich dafür, dass die Population ausstirbt.
Satz 3.7 (Kriterium für das Aussterben resp. Überleben)
Für einen Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z
sind die folgenden Fälle möglich:
• Fall E [X] < 1: Es gilt η∗ = 1.
• Fall E [X] = 1: Für P (X = 1) = 1 ist η∗ = 0; ansonsten ist η∗ = 1.
• Fall E [X] > 1: Für P (X = 0) = 0 ist η∗ = 0; ansonsten ist 0 < η∗ < 1.
In allen Fällen ist η∗ die kleinste Lösung der Gleichung GX (p) = p auf [0, 1]. Im Falle von
η∗ = 1 ist die Lösung also eindeutig; im Falle von η∗ < 1 ist η∗ die eindeutige Lösung auf [0, 1).
Die allgemeine Aussterbewahrscheinlichkeit ergibt sich aus η∗ via η = GZ (η∗ ). Insbesondere ist
η = P (Z = 0) für η∗ = 0 und η = 1 für η∗ = 1.
Beweis. (a) Wir betrachten zuerst den singulären Prozess. Es gilt GZ∗0 ≡ id, woraus sich
mit Satz 3.4 ergibt, dass GZ∗n für n ∈ N0 die n-fache Komposition von GX ist, also GZ∗n ≡
GX ◦ . . . ◦ GX . Der Beweis unterteilt sich in drei Schritte.
(1) Wir zeigen zuerst, dass η∗ eine Lösung der Gleichung GX (p) = p ist. Mit Lemma 3.6 und
der Stetigkeit wahrscheinlichkeitserzeugender Funktionen ergibt sich:
GX (η∗ ) = GX lim GZ∗n (0) = lim GX GZ∗n (0) = lim GZ∗n+1 (0) = η∗ .
n→∞
n→∞
n→∞
(2) Wir zeigen nun, dass η∗ sogar die kleinste Lösung der Gleichung GX (p) = p auf [0, 1] ist.
Sei hierzu p ∈ [0, 1] eine weitere Lösung. Wir beweisen mit vollständiger Induktion über n ∈ N0 ,
dass p = GX (p) ≥ GZ∗n (0). Mit Lemma 3.6 folgt p ≥ lim GZ∗n (0) = η∗ .
n→∞
Induktionsanfang: p = GX (p) ≥ GX (0) = P (X = 0) ≥ 0 = id(0) = GZ∗0 (0).
Induktionsschritt: p = GX (p) ≥ GX GZ∗n (0) = GZ∗n+1 (0) nach Induktionsannahme.
(3) Im Spezialfall P (X = 1) = 1 gilt offensichtlich P (Z∗n = 1) = 1 für alle n ∈ N0 , und somit
∗
η∗ = 0. Liegt der Fall P (X ≤ 1)
n = 1 mit P (X = 1) < 1 vor, so erhalten wir P (Zn = 0) =
∗
1 − P (Zn = 1) = 1 − P (X = 1) . Dieser Ausdruck konvergiert gegen 1 für n → ∞, und nach
Lemma 3.6 gilt somit η∗ = lim P (Z∗n = 0) = 1.
n→∞
Im Folgenden sei nun P (X ≤ 1) < 1. Wir wissen dann, dass GX streng monoton steigend und
strikt konvex ist. Die Gleichung GX (p) = p hat folglich höchstens zwei Lösungen auf [0, 1].
Eine Lösung ist immer gegeben durch p = 1. Wir haben genau diese eine Lösung η∗ = 1 für
E [X] = G0X (1) ≤ 1, da dann GX (p) > p für p ∈ [0, 1) aufgrund der strikten Konvexität. Gilt
E [X] = G0X (1) > 1, so gibt es noch eine weitere Lösung 0 ≤ η∗ < 1, da GX (0) = P (X = 0) ≥ 0.
Genau im Fall P (X = 0) = 0 ist η∗ = 0 diese zweite Lösung.
(b) Der Fall eines allgemeinen Verzweigungsprozesses reduziert sich mit Satz 3.3 auf den Fall
des zugehörigen singulären Prozesses. Hierbei verwenden wir Lemma 3.6 und die Stetigkeit
wahrscheinlichkeitserzeugender Funktionen:
η = lim GZn (0) = lim GZ GZ∗n (0) = GZ lim GZ∗n (0) = GZ (η∗ ).
n→∞
n→∞
n→∞
– 22 –
3 Die Entwicklung von Verzweigungsprozessen
3.3 Instabilität des Verzweigungsprozesses
3.3 Instabilität des Verzweigungsprozesses
Im vorigen Abschnitt wurde gezeigt, dass ein Ergebnis der Populationsentwicklung bei einem
Verzweigungsprozess das Aussterben der Population ist. Die Möglichkeit des Überlebens besteht
erst ab einer erwarteten Nachkommenzahl von über einem Individuum. In diesem Fall liegt die
Vermutung nahe, dass sich die Population beständig vergrößern wird, da jedes auftretende
Individuum im Mittel zur Vergrößerung der Population beiträgt. Wir zeigen im Folgenden, dass
unsere Vermutung über die Instabilität von Verzweigungsprozessen zutreffend ist.
Satz 3.8 (Instabilität des Verzweigungsprozesses)
Sei ein Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z gegeben, wobei P (X = 1) 6= 1. Für die Markov-Kette (Zn )n∈N0 ist 0 der einzige rekurrente und
absorbierende Zustand, während die anderen Zustände N transient sind. Es gilt:
lim P (Zn = 0) = η , P lim Zn = ∞ = ζ = 1 − η.
n→∞
n→∞
Beweis. (a) Mit Lemma 2.4 wissen wir, dass der Zustand 0 absorbierend ist. Sei k ∈ N einer
der anderen Zustände. Wir unterscheiden zwei Fälle beim Beweis der Transitivität von k. Sei
hierzu n ∈ N0 mit P (Zn = k) > 0.
(1) Ist P (X = 0) = 0, so gilt Zj ≥ Zn für n < j ∈ N0 , da jedes Individuum seine Nachkommenslinie zumindest erhält. Damit folgt:
−1
P ∃ j > n : Zj = k | Zn = k = P ∃ j > n : Zj = k, Zn = k · P (Zn = k)
−1
= P Zn+1 = k, Zn = k · P (Zn = k)
=
k
Y
!
· P (Zn = k) · P (Zn = k)
P (Xn,i = 1)
−1
i=1
= P (X = 1)
k
< 1.
(2) Gilt hingegen P (X = 0) > 0, so nutzen wir, dass der Zustand 0 absorbierend ist:
−1
P ∃ j > n : Zj = k | Zn = k = P ∃ j > n : Zj = k, Zn = k · P (Zn = k)
−1
≤ P (Zn = k) − P (Zn+1 = 0, Zn = k) · P (Zn = k)
=1−
k
Y
!
· P (Zn = k) · P (Zn = k)
P (Xn,i = 0)
−1
i=1
= 1 − P (X = 0)
k
< 1.
(b) Lemma 3.6 besagt, dass lim P (Zn = 0) = η. Da die anderen Zustände transient sind,
n→∞
werden sie nur endlich oft angenommen, also lim P (Zn = k) = 0 für k ∈ N. Es folgt, dass
n→∞
(Zn )n∈N0 entweder gegen 0 konvergiert oder divergiert mit Wahrscheinlichkeit:
P lim Zn = ∞ = 1 − P lim Zn < ∞ = 1 − lim P (Zn = 0) = 1 − η = ζ.
n→∞
n→∞
n→∞
– 23 –
4 Hitting Time Theorem
4 Hitting Time Theorem
Das folgende Kapitel widmet sich einem Resultat, welches in leicht abgeänderter Formulierung
bekannt ist als Random Walk Hitting Time Theorem“. Dieser Satz befasst sich mit Irrfahrten
”
auf Z, welche mit einem Wert z ∈ N0 starten und deren Differenz in einem Schritt minimal
−1 beträgt. Eine solche Irrfahrt (Sn )n∈N0 mit einer Schrittweite, welche durch die Z-wertige
Zufallsvariable Y ≥ −1 beschrieben wird, lässt sich aus einer Folge von unabhängigen und
identisch Y-verteilten Zufallsvariablen (Yn )n∈N0 konstruieren:
S0 := z ,
Sn+1 := Sn + Yn = z + Y0 + . . . + Yn .
Die Verbindung zu unserer Definition der Irrfahrt auf einem Verzweigungsprozess wird deutlich,
indem man die Nachkommenzahl X = Y + 1 setzt und eine anfängliche Population von Z =
z wählt. Im Folgenden verwenden wir stets die Sichtweise einer Irrfahrt. Die Definition der
Gesamtpopulationsgröße T übertragen wir gemäß Satz 2.12 konsistent auf die Betrachtung als
Irrfahrt.
Satz 4.1 (Hitting Time Theorem)
Sei ein Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z gegeben. Dann gilt folgende Identität für die Wahrscheinlichkeit einer Gesamtpopulationsgröße
von t ∈ N bei einer anfänglichen Population von z ∈ N0 Individuen:
!
t−1
X
z
z
P (T = t, S0 = z) = · P (St = 0, S0 = z) = · P
Xi = t − z · P (Z = z) .
t
t
i=0
Eine bemerkenswerte Folgerung aus der ersten Gleichheit des Satzes besagt, dass für eine Irrfahrt
auf Z wie oben beschrieben mit Anfang in z ∈ N0 gilt: Nimmt die Irrfahrt zum Zeitpunkt t ∈ N
den Wert St = 0 an, so geschieht das mit Wahrscheinlichkeit z/t zum ersten Mal. Die zweite
Gleichheit, welche im Satz festgestellt wird, ergibt die folgende Aussage für die Anschauung
einer Population. Haben wir z ∈ N0 Individuen zu Beginn, so gleicht die Wahrscheinlichkeit einer
Gesamtpopulation von t Individuen dem z/t-fachen der Wahrscheinlichkeit, dass t Individuen
t − z direkte Nachkommen haben. Das Besondere dieser beiden Aussagen ist, dass sie keine
Forderungen an die Nachkommenzahl X stellen, und somit für beliebige Verzweigungsprozesse
mit anfänglicher Population z ∈ N0 gelten.
Beweis. Die hintere Gleichheit ergibt sich direkt aus Lemma 2.6 sowie Lemma 2.7:
!
!
!
t−1
t−1
X
X
P (St = 0, S0 = z) = P 0 = S0 +
Xi − t, S0 = z = P
Xi = t − z · P (Z = z) .
i=0
i=0
Die eigentliche Aussage beweisen wir mit vollständiger Induktion über t ∈ N.
– 24 –
4 Hitting Time Theorem
Induktionsanfang: Wir unterscheiden drei Fälle.
0
(1) Fall z = 0: P (T = 1, S0 = 0) = P (S0 6= 0, S1 = 0, S0 = 0) = 0 = ·P (S1 = 0, S0 = 0) .
1
1
(2) Fall z = 1: P (T = 1, S0 = 1) = P (S0 6= 0, S1 = 0, S0 = 1) = · P (S1 = 0, S0 = 1) .
1
(3) Fall z ≥ 2: P (T = 1, S0 = z) = P (S0 6= 0, S1 = 0, S0 = z) = P (S1 = 0, S0 = z) .
Dieses Ereignis ist unmöglich:
P (S1 = 0, S0 = z) = P (S0 + X0 − 1 = 0, S0 = z) = P (X0 = 1 − z < 0, S0 = z) = 0.
Insgesamt erhalten wir also:
P (T = 1, S0 = z) = 0 =
z
z
· 0 = · P (S1 = 0, S0 = z) .
1
1
Induktionsschritt: Wir unterscheiden zwei Fälle.
(1) Fall z = 0:
P (T = t + 1, S0 = 0) ≤ P (S0 6= 0, S0 = 0) = 0.
Damit folgt:
P (T = t + 1, S0 = 0) = 0 =
0
· P (Sn+1 = 0, S0 = 0) .
t+1
(2) Fall z ≥ 1:
P (T = t + 1, S0 = z) =
∞
X
P (T = t + 1, S0 = z, X0 = k)
k=0
=
∞
X
P (T = t + 1, S1 = z + k − 1, S0 = z)
k=0
(a)
=
∞
X
z+k−1
t
k=0
=
∞
X
z+k−1
t
k=0
=
· P (St+1 = 0, S1 = z + k − 1, S0 = z)
· P (St+1 = 0, S0 = z, X0 = k)
∞
z−1 X
·
P (St+1 = 0, S0 = z, X0 = k)
t
k=0
+
∞
1 X
·
k · P (St+1 = 0, S0 = z, X0 = k)
t
k=0
z−1
1
· P (St+1 = 0, S0 = z) + · E X0 · 1{St+1 =0, S0 =z}
t
t
z−1 1 t−z+1
(b)
=
+ ·
· P (St+1 = 0, S0 = z)
t
t
t+1
=
=
1 (tz + z − t − 1) + (t − z + 1)
·
· P (St+1 = 0, S0 = z)
t
t+1
=
z
· P (St+1 = 0, S0 = z) .
t+1
– 25 –
4 Hitting Time Theorem
(a) Definiere die Zufallsvariable T̃ = min {n ∈ N : Sn = 0}. Sei weiter s ∈ N0 . Im betrachteten
Fall S0 = z > 0 gilt:
P (T = t + 1 | S1 = s, S0 = z) = P T̃ = t + 1 | S1 = s, S0 = z .
Aus der Tatsache, dass (Sn )n∈N0 eine Markov-Kette ist nach Proposition 2.8, ergibt sich:
P (T = t + 1 | S1 = s, S0 = z) = P T̃ = t + 1 | S1 = s = P (T = t | S0 = s) .
Verwende nun die Induktionsannahme auf die Definition dieser bedingten Wahrscheinlichkeit
und mache anschließend die letzten Umformungen rückgängig:
s
s
P (T = t + 1 | S1 = s, S0 = z) = · P (St = 0 | S0 = s) = · P (St+1 = 0 | S1 = s, S0 = z) .
t
t
Multipliziert man beide Seiten mit P (S1 = s, S0 = z) und setzt s = z + k − 1 ein, so erhält man
die gewünschte Gleichheit:
P (T = t + 1, S1 = z + k − 1, S0 = z) =
z+k−1
· P (St+1 = 0, S1 = z + k − 1, S0 = z) .
t
(b) Die Zufallsvariablen Xi für i ∈ N0 sind identisch verteilt, paarweise unabhängig und nach
Lemma 2.7 auch unabhängig von S0 . Mit Lemma 2.6 erhalten wir für i ∈ N0 mit 0 ≤ i ≤ t und
k ∈ N0 :
!
t
X
P (X0 = k, St+1 = 0, S0 = z) = P X0 = k,
Xi = t − z + 1, S0 = z
i=0
= P Xi = k,
t
X
!
Xi = t − z + 1
· P (S0 = z) .
i=0
Also gilt die folgende Identität:
E X0 · 1{St+1 =0, S0 =z} = E Xi · 1{St+1 =0, S0 =z} .
Mit dieser Überlegung ergibt sich:
t+1
E X0 · 1{St+1 =0, S0 =z} =
· E X0 · 1{St+1 =0, S0 =z}
t+1
1
=
·
t+1
1
=
·E
t+1
t
X
E Xi · 1{St+1 =0, S0 =z}
!
i=0
"
t
X
!
Xi
#
· 1{St+1 =0, S0 =z} .
i=0
Hierauf lässt sich wieder Lemma 2.6 anwenden:
E X0 · 1{St+1 =0, S0 =z} =
1
· E St+1 − S0 + (t + 1) · 1{St+1 =0, S0 =z}
t+1
=
1
· E (t − z + 1) · 1{St+1 =0, S0 =z}
t+1
=
t−z+1
· P (St+1 = 0, S0 = z) .
t+1
– 26 –
5 Bedingte Verzweigungsprozesse
5 Bedingte Verzweigungsprozesse
In den letzten Kapiteln wurden einige Aussagen präsentiert, welche es uns ermöglichen, die allgemeine Entwicklung eines gegebenen Verzweigungsprozesses besser verstehen und einschätzen
zu können. Es wurde gezeigt, dass hierbei potentiell zwei grundlegend verschiedene Ergebnisse
möglich sind: Entweder die Population stirbt aus oder sie vergrößert sich endlos. Im Falle von
Verzweigungsprozessen, für welche beide Möglichkeiten tatsächlich eintreten können, stellt sich
die Frage, ob man Näheres über die Entwicklung nur der aussterbenden respektive überlebenden
Populationen des Prozesses sagen kann. Diese Frage ist Thema des letzten Kapitels. Wir werden
sehen, dass sie sich sehr allgemein beantworten lässt. Ein solcher auf Aussterben beziehungsweise auf Überleben bedingter Verzweigungsprozess kann selbst wieder als ein Verzweigungsprozess beschrieben werden, dessen Nachkommenzahl sich direkt aus der Nachkommenzahl des
ursprünglichen Prozesses ergibt. Folglich können alle Aussagen der vorangehenden Kapitel auch
auf solch einen bedingten Verzweigungsprozess angewandt werden.
5.1 Der auf Aussterben bedingte Verzweigungsprozess
Wir beginnen damit, dass wir unsere Betrachtung auf die Realisierungen aussterbender Populationen eines Verzweigungsprozesses beschränken. Offensichtlich ist dies nur dann sinnvoll
machbar, wenn die Möglichkeit besteht, dass die Population ausstirbt, also η∗ > 0. In Satz 3.7
haben wir gesehen, dass dies genau dann der Fall ist, wenn es möglich ist, dass ein Individuum
keine Nachkommen hat.
Definition 5.1 (Aussterbender Verzweigungsprozess)
Zu einem Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z,
wobei P (X = 0) > 0, ist der aussterbende Verzweigungsprozess1 ein Verzweigungsprozess
mit Nachkommenzahl X† und anfänglicher Populationsgröße Z, wobei für die Verteilung von X†
gelte:
P X† = k = η∗k−1 · P (X = k) .
Es sei angemerkt, dass im Falle sicheren Aussterbens, η∗ = 1, der aussterbende Verzweigungsprozess dem ursprünglichen Prozess entspricht. Im Folgenden werden einige Eigenschaften des
aussterbenden Prozesses festgehalten. Die erste Aussage sichert zu, dass wir auch tatsächlich
wieder einen gültigen Verzweigungsprozess erhalten.
1
In der Literatur wird der Prozess häufig auch dualer Verzweigungsprozess genannt.
– 27 –
5 Bedingte Verzweigungsprozesse
5.1 Der auf Aussterben bedingte Verzweigungsprozess
Proposition 5.2 Für den aussterbenden Verzweigungsprozess gelten die folgenden Aussagen:
• P X† = k für k ∈ N0 ist eine Wahrscheinlichkeitsverteilung.
• Die wahrscheinlichkeitserzeugende Funktion von X† erfüllt die Identität:
GX† (p) =
1
· GX (η∗ · p)
η∗
für p ∈ [0, 1].
• Der aussterbende Prozess stirbt sicher aus.
Beweis. (a) Offensichtlich gilt P X† = k ≥ 0 für k ∈ N0 . Bleibt also noch zu zeigen, dass
sich die Einzelwahrscheinlichkeiten zu 1 aufsummieren:
∞
∞
∞
X
X
1
1 X k
·
· GX (η∗ ) = 1.
η∗ · P (X = k) =
P X† = k =
η∗k−1 · P (X = k) =
η∗
η∗
k=0
k=0
k=0
Die letzte Gleichheit folgt aus der Tatsache, dass GX (η∗ ) = η∗ nach Satz 3.7.
(b) Die Gleichung ergibt sich für p ∈ [0, 1] direkt durch Umformen:
GX† (p) =
∞
X
k=0
∞
1 X
1
pk · P X† = k =
·
(p · η∗ )k · P (X = k) =
· GX (η∗ · p).
η∗
η∗
k=0
(c) Wir wissen aus Satz 3.7, dass zur Bestimmung der Aussterbewahrscheinlichkeit die kleinste
Lösung der folgenden Gleichung bestimmt werden kann:
GX† (p) =
1
· GX (η∗ · p) = p.
η∗
Umformen ergibt:
GX (η∗ · p) = η∗ · p.
Da η∗ die kleinste Lösung der Gleichung GX (s) = s ist, muss in obiger Gleichung p ≥ 1 gelten.
p = 1 ist aber immer eine Lösung, und folglich hier die kleinste Lösung, woraus sich die Aussterbewahrscheinlichkeit GZ (1) = 1 ergibt.
Um schließlich die Korrektheit der bisher in Worten geschilderten Anschauung des aussterbenden Verzweigungsprozesses zu zeigen, nutzen wir die Betrachtungsweise eines Verzweigungsprozesses als Irrfahrt und übertragen die Definition der Gesamtpopulation T nach Satz 2.12. Da
die Nachkommenzahl für jedes Individuum unabhängig und identisch verteilt ist, betrachten wir
die Nachkommen des ersten Individuums der Irrfahrt X0 und fordern via Z > 0, dass T > 0 und
somit auch wirklich ein erstes Individuum vor dem Aussterben existiert. Hiermit soll verhindert
werden, dass im Fall T = t ∈ N0 eine Zufallsvariable Xn mit t ≤ n ∈ N0 betrachtet wird, welche
unabhängig vom Ereignis {T = t} ist.
Satz 5.3 (Interpretation des aussterbenden Verzweigungsprozesses)
Der aussterbende Verzweigungsprozess zu einem Prozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z > 0 beschreibt die Populationsentwicklung des ursprünglichen Prozesses bedingt unter der Tatsache, dass die Population auf jeden Fall ausstirbt. Es gilt also für
k ∈ N0 :
P X† = k = P (X0 = k | T < ∞) .
– 28 –
5 Bedingte Verzweigungsprozesse
5.1 Der auf Aussterben bedingte Verzweigungsprozess
Beweis. Wir gehen in drei Schritten vor.
(1) Zuerst betrachten wir die Wahrscheinlichkeit einer bestimmten Realisierung der Zufallsvariablen X0 , . . . , Xt für t ∈ N0 . Sei hierzu ki ∈ N0 für i = 0, . . . , t. Da die Zufallsvariablen
unabhängig und identisch X-verteilt sind, erhalten wir:
P (Xi = ki für i = 0, . . . , t) =
t
Y
P (Xi = ki ) =
i=0
=
t
Y
i=0
=
t
Y
t
Y
P (X = ki )
i=0
η∗1−ki · η∗ki −1 · P (X = ki )
{z
}
|
=1
η∗1−ki
†
· P X = ki =
η∗z
i=0
·
!
t
Y
†
.
P Xi = k i
i=0
Hierbei fassen wir die sich
zu einem Faktor zusammenfassen; es sei also
ergebenden† η∗ -Potenzen
Pt
†
z := (t + 1) −
i=0 ki . Da auch X0 , . . . , Xt unabhängig sind, ergibt sich schließlich folgende
Gleichheit:
P (Xi = ki für i = 0, . . . , t) = η∗z · P X†i = ki für i = 0, . . . , t .
(2) Sei z ∈ N, k ∈ N0 und t ∈ N0 . Das Ereignis {S0 = z, X0 = k, T = t + 1} entspricht per
Definition von T dem Ereignis {S0 = z, X0 = k, Xi = ki für i = 1, . . . , t mit (∗)}, wobei:
P
k + ti=1 ki = (t + 1) − z,
(∗) ki ∈ N0 für i = 1, . . . , t :
P
k + ji=1 ki > (j + 1) − z für j = 0, . . . , t − 1.
Für die Wahrscheinlichkeit des Ereignisses ergibt sich mit (1):
X
P (S0 = z, X0 = k, T = t + 1) =
P (S0 = z, X0 = k, Xi = ki für i = 1, . . . , t)
(∗)
=
X
P (S0 = z) · P (X0 = k, Xi = ki für i = 1, . . . , t)
(∗)


X †
= η∗z · 
P S0 = z · P X†0 = k, X†i = ki für i = 1, . . . , t 
(∗)


X †
= η∗z · 
P S0 = z, X†0 = k, X†i = ki für i = 1, . . . , t 
(∗)
= η∗z · P S†0 = z, X†0 = k, T† = t + 1 .
Hierbei nutzen wir die Unabhängigkeit der Xi respektive X†i von S0 respektive S†0 für i ∈ N0
nach Lemma 2.7 und die Tatsache, dass die Definition von z in (1) gerade der Gleichung für z
in (∗) entspricht.
(3) Um schließlich die Aussage des Satzes zu beweisen, betrachten wir die auf Aussterben
bedingte Verteilung von X0 . Aus unserer Forderung Z > 0 folgt, dass auch T > 0, und mithilfe
von (2) erhalten wir:
P (X0 = k | T < ∞) =
P (X0 = k, T < ∞)
1
= · P (X0 = k, T < ∞)
P (T < ∞)
η
– 29 –
5 Bedingte Verzweigungsprozesse
1
= ·
η
1
= ·
η
1
= ·
η
5.1 Der auf Aussterben bedingte Verzweigungsprozess
∞
∞
X
X
z=0
∞
X
P (S0 = z, X0 = k, T = t + 1)
t=0
∞
∞
X
X
z=0
!!
η∗z · P S† = z, X†0 = k, T† = t + 1
!!
t=0
η∗z
†
· P S = z,
X†0
!
.
= k, T < ∞
†
z=0
In der vorangegangenen Proposition 5.2 haben wir gesehen, dass der aussterbende Prozess sicher
ausstirbt. Folglich ist T† < ∞ keine einschränkende Bedingung und kann weggelassen werden.
Nutzen wir weiter die Unabhängigkeit der Zufallsvariablen X0 und S0 nach Lemma 2.7, so ergibt
sich:
!
∞
X
1
†
†
z
P (X0 = k | T < ∞) = ·
η∗ · P S0 = z, X0 = k
η
z=0
1
= ·
η
=
∞
X
!
η∗z · P (Z = z)
· P X†0 = k
z=0
1
1
· GZ (η∗ ) · P X† = k = · η · P X† = k = P X† = k .
η
η
Hierbei vereinfachen wir GZ (η∗ ) = η nach Satz 3.7.
– 30 –
5 Bedingte Verzweigungsprozesse
5.2 Der auf Überleben bedingte Verzweigungsprozess
5.2 Der auf Überleben bedingte Verzweigungsprozess
Im zweiten Abschnitt betrachten wir die Populationsentwicklung eines Verzweigungsprozesses eingeschränkt auf überlebende Populationen. Genauer gesagt interessieren uns hier nur die
Nachkommen eines Individuums des ursprünglichen Verzweigungsprozesses, deren Nachkommenschaft überlebt. Wir erhalten den überlebenden Verzweigungsprozess, welcher sich nach Satz
3.7 allerdings nur im Falle einer erwarteten Nachkommenzahl von über einem Individuum sinnvoll definieren lässt, da genau dann die Möglichkeit des Überlebens ζ∗ > 0 besteht, sieht man
vom trivialen Spezialfall P (X = 1) = 1 ab.
Definition 5.4 (Überlebender Verzweigungsprozess)
Zu einem Verzweigungsprozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z,
wobei E [X] > 1, ist der überlebende Verzweigungsprozess ein Verzweigungsprozess mit
Nachkommenzahl X∞ und anfänglicher Populationsgröße Z, wobei für die Verteilung von X∞
gelte:


∞ X
1 
j
P (X∞ = 0) := 0 , P (X∞ = k) :=
· η∗j−k · ζ∗k · P (X = j) .
·
k
ζ∗
j=k
Wie beim aussterbenden Prozess ist auch hier zu beobachten, dass im Falle sicheren Überlebens
der überlebende Verzweigungsprozess dem ursprünglichen Prozess entspricht. Wir beginnen mit
einigen Eigenschaften des überlebenden Prozesses, wobei die erste Aussage bestätigt, dass die
Definition einen gültigen Verzweigungsprozess liefert.
Proposition 5.5 Für den überlebenden Verzweigungsprozess gelten die folgenden Aussagen:
• P (X∞ = k) für k ∈ N0 ist eine Wahrscheinlichkeitsverteilung.
• Die erwartete Nachkommenzahl entspricht der des zugrundeliegenden Verzweigungsprozesses, also E [X∞ ] = E [X].
• Der überlebende Verzweigungsprozess stirbt für eine echt positive Populationsgröße zu Beginn sicher nicht aus, das heißt die Aussterbewahrscheinlichkeit ist P (Z = 0).
Beweis. (a) Offensichtlich gilt P (X∞ = k) ≥ 0 für k ∈ N0 . Es verbleibt zu zeigen, dass sich
die Wahrscheinlichkeiten zu 1 aufsummieren:


∞
∞
∞ X
X
X
1 
j
P (X∞ = k) =
·
· η∗j−k · ζ∗k · P (X = j)
ζ∗
k
k=0
k=1
j=k

∞
1 X
=
·
P (X = j) ·
ζ∗
j=1
j X
j
k
k=1
!
· η∗j−k · ζ∗k 



∞
X
1 
j
=
·
P (X = j) · (η∗ + ζ∗ )j −
· η∗j · ζ∗0 
| {z }
ζ∗
0
j=1
=1

 

∞
∞
X
X
1 
=
·
P (X = j) − 
P (X = j) · η∗j 
ζ∗
j=1
j=1
– 31 –
5 Bedingte Verzweigungsprozesse
=
5.2 Der auf Überleben bedingte Verzweigungsprozess
i
1 h
1
· 1 − P (X = 0) − GX (η∗ ) + P (X = 0) =
· (1 − η∗ ) = 1.
ζ∗
ζ∗
In der dritten Gleichheit wird der binomische Lehrsatz angewandt. Weiter nutzen wir in der
vorletzten Gleichheit, dass GX (η∗ ) = η∗ nach Satz 3.7.
(b) Berechne den Erwartungswert von X∞ :
E [X∞ ] =
∞
X
k · P (X∞ = k) =
k=1
k=1

∞
1 X
=
·
P (X = j) ·
ζ∗
j=1
=
∞
X
∞
X
P (X = j) ·
j=1
j
X
k=1

∞ X
j
1
· η∗j−k · ζ∗k · P (X = j)
k· ·
ζ∗
k

j=k
j
X
k=1
!
j
k·
· η∗j−k · ζ∗k 
k
!
j
k·
· η∗j−k · ζ∗k−1 .
k
Aus der Tatsache, dass j − k = (j − 1) − (k − 1) und
j−1
j
j · (j − 1)!
=j·
k·
=
(k − 1)! · (j − k)!
k−1
k
erhalten wir, wieder mithilfe des binomischen Lehrsatzes:
E [X∞ ] =
∞
X
j=1
=
∞
X
j=1
=
∞
X
j=1
P (X = j) ·
j
X
k=1
j · P (X = j) ·
!
j−1
j·
· η∗j−k · ζ∗k−1
k−1
!
j−1 X
j−1
·
· η∗j−1−k · ζ∗k
k
k=0
j · P (X = j) · (η∗ + ζ∗ )j−1 =
| {z }
=1
∞
X
j · P (X = j) = E [X] .
j=1
(c) Die Aussage folgt direkt aus Satz 3.7, da E [X∞ ] = E [X] > 1 mit (b) und nach Definition
P (X∞ = 0) = 0.
Abschließend zeigen wir für den überlebenden Verzweigungsprozess, dass die Nachkommenzahl
X∞ auch tatsächlich der Nachkommenzahl eines Individuums im ursprünglichen Prozess entspricht, wenn man nur die Nachkommen betrachtet, deren Nachkommenschaft überlebt. Hierfür
legen wir die generationenbasierte Betrachtung eines Verzweigungsprozesses zugrunde. Um die
Situation der Nachkommen ausgehend von einem Individuum beschreiben zu können, betrachten wir die Individuen des singulären Prozesses in der ersten Generation. Der im Satz und Beweis
auf Individuen angewandte Begriff überleben“ bezieht sich auf die gesamte Nachkommenschaft
”
des jeweiligen Individuums.
– 32 –
5 Bedingte Verzweigungsprozesse
5.2 Der auf Überleben bedingte Verzweigungsprozess
Satz 5.6 (Interpretation des überlebenden Verzweigungsprozesses)
Der überlebende Verzweigungsprozess zu einem Prozess mit Nachkommenzahl X und anfänglicher Populationsgröße Z beschreibt die Populationsentwicklung des ursprünglichen Prozesses,
wobei all die Nachkommen eines Individuums ignoriert werden, deren Nachkommenschaft ausstirbt. Es gilt also für k ∈ N0 :
P (X∞ = k) = P (Z∗1 = j ≥ k, k der j Nachkommen überleben | T∗ = ∞) .
Beweis. (a) Der Fall k = 0 ist einfach einzusehen, da der Prozess ausstirbt, wenn die Nachkommenschaft keines Individuums der ersten Generation überlebt, was der Bedingung des
Überlebens widerspricht:
P (Z∗1 = j ≥ 0, 0 von j überleben | T∗ = ∞) = P (Z∗1 = j, T∗ < ∞ | T∗ = ∞) = 0.
Das entspricht gerade der Definition von P (X∞ = 0).
(b) Sei im Folgenden k ∈ N. Wir betrachten zuerst die Wahrscheinlichkeit für k Individuen
in der ersten Generation, deren Nachkommenschaft überlebt. Gemäß Lemma 3.2 können wir
den Prozess ab der ersten Generation mit gegebener Größe Z∗1 = j ∈ N als Kombination
von j singulären Verzweigungsprozessen beschreiben. Die Wahrscheinlichkeit des Ereignisses
{k von j überleben} entspricht damit:
X
(l)
(l)
P (k von j überleben) =
P T = ∞ für l ∈ L, T < ∞ für l ∈ {1, . . . , j} , l ∈
/L .
L⊆{1,...,j}:
|L|=k
Nutzt man noch, dass die einzelnen singulären Prozesse unabhängig und identisch verteilt sind,
so erhält man:
∞
X
P (Z∗1 = j ≥ k, k von j überleben) =
P (k von j überleben) · P (Z∗1 = j)
j=k
=
∞ X
j=k
=
j
· P (k überleben) · P (j − k sterben aus) · P (X = j)
k
∞ X
j
j=k
=
k
∞ X
j
j=k
k
· P (T∗ = ∞)
k
· P (T∗ < ∞)
j−k
· P (X = j)
· ζ∗k · η∗j−k · P (X = j) = ζ∗ · P (X∞ = k) .
Mit dieser Umformung ergibt sich schließlich:
P (Z∗1 = j ≥ k, k von j überleben | T∗ = ∞)
=
P (Z∗1 = j ≥ k, k von j überleben, T∗ = ∞)
P (T∗ = ∞)
= ζ∗−1 · P (Z∗1 = j ≥ k, k von j überleben)
= ζ∗−1 · ζ∗ · P (X∞ = k) = P (X∞ = k) .
In der zweiten Gleichheit nutzen wir, dass das Überleben der Nachkommenschaft einer echt
positiven Zahl Individuen der ersten Generation die Tatsache impliziert, dass die gesamte Population überlebt.
– 33 –
Literaturverzeichnis
Literaturverzeichnis
[1] Krishna B. Athreya and Peter E. Ney. Branching Processes. Die Grundlehren der
Mathematischen Wissenschaften in Einzeldarstellungen, Band 196. Springer-Verlag, 1972.
[2] Nicole Bäuerle. Markov-Ketten. Karlsruher Institut für Technologie, 2012.
[3] J. B. S. Haldane. A Mathematical Theory of Natural and Artificial Selection, Part V:
Selection and Mutation. Mathematical Proceedings of the Cambridge Philosophical Society,
23:838–844, 1927.
[4] Theodore E. Harris. The Theory of Branching Processes. Die Grundlehren der
Mathematischen Wissenschaften in Einzeldarstellungen, Band 119. Springer-Verlag, 1963.
[5] David Hawkins and Stanislaw M. Ulam. Theory of Multiplicative Processes. I. Technical
report, Los Alamos Scientific Laboratory, 1944.
[6] Norbert Henze. Stochastik 1: Einführung in die Wahrscheinlichkeitstheorie und Statistik.
Karlsruher Institut für Technologie, 2010.
[7] Remco van der Hofstad. Random Graphs and Complex Networks. 2013.
http://www.win.tue.nl/~rhofstad/NotesRGCN.pdf (Letzter Zugriff: 3. März 2014).
– 34 –
Herunterladen