diplomarbeit - Publikationsdatenbank der TU Wien

Werbung
DIPLOMARBEIT
Agentenbasierte Modellbildung und Simulation auf Basis der
Fokker-Planck-Gleichung
Ausgeführt am Institut für
Analysis & Scientific Computing
der Technischen Universität Wien
unter der Anleitung von
Ao.Univ.Prof. Dipl.-Ing. Dr.techn. Felix Breitenecker
durch
Martin Bicher BSc
Untere Weißgerberstraße 6/19-21
A-1030 Wien
Wien, am 21. Mai 2013
i
Erklärung zur Verfassung der Arbeit
Martin Bicher, Untere Weißgerberstraße 6/19-21 1030 Wien, Österreich
“Hiermit erkläre ich, dass ich diese Arbeit selbständig verfasst habe, dass ich die verwendeten Quellen und Hilfsmittel vollständig angegeben habe und dass ich die Stellen der Arbeit einschließlich Tabellen, Karten und Abbildungen -, die anderen Werken oder dem Internet im
Wortlaut oder dem Sinn nach entnommen sind, auf jeden Fall unter Angabe der Quelle als Entlehnung kenntlich gemacht habe.”
Ort, Datum
Unterschrift
ii
Danke
Im Zuge des Abschlusses meiner Diplomarbeit verbleibt, all jenen zu danken, die mich im Umfeld eben dieser unterstützt haben.
Herzlichen dank an. . .
. . . Prof. Felix Breitenecker und Niki Popper für die Möglichkeit mein Master-Studium
in der Arbeitsgemeinschaft Simulation abschließen zu können und oftmaliges schmieren
von bürokratischen Zahnrädern.
. . . meine Bürokollegen für ein durchwegs positives Arbeitsklima und lustige Büroabende
voller Krahu, Ironie und Galgenhumor.
. . . alle Freiwilligen für die aufopferungsvolle Unterstützung im Korrekturprozess der Arbeit.
. . . meine Freunde für das Zurückholen in die Realität nach langen Arbeitstagen.
. . . meine Pfadfindergruppe für das Übermitteln von viel innerer Kraft und Lebensfreude.
. . . meinen Tischtennis und Fußballverein für den für mich lebensnotwendigen sportlichen
Ausgleich.
Allen voran gilt mein Dank natürlich einerseits meiner Freundin, die es nicht nur trotz, sondern
oft auch genau wegen meiner Verrücktheiten mit mir aushält, und andererseits meinem Opa und
meinen Eltern, die mir während der gesamten Zeit des Studiums ein felsenfester Rückhalt waren
und mich in all meinen Entscheidungen stets unterstützten.
iii
Abstract Deutsch
Motivation
Bedingt durch immer größer werdende technische Ressourcen und exponentiell wachsende Rechnerleistungen ist man heutzutage in der Lage, immer komplexere, genauere und Speicher aufwändigere Simulationen zu berechnen. Die Mikrosimulation ist durch ihre Flexibilität und geringe Abstraktionstiefe zu einem festen Standbein der Modellbildung geworden und stellt in vielen
Anwendungsbereichen eine echte Alternative zu altbewährten Modellierungsansätzen wie Differentialgleichungen dar. Der Preis dafür ist, dass man mit einem Modell arbeitet, das eine auf
analytischer Ebene fast nicht in den Griff zu bekommende Komplexität besitzt.
Inhalt
Anfang der 80er Jahre des vergangenen Jahrhunderts veröffentlichte der niederländische theoretische Physiker N. G. van Kampen eine Arbeit, wie die stochastischen Größen Erwartungswert
und Dichte von Markov-Prozess basierte Mikrosimulationen durch Differentialgleichungen approximiert werden können. Obwohl diese Idee unter Teilchenphysikern unter dem Namen „Diffusionsapproximation“ durchaus bekannt ist, findet die Theorie, bis auf wenigen Ausnahmen
z.B. im Bereich der Wirtschaftswissenschaften, in anderen Bereichen der Modellbildung kaum
Anklang, da Van Kampen das Prinzip seinerzeit für zeitkontinuierliche stochastische agentenbasierte Modelle entwickelte, die nur selten Anwendung finden.
In dieser Arbeit ist erklärt, wie die Diffusionsapproximation unter Inkaufnahme und Abschätzung von Diskretisierungsfehlern auch auf zeitdiskrete stochastische agentenbasierte Modelle
erweiterbar ist und wie die Parameter des Agentenmodells und die Parameter der Differentialgleichung ineinander umzurechnen sind.
Grundidee dazu liefert die für Markov-Prozesse gültige Master Gleichung, eine gewöhnliche
Differentialgleichung, die den zeitlichen Verlauf der Wahrscheinlichkeitsfunktion eines MarkovProzesses festlegt.
X
dP
(x(t) = i) =
P (x(t) = j)ωj,i − P (x(t) = i)ωi,j
dt
j6=i
Wendet man diese Gleichung auf einen speziellen Zustandsvektor einer aus Markov-Prozessen
bestehenden Mikrosimulation mit N Agenten, der aus der Summe von Agenten im selben Zustand entsteht und für sich selbst wieder ein Markov-Prozess ist, an und entwickelt die Gleichung
auf spezielle Art in eine Taylorreihe, auch als Kramers-Moyal-Entwicklung bekannt, so erhält
1
man nach einen Substitution, bis auf einen Fehler der Ordnung N − 2 , eine gewöhnliche Differentialgleichung für den Erwartungswert. Die Wahrscheinlichkeitsdichte lässt sich dann über
Rücksubstitution als Lösung einer Fokker Planck Gleichung ermitteln.
Bemerkenswert ist, dass dafür lediglich der summierte Prozess ein klassischer Markov-Prozess
sein muss, womit die Übergangsraten der Agenten sogar vom gesamten Zustandsvektor abhängen dürfen und nicht nur von ihrem eigenen. Die Agenten, die durch diese „erweiterten“ Markovprozesse beschrieben werden, dürfen also interagieren. Über ein Diskretisierungsargument
iv
wird daraufhin gezeigt, dass ein zeitdiskret gerechnetes Agentenmodell mit richtig gewählten
Übergangswahrscheinlichkeiten das zeitkontinuierliche Modell mit einem Fehler, der von der
Größe der Übergangsraten abhängt, annähert, womit die Differentialgleichung auch für dieses
Modell als Approximation verwendet werden kann.
Conclusio
Mit der Berechnung von qualitativen und quantitativen Fehlerabschätzungen wird mit dieser
Theorie eine Brücke zwischen zwei grundverschiedenen Modellierungsansätzen gezogen, die in
vielen Belangen zur Optimierung von all jenen Modellen beitragen könnte, die bislang in ihrer
Modellierung an einen der beiden Typen gebunden waren.
v
Abstract english
Motivation
Due to exponentially increasing performance of computers, nowadays more and more complex
models can be simulated in shorter time with less efforts. Thus especially individual-based models, so called microscopic models, requiring lots of memory and fast computation, are getting
more and more popular. They pose a very well understandable modelling-concept especially to
non-experts and are additionally very flexible regarding change of parameters or model structures. Unfortunately modelling with these, often called agent-based models, is always subjected
to a risk, because the behaviour of the models is hardly predictable and insufficiently studied.
Therefore it is often necessary to use reliable, less flexible, methods like differential equations
instead, which have already been investigated for hundreds of years.
Content
At the end of the 20th century the Dutch physicist N.G. van Kampen published the basis of a theory, how the deterministic moments of stochastic agent-based models, in this case continuoustime Markov-process based micro-models, can asymptotically be described by ordinary and
partial differential equations. This method, sometimes known within physicists as “diffusion
approximation“, was formerly mainly used in quantum dynamics before its usage was extended
e.g. to economical models by M. Aoki in 2002.
Given N identical dynamic agents each described by a Markov-process with a finite number
of states, also the system-vector consisting of the numbers of agents within the same state is
described by a Markov-process. Thus the so called Master-equation,
X
dP
(x(t) = i) =
P (x(t) = j)ωj,i − P (x(t) = i)ωi,j ,
dt
j6=i
holds. Taylor-approximation, in this case called Kramers-Moyal-decomposition, and certain
substitutions on the one hand lead to an ordinary differential equation, solved by an approximation of the mean value, and on the other hand to a special partial differential equation (FokkerPlanck-equation), solved by an approximation of the density function. The resulting curves
1
describe, neglecting an error O(N − 2 ), the temporal behaviour of mean value and variance.
It is important to mention, that the theory does not depend on, whether the agents are independently described by Markov-processes or are allowed to interact in a memoryless way!
Especially the last idea motivates the thought, that the theory can be extended from timecontinuous interacting Markov-processes to time-discrete interacting stochastic agent-based models, which are much more commonly used. It shows that this assumption holds considering
certain errors depending from the size of the transition rates.
Conclusion
Summarizing, formulas were created, how the deterministic system-variables of stochastic agentbased models can asymptotically be described by a system of differential equations. Thus a cer-
vi
tain bijection between a small subspace of agent-based models and a subspace of the set of all
differential equations is found which could be used to extend the fields of application for both
modelling-types.
Inhaltsverzeichnis
Motivation .
Inhalt . . .
Conclusio .
Motivation .
Content . .
Conclusion
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Inhaltsverzeichnis
1
2
vii
Einleitung
1
1.1
1.2
2
2
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Grundlagen
2.1
2.2
2.3
3
iii
iii
iv
v
v
v
Markov-Modell . . . . . . . . . . . . . . . . . .
2.1.1 Unterschiedliche Typen . . . . . . . . .
2.1.2 Homogenität . . . . . . . . . . . . . . .
2.1.3 Gleichung von Chapman-Kolmogorov . .
2.1.4 Regularität . . . . . . . . . . . . . . . .
2.1.5 Pfade und Verweildauer . . . . . . . . .
Modellbildung mit Differentialgleichungen . . . .
2.2.1 Gewöhnliche Differentialgleichungen . .
2.2.2 Partielle Differentiagleichungen . . . . .
2.2.3 Zusammenführen der Gedanken . . . .
Micro Modelling . . . . . . . . . . . . . . . . . .
2.3.1 Mikrosimulation mit CT Markov-Modellen
2.3.2 Agentenbasierte Modellierung . . . . . .
2.3.3 Zelluläre Automaten . . . . . . . . . . .
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Master Gleichung
3.1
3.2
Existenz von Übergangsraten . . . . . . . . . . . .
3.1.1 Stetigkeit von P . . . . . . . . . . . . . . . .
3.1.2 Rechtsseitige Differenzierbarkeit von P bei 0
Mastergleichung . . . . . . . . . . . . . . . . . . .
8
9
10
10
12
12
13
14
15
16
16
19
20
21
23
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
24
25
30
vii
viii
INHALTSVERZEICHNIS
3.3
.
.
.
.
.
.
.
.
.
.
.
32
32
34
35
35
36
38
39
39
42
45
Analyse
49
4.1
4.2
4.3
Analyse der Erwartungswertkurve . . . . . . . . . . . . . . . . . . . . . . .
Analyse der Dichte und der Varianz . . . . . . . . . . . . . . . . . . . . . .
Stochastische Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
52
54
3.4
3.5
4
5
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Mehrdimensionale Probleme
59
59
60
Mehrdimensionale Mastergleichung . . . . . . . . . . . . . . . . . . . . . .
Mehrdimensionale Fokker-Planck-Gleichung . . . . . . . . . . . . . . . . .
Anwendung auf zeitdiskrete agentenbasierte Modelle
Motivation . . . . . . . . . . . . . . . . . . . . .
Voraussetzungen an das DT Agentenmodell . .
Tempora mutantur . . . . . . . . . . . . . . . .
Verweildauer . . . . . . . . . . . . . . . . . . .
Umrechnung auf den summierten Prozess . . .
Zusammenfassung und letzte Voraussetzungen
63
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
63
64
66
68
71
73
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
77
77
78
78
80
81
81
86
Fehleranalyse
89
8.1
8.2
Gegenüberstellung der Problemstellungen . . . . . . . . . . . . . . . . . .
Wahrscheinlichkeitsmodell für das DT Agentenmodell . . . . . . . . . . . .
8.2.1 Verteilung für einen Zeitschritt . . . . . . . . . . . . . . . . . . . . .
90
91
91
1. Bsp: Ehrenfestsches Urnenproblem
7.1
7.2
7.3
7.4
8
.
.
.
.
.
.
.
.
.
.
.
5.1
5.2
6.1
6.2
6.3
6.4
6.5
6.6
7
Kramers Moyal Entwicklung . . . . . . . . . . . . .
3.3.1 Voraussetzungen . . . . . . . . . . . . . . .
3.3.2 Taylorentwicklung . . . . . . . . . . . . . . .
Fokker-Planck-Gleichung . . . . . . . . . . . . . . .
3.4.1 Polynomdarstellung für die Übergangsraten
3.4.2 Substitution der Variable x . . . . . . . . . .
3.4.3 Resultierende Gleichungen . . . . . . . . .
Interpolation . . . . . . . . . . . . . . . . . . . . . .
3.5.1 Histogramm . . . . . . . . . . . . . . . . . .
3.5.2 Differenzierbare Approximation . . . . . . .
3.5.3 Zusammenfassung . . . . . . . . . . . . . .
Problemstellung . . . . . . . . . . . . . . .
Resultierende Differentialgleichungen . . .
7.2.1 Überprüfen der Bedingungen . . .
7.2.2 Erwartungswertkurve . . . . . . . .
7.2.3 Equilibrium des Erwartungswertes
7.2.4 Varianz . . . . . . . . . . . . . . .
7.2.5 Dichte . . . . . . . . . . . . . . . .
Resultate zum konkreten Beispiel . . . . .
Rück und Ausblick . . . . . . . . . . . . .
75
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INHALTSVERZEICHNIS
8.3
8.4
8.5
9
8.2.2 Erwartungswert nach einem Zeitschritt . . . .
8.2.3 Varianz nach einem Zeitschritt . . . . . . . . .
8.2.4 Zeitliche Entwicklung des Erwartungswertes .
8.2.5 Résumé für das DT Agentenmodell . . . . . .
Vergleich der Resultate mit dem DG Modell . . . . . .
8.3.1 Erwartungswertkurve an der Stelle t = 1 . . .
8.3.2 Abschätzungen für den Erwartungswertfehler
Varianzfehler . . . . . . . . . . . . . . . . . . . . . .
Interpretation . . . . . . . . . . . . . . . . . . . . . .
ix
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
92
92
94
95
96
96
98
101
101
Problemstellung . . . . . . . . . . . . . . . . . . . . . . . .
9.1.1 Reale Problemstellung . . . . . . . . . . . . . . . .
9.1.2 Problemstellung des Differentialgleichungssystems
9.1.3 Problemstellung des zellulären Automaten . . . . .
Umsetzung der Theorie . . . . . . . . . . . . . . . . . . . .
9.2.1 Übergangswahrscheinlichkeiten . . . . . . . . . . .
9.2.2 Die entstehenden Differentialgleichungen . . . . . .
Resultate zum konkreten Beispiel . . . . . . . . . . . . . .
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
104
104
104
105
106
107
109
110
112
2. Bsp: SIR Modell
9.1
9.2
9.3
9.4
103
10 3. Bsp: Linearisiertes, ungedämpftes Pendel
10.1 Motivation und Problemstellung . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Erarbeiten des Agentenmodells . . . . . . . . . . . . . . . . . . . . . . . .
10.3 Resultate zum konkreten Beispiel . . . . . . . . . . . . . . . . . . . . . . .
11 Conclusio
11.1 Rückblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
115
115
116
118
123
123
124
A Appendix
127
Abbildungsverzeichnis
129
Literaturverzeichnis
131
KAPITEL
Einleitung
Befindet man sich gemeinsam mit Experten aus aller Welt auf einer Konferenz für Modellbildung und Simulation, so fühlt man sich, ob der großen Dichte an Expertise und der enormen
Varietät der wissenschaftlichen Kompetenzen, als junger Mathematiker erst einmal leicht fehlpositioniert. Es wird mit Begriffen um sich geworfen, die man vielleicht davor einmal, möglicherweise in einer besuchten Vorlesung, gehört hatte und die allesamt dazu verwendet werden,
die Idee der eigenen Modelle akkurat, schnell und überblicksartig in einer technischen Sprache
zu beschreiben, sodass möglichst jede Fachrichtung damit umgehen kann.
Als gelernter Mathematiker lechzt man nach präzisen Definitionen für dieses Fachvokabular, im
Optimalfall sogar in Gestalt von Formeln und Gleichungen, da man es einerseits aus der Mathematik gewöhnt ist, dass alles zumindest sauber definierbar ist, und man andererseits gelernt hat,
dass Begriffe auch nur dann verwendet werden dürfen, wenn entweder bereits eine einheitliche
Definition existiert, oder man ebendiese selbst gemacht hat. Leider wird man diesbezüglich in
der Welt der Modellbildung und Simulation oftmals enttäuscht. Der Umfang des Fachgebiets
hat sich vor allem innerhalb der letzten Jahrzehnte, insbesondere beeinflusst durch die rasante
Weiterentwicklung der Technologie, insbesondere der exponentiell wachsenden Rechenleistungen, in so viele Fachrichtungen und auf so vielfältige Arten vergrößert, dass es fast unmöglich
geworden ist, schnell genug präzise Definitionen zu erstellen, die in allen Fachrichtungen (Informatik, Elektrotechnik, Mechanik, Mathematik,. . . ) einheitlich akzeptiert und verwendet werden.
Aus diesem Grund entstehen zwar „schwammige“ Begriffsdefinitionen, die von verschiedenen
Fachgebieten vielleicht sogar unterschiedlich interpretiert werden, aber sie erlauben immerhin
den interdisziplinären Diskurs.
Diesem Diskurs ist es heutzutage zu verdanken, dass Modelle immer genauer und komplexer
und damit die Anwendungsbereiche für Modelle immer vielfältiger werden und sich längst nicht
mehr ausschließlich auf Physik, Mechanik oder Elektrotechnik beschränken. U.a. durch Hybridisierung von unterschiedlichen Modelltypen entstehen regelmäßig neue theoretische Modellierungskonzepte, die ob ihrer Effizienz und Genauigkeit schlussendlich altbewährte Algorithmen
ersetzen, womit man jedoch in Kauf nimmt, dass der neue Algorithmus auf analytischer Ebene
1
1
2
KAPITEL 1. EINLEITUNG
wesentlich schlechter erforscht ist.
1.1
Motivation
Mittlerweile ist es 11 Jahre her, seit Steven Wolfram mit seinem Buch „A New Kind of Science“
die Welt der Modellbildung maßgeblich verändert hat, und das Prinzip des zellulären Automaten bzw. das Prinzip der agentenbasierten Modellierung erfreut sich wachsender Beliebtheit. War
die Tür zur Modellbildung bis zur Erfindung des Computers ausschließlich demjenigen geöffnet,
der ein Grundverständnis von der Differentialrechnung hatte, ist mithilfe von agentenbasierter
Modellierung das Konzept eines Modells sogar einem fachlichen Laien verständlich zu machen,
da er deutlich weniger abstrahieren muss, um sein reales Problem im Modell wiederzuerkennen.
Auf der theoretischen Ebene büßt man hingegen mit dieser Modellierungsmethode jahrhundertelange Forschung im Bereich der Differentialrechnung ein und sieht sich teilweise sogar mit
Problemen im Bereich der Chaostheorie konfrontiert. In diesem Fall gilt scheinbar:
Je leichter das Modell für Laien verständlich ist (d.h. je geringer das Abstraktionsniveau), umso
schwerer ist es analytisch in den Griff zu bekommen.
Will man nun Grundlagenforschung im Bereich der Modellbildung und Simulation betreiben,
muss man entweder versuchen, die komplexe Theorie mit neuen analytischen Methoden in den
Griff zu bekommen, oder versuchen, diese zu umgehen, indem man Verbindungen zu bereits gut
analysierten Modelltypen findet. In vielen Arealen der Modellbildung ist das bereits teilweise
gelungen. Sieht man die Welt der verschiedenen Simulationstypen als riesiges Venn-Diagramm
bezüglich ihrer analytischen Zusammenhänge erstellt, so findet man darin zwar heute immer
noch eine Vielzahl an disjunkten Mengen, d.h. nicht oder kaum theoretisch verbundene Modelltypen, doch die Anzahl und Größe der Überscheidungsbereiche steigt stetig an.
In dieser Arbeit wird versucht, einen Beitrag dazu zu leisten, zumindest einen dieser
Überscheidungsbereiche ein wenig zu vergrößern.
Konkret handelt es sich dabei um die Areale der Modelltypen: Differentialgleichungsmodell,
Markov-Modell, Mikrosimulation und agentenbasiertes Modell (zellulärer Automat).
1.2
Überblick
Aufbauend auf zwei Bücher des niederländischen Physikers N. G. van Kampen ( [Kam82]
und [Kam07]), veröffentlichte Masanao Aoki im Jahr 2002 das Buch „Modeling Aggregate
Behaviour and Fluctuations in Economics“ ( [Aok02]), in welchem er am Beispiel von Wirtschaftsmodellen ein Prinzip vorstellte, wie die stochastischen Größen einer zeitstetigen MarkovModell-basierten Mirkosimulation, d.h. einer stochastischen, zeitkontinuierlichen Simulation
mit einer großen Anzahl an individuellen Partikeln, mit einem System von gewöhnlichen bzw.
partiellen Differentialgleichungen auf analytischer Ebene zusammenhängen. Im Konkreten wird
1.2. ÜBERBLICK
3
damit gezeigt, dass die stochastischen Größen der Mikrosimulation bis auf einen asymptotischen Fehler den Lösungskurven gewisser Differentialgleichungen entsprechen. Obwohl dieses
Prinzip in der Fachwelt der Quantenphysik (Teilchenphysik) durchaus unter dem Begriff Diffusionsapproximation (diffusion approximation) bekannt ist, fand es bisher kaum Anwendung
im Bereich der Grundlagenforschung im Bereich der Modellbildung und Simulation, da vor allem zeitstetig gerechnete stochastische Mikrosimulationen eher selten verwendet werden (Vor
allem von diesem Gesichtspunkt aus wählte Aoki also einen sehr innovativen Zugang). Zu diesem Zweck wurde Van Kampens Prinzip im Verlauf dieser Arbeit gleich an mehreren Punkten
erweitert:
Unter Inkaufnahme von Diskretisierungsfehlern lässt es sich auch auf zeitdiskrete d.h.
zeitlich getaktete, Markov-Prozess basierte Mikrosimulationen anwenden.
Mit dieser Idee lässt es sich auf eine Vielzahl von stochastischen agentenbasierten Modellen und zelluläre Automaten anwenden.
Die Berechnungen wurden auch mehrdimensional durchgeführt.
Für die Erweiterung durch die Diskretisierung wurden neue qualitative, d.h. asymptotische, Fehlerabschätzungen getroffen und damit Konvergenzeigenschaften festgestellt.
Für die Erweiterung durch die Diskretisierung wurden teilweise auch quantitative Fehlerabschätzungen entwickelt.
Schlussendlich wurde die Theorie an einigen neuen Beispielen getestet und verifiziert.
KAPITEL
Grundlagen
In diesem Kapitel werden die Grundlagen sowie Definitionen der in dieser Arbeit verglichenen
Modellierungsmethoden zusammengefasst. Die in den Folgekapiteln verwendeten analytischen
Betrachtungen bauen auf diese auf, denn das im letzten Kapitel besprochene Ziel dieser Arbeit
ist gemäß der Übersichtstafel (Abbildung 2.1) nur über gewisse Umwege zu erreichen. Im Folgenden werden die Grundlagen zu 5 Modellierungsmethoden vorgestellt, die unterschiedlicher
kaum sein können, auf Grund dieser Diversität nicht einmal mathematisch zur Gänze auf einen
gleichen Nenner gebracht werden können, ja teilweise nicht einmal mehr auf mathematischer
Basis einheitlich definiert werden.
Da sich der Großteil der Theorie des in dieser Arbeit vorgestellten Prinzips zum Vergleich agen-
CT MarkovProzess basiertes
Agentenmodell
DT
Agentenmodell /
stoch. Zellulärer
Automat
Ziel
Differential
gleichungs
modell
CT MarkovProzess
Abbildung 2.1: Übersichtsabbildung - Umweg zum Ziel
5
2
6
KAPITEL 2. GRUNDLAGEN
tenbasierter und differentialgleichungsbasierter Modelle auf die Markov-Theorie stützt, sind deren Grundlagen von besonderer Wichtigkeit. Diese Theorie bildet genauso wie das Modellieren
mit Differentialgleichungen aber lediglich ein mathematisch zwar sauber definierbares Konzept,
liefert aber keinerlei Vorschriften, wie die Theorie in die Praxis umzusetzen ist. Für Differentialgleichungsmodelle lässt sich eine Lösung oft als geschlossene Formel anschreiben, die im
Optimalfall sogar mithilfe von Papier und Bleistift lösbar ist. Die Numerik und die sehr alte und
geschlossene Theorie über Differentialgleichungen liefern dann Aussagen über Stabilität und
Lösbarkeit (Eindeutigkeit). Man hat somit ein sogenanntes deterministisches Modell - d.h. bei
mehrmaligem Experimentieren unter den selben Bedingungen erhält man das selbe Ergebnis. Es
ist also aus der Anfangskonfiguration reproduzierbar. Zu dieser gehören neben dem Versuchsaufbau auch alle während des Experiments einwirkende Einflüsse und Bedingungen.
Definition 2.0.1 (Deterministisch).
Ein Modell wird deterministisch genannt, genau dann, wenn mehrmaliges Durchführen des Experiments unter den selben Bedingungen, das selbe Resultat hervorbringt.
Im Unterschied zum Differentialgleichungsmodell bezeichnet man z.B. ein Markov-Modell
mit dem Begriff stochastisch.
Definition 2.0.2 (Stochastisch).
Ein Modell, bei dem der Ausgang des Experiments nicht allein durch die Wahl der Anfangsparameter feststeht, bezeichnet man als stochastisch.
Die so gewählten Definitonen für stochastisch und determinischtisch sind disjunkt und deren
Vereinigung liefert die Menge aller Modelle. D.h. jedes mathematische Modell kann einer dieser
Klassen zugeordnet werden.
In diesem Zusammenhang kann man sich die Frage stellen, welche der beiden Typen denn die
Realität am besten abbildet? Einerseits ist spätestens seit der Entwicklung der Quantentheorie
bekannt, dass jedes Ereignis in der Welt, in der wir leben, mit einem gewissen Zufall verbunden ist bzw. zumindest mit einer Abweichung, die zumindest zum jetzigen Zeitpunkt noch von
keinem bekannten Naturgesetz beschrieben werden kann. Da ein Modell im Allgemeinen dazu
beitragen soll, die Realität zu imitieren, um zusätzliches Wissen über sie zu erlangen, macht von
diesem Standpunkt aus ein deterministisches Modell kaum Sinn. Es könnte sogar den falschen
Eindruck vermitteln, dass ein und die selbe Anfangskonfiguration zwangsläufig auch in der Realität immer zum selben Ergebnis führen muss. Andererseits ist dadurch, dass der Modellbildende
ohnedies gezwungen ist, Vereinfachungen zu treffen, möglicherweise die in der Theorie vereinfachte Form des Experiments auch, zumindest unter Berücksichtigung des vereinfachten Standpunktes, in der Realität deterministisch. Man kann sagen, es kommt in diesem Zusammenhang
primär auf die Fragestellung an, wie das folgende Beispiel zeigt:
7
Beispiel 2.0.3 (Gedankenexperiment:).
Beobachtung des Ausganges eines Münzwurfes.
Je nach Fragestellung wird sich ein anderer Modelltyp eignen:
Fragestellung
Welche Seite liegt
beim
Schnipsen
mit dem Finger
öfter oben?
Welche Seite liegt
bei bekannten Anfangsparametern
oben?
Welche
Seite
liegt bei hoher
Rotationszahl und
bekannten
Anfangsparametern
öfter oben?
deterministisch/stochastisch?
Unter diesen Voraussetzungen wird man stochastische Resultate erhalten, da die Anfangskonfiguration trotz alle mechanischen Bemühungen quasi nicht reproduzierbar ist und das Modell sehr sensitiv
darauf reagiert. Möglicherweise können Faktoren wie die Massebalance der Münze auf das Zufallsresultat einwirken. Mithilfe eines
stochastischen Modells könnte z.B. ein Erwartungswert bestimmt
werden, der gegebenenfalls für die Seitenwahl vor einem Fußballspiel interessant sein könnte.
Sind alle Umgebungsparameter bekannt, d.h. herrschen strenge Laborbedingungen, könnte mithilfe von physikalischen Gesetzen das
Ergebnis mit einer physikalischen Simulation vorhergesagt werden.
Diese Frage stellte sich am Beispiel eines von der Tischkante gestoßenen Marmeladebrotes und strahlt seit jeher eine gewisse Fasziantion aus.
Das Experiment „Münzwurf “ ist von so chaotischer Natur, dass
bei hohen und rotationsreichen Würfen sogar quantenmechanische
Effekte eine Rolle spielen, die nachweislich stochastische Resultate liefern. Während bei niedrigen Würfen die geringe Varianz der
Flugbahn keine Auswirkung auf die resultierende Münzenseite hat,
kann diese in diesem Fall sogar bei bekannten Anfangs und Umgebungsparametern variieren. Ein deterministisches Modell kann
demnach nur Anhaltspunkte geben und muss richtig interpretiert
werden. Ein stochastisches Modell könnte das deterministische unterstützen.
Je nach Fragestellung ist also einer der beiden Modelltypen sinnvoll und zulässig, manchmal
sogar beide. Die Welt ist also, je nach Blickwinkel, stochastisch und deterministisch.
Ganz abgesehen von diesem Gedankenexperiment wird aus diesen Fragestellungen, allgemein
für Modelle betrachtet, einiges deutlich:
⇒ Stochastische Modelle verwendet man bevorzugt (sofern man die Wahl hat) anstelle von
deterministischen, wenn man an den Auswirkungen von Zufallsereignissen interessiert ist.
⇒ Um verwertbare Resultate zu erhalten, muss man diese in der Regel öfter durchführen.
Ein einzelner Versuchsausgang ist in der Regel nicht aussagekräftig.
⇒ Die meisten verwertbaren Ergebnisse eines stochastischen Modells, betreffen weniger das
Resultat des einzelnen Versuchs, sondern eher die mit dem Modell verbundene Wahrscheinlichkeitsverteilung.
8
KAPITEL 2. GRUNDLAGEN
⇒ Die Wahrscheinlichkeitsverteilung ist eine deterministische Größe, die mit der Anfangskonfiguration des Modells definiert ist.
Vor allem der letzte Punkt ist Hauptziel dieser Arbeit. Die Wahrscheinlichkeitsverteilung eines
stochastischen Modells ist eine mögliche Brücke, die es erlaubt, deterministische und stochastische Modelle zu verknüpfen. Oft wird ein Markov-Modell als deterministisch bezeichnet, da
man über die sogenannten Übergangsmatritzen die Wahrscheinlichkeitsverteilung deterministisch berechnen kann. Das ändert aber nichts daran, dass das Resultat des Modells immer noch
stochastisch ist. Die Computersimulation, d.h. die Implementierung eines stochastischen Modells selbst, ist im Allgemeinen aber wieder deterministisch. Die Quelle, aus der herkömmliche
Simulatoren Zufallszahlen beziehen, hängt mit einem deterministischen Generator zusammen,
der bei bekannten Anfangsparametern nachgerechnet werden kann (Sieht man einmal davon ab,
dass es tatsächlich Organisationen gibt, die sich darauf spezialisiert haben, aus tatsächlich weitestgehend stochastischen Vorgängen aus der Natur Zufallszahlen zu gewinnen). Dieser Umstand
ist auch durchaus nützlich, bedenkt man, dass somit ein Durchlauf der Simulation am Computer
jederzeit wieder abrufbar ist. Die Abbildung 2.2 zeigt das gerade Erwähnte graphisch.
Abbildung 2.2: Vergleich stochastisch - deterministisch
2.1
Markov-Modell
Ein Markov-Modell bezeichnet man im Allgemeinen ein Modell, das durch einen sogenannten
Markov-Prozess beschrieben wird.
Definition 2.1.1 (Markov-Prozess).
Ein stochastischer Prozess
X(t) : T → Ω,
T ⊆ R+ , 0 ∈ T
mit Wahrscheinlichkeitsfunktion
P (t, k) = P (X(t) = k) : T × Ω → [0, 1]
2.1. MARKOV-MODELL
9
und Zustands (Mess-) Raum Ω wird als Markov-Prozess bezeichnet, dann und genau dann, wenn
seine bedingte Wahrscheinlichkeitsfunktion
P (X(t2 ) = k|X(t1 ) = j) := (P (X(t2 ) = k) unter der Bedingung dass X(t1 ) = j)
mit k, j ∈ Ω,
t1 < t2 ∈ R+ die sogenannte Markoveigenschaft erfüllt.
Definition 2.1.2 (Markoveigenschaft).
Seien t1 < · · · < tm ∈ T eine beliebige endliche, aufsteigende Folge von Zeitpunkten und
k1 , . . . , km ∈ Ω beliebig, so erfüllt X(t) die Markoveigenschaft, wenn
P (X(tm ) = km |X(tm−1 ) = km−1 , . . . , X(t1 ) = k1 ) = P (X(tm ) = km |X(tm−1 ) = km−1 )
2.1.1
Unterschiedliche Typen
Innerhalb der Klasse der Markov-Prozesse unterscheidet man die Prozesse zunächst anhand ihrer
Definitions und Bildräume:
Definition 2.1.3 (Klassifikation für Markov-Prozesse).
Sei tend ∈ R+ ∪ {∞}.
Ein Markov-Prozess heißt zeitstetig, wenn T = [0, tend ]. Man spricht von einem CT
Markov-Prozess (continous time).
Ein Markov-Prozess heißt zeitdiskret, wenn T = {0, t1 , . . . , tend }. Man spricht von
einem DT Markov-Prozess (discrete time).
Ein Markov-Prozess heißt ortsstetig oder allgemein, wenn Ω = (S, A) mit einem überabzählbaren Messraum S mit Sigma-Algebra A. Man spricht von einem CS Markov-Prozess
(continous space).
Ein Markov-Prozess heißt ortsdiskret, wenn Ω = ({k1 , k2 , . . . }, 2{k1 ,k2 ,... } ) mit der
Potenzmengen-Sigma-Algebra (Diese wird i.A. nicht extra angeschrieben). Man spricht
von einem DS Markov-Prozess (discrete space). In diesem Fall wird auch von sogenannten Markov-Ketten gesprochen.
10
KAPITEL 2. GRUNDLAGEN
Zusätzlich kann man noch zwischen diskret-endlichen und diskret-unendlichen (abzählbaren) Markov-Ketten sprechen, je nachdem, ob der Zustandsraum endlich oder abzählbar unendlich ist. In dieser Arbeit wird der Begriff diskret stets für endliche Räume Ω ∼
= {1, . . . , n}
verwendet. Die zum Raum gehörige Sigmaalgebra wird in Folge nicht mehr zum Raum dazu
angeschrieben, da es sich entweder um eine endliche Potenzmenge oder den Borelmengen auf
Rn handelt.
2.1.2
Homogenität
Eine weitere wichtige Eigenschaft eines Markovporzesses ist der Begriff der Homogenität.
Definition 2.1.4 (Homogenität eines Markov-Prozesses).
Ein Markov-Prozess heißt homogen, wenn für beliebige t1 , t2 , t2 − t1 ∈ T und für alle k, j ∈ Ω
gilt:
P (X(t2 ) = k|X(t1 ) = j) = P (X(t2 − t1 ) = k|X(0) = j)
Im weiteren Verlauf wird ausschließlich mit homogenen Markovketten gerechnet, denn nur
diese erfüllen die Gleichung von Chapman-Kolmogorov.
2.1.3
Gleichung von Chapman-Kolmogorov
Diese ist von fundamentaler Wichtigkeit für die Beweise in Kapitel 3. Sie stellt eine Art Pendant
zum Satz von der totalen Wahrscheinlichkeit auf der Ebene der stochastischen Prozesse dar.
Im weiteren Verlauf der Arbeit werden oft bedingte Wahrscheinlichkeiten in den Beweisen verwendet. Es sei also die folgende Kurzschreibweise eingeführt:
Definition 2.1.5 (Kurzschreibweise für bedingte Wahrscheinlichkeiten).
P ((t2 , k)|(t1 , j)) := P (X(t2 ) = k|X(t1 ) = k),
t1 < t2 ∈ T, k, j ∈ Ω
Die in der Literatur gebräuchliche, weil kürzere, schreibweise
Pj,k (t) := P ((t, k)|(0, j)) = P (X(t) = k|X(0) = j)
mit der, unter Ausnützung der Homogenität des Prozesses, ebenso jede bedingte Wahrscheinlichkeit beschrieben werden kann, versagt im Falle von komplizierteren Bedingungen, die aber
später noch benötigt werden. Z.B.:
P ((t2 , k)|(t1 , 6= k), (t1 , 6= j)) := P (X(t2 ) = k|X(t1 ) 6= k ∧ X(t1 ) 6= j)
2.1. MARKOV-MODELL
11
Satz 2.1.6 (Gleichung von Chapman-Kolmogorov).
Ist X(t) ein Markov-Prozess mit Werten in Ω so gilt ∀t1 < t2 ∈ T und ∀k, j ∈ Ω:
Z
P (X(t2 ) = k|X(0) = j) =
P (X(t2 ) = k|X(t1 ) = i)P (X(t1 ) = i|X(0) = j)di =
Ω
Z
P (X(t2 − t1 ) = k|X(0) = i)P (X(t1 ) = i|X(0) = j)di
=
∗
Ω
wobei ∗ genau dann gilt, wenn X homogen ist und t2 − t1 ∈ T .
Beweis:
1
Nach dem Satz für bedingte Wahrscheinlichkeiten folgt die Umformung:
P ((t2 , k)|(0, j)) =
P ((t2 , k), (0, j))
.
P (0, j)
Da der Prozess zum Zeitpunkt t2 < t1 ∈ T einen Zustand gehabt haben muss gilt weiters:
R
P ((t2 , k), (0, j), (t1 , i))di
P ((t2 , k), (0, j))
= Ω
.
P (0, j)
P (t1 , k1 )
Der Bruch lässt sich erweitern und man erhält:
Z
P ((t2 , k), (t1 , i), (0, j))P ((t1 , i), (0, j))
di =
P ((t2 , k)|(0, j)) =
P (0, j)P ((t1 , i), (0, j))
Ω
Z
P ((t2 , k)|(0, j), (t1 , i))P ((t1 , i), (0, j))
=
di =
P (0, j)
Ω
Z
=
P ((t2 , k)|(0, j), (t1 , i))P ((t1 , i)|(0, j))di =
Ω
Z
=
∗
P ((t2 , k)|(t1 , i))P ((t1 , i)|(0, j))di.
Ω
Die Gleichheit ∗ folgt nach der Markowbedingung, da t2 > t1 gilt. ist der Markov-Prozess nun
auch noch homogen und der Zeitpunkt t2 − t1 ∈ T folgt sogar noch die Gleichheit:
Z
P ((t2 − t1 , k)|(0, i))P ((t1 , i)|(0, j))di.
P ((t2 , k)|(0, j)) =
Ω
Insbesondere ist die Gleichung natürlich für homogene CT Markov-Prozesse erfüllt, da dort
ohnedies t2 − t1 ∈ T liegt. Für DS Markov-Prozesse erhält man ein Integral bzgl. dem Zählmaß
und damit eine endliche oder unendliche Summe:
1
Der Beweis ist dem Buch [Aok02] nachempfunden
12
KAPITEL 2. GRUNDLAGEN
Satz 2.1.7 (Gleichung von Chapman-Kolmogorov für DS Markov-Prozesse).
Sei
Ω := {k1 , k2 , . . . } und t2 > t1 , t2 − t1 ∈ T folgt:
X
P ((t2 , k)|(0, j)) =
P ((t2 − t1 , k)|(0, i))P ((t1 , i)|(0, j))
i∈Ω
Beweis: Man modifiziere den Beweis (vor allem den zweiten Schritt unter Verwendung des
Satzes für bedingte Wahrscheinlichkeiten) für die allgemeine Chapman-Kolmogorov Gleichung,
sodass er für diskrete Zustandsräume gilt.
2.1.4
Regularität
Des weiteren unterscheidet man homogene CT Markov-Prozesse in reguläre und nicht reguläre
Markov-Prozesse.
Definition 2.1.8 (Regularität eines CT Markov-Prozesses).
Ein homogener CT Markov-Prozess X heißt regulär, wenn für alle k, j ∈ Ω gilt
0, k 6= j
lim P ((h, k)|(0, j)) =
1, k = j
h→0
Diese Eigenschaft ist von sehr intuitiver Natur. Sie besagt, dass ein regulärer Markov-Prozess
zumindest eine gewisse Zeit in einem Zustand verbringen muss, bevor er zum nächsten übergeht,
da die Wahrscheinlichkeit, dass er den Zustand in dem Augenblick wieder verlässt, in dem er ihn
erreicht hat, gegen Null geht. Die Regularität wird im Kapitel 3 noch eine sehr wichtige Rolle
spielen denn der Begriff der Übergangsrate baut darauf auf. Man erhält für reguläre MarkovProzesse rechtsstetige Pfade.
2.1.5
Pfade und Verweildauer
Definition 2.1.9 (Pfad).
Als Pfad eines Markov-Prozesses bezeichnet man den Graph
Γ(X) := {(t, X(t)), t ∈ [0, T ]}
der Abbildung X(t).
2.2. MODELLBILDUNG MIT DIFFERENTIALGLEICHUNGEN
13
Der Pfad eines Markov-Prozesses bezeichnet den Verlauf des Prozesses auf graphischer Ebene.
Für reguläre CTDS Markov-Prozesse kann man das Intervall [0, tend ) stets in maximal anzählbar
viele halboffene Intervalle mit positiver Länge aufteilen, in denen sich der Zustand des Prozesses
nicht verändert hat bzw. der Graph konstant ist. Glaubt man an das Auswahlaxiom oder betrachtet eine endliche Endzeit tend < ∞ existiert von dieser Zerlegung eine mit der kleinsten Anzahl
an Elementen:
[
[
˙
˙
Sn .
[tn , tn + 1) =:
[0, tend ) =
n
n
Die Länge dieser Intervalle wird als Verweildauer bezeichnet, und die Intervallgrenzen bezeichnen die Zeitunkte der Zustandsänderung. Abbildung 2.3 zeigt einen möglichen Pfad eines CTDS
Markov-Prozesses und die zugehörigen Übergangszeitpunkte.
Um später Unklarheiten vorzubeugen seien noch kurz einige andere Modellierungsmethoden
Abbildung 2.3: Möglicher Pfad eines CTDS Markovporzesses
besprochen bzw. definiert.
2.2
Modellbildung mit Differentialgleichungen
Modellbildung mithilfe von Differentialgleichungen, auch kurz DG (Differentialgleichung) oder
DE (Differential Equation) genannt, ist wohl die Abstrakteste, aber vermutlich auch mathematisch am besten erforschte Form der deterministischen Modellbildung. Auf der einen Seite erhält
man den Vorteil, sich auf eine jahrhundertealte mathematische Theorie stützen zu können, die
einem im wesentlichen bereits alles Wissenswerte über das zu analysierende DG-Modell verrät.
Ob Physik, Elektrotechnik, Maschinenbau oder Chemie, stets wird mit Differentialgleichungen argumentiert und kalkuliert, und Millionen Lehrbücher stützen sich auf bereits untersuchte
Phänomäne, die sich mit ihnen beschreiben lassen (von denen wiederum Tausende das Thema
behandeln, was noch eine Formel in Form einer DG und was bereits als dynamisches Modell
14
KAPITEL 2. GRUNDLAGEN
gilt). Diese doch sehr flächendeckenden Theorie, vor allem im Bereich der Naturwissenschaften, wird in gängigen Simulatoren wie DYMOLA oder SIMULINK ausgenützt, in denen man
sein Modell aus einem großen Pool an bereits validierten Differentialgleichungsmodellen die für
einzelne Teilprobleme geeignet sind zusammensetzen kann.
Leider fallen in den Bereich der Modellbildung heuzutage nicht nur Problemstellungen aus den
Naturwissenschaften, sondern auch aus Bereichen wie Wirtschaft oder Soziologie, in denen man
sich nicht auf eine Axiomatik berufen kann, die aus Formeln besteht. Zunächst muss man die
Aufgabenstellung hinreichend abstrahieren, um sie überhaupt mit mathematischen Werkzeugen
in den Griff zu bekommen, insbesondere wenn man sie mit Differentialgleichungen beschreiben
will. Da Abstrahieren in diesen Bereichen stets auch Vereinfachungen mit sich bringt, kann es
passieren, dass man, um ein geschlossenes Differentialgleichungsmodell zu erhalten, wesentliche Parameter vernachlässigen muss und man dadurch das Modell komplett entwertet. Zusätzlich darf man nicht vergessen, dass derartige Abstraktionen für Aufgabensteller (Kunden) aus
den erwähnten Bereichen kaum nachzuvollziehen sind, und dadurch das Modell an Glaubwürdigkeit einbüßt - nicht umsonst nennt man diesen Bereich der Modellbildung auch „Black-BoxModelling“.
Ist der Abstraktionsvorgang abgeschlossen und hat man einmal eine geschlossene mathematische Formulierung des Problems in Form von Differentialgleichungen erlangt, kann man das
System im Wesentlichen zu einer von zwei unterschiedlichen Klassen zuordnen.
2.2.1
Gewöhnliche Differentialgleichungen
Auch kurz ODEs (Ordinary Differential Equations) genannt, bezeichnet man mit diesem Begriff
die einfachste Form der Differentialgleichung.
Definition 2.2.1 (ODE).
Sei ~x(t) : D ⊆ R → Rn , x ∈ C d , so nennt man eine Differentialgleichung der Form
f ~x(d) (t), ~x(d−1) (t), . . . , ~x0 (t), ~x(t), t = 0
gewöhnlich. Der Grad der höchsten Ableitung, die in der DG auch tatsächlich auftritt, nennt man
die Ordnung der DG.
Ohne zu sehr in die Theorie eingehen zu wollen, seien noch einige Begriffe erklärt:
Lässt sich die Differentialgleichung (gemäß dem Hauptsatz über implizite Funktionen) schreiben als
(d)
(d)
(d−1)
0
x1 (t) = g x2 (t), . . . , x(d)
(t),
~
x
(t),
.
.
.
,
~
x
(t),
~
x
(t),
t
,
n
so nennt man die ODE explizit, andernfalls implizit. Tritt in der Differentialgleichung die Funtion mit der höchsten Ableitung nur linear auf, so ist die DG insbesondere explizit. Man spricht
in diesem Fall von einer quasiliearen DG. Gilt dies nicht nur für den Term mit der höchsten
2.2. MODELLBILDUNG MIT DIFFERENTIALGLEICHUNGEN
15
Differentiationsordnung, sondern für alle, so nennt man die Differenzialgleichung sogar linear
(mit Störterm h(t)):
a~d · ~x(d) (t) + ad−1
~ · ~x(d−1) (t) + · · · + a~0 · ~x(t) = h(t)
Jede explizite gewöhnliche Differentialgleichung, insbesondere jede lineare, lässt sich über einfache Variablensubstitutionen in ein (dementsprechend großes) System erster Ordnung überführen, womit für lineare DG ausschließlich die Form
~x0 (t) = A(t)~x(t) + ~b(t)
untersucht werden muss.
Die Theorie über ODEs ist sehr weit fortgeschritten und liefert auf die meisten einfacheren Fragestellungen, insbesondere für lineare ODEs, sogar analytische Antworten für die unbekannte
Funktion x(t). Dieser Umstand wird natürlich ausgenützt, denn kaum etwas ist so leicht analysierbar und validierbar, wie eine explizite Lösungsformel für ein Modell. Ist andernfalls eine
analytische Lösung nicht bestimmbar, so lassen sich explizite Systeme auch leicht numerisch
behandeln. Besonders hervorgehoben seien an dieser Stelle die expliziten und impliziten Verfahren von Euler, Heun und Runge-Kutta, sogenante ODE-Solver, deren Konvergenzverhalten
und Stabilität bereits seit Jahrzehnten bekannt sind und auf fast alle, also insbesondere auch auf
nicht analytisch lösbare, explizite gewöhnliche Differentialgleichungen im Allgemeinen sehr
befriedigende Lösungsantworten geben.
2.2.2
Partielle Differentiagleichungen
Auch kurz PDEs (Partial Differential Equations) genannt, bezeichnet die wesentlich schwieriger
zu behandelnde Klasse der Differentialgleichungen.
Definition 2.2.2 (PDE).
Sei u ∈ C d (Rn , Rm ) so bezeichnet man eine Differerentialgleichung der Form
f L~di (~u), . . . , L~di (~u), L~d−1 (~u) . . . , L~d−1 (~u), . . . , L~1i (~u), . . . , L~1i (~u), ~u, ~x = 0
1d
nd
i1d−1
ind−1
11
n1
mit sogenannten Differentialoperatoren:
L~ki (~u) =
∂ k ~u
i =k−(i1 +i2 +···+in−1 )
∂xi11 , ∂xi22 , . . . , ∂xnn
als partiell, wenn Ableitungen nach mindestens zwei unterschiedlichen Variablen tatsächlich
auftreten (d.h. nichtverscheindende Koeffizientenfunktionen haben).
Mit ähnlichen Kriterien wie bei ODEs unterscheident man auch hier zwischen nicht-linearen,
quasilieraren und linearen PDEs. Auch wenn die analytische Betrachtung der Lösung sogar
16
KAPITEL 2. GRUNDLAGEN
schon bei linearen PDEs sehr schwer ist und kaum verallgemeinerte Lösungsmethoden bekannt sind, gibt es doch gut erforschte Mittel und Wege, solche Probleme zu analysieren. Einerseits lassen sich sehr viele, häufig auftretende Probleme, auf bereits gut erforschte Spezialfälle zurückführen (Transportgleichung, Wärmeleitungsgleichung, Schrödingergleichung, Maxwellgleichungen, . . . ). Andererseits gibt es auch auf diesem Gebiet gut erforschte numerische
Methoden, die es erlauben, auch Lösungen von analytisch nicht behandelbaren Problemen mit
gut abschätzbaren Fehlern zu approximieren. Zu den wichtigsten Vertretern aus dieser Familie
gehören das Verfahren der finiten Differenzen und die Methode der finiten Elemente (FEM).
2.2.3
Zusammenführen der Gedanken
Berücksichtigt man diese Überlegungen erhält man, grob gesprochen, die Conclusio:
Hat man das DG Modell einmal erstellt, d.h. die Realität sinnvoll abstrahiert, ist (zumindest
bei ODEs) die Simulation des Modells nicht mehr schwierig, da man sich auf gut erforschtem
Terrain befindet.
Dieser Umstand ist jener, der das DG Modell so wertvoll macht und den Gedanken anregt, nicht
so gut erforschte Gebiete der Modellbildung auf das DG Modell zurückführen zu wollen. Man
erhält den Konflikt:
DG Modell
Anderes Modell
Sehr abstrakt ⇔ Evt. realitätsnäher
Gut analysierbar
Schlecht analysierbar
Denkt man z.B. an Bevölkerungsmodelle, so kann man sich nach der Simulation des Modells
mittels Differentialgleichungen durchaus berechtigt fragen, warum 17.42 Personen zum Zeitpunkt t ein gültiges Resultat des Modells sein soll, und wie man dieses Ergebnis richtig deuten
soll? Die imaginäre 0.42-te Person existiert nicht und wird auch nie existieren, doch will man
von diesem Resultat Gebrauch machen, um z.B. eine Bugdetkalkulation zu erstellen, macht es
u.U. durchaus Sinn, mit ihr zu rechnen. Das Modell kann sich für diesen Zweck also sehr wohl
als das Richtige herausstellen.
Gerade in solchen Bereichen, wo in der Realität nur eine endliche Anzahl an Zuständen als
Lösung des Problems in Frage kommt, ist das Modellieren mit DG oftmals sehr umstritten, da
einfach missverstanden. Zu diesem Zweck bieten sich sogenannte Mikrosimulationen an.
2.3
Micro Modelling
Setzt sich ein zu simulierendes System S bzw. eine zu simulierende Zustandsvariable Z in der
Realität aus einer Anzahl an Subsystemen si mit eigenen Zustandsvariablen zi zusammen,
S=
[
˙ N
i=1
si ,
Z = f (z1 , . . . , zN )
so macht es oft Sinn, anstelle einer ganzheitlichen Simulation des Gesamtsystems S mit einem
Modell für Z, die einzelnen Bestandteile des Systems einzeln zu simulieren und schlussendlich
die Zustandsvariable Z mit dem Wissen über die Funktion f , d.h. mit dem Wissen darüber, wie
2.3. MICRO MODELLING
17
sich die Systeme zusammensetzten, aus den einzelnen Systemvariablen zi zu berechnen.
Einerseits ist dieses, hier sehr abstrakt beschriebene, Konzept ein sehr natürlicher Zugang zu
einer Problemstellung. Z.B. besagt das Konzept, dass in einem Bevölkerungsmodell jede Person einzeln simuliert werden kann, anstatt die gesamte Bevölkerung mit einer z.B. kontinuierlichen Größe zu beschreiben, was im Vergleich einen bedeutend weniger abstrakten Zugang zur
Problemstellung darstellt. Jedermann, auch ein modellbildungstheoretischer Laie, kann nachvollziehen, dass sich eine Bevölkerungszahl als Summe der Individuen ergibt, die agieren und
miteinander kommunizieren.
Andererseits ist gerade die Kommunikation zwischen den einzelnen Subsystemen si ein oft
schwer umzusetzender Stolperstein in der Modellierung und Implementierung. Überhaupt konnte dieser Zugang zur Modellbildung erst mit der (weiter-)Entwicklung des Computers entstehen,
da ob des großen Aufwands i.A. keine händischen Berchnungen mehr möglich sind. Während also Lotka und Volterra bereits 1925/26 mithilfe ihrer berühmten Differentialgleichungen RäuberBeute Modelle mit durchaus großem Erfolg und Nutzen für die Gesellschaft berechnen konnten,
wäre damals ein Individuen-basiertes Modell zu dieser Problemstellung (z.B. das Modell WaTor von Dewdney und Wiseman, 1984) noch gar nicht möglich gewesen. In der heutigen Zeit
erfreuen sich solche, Individuen-basierte, Modelle, klarerweise bedingt durch die immer größer
werdenden technologischen Ressourcen, immer größer werdender Beliebtheit. Diese Entwicklung geht so weit, dass oftmals sogar krampfhaft eine Zerlegung eines Systems S in Bestandteile
si gesucht wird, obwohl sie eigentlich in der Realität gar nicht da sind, weil auf diese Art das
Modell deutlich flexibler wird. Diese, ungerechtfertigt negativ behaftet ausgedrückte, Idee könnte man auch mit dem Begriff „Diskretisierung“ bezeichnen. (Unter diesem Gesichtspunkt kann
man z.B. die Methode der Finiten Elemente auch als Mikrosimulation bezeichnen.)
Definition 2.3.1 (Mikrosimulation / Makrosimulation 2 ).
SN
Wird, um ein System S zu simulieren, jedes einzelne Subsystem si mit S = ˙ i=1 si sowie die
Kommunikation zwischen diesen individuell Simuliert, und schlussendlich die Systemvariable
Z = f (z1 , . . . , zN ) aus den einzelnen Systemvariablen zi berechnet so bezeichnet man dieses
Modell, unabhängig von der Art der Simulation der Subsysteme, als mikroskopisch (Mikromodell, Mikrosimulation, Micro Model, Micro Simulation).
SN
Wird andererseits ein, sich aus Subsystemen zusammensetztendes System S = ˙ i=1 si , als
gesamtes, d.h. ohne Berücksichtigung der Submodelle, mithilfe eines Modells für die Zustandsvariable Z direkt simuliert, so nennt man das Modell makroskopisch (Makro Modell, Makrosimulation, Macro Model, Macro Simulation).
Meist kommt der Begriff der Makrosimulation nur im Kontext zusammen mit einer Mikrosimulation vor. Besteht das System also nicht aus Subsystemen, stellt sich die Frage nach dem
Typus i.A. nicht.
Es folgen, zusammenfassend und ergänzend, einige Eigenschaften von Mikrosimulationen im
Vergleich zu Makrosimulationen.
18
Simuliert wird. . .
Die Zustandsvariable. . .
Abstraktionsunterschied zwischen Realtität und
mathematischen
Modell ist . . .
Rechenaufwand ist
...
Parameter. . .
Parameteridentifikation
ist. . .
Validierung/ Bestimmung
der
Richtigen Parameter ist. . .
Modelländerungen
sind. . .
Dadurch bedingt
ist eine exakte
Definition
der
Modellierung. . .
KAPITEL 2. GRUNDLAGEN
Mikrosimulation
das Agieren und Interagieren
der Subsysteme.
wird aus den Zuständen der
Subsysteme berechnet.
i.A. niedriger.
Makrosimulation
das Gesamtsystem.
Vorteil?
-
ist das direkte Resultat des
Modells.
i.A. höher.
-
i.A. groß. Simulation ist
ausschließlich computerunterstützt möglich
sind direkt vom Subsystem
ableitbar.
i.A. leichter, wenn individuelle Daten vorhanden sind.
i.A. kleiner als bei Mikrosimulation.
makro
müssen das Gesamtsystem
beschreiben.
i.A. leichter, wenn statistische Daten vorhanden sind.
-
oft schwieriger, da meist
mehr Parameter vorhanden
und deren Einflüsse schwieriger zu untersuchen sind
(u.a. durch Rechenaufwand).
meist durch Modifikation
weniger Codezeilen schon
möglich.
meist schwieriger, da die
Modellierungsart mehr Freiheiten zulässt.
meist leichter da oft Einflüsse der Parameter aus der
Theorie bekannt sind (z.B.
Störungstheorie).
makro
oft nur durch komplett neue
Modellansätze möglich.
mikro
meist leichter, da es oft eine
präzise Definition und Klassifikation der Modelltypen
gibt.
makro
mikro
-
Beide strukturellen Modellansätze haben also ihre Vor- und Nachteile. Umso wichtiger wäre
also eine geschlossene Theorie, die beide Ansätze miteinander verknüpft und qualitative bzw.
quantitative Vergleiche auf einer analytischen Ebene ermöglicht.
Die Definition 2.3.1 der Mikrosimulation ist sehr allgemein und legt primär noch nicht fest, mit
welcher Methode die Subsysteme si simuliert werden. Prinzipiell wäre dies z.B. sogar mit (gekoppelten) Differentialgleichungen möglich. I.A. ist man aber daran interessiert eine möglichst
große Anzahl an Subsystemen zu simulieren, was in diesem Fall zu einem gewaltigen Rechenaufwand führen würde. Im weiteren Verlauf der Arbeit ist vor allem die Mikrosimulation mit CT
Markov-Prozessen und die zeitdiskrete agentenbasierte Modellierung von großer Bedeutung.
2.3. MICRO MODELLING
2.3.1
19
Mikrosimulation mit CT Markov-Modellen
Definition 2.3.2 (Microsimulation mit CT Markov-Modellen).
Gegeben sei ein dynamisches System S, d.h. ein System, bei dem die Zustandsvariable Z(t) ∈ Ω
als Funktion in der Zeit auftritt, bestehend aus N ∈ N Subsystemen si . Die Zustandsvariable
jedes Subsystems folgt einem CT Markov-Prozess
zi (t) : [0, tend ] → Ωi .
Die Zustandsvariable Z(t) ergibt sich über eine Funktion aus den Zuständen der Subsysteme:
N
Z(t) := f (z1 (t), . . . , zN (t)) :
×
N
Ωi → f (
i=1
×Ω ) ⊆ Ω
i
i=1
Im weiteren Verlauf der Arbeit werden für CTDS Markov-Prozesse Funktionen f der Form
Zj (t) = f (z1 (t), . . . , zN (t)) :=
N
X
Ij (z(t))
i=1
mit der Indikatorfunktion I als Zustandsvariablen benutzt. Damit ergibt sich als Zustandsvektor
des Systems zeilenweise die Anzahl aller Agenten im selben Zustand.
Es sei an dieser Stelle bemerkt und auch bewiesen, dass Z ebenfalls einem Markov-Prozess folgt.
Satz 2.3.3 (Kombination von Markov-Prozessen).
Werden xi (t), i ∈ I mit |I| maximal abzählbar unendlich, von CT/DT CS/DS Markov-Prozessen
beschrieben, so folgt auch für jede Funktion f mit
N
Z(t) := f (z1 (t), . . . , zN (t)) :
×Ω
N
i
→ f(
i=1
× Ω ),
i
i=1
dass der Prozess Z(t) ebenso einem CT/DT CS/DS Markov-Prozess folgt.
Beweis: Zunächst folgt Z(t) auf jeden Fall einem zeitabhängiger stochastischer Prozess (Ist die
Funktion Konstant, so hat er einfach Varianz 0).
Seien nun tend ≥ ti > ti−1 > · · · > t0 ≥ 0 Zeitschritte so gilt durch die Markoveigenschaft
P (zk (ti ) = ai |(zk (tj ) = aj )j∈{0,...,i−1} ) = P (zk (ti ) = ai |zk (ti−1 ) = ai−1 ),
die Gedächtnislosigkeit des Prozesses für jedes Subsystem. Da nun aber
Z(t) := f (z1 (t), . . . , zN (t))
∀k ∈ {1, . . . , N }
20
KAPITEL 2. GRUNDLAGEN
gilt, gibt es eine messbare Funktion G (im Falle der einfachen Summe wäre das z.B. die Faltung
der Wahrscheinlichkeitsfunktionen), sodass sich die Wahrscheinlichkeitsfunktion
!!
N
P (Z(t) = Z) = G
× × P (z (t) = k)
i
i=1
k∈Ωi
und natürlich auch die bedingte Wahrscheinlichkeitsfunktion
P Z(ti ) = Zi | (Z(tj ) = Zj )j∈{0,...,i−1} =
N
= G̃
×
u=1
×
P zu (ti ) = ki | (zu (tj ) = kj )j∈{0,...,i}
!!
=
k1,...,i ∈Ωu
N
= G̃
×
u=1
×
!!
P (zu (ti ) = ki |zu (ti−1 ) = ki−1 )
ki−1,i ∈Ωu
als Funktion in den einzelnen Wahrscheinlichkeitsfunktionen schreiben lässt, und sich somit
auch der Prozess Z(t) als gedächtnislos herausstellt.
Satz 2.3.4 (Interagierende Agenten).
Der eben geführte Beweis bleibt gültig, wenn die bedingten Wahrscheinlichkeiten der einzelnen Agenten nicht nur vom Zustand des einzelnen Agenten abhängen, wie es bei klassischen
Markov-Prozessen üblich ist, sondern auch noch vom Zustandsvektor des aktuellen Zeitpunktes
abhängen dürfen. D.h. die Agenten dürfen auf gewisse Weise mit ihrer Umgebung kommunizieren. Diese Beobachtung ist eine der wichtigsten der ganzen Arbeit.
Manchmal wird eine zeitkontinuierliche Simulation dieser Art auch Agentensimulation genannt. Historisch gesehen, bzw. auch vom informatischen Standpunkt aus, soll in Folge aber
unter Agentenmodellierung etwas anderes verstanden sein.
2.3.2
Agentenbasierte Modellierung
Ein spezieller Subtypus unter den Mikromodellen wird als agentenbasierte Modellierung (oder
Agent-Based Modelling) bezeichnet. In Kapitel 1 wurde angesprochen, dass oftmals Fachvokabular im Bereich der Modellbildung und Simulation nicht einheitlich definiert und demnach
von Fachrichtung zu Fachrichtung unterschiedlich interpretiert wird. Der Begriff der agentenbasierten Modellierung ist genau ein solcher und ist dadurch bedingt unter Modellbildungsexperten heiß diskutiert. Während der implementations-fokussierte Informatiker unter diesem Begriff
stets einen Raster oder ein rechteckiges Gebiet mit sich darauf bewegenden und interagierenden Individuen im Kopf hat, definieren sich Mathematiker den Begriff teilweise auch ohne eine
räumliche Geometrie bzw. Topologie.
Auf Grund dieser Diversität wird an dieser Stelle auch keine präzise Definition dafür angegeben,
2.3. MICRO MODELLING
21
was ein agentenbasiertes Modell ist, oder was keines ist, sondern lediglich beschrieben, welche
Eigenschaften ein, für die Anwendung der Theorie in den Folgekapiteln taugliches Agentenmodell mindestens zu erfüllen hat (genauere Restriktionen folgen in den Theoriekapiteln). Diese
Grundeigenschaften sind sinngemäß aus der Definition eines Agenten aus [Mik12, 5-14] motiviert.
Definition 2.3.5 (Eigenschaften eines agentenbasierten Modells).
Hat eine Mikrosimulation die folgenden Eigenschaften, so wird sie im Verlauf der Arbeit als
agentenbasiertes Modell bezeichnet:
Die endlich vielen Subsysteme werden Agenten genannt
Jeder Agent ist eindeutig identifizierbar und handelt eigenständig.
Jeder Agent hat einen Zustand (Eigenschaft) in einem gemeinsamen endlichen Zustandsraum, der sich ändern kann.
Handelt nach Regeln, die es ihm erlauben, auch mit seiner Umgebung zu kommunizieren.
Da es im Laufe der weiteren Arbeit notwendig ist, wird die zeitliche Änderung hier präzisiert:
Das Modell wird zeit-diskret, d.h. in endlich vielen Zeitschritten, gerechnet.
Jeder Agent ist gedächtnislos. D.h. die Entscheidung über die Änderung des Zustands
wird ausschließlich anhand des aktuellen Zustandes bzw. der Zustände der anderen Agenten getroffen.
Vor allem die letzte Eigenschaft stellt eine enorme Restriktion dar, ist aber für die Modellvergleiche notwendig.
Das so definierte Modell ist ansonsten sehr frei definiert und umfasst fast alle gängigen Definitionen eines agentenbasierten Modells. Ein wenig präziser und auch einheitlicher lässt sich ein
zellulärer Automat definieren.
2.3.3
Zelluläre Automaten
Was im Fall des agentenbasierten Modells noch untergeordnete Rolle hatte, steht bei diesem
Modellierungstyp im Vordergrund : Der Raum selbst. Der Zwischenschritt des Agenten, der den
Raum besetzt und den Zustand mit sich trägt, fällt nun weg und dem Raum selbst wird im zellulären Automaten (englisch cellular Automata oder kurz CA genannt) der Zustand zugeordnet.
Obwohl es auch in diesem Bereich der Simulation unterschiedliche Definitionen gibt, differieren diese nicht so extrem, wie im Falle des Agentenmodells. Die Grundprinzipien der meisten
Definitionen sind hier sinngemäß wiedergegeben (siehe [PK12]).
22
KAPITEL 2. GRUNDLAGEN
Definition 2.3.6 (zellulärer Automat).
Sei Ω ein ein, in endlich viele vernetzte Parzellen ωi,j geteiltes, Gebiet so wird ein Modell
zellulärer Automat genannt, wenn gilt:
Das Modell wird zeitdiskret gerechnet.
Jeder Parzelle sei zu jedem Zeitpunkt ein Zustand ωi,j (t) ∈ {0, . . . , d} =: I zugeordnet
Jede Zelle besitzt ob der Vernetzung des Raumes eine gewisse Anzahl an Nachbarzellen.
Formal: es existiert eine Nachbarschaftsfunktion n(ωi,j ) mit
n : Ω → Ik : ωi,j 7→ ωi1 ,j1 (t) . . . ωik ,jk ,
die die sogenannte Nachbarschaft der Zelle definiert und als Rückgabewert die Zustände
der Nachbarzellen hat.
Der Zustand der Zelle ωi,j im Folgezeitschritt wird durch eine deterministische Überführungsfunktion U beschrieben, die von der Werten der Nachbarschaftsfunktion abhängt:
U : Ω → I : ωi,j 7→ U (n(ωi,j )) =: ωi,j (t + 1)
Für viele Bereiche der Modellbildung ist sogar diese sehr offene Definition zu streng und
wird oft erweitert. Z.B. lässt man oft auch stochastische Übergangsfunktionen, die von Zufallsvariablen abhängen, zu. Das ändert schlussendlich auch den Modelltyp von deterministisch auf
stochastisch und der Automat wird für die Theorie in den späteren Kapiteln interessant und verwendbar.
Da zelluläre Automaten jedoch nicht zum eigentlichen Kerngebiet der Arbeit gehören, wird hier
nicht näher darauf eingegangen.
KAPITEL
Master Gleichung
In diesem Kapitel wird der Kern jener Theorie erklärt, mit der im Anschluss agentenbasierte Modelle und Differentialgleichungsmodelle approximativ ineinander übergeführt werden. Als Basis
dient dazu die Theorie über CT Markov-Prozesse und Mikrosimulationen, insbesondere die im
Kapitel 2.1 besprochene Chapman-Kolmogorov Gleichung, auf der in Folge alles konstruktiv
aufbaut. Das wichtigste Werkzeug dazu wird die Taylorentwicklung sein, die es gestattet, eine
beliebige, hinreichend oft differenzierbare Funktion in ein Polynom bzw. in eine konvergente
Reihe zu entwickeln. Um Abschätzungen zu vereinfachen, bedient man sich der sogenannten
Landau Symbole:
Definition 3.0.7 (Landau Symbole).
f (h)
≤C
h
f (h)
f (h) = o(h) ⇔ lim
=0
h→0 h
f (h) = O(h) ⇔ ∃C :
Bevor man jedoch mit den Umformungen der Chapman-Kolmogorov Gleichung beginnen
kann fehlt noch der Begriff der Übergangsrate. Dieser ist eine zeitunabhängige Größe für die
Wechselwahrscheinlichkeit eines CTDS Markov-Prozesses von einem Zustand in einen anderen.
3.1
Existenz von Übergangsraten
Als Basis für die Umformungen werden für das Kapitel 3 zunächst feste Variablennamen und
Voraussetzungen definiert. Diese Liste wird im weiteren Verlauf der Arbeit verändert und erweitert und dient der Übersicht.
23
3
24
KAPITEL 3. MASTER GLEICHUNG
Bedingung 3.1.1.
(Voraussetzungen für Kapitel 3.1 und 3.2.)
Bezeichnung
X(t)
t, t1 , t2 , h ∈ [0, tend ]
i, j, k ∈ Ω = {0, 1, . . . , n}
P ((t2 , k)|(t1 , j))
k0 ∈ Ω
P ((t, k)|(0, k0 )) =: P (t, k)
Definition
CTDS Markov-Prozess (regulär, homogen)
Endliches Zeitintervall
Endlicher Zustandsraum des Markov-Prozesses
Wahrscheinlichkeit für X(t2 ) = k bedingt durch j bei t1 .
Anfangszustand des Markov-Prozesses
Kurzschreibweise
Die grundelegende Idee zur Einführung der sogenannten Übergangsrate ist, dass die, ohnehin stets zumindest durch dessen Anfangswert bedingte, Wahrscheinlichkeitsfunktion P eines
homogenen Markov-Prozesses nicht von der Zeit selbst abhängt, sondern lediglich von der Zeitdifferenz zwischen dem Zeitpunkt der Bedingung und dem aktuellen Zeitpunkt.
P ((t2 , k)|(t1 , j)) = P ((t2 − t1 , k)|(0, j))
Es liegt also Nahe die Wahrscheinlichkeitsfunktion bzgl. der Zeitdifferenz nach Taylor entwickeln zu wollen:
P ((t, k)|(0, j)) = P̃ ((0, k), (0, j)) + tP̃ 0 ((0, k)|(0, j)) + . . .
Man überlegt sich zunächst die Stetigkeit bzgl. der Zeit.
3.1.1
Stetigkeit von P
Satz 3.1.2.
Die bedingte Wahrscheinlichkeit P eines Markov-Prozesses, der die Bedingungen 3.1.1 erfüllt,
ist bzgl der Zeitdifferenz t zwischen Bedingung und aktuellem Zeitpunkt stetig.
Beweis: Einerseits ist der Prozess gemäß Vorraussetzung regulär. Damit gilt schon
lim P ((t, k)|(0, j)) = δk,j ,
t→0
und es folgt schon die Stetigkeit von P bzgl. der Zeitdifferenz bei t = 0. Diese würde zum
taylorentwickeln 0-ter Ordnung bereits genügen. Man kann jedoch auch einen Schritt weiter
gehen:
Sei > 0 beliebig, so folgt:
lim |P ((t, k)|(0, j)) − P ((t + , k)|(0, j))| =
→0
∗
3.1. EXISTENZ VON ÜBERGANGSRATEN
25
X
= lim P ((t, k)|(0, j)) −
P ((, k)|(0, i))P ((t, i)|(0, j)) ≤
∗ →0 i∈Ω
≤ lim
→0
X
i6=k
|P ((, k)|(0, i))| + |P ((, k)|(0, k))| · | P ((t, k)|(0, j)) − P ((t, k)|(0, j)) | = 0.
|
{z
}
=0
Die Gleichheit ∗ gilt durch die Chapman-Kolmogorov Gleichung. Damit ist die Funktion sogar
überall rechtsseitig stetig. Die linksseitige Stetigkeit folgt ganz analog.
3.1.2
Rechtsseitige Differenzierbarkeit von P bei 0
Um die Entwicklung fortzusetzen werden die Ausdrücke
lim
h→0+
P ((h, k)|(0, j)) − δj,k
P ((h, k)|(0, j)) − P ((0, k)|(0, j))
= lim
h→0+
h
h
untersucht.
Was ad hoc nicht klar ist, existieren diese Ausdrücke und werden gemeinhin Übergangsraten
genannt. Es gilt der folgende Satz:
Satz 3.1.3 (Existenz von Übergangsraten).
Ist X(t) ein homogener, regulärer CTDS Markov-Prozess, insbesondere also wenn er die Bedingungen 3.1.1 erfüllt, so gilt:
Die Limiten
P ((h, j)|(0, i))
ωi,j := lim
h→0+
h
und
P ((h, i)|(0, i)) − 1
h→0+
h
ωi,i := lim
existieren und werden als Übergangsraten bezeichnet.
Damit gilt
P ((h, j), (0, i)) = hωi,j + O(h2 ) und
P ((h, i), (0, i)) = 1 − hωi,i + O(h2 ).
Die Übergangsraten erfüllen überdies
X
ωi,j = 0.
j
Beweis: Der Beweis dazu (Großteils entnommen aus [Sch05]) ist sehr technischer Natur und
wird zu Übersichtszwecken in mehreren Schritten geführt.
S 1 Sei zunächst i 6= j betrachtet:
26
KAPITEL 3. MASTER GLEICHUNG
S 1.1 Bevor der Beweis geführt wird wollen (nur für diesen Beweis) einige Abkürzungen getroffen werden:
pi,j (t) := P ((t, j)|(0, i)) = P (X(t) = j|X(0) = i)
pki,j (v, h) := P (X(vh) = j, X(uh) 6= k∀1 ≤ k < j|X(0) = i)
Letztere ist für v ∈ N definiert.
Um gerade diesen Audruck ein wenig besser zu verstehen, kann man sich den Prozess mit
h zeitgetaktet in einer Art „Slot“-Notation vorstellen:
pi,j (vh) := P (X(kh)k∈{1,...,v} = [j, ·, ·, . . . , ·|i])
Wobei die zentralen Punkte illustrieren, dass diese Slots frei wählbar sind.
pki,j (vh) := P (X(kh)k∈{1,...,v} = [j, ¬k, ¬k, . . . , ¬k|i])
Ziel ist es nun, eine Formel zu finden, um pi,j (nh) alternativ auszudrücken. Klarerweise
ist
n−2
X
pi,j (nh) = P ([j, ·, . . . , ·|i]) =
P ([j, ·, . . . , ·, k, ¬k, ¬k, . . . , ¬k |i])+
|
{z
}
u=0
u
+P ([j, ¬k, . . . , ¬k|i]).
Die einzelnen Summanden lassen sich über den Satz für bedingte Wahrscheinlichkeit ausdrücken:
P (X(nh) = j|X(uh) = k, X((u − 1)h) 6= k, . . . , X(h) 6= k, X(0) = i) =
=
P (X(nh) = j, X(uh) = k, X((u − 1)h) 6= k, . . . , X(h) 6= k|X(0) = i)
.
P (X((u + 1)h) = k, X(uh) 6= k, . . . , X(h) 6= k|X(0) = i)
Die linke Seite der eben beschriebenen Gleichung wird nach der Markov-Eigenschaft nur
noch vom letzten Zustand bedingt. Umformung liefert:
P ([j, ·, . . . , ·, k, ¬k, ¬k, . . . , ¬k |i]) = pk,j ((n − u − 1)h)pki,k (u + 1, h)
|
{z
}
u
Man kann somit ersetzen:
pi,j (nh) =
n−2
X
pk,j ((n − u − 1)h)pki,k (u + 1, h) + pki,j (n, h)
(3.1)
u=0
Diese Formel gilt nun für beliebiges k ∈ Ω. Für k = j lässt sich der letzte Summand
durch pj,j (0) = 1 in die Summe ziehen:
pi,j (nh) =
n−1
X
u=0
pj,j ((n − u − 1)h)pji,j (u + 1, h).
3.1. EXISTENZ VON ÜBERGANGSRATEN
27
Für den letzten Term lässt sich eine ähnliche Aussage treffen wie der Satz von ChapmanKolmogorov, was hier, sehr ähnlich zum Beweis des Originalsatzes mit Integralen, in
„Slot“ Notation gezeigt ist. Es gilt
P ([j, ¬j, . . . , ¬j, i])
=
P ([i])
pji,j (n, h) = P ([j, ¬j, . . . , ¬j|i]) =
|
{z
}
n
n−1
}|
{
z
X P ([j, k, ¬j, . . . , ¬j, i]) X P ([k, ¬j, . . . , ¬j, i])P ([j|k])
=
=
,
P ([i])
P ([i])
k6=j
k6=j
nach dem Satz für bedingte Wahrscheinlichkeiten. Somit folgt
X j
pji,j (n, h) =
pi,k ((n − 1)h)pk,j (h).
k6=j
Setzt man dieses Resultat ein erhält man
pi,j (nh) =
n−1
X
pj,j ((n − u − 1)h)
u=0
≥ pi,j (h)
n−1
X
X
pji,k (u, h)pk,j (h) ≥
(3.2)
k6=j
pj,j ((n − u − 1)h)pji,i (u, h).
(3.3)
u=0
Aus (3.1) folgt außerdem
pi,i (uh) =
u
X
pj,i ((u − v)h)pji,j (v, h) + pji,i (u, h).
(3.4)
v=1
Diese Resultate (3.3) und (3.4) waren das Ziel des ersten Unterpunkts.
S 1.2 Aus der Regularitätseigenschaft der Wahrscheinlichkeiten kann man nun für ein beliebiges > 0 ein h0 finden, dass die Eigenschaften:
pi,j (h) < ,
1 − pi,i (h) < ,
1 − pj,j (h) < für alle h < h0 gelten. Kombiniert man nun die Endaussagen aus Punkt [1.1] und wählt
nh < h0 , erhält man
pi,j (nh) ≥ pi,j (h)
n−1
X
pj,j ((n − u − 1)h)pji,i (u, h) ≥
u=0
≥ pi,j (h)
n−1
X
u=0
(1 − )pji,i (u, h).
(3.5)
28
KAPITEL 3. MASTER GLEICHUNG
Aus Aussage (3.4) folgt
pji,i (u, h)
= pi,i (uh) −
u
X
pi,j ((u − v)h)pji,i (v, h) ≥
v=1
≥ pi,i (uh) −
≥1−−
max (pj,i ((u − v)h))
v∈{1,...,u}
u
X
u
X
pji,j (v, h) ≥
v=1
pji,j (v, h) ≥ 1 − 2.
v=1
Die letzte Summe ist stets kleiner gleich 1 da sogar
X j
pi,j (v, h) = P (Zustand j wird irgendwann angenommen|i)
v∈N
stets kleiner gleich eins ist. Setzt man diese Abschätzung nun in (3.5) ein, so erhält man
pi,j (nh) ≥ pi,j (h)
n−1
X
(1 − )(1 − 2) ≥ pi,j (h)n(1 − 3).
u=1
Damit ist man bereits fast am Ziel. Division durch nh liefert die Aussage:
Für alle > 0 existiert ein h0 sodass ∀h < h0 und alle n ∈ N gilt
pi,j (h)
pi,j (nh)
≥
(1 − 3)
nh
h
S 1.3 Sei nun und, ohnehin davon abhängig, h0 fest und angenommen, dass limh→0 pi,j (h)/h =
∞ so kann pi,j (h)/h durch Variation von h beliebig groß gemacht werden. Somit wird
nach der gezeigten Abschätzung auch pi,j (nh)/(nh) beliebig groß, unabhängig von der
Wahl von n. Sei nun n so gewählt, dass h0 /2 ≤ nh < h0 so folgt
pi,j (hn)/(hn) < /(hn) < 2/h0 .
Man erhält durch Widerspruch somit Beschränktheit und die Existenz von lim inf h→0 und
lim suph→0 des Ausdrucks, definiert nun als ai,j und bi,j . Gemäß Definition von lim sup
und lim inf erhält man sie als Limes zweier Teilfolgen
ai,j := lim pi,j (hak )/hak ,
k→∞
bi,j := lim pi,j (hbk )/hbk
k→∞
mit Nullfolgen hak und hbk . Gemäß Annahme gilt für den Quotienten
ai,j
pi,j (hak )hbk
= lim
.
k→∞ pi,j (hbk )hak
bi,j
Klarerweise kann man sich die beiden Folgen streng monoton fallend und hbk < hak
definieren. Genauso sei der Quotient hak /hbk = O(1) definiert (z.B. über Teilfolgen).
Man kann nun Chapman-Kolmogorov benutzen und erhält:
X pi,m (hb )pm,j (ha − hb )hb
ai,j
k
k
k
k
= lim
=
k→∞
bi,j
p
(h
)h
i,j
a
b
k
k
m
3.1. EXISTENZ VON ÜBERGANGSRATEN
29


hbk  X pi,m (hbk )pm,j (hak − hbk )
= lim
+ pj,j (hak − hbk )
k→∞ hak
pi,j (hbk )
m6=j
Da alle Limiten existieren müssen, kann man den Ausdruck zerlegen und getrennt zum
Limes übergehen.


X
−
h
)
p
(h
)p
(h
ai,j
h
i,m bk m,j ak
bk 
b
= lim  k
+1=
k→∞
bi,j
hak
pi,j (hbk )
m6=j
X pi,m (hb )pm,j (ha − hb )
k
k
k
+1≥1
k→∞
pi,j (hbk )
= lim
m6=j
Man erhält somit ai,j /bi,j ≥ 1. Da aber stets lim inf ≤ lim sup gilt folgt hier ai,j =
bi,j . Somit muss lim sup = lim inf = lim gelten und damit ist die Existenz des Limes
bewiesen. Da er als Quotient zweier positiver Zahlen entsteht, muss er auch positiv sein.
Man erhält die Existenz einer positiven Übergangsrate ωi,j .
S 2 Ausgehend von der Existenz der Übergangsraten ωi,j mit i 6= j ist nun die Existenz der
Rate ωi,i zu zeigen.
P
X pi,j (h)
1 − j6=i pi,j (h) − 1
pi,i (h) − 1
=
=−
h
h
h
j6=1
Da die Limiten aller Summanden existieren, folgt einerseits die Existenz des Limes
p (h)−1
limh→0+ i,i h
und andererseits sofort die Formel
X
ωi,i = −
ωi,j < 0.
(3.6)
j6=i
Die Aussage (3.6) ist wichtig und wird in den Folgekapiteln noch des öfteren verwendet.
Mithilfe von
pi,j (h) − pi,j (0) − hωi,j
lim
=0
h→0
h
folgt schon pi,j (h) = δi,j + hωi,j + o(h). Für die Folgerung
pi,j (h) = δi,j + hωi,j + O(h2 )
sei auf die Literatur ( [Sch05]) verwiesen.
Bemerkung 3.1.4.
Anzumerken ist, dass hier ob des Definitionsbereiches der Funktion nur ein einseitiger Grenzwert gefordert ist. Die Eigenschaft, die zu zeigen war, ist somit nicht äquivalent zur stetigen
Differenzierbarkeit der bedingten Wahrscheinlichkeit bei 0 und schon gar nicht zur Differenzierbarkeit der Funktion P selbst. Sie ist aber dennoch nicht trivial (vgl. Wurzelfunktion).
30
KAPITEL 3. MASTER GLEICHUNG
Ist eine Übergangsrate ωj,k von einem Zustand in einen anderen groß, so bedeutet das, dass
der Prozess stark tendiert, in diesen Zustand zu wechseln. Ist sie klein, ist wohl eher ein anderer
Zustand bevorzugt, oder der Prozess wird länger in seinem Zustand bleiben. Ist die Übergangsrate ω·,k = 0 so wird der Prozess fast sicher nicht in den Zustand k übergehen. Ist andererseits
ωk,k = 0 so wird der Prozess diesen Zustand fast sicher nicht mehr verlassen. Ist im Gegenteil
dazu ωk,k << 0 stark negativ, wird der Zustand k mit hoher Wahrscheinlichkeit bereits nach
sehr kurzer Zeit wieder verlassen.
Bemerkung 3.1.5.
Der Begriff der Übergangsrate lässt sich auch auf CS Markov-Prozesse erweitern. Man bezeichnet die resultierende stetige Funktion ω(i, j) in diesem Fall Übergangskern.
Man kann schon erkennen, dass die Übergangsraten allein bereits den Verlauf des MarkovProzesses bestimmen. Mehr noch wird das in der sogenannten Mastergleichung deutlich.
3.2
Mastergleichung
Mit den Voraussetzungen 3.1.1 und dem Wissen über die Existenz von Übergangsraten ωi,j
lässt sich nun die Chapman-Kolmogorov Gleichung umformen. Es folgt daraus die sogenannte
Mastergleichung.
Satz 3.2.1 (Mastergleichung/ Master Equation).
Die Wahrscheinlichkeitsfunktion P (t, j) eines homogenen, regulären, CT Markov-Prozesses ist
stetig nach der Zeit differenzierbar.
Die Ableitung erfüllt im ortskontinuierlichen Fall
Z
dP (t, j)
=
P (t, k)ωk,j − P (t, j)ωj,k dk, j ∈ Ω, t > 0,
dt
Ω
wobei die Übergangsraten hier als Übergangskerne verstanden sein mögen, oder im ortsdiskreten
Fall
n
dP (t, j) X
=
P (t, k)ωk,j − P (t, j)ωj,k , j ∈ Ω = {0, . . . , n}, t > 0
dt
k=0
die sogenannte Mastergleichung.
Beweis: In diesem Abschnitt ist nur der ortsdiskrete Fall bewiesen da in Folge nur noch dieser
benötigt wird. 1 Den ortskontinuierlichen Fall kann man analog zeigen.
1
Der Beweis ist dem Buch [Aok02] nachempfunden
3.2. MASTERGLEICHUNG
31
Nach der Gleichung von Chapman-Kolmogorov und dem Satz der totalen Wahrscheinlichkeit
gilt
X
P (t + h, j) =
P ((h, j)|(0, k))P (t, k) =
k∈Ω
=
X
P ((h, j)|(0, k))P (t, k) + P ((h, j)|(0, j))P (t, j) =
k6=j

=
X
P ((h, j)|(0, k))P (t, k) + 1 −
k6=j
= P (t, j) +

X
P ((h, k)|(0, j)) P (t, j) =
k6=j
X
P (t, k)P ((h, j)|(0, k)) − P (t, j)P ((h, k)|(0, j)).
k6=j
Geht man zur Schreibweise mit Übergangsraten über, so erhält man
X
P (t + h, j) − P (t, j) =
P (t, k)hωk,j − P (t, j)hωj,k + O(h2 ).
k6=j
Division durch h und der Limes h → 0 liefert den rechtsseitigen Differenzialquotienten. Da
P (t, k)ωk,k − P (t, k)ωk,k = 0 gilt, kann man den ausgeklammerten Summanden optional noch
dazunehmen, da es die Schreibweise vereinheitlicht.
Geht man von P (t, j) aus und führt die Chapman-Kolmogorov Gleichung für P (t − h, ·) aus,
erhält man, unter Ausnutzung der Stetigkeit von P , den linksseitigen Differenzialquotienten, der
mit dem rechtsseitigen übereinstimmt.
Bemerkung 3.2.2.
Im ortsdiskreten Fall lässt sich diese Differentialgleichung auch wie folgt in Matrixform schreiben.
P 0 (t) = QP (t)
Dabei gilt P := [P (t, 0), P (t, 1), . . . , P (t, n)]T und
ωi−1,j−1 , i 6= j
P
Q := (qi,j ) :=
− k6=i−1 ωi−1,k = ωi−1,i−1 ,
i=j
.
(Kolmogorov’sche Rückwärtsgleichung)
Lösungen dieser erfüllen überdies
P 0 (t) = P (t)Q.
(Kolmogorov’sche Vorwärtsgleichung)
Die Matrix Q wird klassisch als Übergangsmatrix bezeichnet.
Man erhält die vermutete Aussage, dass Markov-Prozesse von ihren Übergangsraten eindeutig bestimmt sind. Ausgehend von einer Anfangsdichte kann man also für jeden Zustand und
jede Zeit durch das DG-System die Wahrscheinlichkeitsdichte berechnen und benötigt lediglich
Wissen über die Anfangskonfiguration und die Übergangsraten. Man befindet sich an dem in
32
KAPITEL 3. MASTER GLEICHUNG
Kapitel 2 erwähnten Punkt, dass mit rein analytischen Mitteln die Verteilung des stochastischen
Modells errechnet werden könnte.
Leider ist im allgemeinen die Anzahl der Zustände sehr groß und die Differentialgleichung stark
gekoppelt, womit sie kaum lösbar wird. Nachdem das Prinzip im Anschluss auf agentenbasierte
Modellierungen angewendet werden soll, kann man aber die Gleichung sowie die Bedingungen
3.1.1 weiterentwickeln.
3.3
3.3.1
Kramers Moyal Entwicklung
Voraussetzungen
Man betrachtet nun ein mikroskopisches Modell bestehend aus N Agenten A1 , . . . , AN mit
gemeinsamen endlichen Zustandsraum {0, 1, . . . , d}, wobei der Zustand jedes dieser Agenten
einem CTDS Markov-Prozess m1 (t), . . . , mN (t) folgt.
mi (t) : [0, tend ] → {0, 1, . . . , d}
Nachdem als Ergebnis der stochastischen Mikrosimulation kaum der Pfad eines einzelnen MarkovProzesses von Interesse ist, sei die Zustandsvariable Xk (t) definiert als die Summe aller Agenten
im selben Zustand zum Zeitpunkt t.
Xk (t) :=
N
X
δmi (t),k
i=1
Wie bewiesen, ist auch dieser Prozess markovsch, und gemäß Satz 2.3.4 dürften die Übergangsraten dieser Agenten auch vom Zustandsvektor abhängen. Es sind also Markov-Prozesse mit
bedingten Wahrscheinlichkeiten der Form
~
P (mi (t + h) = j) = P (mi (t + h) = j|mi (t), X(t))
zulässig. D.h. insbesondere dürfen auch die Übergangsraten vom Zustandsvektor abhängen.
Es gilt nun
Xk : [0, tend ] → {0, . . . , N }.
Des weiteren wird in Folge bevorzugt der zugehörige normierte Markov-Prozess betrachtet
xk (t) =
Xk (t)
: [0, tend ] → {0, N −1 , . . . , 1},
N
dessen Wahrscheinlichkeitsfunktion bzw. Dichte pk nun „fast“ schon stetig auf [0, 1] ist.
In Folge wird die eben erwähnte Dichte pk des normierten Prozesses nach allen Regeln der Kunst
auf vielerlei Arten Taylor-entwickelt und umgeformt, ohne das tatsächlich tun zu dürfen. Die
Dichte (Wahrscheinlichkeitsfunktion) ist für endliches, wenn auch großes, N immer noch lediglich auf einer diskreten Menge definiert und dementsprechend natürlich nirgends bzgl. der
Ortsvariablen differenzierbar. Diese Probleme lassen sich zwar mit Interpolationsargumenten
unter Inkaufnahme von gewissen Fehlern außer Kraft setzen, doch verwirren diese an dieser
3.3. KRAMERS MOYAL ENTWICKLUNG
33
Stelle nur. Dafür sei auf das Kapitel 3.5 verwiesen. Man setzt also zum jetzigen Zeitpunkt
einfach hinreichende Regularität der Dichte vorraus, womit die Interpolationsbedingungen
hinterher auf natürliche Weise entstehen und nachvollziehbarer sind.
Zusätzlich wird der Beweis bzw. die Entwicklung dem Buch [Aok02] nachempfunden, zunächst
für ein eindimensionales Problem geführt - d.h. mk (t) = 0 oder 1 D.h. es existieren genau zwei
Zustände, wobei der Zustandsvektoreintrag des zweiten Zustandes aus jenem des Ersten folgt.
Der mehrdimensionale Fall ist unübersichtlich, funktioniert aber analog. Diese Resultate werden
im Kapitel 5 behandelt.
Bedingung 3.3.1.
(Voraussetzungen für Kapitel 3.3.)
Bezeichnung
N
A1 , . . . , A N
m1 (t), . . . , mN (t)
mk (t) : [0, tend ] → {0, 1}
P
X(t) = N
i=1 δmi (t),1
P (k, t) : {0, 1, . . . , N } × [0, tend ] → [0, 1]
x(t) := X(t)
N
−1
p(kN , t) ∈ C ∞ ([0, 1] × [0, tend ], [0, 1])
i, j, k ∈ {0, 1, . . . , N }
x, y, z ∈ [0, 1]
ωk,j
ωk,j = ω(k, j) : {1, . . . , N }2 → R
X(0) = k0 , x(0) = kN0 = x0
Definition
Anzahl der Agenten/Markov-Prozesse
Agenten
Markov-Prozesse
Raum der Prozesse
Anzahl der Agenten im Zustand 1
Wahrscheinlichkeitsfunktion von X(t)
normierter Prozess
Dichte des normierten Prozesses
unter Vorraussetzung von Regularität
und Anfangswert
Variablen aus dem Zustandsraum
Variablen aus dem erweiterten,
normierten Raum
Übergangsraten der Zustandvariable X(t)
Definitions/Zielbereich der Raten
Anfangswert der Prozesse
Nutzt man nun die Eigenschaft, dass p, wie in 3.5 definiert 2 , immer noch Wahrscheinlichkeitsfunktion eines DS Markov-Prozesses ist, gilt für diese genauso die Mastergleichung
X
p0 (t, x) =
p(t, y)ω̃y,x − p(t, x)ω̃x,y , ∀x ∈ {0, N −1 , . . . , 1}.
(3.7)
y6=x,y∈{0,N −1 ,...,1}
Hierbei steht ω̃ für die Übergangsraten des normierten Prozesses.
Bemerkung 3.3.2.
Überdies ist hier, sowie auch in Folge, die Variable x nicht mit dem Prozess selbst zu verwechseln. Die Wahl der Variable führt darauf zurück, dass x am besten den Raum-Unterschied
verdeutlicht, da es nun im Gegensatz zu k für eine kontinuierliche Größe steht.
2
N
−1
d.h. die Werte der interpolierten Dichte und der diskreten Wahrscheinlichkeitsfunktion stimmen bei allen
k bis auf einen sich kürzenden Faktor N überein
34
KAPITEL 3. MASTER GLEICHUNG
Überlegt man sich nun, dass
X(t)
k X(0)
k0
P (X(t) = k|X(0) = k0 ) = P
= |
=
= x0 = p x(t) = N −1 k|x(0) = x0
N
N N
N
gilt, lassen sich die Übergangsraten des normierten und des ursprünglichen Markov-Prozesses
trivial ineinander überführen.
ω̃x,y = ωN x,N y
Es gilt somit
p0 (t, x) =
X
p(t, y)ωN y,N x − p(t, x)ωN x,N y ,
∀x ∈ {0, N −1 , . . . , 1}.
y6=x,y∈{0,N −1 ,...,1}
3.3.2
Taylorentwicklung
Gegen Mitte des 19.Jahrhunderts entwickelten der niederländische Physiker Hendrik Kramers
und der in Jerusalem geborene Australier José Enrique Moyal die Idee, die Dichtefunktion in
ihrer Mastergleichung (dort in Integralform), die bei deren Arbeit durch Aufenthaltswahrscheinlichkeiten von „Random-Walk“-Teilchen entstand, bzgl. der Sprungweite in eine Taylorreihe zu
entwickeln.
Definition 3.3.3 (Sprungweite).
Die Sprungweite R für einen CTDS Markov-Prozess, der in einem Zeitpunkt die Möglichkeit
hat, vom Zustand k in den Zustand j überzugehen, ist definiert als
R := k − j
Damit erhält man für N x − N y = R die Taylorreihenentwicklung:
p(t, y)ωN y,N y+R =
−R ∂p(t, x)ωN x,N x+R (−R)2 ∂ 2 p(t, x)ωN x,N x+R
+
+ ...
N
∂x
2N 2
∂x2
Die Taylorreihenentwicklung kann man im Fall von Kramers und Moyal auch sinngemäß rechtfertigen, da nicht anzunehmen ist, dass sich Teilchen innerhalb eines kleinen Zeitintervalls sehr
weit von ihrem Ausgangspunkt entfernen. Auch hier ist diese Rechtfertigung durchaus zutreffend, wenn man annimmt, dass sich die Zustandsvariable der Mikrosimulation weitestgehend
stabil verhält. Später wird dieser Gedanke sogar noch erweitert.
Setzt man die Taylorentwicklung in die Mastergleichung ein, so erhält man


X X (−R)m ∂ m p(t, x)ωN x,N x+R
 − p(t, x)ωN x,N x−R =

p0 (t, x) =
m!N m
∂xm
= p(t, x)ωN x,N x+R +
R6=0
m≥0
3.4. FOKKER-PLANCK-GLEICHUNG
= p(t, x)
X
35
(ωN x,N x+R − ωN x,N x−R ) +
R6=0
|
{z
}
I
X X (−R)m ∂ m p(t, x)ωN x−R,N x
.
m!N m
∂xm
R6=0 m>0
|
{z
}
II
I Da über alle R 6= 0 Summiert wird vereinfacht sich Ausdruck I zu
X
X
X
(ωN x,N x+R − ωN x,N x−R ) =
ωN x,N x+R −
ωN x,N x+R = 0.
R6=0
R6=0
R6=0
II Der einzig übrige Teil der Gleichung ist dann
X X (−R)m ∂ m p(t, x)ωN x,N x+R
=
m!N m
∂xm
R6=0 m>0
=
X
m>0
m
1 ∂ p(t, x)
m!N m
P
m
R6=0 (−R) ωN x,N x+R
.
∂xm
Die Gleichung
0
p (x, t) =
X
m>0
m
1 ∂ p(t, x)
m!N m
P
R6=0 (−R)
∂xm
mω
N x,N x+R
,
∀x ∈ {0, N −1 , . . . , 1}
(3.8)
war das Ziel dieser Entwicklung. Man beachte hier for allem, wie das N in negativer Potenz
vorkommt, und geschlossene Momentenfunktionen mit den Übergangsraten entstehen.
Ähnlich wie für die Dichte selbst, muss ab sofort auch von den Übergangsraten stetige Differenzierbarkeit bzgl. x verlangt werden. D.h.:
ωN x,N x+R = ω(x, R) : [0, 1] × {R1 , R2 , . . . , RN } → R, ω ∈ C ∞ ([0, 1], R).
Sinngemäß seien die Voraussetzungen 3.3.1 erweitert. Rechtfertigung für die Differenzierbarkeit
liefert ein Interpolationsargument, welches in Kapitel 3.5 zu finden ist.
3.4
3.4.1
Fokker-Planck-Gleichung
Polynomdarstellung für die Übergangsraten
Ziel dieses Unterkapitels ist es nun, die komplette Abhängigkeit von N aus den Übergangsraten
herauszuziehen. Hierzu verlangt man von den mittlerweile als stetig differenzierbar vorausgesetzten Übergangsraten die folgende Darstellungsform:
Bedingung 3.4.1.
ωN x,N x+R = f (N )(Φ1 (x, R) + N −1 Φ2 (x, R) + N −2 Φ3 (x, R) + . . . )
mit f (N ) > 0 und Φi (x, R) mindestens zweimal stetig differenzierbar, beschränkt und unabhängig von N . In den meisten Fällen gilt f (N ) = N oder f (N ) = 1.
36
KAPITEL 3. MASTER GLEICHUNG
Diese Bedingung ist nicht besonders scharf. Meistens treten die Raten ohnehin als Polynome
in N auf und lassen sich dementsprechend nach N −1 Taylor-entwickeln.
Einsetzen in die umgeformte Mastergleichung 3.8 liefert:
X f (N ) ∂ m p(t, x)
p0 (x, t) =
m!N m
m
R6=0 (−R) (Φ1 (x, R)
∂xm
P
m>0
+ N −1 Φ2 (x, R) + . . . )
.
Mittlerweile wird der Grundgedanke, mit dem diese Umformungen verbunden sind, klar. Einerseits sind für große Agentenzahlen N die Ausdrücke N −k , k ∈ N klein, und durch die beschränkten und von N unabhängigen Funktionen kann man Abschätzungen mit O(N −k ) durchführen. Andererseits entwickelt man auf diese Art und Weise Gleichungen, die nur noch direkt
von der Agentenzahl abhängen, sodass deren Lösungen für unterschiedliche Agentenzahlen vergleichbar werden.
Den gegebenenfalls störenden Term f (N ) eliminiert man mit der Zeittransformation:
τ=
f (N )
t.
N
(3.9)
Da die entstehende Ableitung nur auf der linken Seite durch die innere Ableitung einen neuen
Term hervorbringt, der sich mit einem Term auf der rechten Seite kürzt, erhält man:
X
∂ m p(τ, x)
1
∂p(x, τ )
=
∂τ
m!N m−1
P
R6=0 (−R)
m (Φ
1 (x, R)
∂xm
m>0
+ N −1 Φ2 (x, R) + . . . )
(3.10)
Selbst, wenn man nun Terme mit negativer Potenz in N vernachlässigte, erhielte man „ nur “
eine partielle Differenzialgleichung. Um das in den Griff zu bekommen, bedient man sich eines
Tricks.
3.4.2
Substitution der Variable x
Man definiere eine Funktion (Zufallsvariable) ξ(τ ) und eine Hilfsfunktion φ(τ ), beide mindestens einmal stetig differenzierbar, durch
1
x = φ(τ ) + N − 2 ξ
Die bislang unabhänige Variable wird damit auf einmal zeitabhängig. Um die Zerlegung eindeutig zu definieren, müssen zunächst die Startwerte φ(0), ξ(0) bestimmt werden. Da zum Zeitpunkt
1
0 der Markov-Prozess den Wert x0 fast sicher annimmt gilt auf jeden Fall x0 = φ(0)+N − 2 ξ(0).
Es macht also Sinn
φ(0) = x0 , und ξ(0) = 0 fast sicher
zu definieren. Die Dichte p(τ, x) wird nun unter
1
Π(τ, ξ) := p(τ, φ(τ ) + N − 2 ξ(τ ))
3.4. FOKKER-PLANCK-GLEICHUNG
37
weitergeführt. Zusätzlich gilt die Gleichung:
0=
1 ∂ξ(τ )
∂φ(τ )
+ N−2
.
∂τ
∂τ
Vor den allerletzten Umformungen werden noch einmal die gesammelten Voraussetzungen und
Bedingungen zusammengefasst.
Bedingung 3.4.2.
(Voraussetzungen für Kapitel 3.4.2.)
Bezeichnung
N
A1 , . . . , AN
m1 (t), . . . , mN (t)
mk (t) : [0, tend ] → {0, 1}
P
X(t) = N
i=1 δmi (t),1
P (k, t) : {0, 1, . . . , N } × [0, tend ] → [0, 1]
x(t) := X(t)
N
−1
p(kN , t) ∈ C ∞ ([0, 1] × [0, tend ], [0, 1])
i, j, k ∈ {0, 1, . . . , N }
x, y, z ∈ [0, 1]
R := k − j = N y − N x
ωk,j
ωk,j = f (N )(Φ1 (x, R) + N −1 Φ2 (x, R) + . . . )
Φi (x, R) : [0, 1] × {R1 , . . . } → [−c, c]
Φi ∈ C ∞ ([0, 1], [−c, c])
X(0) = k0 , x(0) = kN0 = x0
τ = N −1 f (N )t
1
x = φ(τ ) + N − 2 ξ(τ )
Π(τ, ξ) := p(τ, x)
φ(0) = x(0), ξ(0) = 0
Definition
Anzahl der Agenten/Markov-Prozesse
Agenten
Markov-Prozesse
Raum der Prozesse
Anzahl der Agenten im Zustand 1
Wahrscheinlichkeitsfunktion von X(t)
normierter Prozess
Dichte des normierten Prozesses
unter Vorraussetzung von Regularität
und Anfangswert
Variablen aus dem Zustandsraum
Variablen aus dem erweiterten,
normierten Raum
Sprungweite
Übergangsraten der Zustandvariable X(t)
Polynomdarstellung der Raten
beschränkt und
stetig differenzierbar
Anfangswert der Prozesse
Zeittransformation
Substitution
neue Dichte
Anfangswert
Nach der Kettenregel lassen sich die Ableitungen nun neu bestimmen
1
∂p(φ(τ ) + N − 2 ξ(τ ), τ )
∂Π(ξ, τ ) ∂ξ(τ ) ∂Π(ξ, τ )
=
+
=
∂τ
∂ξ
∂τ
∂τ
√ ∂Π(ξ, τ ) ∂φ(τ ) ∂Π(ξ, τ )
=− N
+
.
∂ξ
∂τ
∂τ
38
KAPITEL 3. MASTER GLEICHUNG
Die letzte Gleichheit ist der Schlüssel dazu, eine gewöhnliche Differentialgleichung von der
partiellen DG 3.10 abzuspalten. Desweiteren gilt
!m
√
1
∂ m p(φ(τ ) + N − 2 ξ(τ ), τ )
∂ m Π(ξ, τ ) ∂ N (x − φ)
=
=
∂xm
∂ξ m
∂x
=
∂ m Π(ξ, τ ) m
N2.
∂ξ m
Einsetzen in 3.10 liefert
m
=
X
m>0
N2
m!N m−1
√ ∂Π(ξ, τ ) ∂φ(τ ) ∂Π(ξ, τ )
+
=
− N
∂ξ
∂τ
∂τ
P
∂ m Π(τ, ξ) R6=0 (−R)m (Φ1 (x, R) + N −1 Φ2 (x, R) + . . . )
X N − m2 +1 ∂ m Π(τ, ξ)
=
m!
m>0
∂ξ m
m
R6=0 (−R) (Φ1 (x, R)
∂ξ m
P
+ N −1 Φ2 (x, R) + . . . )
=
.
Man erkennt leider immer noch störende x Terme innerhalb der Übergangsraten. Diese werden
ebenfalls mittels Taylorentwicklung von x bei φ(τ ) eliminiert:
1
Φi (x, R) = Φi (φ(τ ), R) + N − 2 ξ(τ )(Φi )x (φ(τ ), R) + O(N −1 )
Ab dieser Stelle kann man die Gleichung auf Grund ihres Umfanges nicht mehr in ihrer Gesamtheit betrachten. Man erkennt innerhalb der unendlichen √
Summen genau einen Term, sowohl
links, als auch rechts, der eine postive Potenz in N , genauer N , als Faktor hat, und einen Term
1
links sowie zwei Terme rechts der Ordnung N 0 . Alle weiteren Terme sind zu einem O(N − 2 )
zusammengefasst:


X
√ ∂Π ∂φ ∂Π √
∂Π
− N
+
= N
Φ1 (φ, R)(−R) +
∂ξ ∂τ
∂τ
ξ
R6=0


2
X
X
1
∂Π
∂ Πξ
+
(Φ1 )x (φ, R)(−R) +
Φ1 (φ, R)(−R)2  + O(N − 2 )
∂ξ
∂ξ 2
R6=0
3.4.3
R6=0
Resultierende Gleichungen
Die wichtigste Aussage dieser Gleichung ist nun, dass bei einem Koeffizientenvergleich bzgl. N
der Terme höchster Ordnung die partielle Ortsableitung der Dichte Π wegfällt und nur noch der
Term
X
∂φ
=
Φ1 (φ, R)R
(3.11)
∂τ
R6=0
3.5. INTERPOLATION
39
übrig bleibt. Die Lösung dieser ODE erster Ordnung liefert nun den zeitlichen Verlauf der Kurve
φ mit Anfangswert φ(0) = x0 bei bekannten Übergangsraten für X. Die Bedeutung und Wichtigkeit dieser Kurve wird im Kapitel 4 besprochen.
Hat man die Lösung der Gleichung 3.11 gefunden, so dominieren in der partiellen DG nur noch
die Terme 0-ter Ordnung. Man erhält
∂Π
∂Π X
∂ 2 Πξ X
=
(Φ1 )x (φ, R)(−R) +
Φ1 (φ, R)(−R)2 .
(3.12)
∂τ
∂ξ
∂ξ 2
R6=0
R6=0
Diese partielle Differentialgleichung erlaubt es nun, sofern sie lösbar ist, eine mit Ordnung
1
N − 2 approximative Lösung der Dichte p(t, x) zu ermitteln, indem man hinterher die Argumente rücksubstituert. Gleichungen dieser, bzw. erweitert definiert sogar der Form
∂u(x, t)
∂u(x, t)a(x, t) ∂ 2 u(x, t)b(x, t)
=
+
∂t
∂x
∂x2
werden klassischerweise Fokker-Planck-Gleichung genannt. Es seien aus diesem Anlass die
Größen:
X
α(φ) :=
Φ1 (φ, R)R ⇒ φτ = α(φ)
R6=0
und
αx (φ) := −
X
(Φ1 )x (φ, R)R, β(φ) :=
R6=0
1X
Φ1 (φ, R)R2
2
R6=0
definiert.
⇒ Πτ = (Πξ)ξξ β(φ) + Πξ αx (φ)
Es ist nun an der Zeit, die durchgeführten Umformungen, respektive die Bedingungen 3.3.1 und
3.4.2 zu rechtfertigen.
3.5
3.5.1
Interpolation
Histogramm
Geht man lediglich von den Bedingungen 3.1.1 aus, sind sämtliche Umformungen der Mastergleichung, die im Anschluss vorgenommen wurden, schlichtweg falsch. Einerseits wurde die
gemäß 3.1.1 als diskrete Wahrscheinlichkeitsfunktion definierte Dichte p(t, x) als beliebig oft
stetig bzgl. der Ortsvariable differenzierbar angenommen. Andererseits wurde selbiges in 3.4.2
auch von den Raten gefordert. Es wird nun gezeigt, dass die Mastergleichung nicht zwingend
auf die diskrete Dichte p angewandt werden muss, damit das Resultat schlussendlich für alle
diskreten Werte aus dem Zustandsraum von x(t) korrekt ist und trotzdem Aussagen über die
diskrete Wahrscheinlichkeitsfunktion zulässig sind. Es wird in Folge das Zeitargument, da nicht
von Bedeutung, in diesem Kapitel meist weggelassen.
Im Allgemeinen führt der Weg von der diskreten Wahrscheinlichkeitsfunktion zu einer kontinuierlichen Dichte nicht an der Diracverteilung bzw. dem Begriff der Deltadistibution vorbei.
Ist
−1
p : 2{0,N ,...,1} → [0, 1] : A 7→ p(A)
40
KAPITEL 3. MASTER GLEICHUNG
eine diskrete Wahrscheinlichkeitsfunktion, so ist
pd : [0, 1] → [0, 1] :
X
x 7→ pd (x) :=
p(k)δ0 (x − k)
k∈{0,N −1 ,...,1}
die zugehörige Dichtefunktion auf dem erweiterten kontinuierlichen Bereich [0, 1], denn es gilt
Z
X
pd (x)dx =
p(x) = p(A).
A⊆{0,N −1 ,...,1}
x∈A
In diesem Fall wählt man jedoch einen anderen Zugang. Man definiere:
pcont : [−
1
1
,1 +
] → [0, 1] :
2N
2N
X
1[k−
x 7→ pcont (x) :=
k∈{0,N −1 ,...,1}
1
2N
1 (x)N p(x)
,k+ 2N
]
Die so definierte, kontinuierliche (wenn auch noch lange nicht differenzierbare) Funktion erfüllt
Z
1
kN −1 + 2N
1
kN −1 − 2N
pcont (x)dx = p(kN −1 )
sowie
Z
1
1+ 2N
1
− 2N
pcont (x)dx = 1 =
N
X
p(kN −1 ) = p(Ω).
k=0
Sie ist also eine Wahrscheinlichkeitsdichte. Am leichtesten stellt man sich dieses Konstrukt in
Form eines Histogrammes dar. Eine Skizze dazu findet sich in Abbildung 3.1.
Um die weitere Vorgehensweise rechtzufertigen sei noch einmal daran erinnert, dass das Ziel
des Verfahrens ist, ein besseres Verständnis der Verteilung zu gewinnen. Insbesondere also sind
die Größen Erwartungswert und Varianz von Bedeutung.
Definition 3.5.1 (Erwartungswert einer Zufallsvariable).
Sei X eine Zufallsvariable auf Ω verteilt mit Dichte (Wahrscheinlichkeitsfunktion) P so bezeichnet man die deterministische Größe
Z
E(X) := P (X)XdX
Ω
als Erwartungswert der Zufallsvariable. Ist Ω diskret, so geht das Integral bzgl. dem Zählmaß in
eine Summe über.
3.5. INTERPOLATION
41
Definition 3.5.2 (Varianz einer Zufallsvariable).
Sei X eine Zufallsvariable auf Ω verteilt mit Dichte(Wahrscheinlichkeitsfunktion) P so bezeichnet man die deterministische Größe
Z
V(X) := P (X)(X − E(X))2 dX
Ω
als Varianz der Zufallsvariable. Ist Ω diskret, so geht das Integral bzgl. dem Zählmaß in eine
Summe über.
Das Besondere an der Wahl der, auf diese Art kontinuierlich definierten, Dichte ist nun, dass
Erwartungswert und Varianz mit nur kleinen Fehlern (N sei weiterhin als „groß“ angenommen)
erhalten bleibt: Sei xcont eine mit der Dichte pcont Verteilte, kontinuierliche Zufallsvariable mit
1
1
Werten in [− 2N
, 1 + 2N
] so gilt:
E(xcont ) =
=
N
X
Z
1
1+ 2N
1
− 2N
p(kN
−1
pcont (x)xdx =
N Z
X
k=0
Z
)N
1
kN −1 + 2N
xdx =
1
kN −1 − 2N
k=0
1
kN −1 + 2N
xN p(kN −1 )dx =
1
kN −1 − 2N
N
X
p(kN −1 )kN −1 = E(x).
k=0
Um Ähnliches für die Varianz zu erhalten, wird der Verschiebungssatz von Steiner definiert und
bewiesen.
Satz 3.5.3 (Verschiebungssatz von Steiner).
Sei X eine Zufallsvariable so gilt
V(X) = E(X 2 ) − E(X)2
sofern beide Ausdrücke existieren.
Beweis:
V(X) = E((X − E(X))2 ) = E(X 2 − 2E(X)X + E(X)2 ) =
= E(X 2 ) − 2E(E(X)X) + E(E(X)2 ) = E(X 2 ) − 2E(X)E(X) + E(X)2 E(1) =
= E(X 2 ) − 2E(X)2 + E(X)2 = E(X 2 ) − E(X)2
42
KAPITEL 3. MASTER GLEICHUNG
Gemäß dem Verschiebungssatz von Steiner 3.5.3 gilt für die Varianz:
E(x2cont )
=
N
X
p(kN
−1
Z
)N
=
∗
x2 dx =
∗
1
kN −1 − 2N
k=0
N
X
1
kN −1 + 2N
p(kN −1 )(kN −1 )2 + O(N −2 ) = E(x2 ) + O(N −1 )
k=0
⇒ V(xcont ) = V(x)+O(N −1 )
Die Gleichheit ∗ rechnet sich leicht nach:
Z kN −1 + 1
2N
(kN −1 +
N
x2 dx = N
1
kN −1 − 2N
=N
N −1 (kN −1 +
(kN −1 )2 +
1 2
2N )
+ (kN −1 +
1 3
2N )
− (kN −1 −
3
1
−1
2N )(kN
−
1
2N )
1 3
2N )
=
+ (kN −1 −
3
+ (kN −1 )2 +
1 2
2N )
=
1
+ (kN −1 )2 − 4N1 2
1
4N 2
= (kN −1 )2 +
3
12N 2
Man sieht, dass die wesentlichen Größen, die zum Arbeiten mit einer Verteilung von Nöten sind,
bis auf ein O(N −1 ) erhalten bleiben. Kennt man also Erwartungwert und Varianz von xcont , so
auch approximativ von x.
Die definierte Funktion pcont ist also eine kontinuierliche Dichte, die die wichtigsten Parameter
der diskreten Verteilung approximiert.
=
3.5.2
1
4N 2
Differenzierbare Approximation
Ausgehend von der Histogramm-artigen, stückweise konstanten Dichte, kann man versuchen,
diese mit einer hinreichend oft differenzierbaren Funktion zu approximieren. Man überlegt zunächst, welche Bedingungen an die Approximationsfunktion pi gestellt werden müssen:
Bedingung 3.5.4.
(Interpolationsbedingungen).
pi sei hinreichend (beliebig) oft differenzierbar.
Die Bedingung wird für die Kramers-Moyal Entwicklung benötigt.
1
pi : [− 2N
,1 +
1
2N ]
→ [0, 1]
pi (x) = N p(x), ∀x ∈ {0, N −1 , . . . , N }
Da die Dichte pi (noch nicht einmal die Dichte pcont ) keinen Markov-Prozess beschreiben muss, gilt auch nicht zwingend die Mastergleichung. Die hier geforderte Relation zwischen pi und p erlaubt das Einsetzen immerhin für gewisse diskrete Punkte ({0, N −1 , . . . , 1}).
1
R kN −1 + 2N
1
kN −1 − 2N
pi (x)dx = p(kN −1 )
Mit dieser Bedingung ist die Funktion pi erst eine Dichte.
3.5. INTERPOLATION
1
R kN −1 + 2N
1
kN −1 − 2N
43
xpi (x)dx = kN −1 p(kN −1 )
Mit dieser Bedingung bleibt der Erwartungswert erhalten.
1
R kN −1 + 2N
1
kN −1 − 2N
x2 pi (x)dx = (kN −1 )2 p(kN −1 )
Mit dieser Bedingung bleibt sogar die Varianz erhalten.
1
1
1
1
pi (− 2N
) = pi (1 + 2N
) = p0i (− 2N
) = p0i (1 + 2N
)=0
Diese Bedingung wird in Kapitel 4 noch benötigt.
Die nachstehende Abbildung 3.1 zeigt die Bedingungen auf graphischem Weg zusammengefasst. Nachdem Polynome beliebig oft stetig differenzierbar sind, würde ein solches die erste
Np(2/N)
Np(1/N)
Np(0)
Np(1)
0
1/N
2/N
1/N
1
Abbildung 3.1: Approximation von p mit pcont bzw. pi
Bedingung natürlich erfüllen. Bevor das Polynom pi (x) aber nun durch Interpolation gefunden
werden kann, muss noch der Grad des Interpolationspolynoms bestimmt werden und zusätzlich
festgestellt werden, ob die gestellten Bedingungen 3.5.4 überhaupt erfüllt werden können, d.h.
linear unabhängig und nicht widersprüchlich sind.
Zählt man alle geforderten Bedingungen zusammen erhält man:
44
KAPITEL 3. MASTER GLEICHUNG
Anzahl Bedingungen
N
N
N
N
4
4N + 4
Typ der Bedingung
klassische Interpolationspunkte
Bedingungen an die Stammfunktion von pi (x)
Bedingungen an die mit x multiplizierte SF von pi (x)
Bedingungen an die mit x2 multiplizierte SF von pi (x)
Bedingungen an den Rand
Polynomgrad des Interpolationspolynoms
Damit folgt formal angeschrieben
pi (x) =
4N
+4
X
an xn .
n=0
Es werden nun für alle Typen von Bedingungen die resultierenden Gleichungen aufgestellt, um
sicherzustellen, dass die Forderungen konform sind.
Für die Interpolationspunkte gilt die Gleichung
4N
+4
X
xn an = N p(x), ∀x ∈ {0, N −1 , . . . , 1}.
n=0
Die erste Integralbedingung führt zu:
"4N +4
X y n+1
n=0
⇒
4N
+4
X
(x +
n
1
#y=x+ 2N
1
y=x− 2N
1 n+1
2N )
n=0
= xp(x), ∀x ∈ {0, N −1 , . . . , 1}.
an
− (x −
n
1 n+1
2N )
an = x2 p(x), ∀x ∈ {0, N −1 , . . . , 1}
Die weiteren Intergralbedingungen führen auf
4N
+4
X
(x +
1 n+2
2N )
1 n+2
2N )
(x +
1 n+3
2N )
1 n+3
2N )
− (x −
n+1
n=0
an = p(x), ∀x ∈ {0, N −1 , . . . , 1},
sowie
4N
+4
X
− (x −
n+2
n=0
an = p(x), ∀x ∈ {0, N −1 , . . . , 1}.
Die letzten vier Bedingungen liefern
4N
+4
X
(−
n=0
4N
+4
X
1 n
1 n
) an =
(1 +
) an = 0
2N
2N
n=0
3.5. INTERPOLATION
45
4N
+4
X
n=1
4N
+4
X
1 n−1
1 n−1
n(−
)
an =
)
an = 0.
n(1 +
2N
2N
n=1
Unschwer zu erkennen, erzeugen die Divisionen durch n, n+1 und n+2 sowie die Multiplikation mit n stets linear unabhängige Gleichungen, womit die linke Seite des 4N + 4 dimensionalen
Gleichungssystems vollen Rang hat und damit invertierbar ist. Das LGS ist demnach lösbar und
liefert die Existenz eines (sogar eindeutigen) Interpolationspolynoms vom Grad 4N +4, welches
die Bedingungen 3.5.4 erfüllt.
Es verbleibt die Differenzierbarkeitsvorraussetzung an die Übergangsraten zu rechtfertigen. Dieses ist aber, verglichen mit der Differenzierbarkeit der Dichte selbst, ein Leichtes. Man definiere
ωi (y, R) := IN (ω(x, R) := ωN x,N x+R )(y, R), R 6= 0,
mit dem in dieser Kurzschreibweise angedeuteten Interpolationsoperator N -ten Grades. Nachdem nicht mehr, als die Differenzierbarkeit an den x-Werten gefordert wird, ist dieser durch die
N verschiedenen Punkte wohldefiniert (Dort wo N x+R 6∈ {0, 1, . . . , N } gilt, sei ωN x,N x+R :=
0).
Durch die Forderung 3.4.1, dass die Übergangsraten bzgl. N −1 in eine Reihe entwickelbar sind,
sind diese meist ohnehin auch bzgl. x differenzierbar und die Interpolation ist meist gar nicht
mehr notwendig.
Bemerkung 3.5.5.
Da ωi,i < 0 obwohl ωi,j > 0 ist nicht zu erwarten, dass der Interpolant im Grenzfall N → ∞ bei
R = 0 stetig sein wird. Da innerhalb der Mastergleichung aber ohnehin nur die Übergangsraten
mit von 0 unterschiedlicher Sprungweite betrachtet werden, spielt das keine Rolle.
3.5.3
Zusammenfassung
Zusammenfassend gibt es also eine für jedes t beliebig oft differenzierbare Dichte pi (t, x) (eines
1
1
zeitabhängigen Prozesses xi (t)) auf [− 2N
, 1 + 2N
] sodass die Bedingungen 3.5.4 erfüllt sind
und demnach
Z 1+ 1
N
X
2N
E(xi ) =
p(x)xdx =
p(kN −1 )kN −1 = E(x)
1
− 2N
k=0
E(x2i ) = E(x2 ) ⇒ V(xi ) = V(x)
für jedes t ≥ 0 gilt. Für jeden Wert x aus der diskreten Menge {0, N −1 , . . . , 1} ist der Funktionswert pi (t, x) mit dem N -fachen des Funktionswertes der diskreten Wahrscheinlichkeitsfunktion
p(t, x) identisch und kann damit in die Mastergleichung 3.7 eingesetzt werden.
X
p0 (t, x) =
p(t, y)ωN y,N x − p(t, x)ω(N x, N y)
y6=x
⇔
p0i (t, x) X pi (t, y)
pi (t, x)
=
ωN y,N x −
ωN x,N y
N
N
N
y6=x
46
KAPITEL 3. MASTER GLEICHUNG
⇔ p0i (t, x) =
X
pi (t, y)ωN y,N x − pi (t, x)ωN x,N y
y6=x
Die diskreten Übergangsraten können, falls nicht ohnedies bereits stetig bzgl. x differenzierbar,
getrost durch deren Interpolanten ersetzt werden:
X
p0i (t, x) =
pi (t, y)ωi (x, R) − pi (t, x)ωi (x, R)
R6=0
Damit sind die Bedingungen 3.3.1 bzw. 3.4.2 durch ein Interpolationsargument mit einer Funk1
1
tion pi erfüllt (die Einschränkung des Definitionsbereiches von [− 2N
, 1 + 2N
] auf [0, 1] spielt
keine Rolle), die immerhin die wichtigsten Eigenschaften der diskreten Dichte p erhält.
Mit einem Fehler mit negativem Exponenten in N ergeben sich die beiden Gleichungen 3.11
und 3.12.
Die Gleichung 3.12 ist eine partielle DG zweiter Ordnung. Zur eindeutigen Lösung dieser sind
Rand/Anfangsbedingungen notwendig, die nun nach den Überlegungen in diesem Unterkapitel
bestimmt werden können.
Gemäß der Definition des Anfangswertes des stochastischen Prozesses ist
0, ∀x0 6= x ∈ {0, N −1 , . . . , 1}
,
p(0, x) =
1, ∀x0 = x
und gemäß der Definition der kontinuierlichen Dichte gilt
0, ∀x0 6= x ∈ {0, N −1 , . . . , 1}
pcont (0, x) =
.
N, ∀x0 = x
Definiert man nun die Funktionenfolge (pcont (0, x))N , so ist diese Folge eine sogenannte Diracfolge. D.h. sie erfüllt
lim (pcont )N = δx0 (x).
N →∞
Als stetige Approximation der Diracfolge ist auch
lim (pi )N = δx0 (x)
N →∞
und damit ebenfalls eine Diracfolge.
Satz 3.5.6 (Anfangswert der Fokker-Planck-Gleichung 3.12).
Für großes N kann also die Dirac’sche Deltadistribution δx0 als approximative Näherung für
den Anfangswert pi (0, x) herangezogen werden. Sie erhält (schwach) die L1 Norm, den Erwartungswert E(xi ) = x0 und die Varianz V(xi ) = 0. Somit gilt
Π(0, ξ) := δ0 (ξ).
3.5. INTERPOLATION
47
Beweis:
Z
||δx0 ||L1 =
1
1+ 2N
1
− 2N
E(pi (0, x)) =
V(pi (0, x)) =
Z
1
1+ 2N
1
− 2N
Z
∞
δx0 (x) · 1dx = 1(0) = 1
δx0 (x) · 1dx =
−∞
Z
1
1+ 2N
1
− 2N
Z
δ0 (x)x0 dx = x0
−∞
2
Z
∞
δx0 (x)(x − x0 ) dx =
Π(0, ξ) = pi (0, x0 + N
∞
δx0 (x)xdx =
δ0 (x)(x − x0 )2 dx = (x0 − x0 )2 = 0
−∞
− 21
1
1
ξ) ⇒ Π(0, ξ) = δx0 (x0 + N − 2 ξ) = δ0 (N − 2 ξ) = δ0 (ξ)
KAPITEL
Analyse
In Kapitel 2 wurde bereits erwähnt, dass vor allem die zwei Parameter Erwartungswert und Varianz die Gestalt einer Verteilung maßgeblich bestimmen. (Überhaupt ist eine Verteilung genau
dann bekannt, wenn ihre momenterzeugende Funktion bekannt ist, was äquivalent zur Tatsache
ist, dass tatsächlich alle Momente bekannt sind). Es wird in diesem Kapitel gezeigt, dass aus den
resultierenden Gleichungen aus Kapitel 3 genau diese beiden Größen mit einer Fehlergenauig1
keit von O(N − 2 ) abgeleitet werden können. Diese Fehlerbreite wird zunächst vernachlässigt,
und es wird davon ausgegangen, dass p(x, t), gewonnen aus 3.12, bereits die zu betrachtende
Dichte des Prozesses ist. Im weiteren Verlauf der Analyse wird natürlich auch auf den Fehler
zur tatsächlichen, agentenabhängigen, ortsdiskreten Dichte p̂(x, t) mit tatsächlicher Mittelwertkurve φ̂(t) und Varianzkurve σˆ2 (t) eingegangen (siehe 6 und 8).
Zunächst sei ein wenig auf die Theorie der Fokker-Planck-Gleichungen eingegangen.
Die Lösung einer Fokker-Planck-Gleichung der Gestalt
∂u(x, t)
∂u(x, t)a(x, t) ∂ 2 u(x, t)b(x, t)
=
+
∂t
∂x
∂x2
wird für sinnvolle Anfangsbedingungen (z.B. wie in diesem Fall δ0 (x)) im Allgemeinen durch
die zwei zeitabhängigen Größen Drift und Diffusion bestimmt.
Erstere gibt jene Funktion an, mit der sich der Anfangspeak in der Zeit verschiebt bzw. driftet. Als Beispiel dazu kann als Spezialfall für eine diffusionslose Fokker-Planck-Gleichung die
sogenannte Transportgleichung betrachtet werden:
∂u(x, t)
∂u(x, t)a(x, t) ∂ 2 u(x, t)b(x, t)
∂u(x, t)
=
+
:= c
∂t
∂x
∂x2
∂x
Deren Lösung sind sogenannte stehende Wellen (siehe Abbildung 4.1).
Unter dem Begriff Diffusion bezeichnet man die qualitative Veränderung des Peaks selbst (höher, flacher, breiter, schmäler). Ein Beispiel für eine Fokker-Planck-Gleichung ohne Drift wäre
die sogenannte Diffusionsgleichung:
∂u(x, t)a(x, t) ∂ 2 u(x, t)b(x, t)
∂u(x, t)
∂ 2 u(x, t)
=
+
:=
−c
∂t
∂x
∂x2
∂x2
49
4
50
KAPITEL 4. ANALYSE
Abbildung 4.1: Beispiel für die Lösungskurven einer Transportgleichung
Die Lösungen dieser diffundieren, bei deltadistributioneller Anfangsbedingung, mit fortlaufender Zeit auseinander (Siehe Abbildung 4.2).
Der Nutzen des Wissens über Diffusion und Drift liegt in diesem Fall klar auf der Hand. Ist die
Abbildung 4.2: Beispiel für die Lösungskurven einer Diffusionsgleichung
Lösungskurve der Fokker-Planck-Gleichung Dichtefunktion eines zeitabhängigen Prozesses, so
ist der Driftparameter hauptverantwortlich für die zeitliche Entwicklung des Mittelwertes, und
die Diffusion beschreibt großteils die Entwicklung der Varianz.
Im Beispiel der Transportgleichung mit dem Setting aus Abbildung 4.1, verläuft der Erwartungswert der Verteilung entlang einer linearen Funktion. Die Varianz hingegen, bliebe gleich.
Im Beispiel der Diffusionsgleichung bleibt der Erwartungswert konstant (= 0) und die Varianz
vergrößert sich (im einfachsten Fall sogar linear).
Des weiteren soll nun für die Lösung der Fokker-Planck-Gleichung, die aus den Differentialgleichungen (3.11,3.12) ermittelt werden kann, zunächst der Driftparameter/Erwartungswert
bestimmt werden.
4.1. ANALYSE DER ERWARTUNGSWERTKURVE
4.1
51
Analyse der Erwartungswertkurve
1
Die heuristische Überlegung, dass durch x = N − 2 ξ + φ(τ ) und N → ∞, x → φ(τ ) konvergiert, würde φ(τ ) als Erwartungswert des Prozesses mit verschwindender Varianz im Limesfall
kennzeichnen. Man kann sich nun die berechtigte Frage stellen, warum die Anzahl der Agenten
den Erwartungswert des normierten Prozesses mit endlichem N überhaupt beeinflussen soll?
Satz 4.1.1 (Erwartungswert der Dichte p).
Ist φ Lösung von 3.11 und Π Lösung von 3.12 mit deltadistributioneller Anfangsdichte δ0 so gilt
E(ξ, τ ) = 0.
1
Mit p(x(τ )) := Π(N 2 (x(τ ) − φ(τ ))) gilt damit
E(x, τ ) = φ(τ ).
Beweis: Mit Ω := [−∞, ∞] gilt nach Definition des Erwartungswertes
Z
E(ξ, τ ) = Π(ξ, τ )ξdξ.
Ω
Desweiteren verwendet man den Taylorschen Lehrsatz und erhält Π(τ ) = Π(0) +
Durch Π(0) = δ0 und ξ(0) = 0 gilt
Z
Z
Z τ
∂Π
Π(ξ, τ )ξdξ =
δ0 ξ +
(s)ξdsdξ =
Ω
Ω
0 ∂t
τ
Rτ
∂Π
0 ∂t (s)ds.
∂ 2 Π(ξ, s)αx (s)
∂Π(ξ, s)ξβ(s)
ξ+
ξdξds =
∂x
∂x2
0
Ω
Z τ
Z
Z
2
=
β(s) Π(ξ, s)ξ ξ + Π(ξ, s)ξdξ +αx (s) Π(ξ, s)ξξ ξdξ ds.
| {z }
0
| Ω {z
}
|Ω
{z
}
Ib
Z
Z
=0+
Ia
II
Term II wird mit partieller Integration zu
Z
Z
Π(ξ, s)ξξ ξdξ = − Π(ξ, s)ξ dξ = [−Π(ξ, s)]∂Ω = 0,
Ω
Ω
da Gemäß der Randbedingungen die Randterme wegfallen. Term I ist ein wenig unhandlicher.
Der Ausdruck Ib ist gemäß Definition
Z
Π(ξ, s)ξdξ = E(ξ, s).
Ω
52
KAPITEL 4. ANALYSE
Ähnlich lässt sich Term Ia umformen.
Z
Z
2
Π(ξ, s)ξ ξ dξ = − Π(ξ, s)2ξdξ = −2E(ξ, s)
Ω
Ω
Somit gilt
E(ξ, τ ) =
Z
τ
−β(s)E(s)ds.
0
Der Erwartungswert von ξ löst also die lineare DG
E(ξ, τ )0 = −β(τ )E(ξ, τ ),
E(ξ, 0) = 0,
da ξ(0) = 0 fast sicher. Klar ersichtlich ist er auch Ruhelage der DG, womit
E(ξ, τ ) = 0
folgt.
Ist nun
1
p(x(τ )) := Π(N 2 (x(τ ) − φ(τ ))),
so gilt nach der Linearität für Erwartungswerte
1
E(x, τ ) = E(φ(τ ) + N − 2 ξ, τ ) =
1
1
= E(φ(τ ), τ ) + N − 2 E(ξ, τ ) = φ(τ ) + N − 2 · 0 = φ(τ ),
was zu zeigen war.
Man erhält damit eine sehr starke Aussage. Unabhängig von N beschreibt die Funktion φ(t)
den Drift der Verteilung aus Gleichung 3.12. Außerdem approximiert die in Gleichung 3.11 erhaltene Funktion φ den Erwartungswert des stochastischen Modells, das die Bedingungen 3.4.2
1
erfüllt, bis auf ein O(N − 2 ).
Bemerkung 4.1.2.
Darauf, wie die Lösung der i.A. recht komplizierten gewöhnlichen Differentialgleichung 3.11
gefunden werden kann, wird hier nicht eingegangen. Ist sie nicht ohnehin analytisch lösbar, so
lässt sich eine Approximation der Lösung recht genau z.B. mit einem Runge-Kutta-Verfahren
finden, da sie bereits in expliziter Form vorliegt.
4.2
Analyse der Dichte und der Varianz
Es verbleibt die partielle Fokker-Planck-Gleichung 3.12 zu lösen, um hinterher die Varianz zu
ermitteln. Man wählt dazu einen sehr heuristische Zugang, der eigentlich genau die umgekehrte
4.2. ANALYSE DER DICHTE UND DER VARIANZ
53
Richtung einschlägt. Da die Größe X(t) als Summe von Zufallszahlen entsteht, liegt die Vermutung nahe, X bzw. x sei in jedem Zeitschritt näherungsweise um den Erwartungswert φ(t)
normalverteilt. Somit wäre auch ξ um 0 mit einer Varianzfunktion σ 2 (τ ) normalverteilt.
Ansatz: ξ(τ ) ∼ Π(ξ, τ ) := p
1
−
2πσ 2 (τ )
e
ξ2
2σ 2 (τ )
So einfach und naheliegend der Ansatz mit der noch zu ermittelnden Funktion σ 2 (t) erscheinen
mag, führt er zum Ziel. Einsetzen in die Fokker-Planck-Gleichung
∂Π
∂Π
∂ 2 Πξ
=
αx (φ(τ )) +
β(φ(τ ))
∂τ
∂ξ
∂ξ 2
mit
X
αx (φ(τ )) =
(Φ1 )x (φ(τ ), R)(−R),
β(φ(τ )) =
R6=0
X
Φ1 (φ(τ ), R)(−R)2
R6=0
liefert für σ 2 6= 0 die gewöhnliche, sogar lineare DG
∂σ 2 (τ )
= −2αx (φ(τ ))σ 2 (τ ) + 2β(φ(τ )).
∂τ
(4.1)
Diese ist in manchen Fällen sogar analytisch lösbar:
2
−2
σ (τ ) = 2e
Rτ
0
αx (φ(s))ds
Z
τ
β(φ(u))e2
Ru
0
αx (φ(s))ds
du
0
Gemäß der Variablensubstitution gilt nun für die Dichte p(x, τ ) nach dem Transformationssatz
für Dichten (Integrale)
√
N (x−φ(τ ))2
N
−
σ 2 (τ )
p(x, τ ) = p
e
,
2πσ 2 (τ )
bzw. mitsamt der Zeittransformation
N
f (N ) t
√
=τ
2
N t
N x−φ
f (N )
−
N t
σ2
f (N )
N
p(x, t) = r
e
N
2
2πσ f (N ) t
.
Man erhält also eine um den Erwartungswert φ(t) verschobene Normalverteilung mit zeitabhängiger Varianz
σ 2 (τ )
V(x, τ ) =
,
N
die somit durch die Funktion σ 2 (τ ) beschrieben wird.
54
KAPITEL 4. ANALYSE
4.3
Stochastische Aussagen
Die im letzten Kapitel (3) hergeleiteten Gleichungen liefern jeweils Aussagen, die unter Vor1
raussetzung der Bedingungen 3.4.2 mit einer Genauigkeit von mindestens O(N − 2 ) zutreffen.
Folgende Aussagen können also zusammenfassend gemacht werden:
Für N → ∞ konvergiert die normierte Zustandsvariable des CT Markov-Prozess basierten Mikromodells gegen die Mittelwertkurve φ(t), die durch die Gleichung 3.11 beschrieben wird und aus den Übergangsraten des Mikromodells ermittelt werden kann.
Für N → ∞ geht die Varianz σˆ2 des CT Markov-Prozess basierten Mikromodells, wobei
1
σ̂ 2 mit einem Fehler der Ordnung N − 2 durch die Gleichung 4.1 und deren Lösung N −1 σ 2
ermittelt werden kann, gegen 01 .
1
Bis auf einen Fehler der Ordnung O(N − 2 ) beschreibt die Kurve φ(t) den zeitlichen Verlauf des Mittelwerts der Zustandsvariable des Mikromodells.
1
|φ(t) − φ̂(t)| = O(N − 2 )
Bevor Aussagen für das wiederholte Durchführen des Experiments gemacht werden, seien stochastische Grundlagen ergänzt.
Satz 4.3.1 (Starkes Gesetz der Großen Zahlen).
Es sei (Xi )i∈I eine beliebig verteilte aber unabhängige Folge von Zufallszahlen mit Erwartungswert µ und beschränkter Varianz, so gilt
!
!
M
M
1 X
1 X
P stark
lim
Xi → µ ⇔ lim P
Xi − µ = 0 = 1.
M →∞ M
M →∞
M
i=1
i=1
Für den Beweis sei auf Grundlagenliteratur für Wahrscheinlichkeitstheorie verwiesen.
Führt man nun das Mikromodell M -mal wiederholt, unabhängig voneinander aus, sind die Voraussetzungen erfüllt und es gilt:
1
Nach dem Starken Gesetz der Großen Zahlen konvergiert der Mittelwert der Ergebnisse
der wiederholten Hintereinanderausführung des CT Markov-Prozess basierten Mikromodells stark in der Wahrscheinlichkeit gegen eine Mittelwertkurve, die mit einem Fehler der
1
Ordnung O(N − 2 ), wobei N die Agentenzahl beschreibt, durch die Kurve φ(t) approximiert werden kann.
Da σ 2 Lösung einer von N unabhängigen DG ist, hat die Funktion keine Auswirkung auf die Konvergenz.
4.3. STOCHASTISCHE AUSSAGEN
55
Nach direkter Folgerung aus dem Starken Gesetz der Großen Zahlen konvergiert die Varianz des empirischen Mittelwerts2 der Ergebnisse der M -maligen Hintereinanderausführung des CT Markov-Prozess basierten Mikromodells für M → ∞ gegen 0.
Diese beiden Aussagen sind theoretisch sinnvoll, doch numerisch schlecht verwertbar. Man benötigt noch eine weitere stochastische Aussage, um die Konvergenzgeschwindigkeit unter Kontrolle zu bekommen.
Satz 4.3.2 (von Hartman-Wintner).
Sei Xi eine identisch verteilte aber unabhängige Folge von Zufallszahlen mit Mittelwert 0 und
Varianz 1 so gilt:
PM
i=1 Xi
lim sup p
= 1, fast sicher
2M ln(ln(M ))
M →∞
PM
i=1 Xi
lim inf p
= −1, fast sicher
M →∞
2M ln(ln(M ))
Für den Beweis wird auf die Literatur verwiesen ( [Sto70, 2158-2160]).
Nun folgt daraus direkt, dass für alle Xi , die den Satz erfüllen gilt:
M
1 X
Xi = O
M
r
i=1
ln(ln(M ))
M
!
Ist nun Xi verteilt mit Mittelwert µ und endlicher Varianz σ 2 , so ist X̃i :=
dass der Satz anwendbar ist. Es folgt:
M
1 X
Xi − µ = σO
M
i=1
r
ln(ln(M ))
M
(Xi −µ)
σ
so verteilt,
!
Ganz im Unterschied zum Mittelwert ist die Konvergenzgeschwindigkeit der Varianz des Mittelwerts der wiederholten Durchführung gegen 0 deutlich einfacher zu berechnen:
M
M
X
1 X
1
M
σ2
V(
Xi ) = 2 V(
Xi ) = 2 V(X1 ) =
= O(M −1 )
M
M
M
M
i=1
i=1
Somit ergeben sich zwei weitere Aussagen:
2
Man sollte im Hinterkopf behalten, dass der empirische Mittelwert der Ergebnisse der einzelnen Durchläufe als das eigentliche Simulationsergebnis betrachtet werden muss, was die Betrachtung dessen Varianz
rechtfertigt.
56
KAPITEL 4. ANALYSE
1 PM
Der Fehler | M
i=1 Xi (t) − φ̂(t)| der empirischen Mittelwertkurve gegen die tatsächlichen Mittelwertkurve des Experiments φ̂(t) (damit ist nicht die
in 3.11 beschriebene
q
ln(ln(M ))
Kurve gemeint) ist bei M -fach wiederholter Durchführung ein O
bzw. geM
nauer
!
r
M
1 X
ln(ln(M ))
||
||Xi (t) − φ(t)||∞ .
Xi (t) − φ̂(t)|| ≤ O
M
M
i=1
1 2
M σ̂ (t)
Die Varianz der Mittelwertkurve ist nach M unabhängigen Experimenten genau
der tatsächlichen Varianzkurve σ̂ 2 bei einmaligem Durchlauf.
Für die Konvergenzgeschwindigkeit der Varianz gegen 0 liefert das Verdoppeln der Agentenzahl sowie das zweifache Hintereinanderausführen und Mitteln des Experimentes dasselbe Resultat. Es hängt also vom Rechenaufwand bzw. den Ergebnissen des Experiments
ab, welches der zwei bevorzugt eingesetzt wird um die Varianz zu verringern. Sie konvergiert in beiden Fällen linear.
Wie man aus den letzten drei Punkten bereits herauslesen konnte, ist die Aussage, dass M -faches
Hintereinanderausführen des Experiments mit N -Agenten dieselben Resultate liefert wie einmaliges Ausführen mit N · M Agenten, nicht korrekt. Die Konvergenz des empirischen Mittelwertes gegen den tatsächlichen Mittelwert hängt i.A. nicht mit der Konvergenz des tatsächlichen
Mittelwertes der Mikrosimulation gegen die in 3.11 hergeleitete Kurve zusammen.
Bemerkung 4.3.3.
Die Ausnahmen in dieser Regel bilden agentenbasierte Markov-Modelle, in denen die Übergangsraten der Agenten nicht von den Zuständen des Systems abhängen. In diesem Fall ist ja
das Durchführen der Mikrosimulation und das Normieren äquivalent zum Mitteln über mehrere
Durchläufe, da die Agenten nicht voneinander abhängen, d.h. nicht miteinander „kommunizieren“.
Zusätzlich sind die Aussagen wichtig, denn:
Zusammenfassend gilt für die aus Gleichung 3.11 bestimmbare Kurve bei N Agenten einer CT Markov-Prozess basierten Mikrosimulation und M -fachen Mitteln des erhaltenen
Ergebnisses
|
M
M
1 X
1 X
Xi − φ(t)| ≤ |
Xi − φ̂(t)| + |φ̂(t) − φ(t)| =
M
M
i=1
r
=O
ln(ln(M )) − 1
N 2
M
i=1
!
+ O(N
− 12
)=O N
− 21
r
1+
Die Varianz des Ergebnisses geht mit Ordnung O( N 1·M ) gegen 0.
ln(ln(M ))
M
!!
.
4.3. STOCHASTISCHE AUSSAGEN
57
Mehrmaliges Durchführen des Versuches reicht also i.A. allein nicht aus, um Konvergenz gegen
die berechnete Kurve zu erhalten. Jedoch ist es notwendig, um schlussendlich die Erwartungswertkurven, die meist das Ziel einer stochastischen Simulation sind, überhaupt bestimmen zu
können. Will man andererseits die Lösung der Differentialgleichung mit einem adäquat zu Kapitel 3 gewählten Agentenmodell approximieren, macht einerseits die mehrfache Ausführung
des Experiments in Anbetracht des reinen Fehlers kaum Sinn, andererseits jedoch glättet es bekanntermaßen die Lösungskurve.
Alle in diesem Kapitel gebrachten Analysen, sowie die Entwicklung der Differentialgleichungen, lassen sich auch für mehrdimensionale Probleme durchführen. Da die weiteren ernstzunehmenderen Fehlerbetrachtungen auch für vektorwertige Zustandsvariablen ihre Gültigkeit behalten sollen, wird nun diese Lücke gefüllt, und die mehrdimensionale Diffusionsapproximation
vorgestellt.
KAPITEL
5
Mehrdimensionale Probleme
Um Problemstellungen mit mehr als nur zwei Zuständen analysieren zu können, wie z.B. das
SIR-Modell im Kapitel 9, ist es notwendig, die Mastergleichung und die Kramers-Moyal-Entwicklung
mehrdimensional durchzuführen und die entstehenden Differentialgleichungen für Erwartungswert und Dichte herzuleiten. Fast alle Berechnungen, die eindimensional durchgeführt werden
können, lassen sich analog auf den mehrdimensionalen Fall erweitern.
5.1
Mehrdimensionale Mastergleichung
Wie im Kapitel 3.2 nutzt man ein Interpolationsargument und verwendet die mittlerweile mehrdimensionale Dichte, als wäre sie beliebig of stetig differenzierbar.
~ ein Vektor aus Markov-Prozessen auf dem Raum
Es sei X : R+ → {0 . . . N }d , t 7→ K
{0, . . . , N }.
Der Vektor X ist verteilt mit der diskreten Dichte
~ × t 7→ P (X(t) = K|X(0)
~
~ 0 ).
P : ({0 . . . N })d × R+ → [0, 1], K
=K
Der normierte Prozess x := XN −1 ist demnach verteilt mit
~ −1 =: ~k × t 7→ P (x(t) = ~k|x(0) = ~k0 ).
p : ({0, N −1 . . . 1})d × R+ → [0, 1], KN
Die Übergangsraten sind ebenfalls definiert als
~ ~ −1
~
~ := lim P (x(h) = k + RN |x(0) = k)
ω(~k, R)
h→0
h
und
P (x(h) = ~k|x(0) = ~k)
ω(~k, ~0) := 1 − lim
.
h→0
h
59
60
KAPITEL 5. MEHRDIMENSIONALE PROBLEME
Die Definitions- und Zielbereiche der als differenzierbar vorausgesetzten Dichte und Raten haben die Form
p : [−
1
1 d
,1 +
] × R+ → [0, 1] : ~k × t 7→ I(2N +4)d (p)(~k, t)
2N
2N
1
1 d
~ 1, R
~2 . . . R
~ l } → R : ~k × R
~ 7→ IN d (ω)(~k, R)
~
,1 +
] × {R
2N
2N
mit dem Interpolationsoperator I.
ω : [−
Da die Zeit immer noch ein eindimensionaler Parameter ist, lässt sich wie auch im eindimensionalen Fall, die Chapman-Kolmogorov Gleichung herleiten, und der Ansatz
p(~j, t + h) − p(~j, t)
h
liefert, da die Mehrdimensionalität des Problems hier noch nicht zu tragen kommt, durch Limesbildung analog die Mastergleichung:
X
p(~k, t)ω~k,~j − p(~j, t)ω~j,~k
p(~j, t)0 =
~k6=~j
5.2
Mehrdimensionale Fokker-Planck-Gleichung
Da in Folge die Kettenregel verwendet wird, entstehen Ableitungen nach der Ortsvariablen und
dadurch, statt einfach Ableitungen nach x, vektorwertige Nabla-Operatoren. Vor allem bei der
mehrdimensionalen Dichte liefert das unangenehm zu behandelnde Terme.
Weil die Dichte, gemäß Voraussetzung, beliebig oft stetig differenzierbar ist, lässt sich die
~ durchführen, hier darKramers-Moyal-Entwicklung (Taylorentwicklung nach dem Sprung R)
gestellt bis zum quadratischen Term.
X
~ 1+
p(~j, t)0 =
p(~j, t)ω~k,~j + ∇ p(~j, t)ω~k,~j · R
N
~k6=~j
1 ~T ~
−3
~
R
H
p(
j,
t)ω
) − p(~j, t)ω~j,~k =
~k,~j R + O(N
2N 2
X ~ 1 + 1 R
~ T H p(~j, t)ω~ ~ R
~ + O(N −3 )
=
∇ p(~j, t)ω~k,~j · R
k,j
N
2N 2
+
~k6=~j
Dabei wurden Kürzel für Hessematrix (H), Nablaoperator (∇) und das Skalarprodukt (·) verwendet.
~ + N −1/2 ξ~ und die Zwangsbedingung φ
~ 0 = −N −1/2 ξ~0 liefert mit der
Die Substitution ~k = φ
Kettenregel
~0
~ t)0 + ∇ξ Π · ξ~0 = Π(ξ, t)0 + N 1/2 ∇Π · φ
p(~k, t)0 = Π(ξ,
und
∇p =
√
N ∇ξ Π,
H(p) = N Hξ (Π).
5.2. MEHRDIMENSIONALE FOKKER-PLANCK-GLEICHUNG
61
Gemäß Voraussetzung sind die Raten als Polynom in N −1 schreibbar.
ω(~k, R) = f (N )(Φ1 (~k, R) + N −1 Φ2 (~k, R) + . . . )
~ + N −1/2 ξ,
~ R)
~ liefert
~ um φ
Die Entwicklung von Φ1 (φ
~ + N −1/2 ξ,
~ R)
~ R)
~ R)
~ = Φ1 (φ
~ = Φ1 (φ,
~ + N −1/2 ξ~ · ∇Φ1 (φ,
~ + O(N −1 ).
Φ1 (~k, R)
Aus der Substitution der Zeit von t nach τ = tf (N )/N folgt schlussendlich die Gleichung
~τ =
Π(ξ, t)τ + N 1/2 ∇ξ Π · φ
X
~ R)
~ · R+
~
N 1/2 ∇ξ Π(~j, t)Φ1 (φ,
=
~ =0
R6
+
X
~ t)(ξ~ · ∇Φ1 (φ,
~ R))
~
~
∇ξ Π(ξ,
· R+
~ =0
R6
1 ~T
~
~
~
~ =
+ R Hξ Π(ξ, t)Φ1 (φ, R) R
2
X
~ R)
~ R+
~
Φ1 (φ,
= N 1/2 ∇ξ Π ·
~ =0
R6
+∇ξ Π ·
X
~ R))
~ R
~ +Π
(ξ · ∇Φ1 (φ,
~ =0
R6
X
~ R)
~ · R+
~
∇Φ1 (φ,
~ =0
R6
+
1 X ~T
~ R).
~ 1 (φ,
~
R Hξ (Π)RΦ
2
~ =0
R6
Vergleiche der jeweiligen Potenzen von N liefern schlussendlich die gewünschten Gleichungen.
Satz 5.2.1 (Mehrdimensionale Lösungsgleichungen der Kramers Moyal Entwicklung).
Auch für d > 2 gilt nun
~τ =
φ
X
~ R)
~ R
~
Φ1 (φ,
~ =0
R6
~ φ)
~ + ∇ξ Π · F~ (φ)
~ + g(Hξ (Π), φ)
~
Π(ξ, t)τ = Πf (ξ,
mit skalaren Funktionen f und g sowie einer vektorwertigen Funktion F~ , die wie folgt definiert
sind.
X
~ φ)
~ :=
~ R)
~ ·R
~
f (ξ,
∇Φ1 (φ,
~ =0
R6
X
~ := 1
~ R)
~ T Hξ (Π)RΦ
~ 1 (φ,
~
g(Hξ (Π), φ)
R
2
~ =0
R6
~ :=
F~ (φ)
X
~ R))
~ R
~
(ξ · ∇Φ1 (φ,
~ =0
R6
62
KAPITEL 5. MEHRDIMENSIONALE PROBLEME
Das Finden von Lösungen ist für die partielle Differentialgleichung der Dichte im Mehrdimensionalen jedoch bedeutend schwieriger als im eindimensionalen Fall.
KAPITEL
Anwendung auf zeitdiskrete
agentenbasierte Modelle
In den Kapiteln 3,5 und 4 wurde ein theoretisches Konzept erarbeitet, wie näherungsweise Varianz, Dichte und Mittelwert eines agentenbasierten CTDS Markov-Modells mittels Differenzialgleichungen bestimmt werden können. Der diskrete Zustandsraum der Agenten konnte also
bereits in einen kontinuierlichen übergeführt werden. Um schlussendlich den Bogen zu klassischen, zeitdiskreten Agentenmodellen spannen zu können, fehlt nicht mehr viel.
6.1
Motivation
Eine zeitdiskrete Herangehensweise an mathematische Probleme ist spätestens seit der Erfindung des Computers bzw. dessen Anwendung in mathematischen Forschungsbereichen unumgänglich geworden. Große Bereiche der Numerik beschäftigen sich ausschließlich mit Problemen, auf welche Weise die, klassischerweise im Alltag als kontinuierlich angenommene, Zeit
optimal diskretisiert werden kann, um den sogenannten Diskretisierungsfehler, d.h. den Fehler
der im Zuge der Vereinfachung durch die getaktete Zeit entstanden ist, möglichst gering zu halten. Was in der abstrakten Theorie als selbstverständlich genommen wird, nämlich das Perfekte,
Kontinuierliche (evt. sogar Stetige, Glatte,. . . ) mit dem Diskreten zu approximieren, verliert seit
einigen Jahren immer mehr an Generalität, wenn man die Situation nicht (nur) mehr mit den Augen des theoretischen Mathematikers, sondern mit den Augen eines Modellbildners betrachtet.
In diesem Zusammenhang kann man nämlich, im Unterschied zur theoretischen Mathematik,
die Begriffe
zeitdiskret ↔ zeitdiskretisiert
klar unterscheiden. Auf der einen Seite muss man ein Modell zeitdiskretisiert rechnen, wenn ein
kontinuierliches (analytisches) Rechnen des Modells nicht mehr möglich ist (oder es Vorteile
anderer Art mit sich bringt). Auf der anderen Seite tauchen im Alltag sehr wohl Prozesse auf,
63
6
64
KAPITEL 6. ANWENDUNG AUF ZEITDISKRETE AGENTENBASIERTE MODELLE
die zu simulieren keine Diskretisierung mehr bedürfen, da sie selbst bereits diskret sind. Klarerweise rechnet man diese Modelle dann zeitdiskret, ohne sie diskretisiert zu haben. Ein Beispiel
dazu könnte ein Raumbelegungsmodell einer Universität sein, wenn man davon ausgeht, dass
Vorlesungen oder Übungen nur im Viertelstunden-Takt beginnen oder enden können.
In diesem Kapitel wird davon ausgegangen, dass die in Kapitel 3 erarbeitete Theorie auf ein
zeitdiskretes Modell angewandt werden soll, ohne darauf Rücksicht zu nehmen, ob es ein diskretisiertes Modell ist, oder nicht. Da all die erarbeitete Theorie auf zeitkontinuierliche agentenbasierte Markov-Modellen basiert, muss das Prinzip der Diskretisierung diesmal in die entgegengesetzte Richtung erfolgen. 1
6.2
Voraussetzungen an das DT Agentenmodell
Untersucht man die Voraussetzungen 3.3.1, unter welchen das Kapitel 3.3 gültig ist, so erhält
man weitestgehend natürlich und ohne Umschweife bereits Voraussetzungen, unter welchen
ein zeitdiskretes Agentenmodell überhaupt in ein zeitkontinuierliches agentenbasiertes MarkovModell überführt werden kann.
Gegeben ist ein agentenbasiertes Modell bestehend aus N Agenten A1 , . . . , AN mit einem gemeinsamen endlichen Zustandsraum {0, 1, . . . , d}. Der Zustand jedes Agenten ist zu einem der
festen Zeitpunkte t ∈ {0, 1, . . . , T }, T ∈ N+ genau ein Element des Zustandsraumes.
Die wichtigste Voraussetzung unter welcher die Überführung überhaupt erst möglich ist, ist
klarerweise die Voraussetzung der Gedächtnislosigkeit. D.h. die Wahrscheinlichkeit, dass der
Agent seinen Zustand ändert bzw. ihn beibehält, darf nicht von den Zuständen des Systems in
den bereits vergangenen Zeitschritten abhängen:
P ((t + 1, k)|(t, jt ), (t − 1, tj−1 ), . . . , (0, j0 )) = P ((t + 1, k)|(t, jt ))
mit jn ∈ {0, 1, . . . , d}, ∀n und t ∈ {0, 1, . . . , T }. Anders gesagt bedeutet diese Definition
gleichsam, dass zu jedem Zeitpunkt jeder Agent eine gewisse Wahrscheinlichkeit (ggf. auch 0)
haben muss, in einen anderen Zustand überzugehen, der nicht von den Zuständen des Agenten in
der Vergangenheit abhängt. Sehr wohl aber darf diese Wahrscheinlichkeit gem. Satz 2.3.4 vom
Zustandsvektor abhängen! Gleichsam muss natürlich auch die Homogenität gefordert werden.
P ((t, k)|(t − 1, j)) = P ((1, k)|(0, j))
Mit dieser Definition muss der Zustand xi jedes Agenten also einem homogenen (evt. um die
Abhängigkeit vom Zustandsvektor erweiterten) DTDS Markov-Prozess m̃i folgen.
Somit kann, in Analogie zu den letzten Kapiteln, auch eine Liste an Voraussetzungen erstellt
werden, die zumindest einmal notwendige Bedingungen für eine erfolgreiche Überführung eines
agentenbasierten DTDS Modells in ein, für die Theorie taugliches, CT Mikromodell sind.
Bedingung 6.2.1.
(Voraussetzungen für das Kapitel 6.1.)
1
Wie ungewöhnlich diese Idee ist, zeigt sich darin, dass es zumindest in deutscher Sprache nicht einmal
ein Wort dafür gibt.
6.2. VORAUSSETZUNGEN AN DAS DT AGENTENMODELL
Bezeichnung
N
A1 , . . . , A n
m̃ , . . . , m̃n
PN 1
X(t) = i=1 δmi (t),1 , t ∈ {0, . . . , T }
P : {0, . . . , N } × {0, . . . , T } → [0, 1]
i, j, k ∈ {0, 1, . . . , d}
m̃i (0) = ki , ki ∈ {0, . . . , d}
65
Definition
Anzahl der Agenten/DTDS Markov-Prozesse
Agenten
DTDS Markov-Prozesse
Anzahl der Agenten im Zustand 1
Wahrscheinlichkeitsfunktion von X(t)
Variablen aus dem Zustandsraum von mi , ∀i
Anfangswert der Prozesse
Die weiteren Beobachtungen sind auf einen dieser N (ohnedies äquivalenten) MarkovProzesse konzentriert.
Viele Tatsachen lassen sich natürlich aus dem kontinuierlichen Fall übernehmen:
Die Summe X(t) der DTDS Markov-Prozesse, die schlussendlich die Systemvariable ergibt, ist für sich selbst auch ein DTDS Markov-Prozess.
Jeder einzelne Markov-Prozess wird mit einer Übergangsmatrix Q beschrieben, die für
jeden Agenten gleich ist:


P ((1, 0)|(0, 0)) P ((1, 1)|(0, 0)) . . . P ((1, d)|(0, 0))
 P ((1, 0)|(0, 1)) P ((1, 1)|(0, 1)) . . . P ((1, d)|(0, 1)) 


Q := 

..
..
..
..


.
.
.
.
P ((1, 0)|(0, d)) P ((1, 1)|(0, d)) . . . P ((1, d)|(0, d))
bzw., wenn der Markov-Prozess auch von den Zustandsvektoren abhängen darf, muss man
diese erweitern:

~ k ) P ((1, 1)|(0, 0), X
~ k ) . . . P ((1, d)|(0, 0), X
~ k) 
P ((1, 0)|(0, 0), X
 P ((1, 0)|(0, 1), X
~ k ) P ((1, 1)|(0, 1), X
~ k ) . . . P ((1, d)|(0, 1), X
~ k) 


Q=

..
..
..
..


.
.
.
.
~ k ) P ((1, 1)|(0, d), X
~ k ) . . . P ((1, d)|(0, d), X
~ k)
P ((1, 0)|(0, d), X
k ∈ {1, . . . ,
(N − 1)d 2
}.
(d − 1)!
Die Zeilensummen der Übergangsmatrix sind immer 1 und ihre Einträge stets ∈ [0, 1].
Die Übergangsmatrix ist zwar nicht zeitabhängig, sehr wohl kann sie aber wie erwähnt
zustandsabhängig sein. Dennoch ist sie auf jedem ganzem Zeitintervall [t, t + 1), t ∈
{0, . . . , T −} konstant, da sich die Zustände des Systems nur zum Zeitschritt ändern.
Bemerkung 6.2.2.
Der hier verwendete Begriff der Übergangsmatrix ist nicht mit dem Begriff der Übergangsmatrix
im zeitkontinuierlichen Fall (siehe 3.2.2) äquivalent. Hier sind die Einträge stetsP
positiv und die
Zeilensummen konstant 1 - im kontinuierlichen Fall stets 0, da Qi,i = ωi,i = − j6=i ωi,j < 0.
2
Diese Zahl gibt die Menge aller möglichen Zustandsvektoren an. Sie entspricht der Anzahl der Möglichkeiten, d − 1-Grenzen zwischen N aneinandergereihten Agenten zu platzieren, dividiert durch die Anzahl ihrer
Permutationen.
66
KAPITEL 6. ANWENDUNG AUF ZEITDISKRETE AGENTENBASIERTE MODELLE
6.3
Tempora mutantur
Man definiere nun mittels
Definition 6.3.1 (Zeitkontinuierlicher Markov-Prozess zu gegebenen zeitdiskreten
Agentenmodell gem. 6.2.1).
ωi,j : = P ((1, j)|(0, i)), i 6= j
X
ωi,i : = −
ωi,j = P ((1, i)|(0, i)) − 1
j6=i
m(0) : = m̃(0)
einen zeitkontinuierlichen Markov-Prozess. Man darf nun nicht fälschlicherweise davon
ausgehen, dass auch hier die Übergangsraten dieses Prozesses auf jedem vollen Zeitintervall
[t, t + 1), t ∈ {0, . . . , T −} konstant sind, da sich der Zustand des Systems auch währenddessen
ändern kann. Es wird nun kurz die bereits in den vergangenen Kapiteln erwähnte, Vermutung
gezeigt, dass dieser durch den Anfangswert, die Übergangsraten und die Bedingung der Homogenität eindeutig bestimmt ist.
Satz 6.3.2 (Eindeutigkeit des CTDS Markov-Prozesses).
Ein regulärer, homogener CTDS Markov-Prozess ist eindeutig durch Übergangsraten und den
Anfangswert bestimmt
Beweis: Die Summenform der Mastergleichung 3.2.1 für CTDS Markov-Prozesse bzw. auch
die Kolmogorov’sche Rückwärtsgleichung 3.2.2 ist eine gewöhnliche Differentialgleichung erster Ordnung. Im Falle von konstanten Übergangsraten ist die Differentialgleichung sogar linear
und besitzt gemäß der Theorie über lineare Differentialgleichungen eine eindeutige Lösung. Ist
nun der Markov-Prozess regulär, können innerhalb eines infinitesimalen Zeitschrittes nur endlich viele Zustandswechsel stattfinden, womit es um jeden Punkt, der nicht gerade Zeitpunkt
des Zustandswechsels ist, eine offene Umgebung gibt, auf der die Raten konstant und damit die
Lösung eindeutig ist. Ändern sich die Raten auf Grund einer Zustandsänderung des Systems
zu einem gewissen Zeitpunkt, so war der Prozess bis zu diesem Punkt eindeutig bestimmt. Der
Wert des Prozesses an diesem Punkt liefert einen neuen Anfangswert für eine ebenfalls eindeutig
lösbare, durch die neuen Raten veränderte, Differentialgleichung.
Gemäß Definition der Übergangsraten erhält man
P (m(1) = j|m(0) = i) = 1 · ωi,j + O(12 ) = P (m̃(1) = j|m̃(0) = i) + O(1)
6.3. TEMPORA MUTANTUR
67
bzw.
P (m(1) = i|m(0) = i) = 1 · (1 + αi,i ) + O(12 ) = P (m̃(1) = i|m̃(0) = i) + O(1).
Diese Aussage mag auf den ersten Blick enttäuschend sein, doch verbirgt sich hinter dem O(1)
doch ein wenig mehr. Um das einzusehen kann man die Kolmogorov’sche Rückwärtsgleichung
3.2.2 verwenden:


I0 (m(0))
I1 (m(0))


0
P (t) = QP (t), P (0) = 

..


.
Id (m(0))
Da die Übergangsmatrix über einen gewissen Zeitraum konstant bleibt, lässt sie sich gemäß der
Theorie über Matrixexponentialfunktionen auf diesem Intervall lösen (ei bezeichne in Folge den
i-ten Einheitsvektor der Länge d).


0


P (m(t) = 0|m(0) = i)


..


.
P (m(t) = 1|m(0) = i)




Qt
Qt 

 = e 1 [i-te Stelle]
..
 =: e ei ⇒


.


..


.
P (m(t) = d|m(0) = i)
0


P (m(t) = 0|m(0) = i)
∞
P (m(t) = 1|m(0) = i)
X
1 n n


=
e
+
tQe
+
t Q ei =


..
i
i
n


.
n=2

P (m(t) = d|m(0) = i)



tαi,0
tP (m̃(1) = 0|m̃(0) = i)
 .. 


..
 .  Z t

 Z t
.




2 τQ



= ei +  tαi,i  +
Q e ei dτ =  tP (m̃(1) = i|m̃(0) = i) 
Q2 eτ Q ei dτ
+
0
 .. 

 |0
..
{z
}
 . 


.
I
tαi,d
tP (m̃(1) = d|m̃(0) = i)
Term I ist das Restglied in Integralform der Taylorentwicklung der beliebig oft differenzierbaren
Funktion eQt ei .
Teilt man nun das Intervall [0, 1] mit einer endlichen Zerlegung in diejenigen n Punkte ein, in
denen sich der Zustand des Systems respektive die Übergangsmatrix ändert, so lässt sich die
Wahrscheinlichkeitsfuntkion zum Zeitpunkt 1 schreiben als:


P (m(1) = 0|m(0) = i)
P (m(1) = 1|m(0) = i)



 = eQn tn eQn−1 tn−1 . . . eQt0 ei =:
..


.
P (m(1) = d|m(0) = i)
68
KAPITEL 6. ANWENDUNG AUF ZEITDISKRETE AGENTENBASIERTE MODELLE
=: e
(tn + · · · + t0 )(Q+R(Q0 ))
|
{z
}
1
0
ei = e(Q+R(Q )) ei
mit einer Fehlermatrix R(Q0 ), die von der Größe der Änderung der Übergangsmatrix in diesem Zeitschritt abhängt. Der gemachte Fehler pro Zeitschritt lässt sich, setzt man in die obige
Umformung t = 1, mit
||P (m(t) = ·|m(0) = i) − P (m̃(1) = ·|m̃(0) = i)||2 =
0
= ||eQ+R(Q ) ei − P (m̃(1) = ·|m̃(0) = i)||2 ≤
0
≤ ||eQ+R(Q ) − eQ ||2 ||ei ||2 + ||eQ ei − P (m̃(1) = ·|m̃(0) = i)||2 ≤
Z 1
0
||Q||2 ||R(Q0 )||2
≤ ||R(Q )||2 e
e
+ ||
Q2 etQ ei dt||2 ≤
0
0
||Q||2 ||R(Q0 )||2
≤ ||R(Q )||2 e
e
+
||Q||22
1
Z
||etQ ||2 dt ≤
0
0
≤ ||R(Q )||2 e
||Q||2 ||R(Q0 )||2
e
+
||Q||22
Z
1
et||Q||2 dt =
0
0
= ||R(Q0 )||2 e||Q||2 e||R(Q )||2 +||Q||22
e||Q||2 − 1
0
= ||R(Q0 )||2 e||Q||2 e||R(Q )||2 +||Q||2 (e||Q||2 −1)
||Q||2
abschätzen.
0
||P ((1, ·)|(0, i)) − P ((1|˜·)|(0, ĩ))||2 ≤ ||R(Q0 )||2 e||Q||2 e||R(Q )||2 + ||Q||2 (e||Q||2 − 1) (6.1)
Diese Fehleranalyse untermauert den Verdacht, dass der „Diskretisierungsfehler“, bzw. eigentlich der Fehler, der gemacht wird, wenn man das zeitdiskrete Modell mit einem Kontinuierlichen
approximiert, von der Größe der Übergangsraten sowie deren „Ableitungen“, d.h. deren maximalen Abweichungen innerhalb eines Zeitschrittes, abhängt. Je kleiner die Raten, umso geringer
sind natürlich auch die Eigenwerte der Übergangsmatrix und damit die Matrixnorm.
Der tatsächliche Fehler sowie das Erarbeiten handfester Fehlerschranken wird in Kapitel 8 behandelt.
6.4
Verweildauer
Als zusätzliche Motivation für die Wahl des CT Markov-Prozesses wird noch der folgende Satz
über homogene reguläre Markov-Prozesse bewiesen und hinterher angewendet.
Satz 6.4.1 (Verweildauer für CTDS Markov-Prozesse).
Die Verweildauer, d.h. die Zeit, die ein CT Markov-Prozess in einem bestimmten Zustand j
verweilt, ist stets lokal um einen gewissen Zeitpunkt exponentialverteilt mit Parameter αj,j . Zum
Übergangszeitpunkt geht der Markov-Prozess mit Wahrscheinlichkeit −αj,i /αj,j vom Zustand
j in den Zustand i über.
6.4. VERWEILDAUER
69
Beweis: Betrachtet man die Wahrscheinlichkeit, dass ein Markov-Prozess zum Zeitpunkt t0
seinen Zustand wechselt, so erhält man den Ausdruck
h
h
P (j →6= j bei t0 ) = lim P (t0 + , 6= j)|([0, t0 − ], j) =
h→0
2
2
h
h
= 1 − lim P (t0 + , j)|([0, t0 − ], j) .
h→0
2
2
Die Wahrscheinlichkeitsfunktion in der letzten Zeile beschreibt einen Markov-Prozess und erfüllt somit die Mastergleichung (hier mit der Rate αj,j geschrieben)
X ∂P (t + h2 , j)|([0, t0 − h2 ], j)
h
h
=
P (t + , k)|([0, t0 − ], j) αk,j .
∂t0
2
2
k
Da bekannt ist, dass sich der Zustand des Prozesses für t ∈ [0, t0 − h2 ] nicht ändert, gilt
P ((t +
h
h
, k)|([0, t0 − ], j)) = 0,
2
2
P ((t +
h
h
, j)|([0, t0 − ], j)) = 1,
2
2
für alle t ∈ [0, t0 − h]. Damit fallen alle Summanden weg, bis auf jenen mit Faktor αj,j . Es
bleibt
∂P (t + h2 , j)|([0, t0 − h2 ], j)
h
h
= P (t + , j)|([0, t0 − ], j) αj,j .
∂t0
2
2
Die Lösung der resultierenden Gleichung lässt sich ermitteln:
h
h
h
P (t + , j)|([0, t0 − ], j) = e(t+ 2 )αk,j
2
2
Insbesondere gilt damit die Gleichung
h
h
h
h
h
P (t0 − h + , j)|([0, t0 − ], j) = P (t0 − , j)|([0, t0 − ], j) = e(t0 − 2 )αk,j .
2
2
2
2
Man erhält
h
h
h
h
lim P (t0 + , j)|([0, t0 − ], j) = lim P (t0 − , j)|([0, t0 − ], j) = et0 αk,j
h→0
h→0
2
2
2
2
und damit
P (j →6= j bei t0 ) = 1 − et0 αj,j
Auf der rechten Seite erkennt man nun die Verteilungsfunktion der Exponentialverteilung mit
Parameter αj,j .
Ist dieser Zeitpunkt t0 erreicht, so gilt ∀h > 0, dass sich die Wahrscheinlichkeit, dass sich
der Prozess nach dem Zeitpunkt im Zustand i befindet, unter der Bedingung, dass er davor im
70
KAPITEL 6. ANWENDUNG AUF ZEITDISKRETE AGENTENBASIERTE MODELLE
Zustand j war und bekannt ist, dass er sich nachher nicht mehr in diesem Zustand befindet, auf
den folgenden Ausdruck beläuft:
h
h
h
, i)|(t0 + , 6= j), (t0 − , j)) =
2
2
2
P ((h, i), (h, 6= j)|(0, j))
hP ((h, i)|(0, j))
= P ((h, i)|(h, 6= j), (0, j)) =
= P
P ((h, 6= j)|(0, j))
h k6=j P ((h, k)|(0, j))
P (j → i|t0 ) = P ((t0 +
Da der Ausdruck für alle beliebig kleinen h gilt, gilt er auch für den Limes h → 0:
αj,i
αj,i
P (j → i|t0 ) = P
=−
αj,j
k6=j αj,k
Dieser Satz liefert nun u.a. eine Methode, wie ein zeitkontinuierlicher ortsdiskreter regulärer
Markov-Prozess bzw. eine Markov-Prozess basierte Mikrosimulation sogar ohne Diskretisierung simuliert werden kann, indem man exponentialverteilte Zufallszahlen erstellt.
Man untersucht nun die Verteilung der Verweildauer für einen DSDT Markov-Prozess, bzw.
für einen Agenten aus einem Agentenmodell, das die Bedingungen 6.2.1 erfüllt.
Satz 6.4.2 (Verweildauer für einen DTDS Markov-Prozess).
Die Verweildauer eines durch die Übergangsmatrix Q definierten Zustandes j eines MarkovProzesses ist geometrisch verteilt mit Parameter 1 − P ((1, j)|(0, j)). Die Wahrscheinlichkeit
dass der Prozess zum Zeitpunkt t ∈ {0, . . . T } den Zustand ändert, beläuft sich zu
t−1
P ((t, 6= j)|({0, . . . , t − 1}, j)) = Qt−1
(1 − P ((1, j)|(0, j))).
j,j (1 − Qj,j ) = P ((1, j)|(0, j))
Zum Zeitpunkt der Zustandsänderung geht der Prozess mit Wahrscheinlichkeit
P ((1, i)|(1, 6= j), (0, j)) =
P ((1, i)|(0, j))
1 − P ((1, j)|(0, j))
vom Zustand j in den Zustand i über.
Beweis: Beide Aussagen sind von sehr elementarer Natur. Erstere folgt, arbeitet man die Ereignisse der t Zeitschritte schrittweise ab:
P ((t, 6= j)|({0, . . . , t − 1}, j)) =
= P (Prozess bleibt in j) · · · · · (Prozess bleibt in j) P (Prozess bleibt nicht in j).
|
{z
}
t−1
Zweitere folgt direkt aus dem Satz über bedingte Wahrscheinlichkeiten:
P ((1, i)|(1, 6= j), (0, j)) =
P ((1, i) ∩ (1, 6= j)|(0, j))
P ((1, i)|(0, j))
=
.
P ((1, 6= j)|(0, j))
1 − P ((1, j)|(0, j))
6.5. UMRECHNUNG AUF DEN SUMMIERTEN PROZESS
71
Nun gilt dieser Satz natürlich nur für konstant bleibende Übergangsmatritzen und damit nur
für nicht-interagierende Agenten. Immerhin ist aber die Übergangsmatrix für einen Zeitschritt
konstant, womit die Verteilungsfunktion eines DT Agenten, der die Bedingungen 6.2.1 erfüllt,
immerhin für einen Zeitschritt eine geometrische ist.
Gemäß der Definition 6.3.1 folgt, dass der aus dem zeitdiskreten Agentenmodell definierte zeitkontinuierliche Markov-Prozess mit genau den selben Parametern exponentialverteilt ist, mit
denen der zeitdiskrete Agent, zumindest für einen Zeitschritt, geometrisch verteilt ist. Nun gilt
aber der Satz:
Satz 6.4.3 (Konvergenzeigenschaft der Geometrischen- gegen die Exponentialverteilung).
Ist Xn ∼ Geom(λ/n) folgt
Xn
∼ Exp(λ).
n→∞ n
lim
Für den Beweis sei auf Grundlagenliteratur für Wahrscheinlichkeitstheorie verwiesen.
Der Satz liefert nun die Aussage:
Zeitskalierung + inverse Parameterskalierung ⇒
Konvergenz des DT Agenten gegen
den CT Markov-Prozess
Bemerkung 6.4.4.
Tatsächlich gilt für die Lösungskurven der Differentialgleichungen 3.11 bzw. 4.1 mit s := Ct
ω
und νi,j := Ci,j mit C ∈ R
X
X
∂φ(s)
∂φ(t)
=
(Φ1 )ω (φ(t), R)R ⇒
C=
C(Φ1 )ν (φ(t), R)R
∂t
∂s
R6=0
R6=0
⇒ φω (t) = φν (s),
bzw. genauso
σω2 (t) = σν2 (s),
D.h. bleibt
6.5
ωi,j
t
pω (t, x) = pν (s, x).
konstant, ändert sich der Verlauf der Approximationskurven nicht.
Umrechnung auf den summierten Prozess
Nachdem im letzten Kapitel gezeigt wurde, wovon der Diskretisierungsfehler abhängt, der gemacht wird, wenn man den Zustand eines einzelnen Agenten gemäß Definition 6.3.1 approximiert, muss man sich nun die Frage stellen, wie man die für das Kapitel 3 erforderlichen Übergangsraten ω~x,~x+R~ des summierten und normierten Prozesses, ausgehend von den einzelnen
Übergangsraten des agentenbasierten Markov-Modells und in Konsequenz von den Übergangswahrscheinlichkeiten des Agentenmodells, findet.
72
KAPITEL 6. ANWENDUNG AUF ZEITDISKRETE AGENTENBASIERTE MODELLE
Von diesem Zeitpunkt an gelte wieder der Raum X ∈ {0, . . . , N }d als der Zustandsraum, da der
über die Indikatorfunktionen summierte Prozess beobachtet wird. Für den klassisch auftretenden
~ = ~ei − ~ej kann man geschlossen eine Umrechnungsformel angeben.
Fall R
Satz 6.5.1.
[Umrechnungsformel] Es gilt
ω(~x, ~ei − e~j ) = ωX,~
xj ωj,i := ~xj P ((1, i)|(0, j))
~ ei −e~j := ~
mit den kanonischen, d-dimensionalen Einheitsvektoren e~i und e~j .
~ := e~i − e~j so gilt gemäß Definition der Übergangsraten
Beweis: Sei R
~ + R)|(0,
~
~
P ((h, X
X))
.
h→0
h
Gemäß einfacher Kombinatorik lässt sich die Wechselwahrscheinlichkeit von genau einem der
~ j identischen Agenten berechnen:
X
ωX,~
~ ei −e~j = lim
~ + R),
~ (0, X))
~ =X
~ j P ((h, i)|(0, j))(1 − P ((h, i)|(0, j)))X~ j −1
P ((h, X
Ein einzelner Markov-Prozess geht nun mit Wahrscheinlichkeit ωj,i h + O(h2 ) vom Zustand j
in den Zustand i über.
~ + R),
~ (0, X))
~ =X
~ j ωj,i h(1 − hωj,i )X~ j −1 + O(h2 )
P ((h, X
Damit gilt für die Übergangsrate
~ j −1
X
~
~ j ωj,i .
ωX,~
+ O(h) = X
~ ei −e~j = lim Xj ωj,i (1 − hωj,i )
h→0
In diesem Sinne sind Übergangsraten also in gewissem Maße linear. Da
~ + R)|(0,
~
~ = P ((1, ~x + N −1 R)|(0,
~
P ((1, X
X)
~x))
gilt die Gleichheit
~ = ω~ ~.
ω(~x, R)
X,R
Bemerkung 6.5.2.
Da man das Zeitintervall h durch den Limes beliebig klein machen kann, muss man nicht berücksichtigen, dass innerhalb des beobachteten Zeitintervalls ggfs. noch zusätzliche Prozesse
den Zustand wechseln und damit die Übergangsraten beeinflussen. Alle den Zustand verlassende [betretende] Prozesse müssen tatsächlich gleichzeitig den Zustand wechseln. Somit ist e~i − e~j
meist die einzige mögliche Zustandsänderung, die man berücksichtigen muss.
~ 6= e~i − e~j erlauben, wäre ein PopulationsEin Beispiel, in dem es aber doch Zustände gibt, die R
modell, welches auf Eheschließungen abzielt. Den Zustand „verheiratet“ kann man ja schließlich
nicht alleine betreten oder verlassen.
6.6. ZUSAMMENFASSUNG UND LETZTE VORAUSSETZUNGEN
6.6
73
Zusammenfassung und letzte Voraussetzungen
Im letzten Kapitel wurde gezeigt, dass unter der Vorraussetzung von kleinen Übergangswahrscheinlichkeiten eines Agenten, diese direkt als Übergangsraten für ein CT Markov-Modell verwendet werden können und wie sich auf einfache Weise Übergangsraten für den Markov-Prozess
der Zustandsvariablen ergeben. Somit kann ein Agentenmodell gemäß Definition 6.3.1 mit einem CT Markov-Prozess basierten Mikromodell approximiert werden. Um das Agentenmodell
nun mit der Mastergleichung bzw. der Kramers-Moyal-Entwicklung behandeln zu können, muss
man die Voraussetzungen aus 6.2.1 noch gemäß 3.4.2 erweitern.
Bedingung 6.6.1.
(Voraussetzungen für ein für die Theorie aus Kapitel 3 taugliches DT Agentenmodell)
Bezeichnung
N
A1 , . . . , A n
m̃ , . . . , m̃n
P 1
Xa (t) = N
i=1 Ia m̃(t), t ∈ {0, . . . , T }
P : {0, . . . , N } × {0, . . . , T } → [0, 1]
a (t)
xa (t) := XN
~
~
X(0)
= ~k0 , ~x(0) = kN0 = x0
~k0 ∈ {0, . . . , N }d , ||k0 ||1 = N
P
−n Φ (x))
P (m̃(1) = a|b) = g(N )( ∞
n
n=0 N
Definition
Anzahl der Agenten/DTDS Markov-Prozesse
Agenten
(erweiterte) DTDS Markov-Prozesse
Anzahl der Agenten im Zustand a
Wahrscheinlichkeitsfunktion von X(t)
normierter Prozess
Vektorwertiger Anfangswert der Prozesse
mit Summe N über alle Elemente
Polynomdarstellungsmöglichkeit
Da die für die Umformung zu DG-System notwendigen Übergangsraten des zeitkontinuierlichen Prozesses x(t) auf lineare Weise aus den Übergangswahrscheinlichkeiten des Agentenmodells entstehen, ist, um die Polynomdarstellung der Übergangsraten zu sichern, auch eine
polynomielle Darstellung für die Übergangswahrscheinlichkeiten, die ja auch von Systemparametern abhängen können, gefordert.
Es folgt nach allem Gezeigten der Satz:
Satz 6.6.2.
Erfüllt ein agentenbasiertes Modell die Bedingungen 6.6.1, so approximiert der in 6.3.1 und in
6.5.1 definierte CT-Markov-Prozess das Agentenmodell (bzgl. des Zustandsvektors x) und kann
gemäß der Theorie aus Kapitel 3 bzw. 5 mit einem System aus Differentialgleichungen beschrieben werden.
Der Fehler der Dichten bzw. Wahrscheinlichkeitsfunktionen ist von den Größen der Übergangsraten, der Anzahl der Agenten und der Anzahl der Durchläufe des Experiments abhängig.
KAPITEL
1. Bsp: Ehrenfestsches
Urnenproblem
Zu Beginn des 20. Jhdt entwickelte der österreichische Quantenphysiker Paul Ehrenfest ein stochastisches Gedankenexperiment, welches hier, ob seiner Einfachheit, als Modellproblem dienen soll. Es handelt sich dabei um das berühmte Ehrenfest’sche Urnenmodell, nachzulesen im
Buch „The Encyclopaedia Britannica“ unter „Ehrenfest model of diffusion“ [Enc07], mit welchem Ehrenfest seinerzeit versuchte, das zweite Gesetz der Thermodynamik zu veranschaulichen.
7.1
Problemstellung
Definition 7.1.1 (Ehrenfestsches Urnen Problem).
Gegeben seien N unabhängige Partikel Pn mit Zustand 1 oder 0. Jedes Partikel folgt einem CT
Markov-Prozess. Die Übergangsraten, mit denen ein Partikel von Zustand i zu j wechselt seien
konstant und definiert mit:
ω(0, 1) = λ ω(1, 0) = µ.
Visualisieren lässt sich das Modell am besten mithilfe eines Raumes, der in der Mitte durch eine
Membran in zwei Teilbereiche getrennt ist. Auf die beiden Bereiche werden nun N Teilchen
verteilt, die ihrerseits während jedes Zeitintervalls eine gewisse Wahrscheinlichkeit haben, durch
die Membran in den anderen Bereich durchzudringen (siehe Abbildung 7.1). Während Ehrenfest
damals mit diesem Experiment das Prinzip der Entropie veranschaulichen wollte, dient es hier
als das Modellproblem für ein agentenbasiertes CT Markov-Modell. Ausgehend von diesem
kann man auch ein klassisches DT Agentenmodell definieren.
75
7
76
KAPITEL 7. 1. BSP: EHRENFESTSCHES URNENPROBLEM
1
0
µ
λ
µ
Abbildung 7.1: Skizze des Ehrenfest’schen Urnenproblems
Definition 7.1.2 (DT Urnen Problem).
Gegeben seien N unabhängige Partikel Pn im Zustand 1 oder 0. In jedem Zeitschritt geht ein
Agent im Zustand 0 mit Wahrscheinlichkeit
P ((1, 1)|(0, 0)) := λ ≤ 1
in den Zustand 1 über. Umgekehrt geht ein Agent im Zustand 1 mit
P ((1, 0)|(0, 1)) := µ ≤ 1
in den Zustand 0 über.
Die beiden Definitionen unterscheiden sich grundlegend vor allem anhand der Bedingung
λ(µ)≤ 1. Was im Falle von Wahrscheinlichkeiten eine notwendige Bedingung ist, spielt bei
Übergangsraten keine Rolle. Gemäß der Analyse des Diskretisierungsfehlers muss sogar
λ 1,
µ1
verlangt werden, damit das diskrete Urnenmodell ähnliche Ergebnisse liefert, wie das CT MarkovModell. Um also die Theorie aus Kapitel 3 auf das DT Agentenmodell anwenden zu können,
seien die Übergangswahrscheinlichkeiten ab sofort 1.
7.2. RESULTIERENDE DIFFERENTIALGLEICHUNGEN
7.2
7.2.1
77
Resultierende Differentialgleichungen
Überprüfen der Bedingungen
Um das Modell nun theoretisch zu analysieren, müssen zunächst die Übergangsraten des aufsummierten und normierten Markov-Prozesses
N
1 X
I1 (Pn (T ))
x(t) := x1 (t) :=
N
i=0
bestimmt werden.
Bemerkung 7.2.1.
Obwohl das Modell zwei Zustände 0 und 1 hat ist es eindimensional, da bei bekannter Anzahl
der Agenten X(t) im Zustand 1, die Anzahl der Agenten im zweiten Zustand 0 auf triviale Weise
direkt durch N − X(t) folgt. Selbiges folgt natürlich auch für den normierten Prozess, wo mit
1 − x(t) der Wert des normierten Prozesses für den Zustand 0 eindeutig aus dem Wert x(t) des
Prozesses für den Zustand 1 bestimmt ist.
Gemäß Gleichung 6.5.1 erhält man auf einfache Weise die für die Differentialgleichung
notwendigen Raten:
ωX,X+1 = (N − X)λ ⇒ ωx,1 = N (1 − x)λ (= ω~x,~e1 −e~2 )
ωX,X−1 = Xµ ⇒ ωx,−1 = N xµ (= ω~x,~e2 −e~1 )
Da in diesem Experiment Übergänge von mehreren Agenten fast sicher nicht gleichzeitig verlaufen können, verschwinden alle anderen Übergangsraten (vgl. Bemerkung 6.5.2).
ωx,x+R = 0,
∀|R| > 2
Die Übergangsrate ωx,x berechnet sich gemäß Definition der Übergangsraten zu
ωx,x = −ωx,x+1 − ωx,x−1 = −N xµ − N (1 − x)λ = N (x(λ − µ) − λ).
Leicht zu sehen sind alle Übergangsraten
ωx,y : {0, N −1 , . . . , 1}2 → R
auf triviale Weise nach
ωx,y : [0, 1]2 → R
erweiterbar und nach der Variable x differenzierbar. Die Darstellung als Polynom liefert
ωx,x+R = f (N )(Φ1 (x, R) + N −1 Φ2 (x, R) . . . ) ⇒
ωx,x+1 = N λ(1 − x) ⇒ f (N ) := N, Φ1 (x, 1) = λ(1 − x)
ωx,x = N (x(λ − µ) − λ) ⇒ f (N ) := N, Φ1 (x, 0) = x(λ − µ) − λ
ωx,x−1 = N µx ⇒ f (N ) := N, Φ1 (x, −1) = µx
ωx,x+R = 0,
∀|R| > 1.
78
7.2.2
KAPITEL 7. 1. BSP: EHRENFESTSCHES URNENPROBLEM
Erwartungswertkurve
Gemäß Gleichung 3.11 folgt der Erwartungswert des Modells näherungsweise der Kurve φ, die
durch die Differentialgleichung
X
∂φ(τ )
=
Φ1 (φ(τ ), R)R = 1 · λ(1 − φ(τ )) + (−1) · µφ(τ ) =
∂τ
R6=0
= −φ(τ )(λ + µ) + λ,
mit φ(0) = x0 = N
n=0 I1 Pn (0) als Anfangswert beschrieben wird. Die Zeitvariable τ
)
folgt der Substitution τ = f (N
N t = t (d.h. die Zeit muss nicht substituiert werden).
Die entstende Differentialgleichung ist linear und analytisch lösbar:
PN
−1
φ0 = −φ(τ )(λ + µ) + λ ⇒
φ(t) = φh (t) + φp (t) = Ce−t(λ+µ) +
λ
λ+µ
Durch φ(0) = x0 folgt
x0 = C +
φ(t) = x0 −
7.2.3
λ
λ+µ
λ
⇒
λ+µ
e−t(λ+µ) +
λ
.
λ+µ
(7.1)
Equilibrium des Erwartungswertes
Von großem Interesse ist an dieser Stelle auch das Langzeitverhalten der Lösung. Da λ und µ
als Wahrscheinlichkeiten stets positiv (≥ 0) sind, folgt
lim φ(t) =
t→∞
λ
.
λ+µ
(Sind µ und λ beide gleich 0 so ändert sich das Agentenmodell genauso wenig, wie die Differentialgleichung. Man erhielte die konstante Lösung x0 in beiden Modellen mit Varianz konstant 0;
d.h. eine entartete Dichtekurve.)
Betrachtet man im Gegenzug das Langzeitverhalten des Erwartungswertes für das aufsummierte
Agentenmodell x(t), t ∈ {0, 1, . . . }, so muss man den Ausdruck
lim E(x(t)|x(0) = x0 ) =: E(x(∞)|x(0) = x0 )
t→∞
betrachten, sofern der Limes existiert. Gemäß der Gleichung von Chapman-Kolmogorov (Satz
2.1.6), die hier ohne Einschränkung gilt, da die Agenten nicht interagieren, lässt sich der Erwartungswert mit endlicher Zeit t umschreiben.
X X
E(x(t + 1)|x(0) = x0 ) =
(x
P ((1, x)|(0, y))P ((t, y)|(0, x0 ))) =
x
y
7.2. RESULTIERENDE DIFFERENTIALGLEICHUNGEN
=
X
P ((t, y)|(0, x0 ))
X
y
xP ((1, x)|(0, y)) =
X
x
79
∗
P ((t, y)|(0, x0 ))E(x(1)|x(0) = y) =
y
Als Summe über sogenannte Bernoulli-Ereignisse sind sowohl die yN Agenten im Zustand 1,
also auch die N (1 − y) Agenten im Zustand 0 über einen Zeitschritt hinweg binomialverteilt:
X1 ∼ Binom(N y, (1 − µ))
X2 ∼ Binom(N (1 − y), λ),
mit (X(1)|X(0) = N y) ∼ X1 + X2 . Somit gilt für den normierten Erwartungswert über einen
Zeitschritt die Gleichung
E(x(1)|x(0) = y) =
E(X1 )
+
N
E(X2 )
N
= y(1 − µ) + (1 − y)λ = y(1 − µ − λ) + λ.
(7.2)
Setzt man also die Umformung für den Erwartungswert an der Stelle t + 1 fort, so gilt
∗
=
X
P ((t, y)|(0, x0 ))(y(1 − µ − λ) + λ) =
y
!
= (1 − µ − λ)
X
P ((t, y)|(0, x0 ))y
+λ
X
y
P ((t, y)|(0, x0 )) =
y
|
{z
=1
}
= (1 − µ − λ)E(x(t)|x(0) = x0 ) + λ.
Durch diese Umformung erhält man eine rekursive Darstellung für die explizite Folge
(E(x(t)|x(0) = x0 ))t . Als Grenzwert kann, gemäß dem Fixpunktsatz von Banach, ausschließlich der Ausdruck E(x(∞)|x(0) = x0 ) mit
E(x(∞)|x(0) = x0 ) = (1 − µ − λ)E(x(∞)|x(0) = x0 ) + λ
⇒ E(x(∞)|x(0) = x0 ) =
λ
λ+µ
in Frage kommen. Die Rekursion
at+1 = (1 − λ − µ)at + λ
λ
ist aber, wie man leicht nachrechnet, für jedes offene Intervall (al , ar ) ∈ [0, 1] das λ+µ
enthält
und für 0 < λ + µ < 1 sowie 0 < λ < 1, eine strikte Kontraktion, womit der im Fixpunktsatz
bestimmte Grenzwert angenommen wird. (Eine sehr ähnliche Rechnung wird später im Kapitel
8 für die analoge, verallgemeinerte Aussage durchgeführt.)
Der Grenzwert des Erwartungswertes im Agentenmodell entspricht also dem Equilibriumzustand der Lösung der Differentialgleichung 3.11.
80
7.2.4
KAPITEL 7. 1. BSP: EHRENFESTSCHES URNENPROBLEM
Varianz
Gemäß Gleichung 4.1 lässt sich auch eine Approximation an die Varianz des agentenbasierten
Modells ermitteln.
∂σ 2 (τ )
= −2αx (φ(τ ))σ 2 (τ ) + 2β(φ(τ )) =
∂τ
X
X
Φ1 (φ(τ ), R)(−R)2 =
(Φ1 )x (φ(τ ), R)(−R) + 2
= −2σ 2 (τ )
R6=0
R6=0
= −2σ 2 (τ )((−1) · (−λ) + 1 · µ) + 2(1 · λ(1 − φ(τ )) + 1 · µφ(τ )) =
= −2σ 2 (τ )(λ + µ) + 2(λ + φ(τ )(µ − λ)) =
λ
λ
2
−τ (λ+µ)
= −2σ (τ )(λ + µ) + 2(λ +
x0 −
e
+
(µ − λ))
λ+µ
λ+µ
Auch diese gewöhnliche, lineare Differentialgleichung mit Störfunktion ist, wenn auch nicht
trivial, analytisch lösbar. Der Vollständigkeit halber ist hier die Lösung mit t = τ angegeben:
2
2
2
µλ
2
−2(µ+λ)t −λ + x0 (λ − µ )
2t(λ+µ)
σ (t) = e
+
e
+
(7.3)
(λ + µ)2
(λ + µ)2
−2(µ+λ)t (λ − µ)(−x0 (µ + λ) + λ) t(λ+µ)
+2e
e
(λ + µ)2
2
Mittels V(x)(t) = σ N(t) lässt sich somit die Varianz des Agentenmodells approximieren.
Wie im Fall des Erwartungswertes ist auch hier das Langzeitverhalten der Funktion interessant.
Man erkennt, dass die Varianz zwar mit t monoton wachsend, aber sogar beschränkt ist. Der
µλ
Grenzwert beträgt N −1 (λ+µ)
2 , womit das Modell in diesem Sinne zeitlich stabil bleibt.
Bemerkung 7.2.2.
Dass diese Tatsache nicht trivial ersichtlich ist, sieht man, vergleicht man das Modell (mit der
Fokker-Planck-Gleichung 3.12) mit einer klassischen Diffusions- (Wärmeleitungs-) gleichung
Πt − Πξξ α = 0,
mit den Randbedingungen Π(0, ·) = δ0 (ξ) und
Π(·, −∞) = Π(·, ∞) = Πξ (·, −∞) = Πξ (·, ∞) = 0.
Eine Fundamentallösung ist mit
−ξ2
Π(ξ, t) = (4απt)−1/2 e 4αt
gegeben. Da diese ohnedies bereits Lösung zur Diffusionsgleichung mit Delta-distributioneller
Anfangsbedingung bei 0 ist, erfüllt sie die Zeit-RB und ebenso, wie sich zeigt, die Orts-RB.
Um die Analogie zum Agentenmodell deutlich zu machen, sei für diese Dichte die analoge
Substitution durchgeführt:
p̃(x̃, t) = (4απt)−1/2 e
−N (x̃−φ(t))2
4αt
c.
7.3. RESULTATE ZUM KONKRETEN BEISPIEL
81
D.h. man erhält eine zeitabhängige
Gauss Verteilung mit Mittelwert φ(t) und eine Normierungs√
konstante c, die sich zu c = N bestimmen lässt.
Somit gilt
r
N −N (x̃−Φ(t))2
4αt
.
p̃(x̃, t) =
e
4απt
Die von Zeit und N abhängige Varianz der Kurve beträgt 4αt
N . Sie wird mit t linear größer (und
geht mit N → ∞ gegen 0). Die Varianz bleibt somit für festes N mit der Zeit unbeschränkt.
7.2.5
Dichte
Der Ansatz zur Lösung der Differentialgleichung 3.12 liefert nach Bestimmung der Varianz eine
Dichtefunktion Π mit
Π : [0, tend ] × [−∞, ∞]
√
N (ξ)2
N
− 2
2σ
(t)
e
Π(t, ξ) = p
2πσ 2 (t)
und nach der Variablensubstitution ξ → x die Dichtefunktion
√
N (x−φ(t))2
N
−
σ 2 (t)
e
,
p(x, t) = p
2
2πσ (t)
die schlussendlich die Dichte des Agentenmodells annähert.
7.3
Resultate zum konkreten Beispiel
Es folgen nun einige Plots, die abschließend zu diesem Modellbeispiel die Theorie untermauern
sollen. Zu diesem Zweck gibt die folgende Tabelle zunächst einen Überblick über die für die
einzelnen Abbildungen verwendeten Parametersätze.
Abb.
7.2
7.3
7.4
7.5
7.6
7.7
Typ
DT Agent
Vergleich: Mittelwerte
Vergleich: Varianz
Vergleich: Dichte
Fehler für mehrere N · M
Fehler mit Skalierung
N
{200, 1000, 2000}
1000
1000
1000
10
10000
M
1
1000
1000
5000
1 + 10 · C
1
λ
0.05
0.05
0.05
0.05
0.05
µ
0.1
0.1
0.1
0.1
0.1
0.2
C
0.1
C
x0
0.1
0.1
0.1
0.1
0.1
0.1
Abbildung 7.2 zeigt die Graphen von mehreren Durchläufen des Agentenmodells mit unterschiedlichen Agentenzahlen. Man sieht sehr schön, dass für hohe Agentenzahlen die Abweichung zum Mittelwert stets kleiner wird.
Nach dem Mitteln über M Durchläufe erhält man stochastisch gute Approximationen an Erwartungswert durch
M
1 X
Xi (t)
E(X(t)) ≈ X(t) :=
M
i=1
82
KAPITEL 7. 1. BSP: EHRENFESTSCHES URNENPROBLEM
N=2000
0.4
0.3
0.2
0.1
0
0
5
10
15
20
25
30
35
40
25
30
35
40
25
30
35
40
N=1000
0.4
0.3
0.2
0.1
0
0
5
10
15
20
N=200
0.4
0.3
0.2
0.1
0
0
5
10
15
20
Abbildung 7.2: Unterschiedliche Werte für N
und Varianz mittels
M
V(X(t)) ≈ Xσ2 (t) :=
1 X
(Xi (t) − X(t))2 .
M −1
i=1
Bemerkung 7.3.1.
Der Normierungsterm M − 1 (statt M ) rührt von der Konsistenz des Varianzschätzers her.
Grafik 7.3 zeigt sowohl den durch den Schätzer ermittelten empirischen Erwartungswert
(oben), als auch die durch die Differentialgleichung 3.11 ermittelte Kurve φ(t) (unten). Die
beiden, den Mittelwert bzw. die Kurve φ in einem symmetrischen Intervall einschließenden,
Kurven φl und φr erhält man durch
q
q
φl := (X)(t) − Xσ2 (t), φr := (X)(t) + Xσ2 (t)
in der oberen der beiden Grafiken und
p
σ 2 (t)
φl := φ(t) − √
,
N
p
σ 2 (t)
φr := φ(t) + √
N
7.3. RESULTATE ZUM KONKRETEN BEISPIEL
83
in der unteren Grafik, wobei σ 2 (t) die aus Differentialgleichung 4.1 ermittelte Varianzkurve
ist. D.h. die Grafiken zeigen das, den Mittelwert einschließende symmetrische Intervall, dessen
Breite die Standardabweichung der Kurven ist. Man erkennt gut, dass beide Kurven nahezu ident
verlaufen. Der errechnete Equilibriumswert
lim E(X)(t) =
t→∞
λ
0.05
1
=
=
λ+µ
0.1 + 0.05
3
stellt für beide Erwartungswertkurven eine waagerechte Asymptote dar.
Die Dimension der Varianz (bzgl. N ) und dessen Konvergenz gegen
Empirischer Mittelwert und Standardabweichung
0.4
0,333
0,3
0,2
0,1
0
5
10
15
20
25
30
35
40
35
40
Errechneter Mittelwert und Standardabweichung
0,4
0.333
0,3
0,2
0,1
0
0
5
10
15
20
25
30
Abbildung 7.3: Erwartungswertkurve mit Standardabweichungskurve
lim V(X)(t) = N −1
t→∞
λµ
2
= N −1
(λ + µ)2
9
ist gut in Abbildung 7.4 ersichtlich.
Um schlussendlich Vergleiche zur errechneten Gaussverteilung zu ermöglichen, muss zunächst
84
KAPITEL 7. 1. BSP: EHRENFESTSCHES URNENPROBLEM
Empirischer Varianzschätzer
-4
x 10
Varianz der zeitabhängigen Gaussverteilung
-4
x 10
1000-1*2/9
2
2
1
1
0
5
10
15
20
25
30
35
0
40
0
5
10
15
20
25
30
35
40
Abbildung 7.4: Vergleich der Varianzen
eine Art empirische Dichtekurve aus einer möglichst großen Zahl an Durchläufen ermittelt werden. In Abbildung 7.5 (links) wurde dies anhand von M = 5000 Stichproben durchgeführt.
Dazu sei zunächst das Intervall [0, 1) in K, in diesem Fall, K = 300 Klassen eingeteilt:
[0, 1) =
K
K
X
X
h−1 h
[
Sh
, ) :=
K K
h=1
h=1
Danach wird für jeden Zeitschritt t der Wert
p(
M
h
1 X
, t) :=
ISh (Xj (t))
K
M
j=0
ermittelt, was zu einer Funktion
p:{
1 2
1
, , . . . , 1} × {0, . . . , T } → {0, , . . . , 1}
K K
M
führt. Dieser Vorgang führt zu relativ großem Rechenaufwand und macht eine große Anzahl
M K Durchläufe notwendig, um überhaupt verwertbare Plots zu erhalten. Die rechte Grafik in Abbildung 7.5 zeigt zum Vergleich dazu die errechnete zeitabhängige Gaussverteilung.
Gemäß Bemerkung 4.3.3 macht es in diesem Modell keinen Unterschied, ob N · M Agenten genau einmal berechnet, summmiert und normiert werden, oder ob N -mal das Modell mit
M Agenten berechnet und anschließend gemittelt wird, da die Übergangsraten der einzelnen
Agenten nicht vom Zustand des Systems abhängen. Das gilt natürlich nur dann, wenn mit
xN0 = xM0 der Anfangswert der Modelle gleich gewählt ist, bzw. überhaupt gleich gewählt
werden kann (Setzt man z.B. x0 = 0.1, so ist die kleinst mögliche Agentenanzahl, mit der das
7.3. RESULTATE ZUM KONKRETEN BEISPIEL
85
Empirische Dichtekurve M=5000, 300 Klassen
Errechnete zeitabhängige Gaussverteilung
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
0
5
10
15
20
25
30
35
40
5
10
15
20
25
30
35
40
Abbildung 7.5: Vergleich der Dichtekurven
Modell rechenbar ist offensichtlich N = 10). Abbildung 7.6 zeigt für unterschiedliche Werte
von N · M den Fehler, den das Agentenmodell, mit den Parametern M und N gerechnet zur
Funktion φ(t) macht, gemessen bezüglich der || · ||l2 Norm. Um die Abschätzungen aus Kapitel
4 zu untermauern, ist zusätzlich die Funktion
√
−1
f (N · M ) = C N · M
eingezeichnet.
Gemäß Bemerkung 6.4.4 wird die Differentialgleichungs-Approximation besser, wenn man eine
Skalierung vornimmt:
ωˆi,j :=
ωi,j
, ∀i, j,
C
s := Ct,
C∈R
Geht man von den Übergangsraten λ = 0.2 und µ = 0.2 und einem Endzeitpunkt T = tend von
20 aus, so zeigt die Abbildung 7.7 die Entwicklung des Fehlers zur Differentialgleichungskurve
φ(t), wenn man die Raten durch einen Faktor C ∈ {1, . . . , 30} dividiert und die Zeit mit ebendiesem Faktor multipliziert. Es ergeben sich dadurch im Maximalfall bis zu 600 Zeitschritte,
womit der Lösungsvektor des Agentenmodells für alle C unterschiedlich lang ist. Um die Norm
vergleichbar zu machen, werden stets nur die Fehler von den 20 Zeitpunkten quadriert und aufsummiert, die in allen Lösungsvektoren vorkommen. Die Modelle werden mit N = 10000 und
M = 1 gerechnet. Der Plot beinhaltet zusätzlich noch die Funktion k · C1 , mit der der Fehler, der
Theorie nach, kleiner werden soll.
86
KAPITEL 7. 1. BSP: EHRENFESTSCHES URNENPROBLEM
Fehlerentwicklung bzgl. N⋅ M
Fehler in der ||.||2 Norm
1
0.8
0.6
3N(-1/2)
||φ(t)-xN(t)||2
0.4
0.2
0
10
200
400
600
800
1.000
1.200
Agentenanzahl mal Durchlaufzahl: M⋅N
1.400
1.600
1.800
2.000
Abbildung 7.6: Fehler mit unterschiedlichen Werten von N · M
7.4
Rück und Ausblick
Zusammenfassend lässt sich durch die konstanten Übergangsraten des Modells die Theorie perfekt anwenden, und die resultierenden Differentialgleichungen sind sogar analytisch lösbar. Da
der tatsächliche Anwendungsbereich des Modells mit konstanten µ und λ aber sehr eingeschränkt ist, sollte das vorgestellte Beispiel primär vermitteln, wie die Theorie in der Praxis
anzuwenden ist und zeigen, dass die Überlegungen aus den Kapiteln 3, 4 und 6 nicht nur von
theoretischer Natur sind. Ziel des Modellvergleichs ist es jedoch, deutlich kompliziertere Modelle mit mehr als 2 Zuständen und Übergangsraten µ = µ(~x), wobei ~x der aktuelle Zustandsvektor
des summierten Markov-Prozesses ist, mithilfe der Theorie analysieren zu können. Bevor jedoch
Beispiele höheren Schwierigkeitsgrades untersucht werden, sei die Fehleranalyse präzisiert.
7.4. RÜCK UND AUSBLICK
1.5
x 10
87
Fehlerentwicklung beim Skalieren
-3
Fehler
1
0.5
0
1
5
10
15
20
25
Faktor C
Abbildung 7.7: Fehler mit Zeit- und Raten-Skalierung C
KAPITEL
Fehleranalyse
In den letzten Kapiteln wurden bereits einige Fehleranalysen durchgeführt, beziehungsweise die
Größenordnung von einigen Fehlern bestimmt. Was aber leider alle bis zu diesem Punkt durchgeführten Fehleranalysen gemeinsam haben ist, dass es sich lediglich um qualitative Analysen
des Fehlers in Form von Landau Symbolen handelt, aber nicht um handfeste, verwertbare Abschätzungen.
Zudem wurde der Fehler stets schrittweise, d.h. sich aufsummierend von Modelltyp zu Modelltyp (siehe Abbildung 8.1) ermittelt, anstatt direkt das agentenbasierte zeitdiskrete Modell mit
dem Differentialgleichungsmodell zu vergleichen.
Diese zwei Lücken zu füllen ist nun Ziel dieses Kapitels.
Ziel der Fehlerabschätzung
DT
Agentenmodell
Stoch. Größe
Diskretisierungs
fehler ||W||
Durchlaufzahl
M
Kramers
Moyal
Entwicklung N
Differential
gleichung
CT
Agentenmodell
Stoch. Größe
DT
Agenten
modell
Abbildung 8.1: Überblick über bisherige Abschätzungen
89
8
90
8.1
KAPITEL 8. FEHLERANALYSE
Gegenüberstellung der Problemstellungen
Wie in den vergangenen Kapiteln erwähnt, ist mit der Definition eines zeitdiskreten agentenbasierten Modells über Übergangswahrscheinlichkeiten, Anfangswert und Agentenzahl eine, die
stochastischen Größen des Zustandsvektors des Agentenmodells approximierende, Differentialgleichung (Differentialgleichungssystem) bereits eindeutig definiert. Gemäß 6.3.1 und 6.5.1
bzw. Kapitel 5 ergibt sich die Umrechnung, wie sie in der vereinfachten Skizze 8.2 zu sehen ist.
Da in einem zeitdiskreten Modell innerhalb eines Zeitschrittes maximal N Agenten ihren Zustand ändern können, kann man davon ausgehen, dass bei einem, das zeitdiskrete Modell approximierenden, CT Markov-Modell mit nicht-verschwindender Wahrscheinlichkeit nie mehr
als ein Agent gleichzeitig den Zustand ändert (Vergleich 6.5.2). Selbst wenn das DT Modell
rein theoretisch vorsähe, dass einige Zustandswechsel von mehreren Agenten gleichzeitig zu
erfolgen haben, kann man sich die Zustandswechsel im kontinuierlichen Modell innerhalb des
Zeitschrittes auch mit nicht verschwindendem Zeitabstand, hintereinander, vorstellen. Basierend
auf dieser Überlegung wird in Folge genau einer der d Zustände, nämlich oBdA der Zustand 1
~ 1 =: X, welcher als Beobachtungszustand bezeichnet wird, betrachtet, wobei dieser genau
mit X
zwei nicht-verschwindende Raten besitzt.
Definition 8.1.1 (Exit/Entry Rate für Zustand 1).
Der Beobachtungszustand 1 der CT Approximation des Agentenmodells besitzt nun genau eine
Exit Rate ωex
X
~ := ωX,X−1 = X
~
ωex := ωex (X, X)
P ((1, a)|(0, 1), X)
a6=1
und eine Entry Rate ωen
~ := ωX,X+1 =
ωen := ωen (X, X)
X
~
Xa P ((1, 1)|(0, a), X),
a6=1
~ sowie insbesondere vom Zustand X abhängen dürfen.
wobei beide Raten vom Zustandsvektor X
Die Entry Rate lässt sich umschreiben zu
~
ωen = (N − X)λ(X)
mit dem gewichteten Mittel
~ :=
λ(X)
N
X
a=2
Xa
~ ∈ [0, 1],
P ((1, 1)|(0, a), X)
N −X
welches als Entry Wahrscheinlichkeit bezeichnet wird. Analog dazu wird mit
~ :=
µ(X)
N
X
a=2
~
P ((1, a)|(0, 1), X)
8.2. WAHRSCHEINLICHKEITSMODELL FÜR DAS DT AGENTENMODELL
91
die sogenannte Exit Wahrscheinlichkeit definiert.
~
ωex = Xµ(X)
~
ωen = (N − X)λ(X)
...
...
....
Abbildung 8.2: Skizze für die Umrechnung - φ steht Beispielhaft für eine stochastische Größe
8.2
8.2.1
Wahrscheinlichkeitsmodell für das DT Agentenmodell
Verteilung für einen Zeitschritt
Gegeben sei nun ein Zeitpunkt t0 zu welchem sich X Agenten im Beobachtungszustand 1 befin~ Agenten im Zustand [1, . . . , d]T . Die Funktionen µ(X)
~ und λ(X)
~
den mögen bzw. insgesamt X
seien die Exit und Entry Wahrscheinlichkeit des Beobachtungszustandes. Es wird nun ausgehend davon ein Wahrscheinlichkeitsmodell für den nächstfolgenden Zeitpunkt t0 + 1 aufgestellt.
92
KAPITEL 8. FEHLERANALYSE
Für i ∈ {0, . . . , N }, i =: X + R ergibt sich
∗
~ = P ((t0 + 1, X + R)|(t0 , X))
~ =
P ((t0 + 1, i)|(t0 , X))
∗
min{X,N −X−R} N −X
R+m
X
=
m=0
X
µm (1 − µ)X−m λR+m (1 − λ)N −X−R−m
m
für R ≥ 0 und
∗
min{X+R,N −X} N −X
m
X
=
m=0
X
µm−R (1 − µ)X−m+R λm (1 − λ)N −X−m
m−R
für R < 0.
Diese sehr unansehnlichen Formeln lassen sich nachvollziehen, überlegt man folgendes:
Ist R = 0 bedeutet das, dass sich die Zustandsvariable innerhalb des Zeitschrittes nicht verändert hat, was aber noch nicht bedeutet, dass alle Agenten selbst ihren Zustand beibehalten haben.
Wichtig ist nur, dass für jeden Agenten, der seinen Zustand verändert hat, ein komplementärer
Agent ebenfalls seinen Zustand verändert haben muss. Die Summe über alle Möglichkeiten,
Agentenpaare auszuwählen, multipliziert mit der Wahrscheinlichkeit der paarweisen Zustandsänderung, ergibt nun die gewünschte Wahrscheinlichkeit für R = 0. Die anderen Wahrscheinlichkeiten ergeben sich analog dazu, indem man zusätzliche R Agenten ohne komplementären
Gegenpart den Zustand ändern lässt.
8.2.2
Erwartungswert nach einem Zeitschritt
Trotz dieses sehr komplizierten Wahrscheinlichkeitsmodells lässt sich ähnlich zur Rechnung 7.2
der Erwartungswert dieser Verteilung relativ leicht ermitteln, definiert man für jeden Agenten
mit Zufallsvariable m̃i die Schreibweise yi (t) := I1 (Pi (t)).
~ = E(
E(X(t0 + 1)|X)
N
X
~ =
yn (t0 + 1)|X)
n=0
=
X
0 · P (0|0) + 1 · P (1|0) +
n:yn (t0 )=0
N
X
~ =
E(yn (t0 + 1)|X)
n=0
X
0 · P (0|1) + 1 · P (1|1) =
n:yn (t0 )=1
= (N − X)λ + X(1 − µ) = X + ((N − X)λ − Xµ)
D.h. man erhält E(R) = (N − X)µ − Xλ (Vergleich Rechnung 7.2).
8.2.3
Varianz nach einem Zeitschritt
Die Varianz lässt sich auf ähnliche Weise über den Verschiebungssatz bestimmen:
~ = E(X 2 (t0 + 1)|X)
~ − E(X(t0 + 1)|X)
~ 2
V(X(t0 + 1)|X)
8.2. WAHRSCHEINLICHKEITSMODELL FÜR DAS DT AGENTENMODELL
~ = E((
E(X (t0 + 1)|X)
2
N
X
n=1
=
E(yi yn ) + 2
X
n,i:yn (t0 )=yi (t0 )=1
yn )(
N
X
~ = E(
yn )|X)
n=1
X
N X
n
X
93
~ =
yn−i yi |X)
n=1 i=1
E(yi yn ) +
n,i:yn (t0 )=0,yi (t0 )=1
X
E(yi yn ) =
n,i:yn (t0 )=yi (t0 )=0
= (X 2 − X)E(yi yj |1, 1) + 2X(N − X)E(yi yj |0, 1) + ((N − X)2 − (N − X))E(yi yj |0, 0)+
+X E(yi yi |1) + (N − X)E(yi yi |0)
Die Schreibweise (. . . |1, 1) bedeutet hier (. . . |yi (t0 ) = 1, yj (t0 ) = 1). Ebenso ist die Notation
in der folgenden Rechnungen gewählt. Man beachte, dass in der Summe die Produkte gleicher
Zufallsvariablen andere Erwartungswerte haben und deshalb gesondert betrachtet werden müssen.
E(yi yj |1, 1) = 1 · P (1, 1|1, 1) + 0 · P (1, 0|1, 1) + 0 · P (0, 1|1, 1) + 0 · P (0, 0|1, 1) = (1 − µ)2
E(yi yj |1, 0) = P (1, 1|1, 0) = (1 − µ)λ
E(yi yj |0, 0) = P (1, 1|0, 0) = λ2
E(yi yi |1) = P (1|1) = (1 − µ)
E(yi yi |0) = P (1|0) = λ
Man erhält somit zusammengefasst
~ =
E(X 2 |X)
= (X 2 −X)(1−µ)2 +2X(N −X)(1−µ)λ+((N −X)2 −(N −X))λ2 +X(1−µ)+(N −X)λ =
= (X(1 − µ) + (N − X)λ)2 − (X(1 − µ)2 + (N − X)λ2 ) + X(1 − µ) + (N − X)λ =
= (X(1 − µ) + (N − X)λ)2 + Xµ(1 − µ) + (N − X)(λ(1 − λ)).
Somit erhält man für die Varianz nach dem Verschiebungssatz
~ =
V(X|X)
= (X(1 − µ) + (N − X)λ)2 + Xµ(1 − µ) + (N − X)(λ(1 − λ)) − ((N − X)λ + X(1 − µ))2 =
= Xµ(1 − µ) + (N − X)λ(1 − λ).
Trotz des sehr unansehnlichen Wahrscheinlichkeitsmodells ergeben sich doch recht elegante
Werte für Erwartungswert und Varianz der Zufallsvariable X(t0 + 1) - d.h. des aufsummierten
zeitabhängigen agentenbasierten Prozesses nach Ablauf eines Zeitschrittes.
~ 0 )) = X)
~ = X(1 − µ) + (N − X)λ
E(X(t0 + 1)|X(t
~ 0 )) = X)
~ = X(1 − µ)µ + (N − X)(1 − λ)λ
V(X(t0 + 1)|X(t
Aus der Linearität des Erwartungswertes bzw. der Formel V(cX) = c2 V(X) erhält man für den
normierten Prozess
~ 0 ))) + (1 − x)λ(x(t
~ 0 ))
E(x(t0 + 1)|~x(t0 )) = ~x) = x(1 − µ(x(t
94
KAPITEL 8. FEHLERANALYSE
~ 0 )))µ(x(t
~ 0 )) + (1 − x)(1 − λ(x(t
~ 0 )))λ(x(t
~ 0 )) .
V(x(t0 +1)|~x(t0 )) = ~x) = N −1 x(1 − µ(x(t
Man beachte an dieser Stelle erneut, dass die Übergangswahrscheinlichkeiten µ und λ nur für
diesen Zeitschritt konstant sind, da sie allgemein von ~x, insbesondere nicht nur von x = x1 ,
abhängen. Selbst wenn sich x1 innerhalb des Zeitschrittes nicht geändert hat, so können sich die
Übergangswahrscheinlichkeiten ändern. Diese Tatsache ist für Berechnungen, die über einen
Zeitschritt hinaus gehen sehr hinderlich.
8.2.4
Zeitliche Entwicklung des Erwartungswertes
Man steht also vor dem Problem, dass man ohne das Wissen über die weiteren ZustandsvektorEinträge keine Voraussagen über die folgenden Zeitschritte machen kann. D.h. man muss sich
zwangsläufig mit dem Erwartungswert
E(~x(t)|~x(t0 ) = ~x)
auseinandersetzen; also die Berechnungen vektorwertig durchführen.
Aus den Tatsachen für einen Zeitschritt kann man den weiteren Verlauf des Erwartungswertes
zumindest als Rekursion darstellen. Man benutzt dazu die Tatsache, dass das Modell gedächtnislos ist und damit die (diskrete Form der) Gleichung von Chapman-Kolmogorov 2.1.6 gilt.
X
XX
E(~x(t)|(0, ~x)) =
P ((t, ~k)|(0, ~x))~k =
P ((t, ~k)|(t − 1,~i))P ((t − 1,~i)|(0, ~x))~k =
~k
=
X
~k
P ((t − 1,~i)|(0, ~x))
~i
X
~k
~i
P ((1, ~k)|(0,~i))~k =
X
P ((t − 1,~i)|(0, ~x))E(~x(1)|(0,~i)) =
~i
P

~
x))(i1 (1 − µ1 (~i)) + (1 − i1 )λ1 (~i))
~i P ((t − 1, i)|(0, ~
P
 ~ P ((t − 1,~i)|(0, ~x))(i2 (1 − µ2 (~i)) + (1 − i2 )λ2 (~i))


= i

..


.
P
~
~
~
x))(id (1 − µd (i)) + (1 − id )λd (i))
~ P ((t − 1, i)|(0, ~
i
Hierbei steht λk (µk ) für die Exit und Entry Rate des Zustands k. Man erhält also die Rekursionsformel:.


x1 (1 − µ1 (~x)) + (1 − x1 )λ1 (~x)


..
~
E(x(t)|(0,
x~0 )) = F
◦ · · · ◦ F}(x~0 ), F (~x) := 
 . (8.1)
.
| ◦ F {z
t×
xd (1 − µd (~x)) + (1 − xd )λd (~x)
Man kann an dieser Stelle anmerken, dass durch F , mit sinnvollen Parametern (Funktionen) µ
T
~
~ abgebildet wird. Es gilt
1, . . . , 1 − µ(1)]
und λ, das Intervall [0, 1]d auf das „Intervall“ [λ(0),
|F (~x)−F (~x0 )| = | xi (1 − µi (~x)) + (1 − xi )λi (~x) − x0i (1 − µi (~x0 )) − (1 − x0i )λi (~x0 ) i=1...d | =
= | xi − x0i + (µi (~x0 )x0i − µi (~x)xi ) + (x0i λi (~x0 ) − xi λi (~x)) + λi (~x) − λi (~x0 ) i=1...d | ≤
8.2. WAHRSCHEINLICHKEITSMODELL FÜR DAS DT AGENTENMODELL
95
|≤
≤ | xi − x0i + µ̃i (x0i − xi ) + λ̃i (x0i − xi ) + (λi (~x) − λi (~x0 ))
i=1...d
| + |(λ(x) − λ(x0 ))| ≤
≤ | (xi − x0i )(1 − λ̃i − µ̃i )
i=1...d
≤ (1 − µ̃ − λ̃ + L)|x − x0 |,
sofern λ(·) lipschitzstetig bzgl. ~x mit Konstante L ist. Zusätzlich seien µ̃i = min{µi (~x0 ), µi (~x)}
und λ̃i = min{λi (~x0 ), λi (~x)}, sowie µ̃ = mini=1...d {µ̃i } und λ̃ = mini=1...d {λ̃i } definiert. Für
Funktionen mit µ̃ + λ̃ − L > 0 ist der geklammerte Wert positiv und betragsmäßig kleiner
als 1. Damit läge eine Kontraktion vor. Gemäß dem Banachschen Fixpunktsatz konvergiert die
rekursive Folge und geht gegen einen Grenzwert (von möglicherweise mehreren), der die Fixpunktgleichung
~x = (xi (1 − µi (~x)) + (1 − xi )λi (~x))di=1 = (xi (1 − µi (~x) − λi (~x))di=1 + λ(~x) =
= Diag(1 − µi (~x) − λi (~x))di=1 ~x + λ(~x),
also
Diag(µi (~x) + λi (~x))di=1 ~x = λ(~x)
−1
⇒ ~x = Diag(µi (~x) + λi (~x))di=1
λ(~x)
⇒ ~x = Diag
⇒ ~x =
1
µi (~x) + λi (~x)
λ1 (~
x)
µ1 (~
x)+λ1 (~
x)
...
d
λ(~x)
i=1
λd (~
x)
µd (~
x)+λd (~
x)
T
,
erfüllt. Man erhält also unter der Vorraussetzung µ̃ + λ̃ > L eine Kontraktion und damit die
(garantierte) Existenz eines Fixpunktes.
8.2.5
Résumé für das DT Agentenmodell
Im folgenden Unterkapitel sollen ähnliche, vergleichbare Aussagen für das Zeit und Raumkontinuierliche Differentialgleichungsmodell gemacht werden. Zu diesem Zweck seien noch
einmal die wichtigen Aussagen des letzten Unterkapitels zusammengefasst:
Die Berechnung von Erwartungswert und Varianz über mehrere Zeitschritte hinweg ist
schwierig, da die Übergangswahrscheinlichkeiten λ(~x) und µ(~x) vom kompletten Zustandsvektor abhängen dürfen.
Nach einem Zeitschritt erhält man als Erwartungswert
E(~x(1)|x~0 ) = (xi (1 − µ(x~0 )) + (1 − xi )λ(x~0 ))di=1 .
(8.2)
Nach einem Zeitschritt erhält man als Varianz von xi
V(xi (1)|x~0 ) = N −1 (xi (1 − µ(x~0 ))µ(x~0 ) + (1 − xi )(1 − λ(x~0 ))λ(x~0 )).
(8.3)
96
KAPITEL 8. FEHLERANALYSE
Unter der Bedingung µ̃ + λ̃ > L mit
min {µi (~x)}
µ̃ := min
i=1...d
~
x
λ̃ := min
~
x
min {λi (~x)}
i=1...d
L := sup
~
x,~
x0
|λ(~x − ~x0 )|
|~x − ~x0 |
lässt sich der Banachsche Fixpunktsatz anwenden und man erhält als Grenzwert für den
Erwartungswert einen Fixpunkt von
~x =
λ1 (~
x)
µ1 (~
x)+λ1 (~
x)
...
λd (~
x)
µd (~
x)+λd (~
x)
T
.
(Vgl. dieses Resultat mit dem Langzeitverhalten des Erwartungswertes im Ehrenfestmodell)
8.3
Vergleich der Resultate mit dem DG Modell
Um die Resultate handfest vergleichen zu können, muss auch die Lösung des, dem Agentenmodell entsprechenden Differentialgleichungssystems zum Zeitpunkt 1 ausgewertet werden.
Bemerkung 8.3.1.
An dieser Stelle sei der enorme Raumunterschied der beiden Modelle angemerkt. Das (aufsummierte) Agentenmodell einerseits ist rein orts- und zeitdiskret, wohingegen das Differentialgleichungsmodell sogar auf beiden Skalen kontinuierlich ist.
8.3.1
Erwartungswertkurve an der Stelle t = 1
Als Start der Analyse bietet sich die Differentialgleichung 3.11 an:
X
~ 1 (φ(t), R)R, φ(0) = ~x0
φ(τ )0 = −
Φ
R6=0
Sofern die Lösung dieser Differentialgleichung überhaupt existiert, wovon in Folge ausgegangen wird, sei sie entweder (bezüglich der Zeit) zweimal differenzierbar oder mindestens durch
zweifach differenzierbare Funktionen approximierbar. Für den weiteren Verlauf wird angenommen, dass sie Ersteres ist - ansonsten kann man die Analyse analog mit konvergenten Folgen
durchführen, worauf hier nicht eingegangen wird.
Gemäß dieser Annahme lässt sich eine Taylorentwicklung der Lösungsfunktion φ(t) an der Stelle t = 1 (d.h. τ = f (N )N −1 ) durchführen.
~
~
~ 0 (0) + 1 φ
~ 00 (ξ) =
φ(1)
= φ(0)
+φ
2
8.3. VERGLEICH DER RESULTATE MIT DEM DG MODELL
97
Es gilt nun mit den am Anfang des Kapitels gebrachten Ideen
X
X
~
~
Φ1 (φ(0),
R)R =
Φ1 (φ(0),
ei − ej )(ei − ej ),
R6=0
1≤i6=j≤d
mit den Einheitsvektoren ei :=
0, . . . , |{z}
1 ,...,0
T
, da innerhalb eines infinitesimalen Zeit-
i
schrittes genau ein Agent seinen Zustand ändern kann (er verlässt j und wechselt zu i). Setzt
~ k als Beobachtungszustand, erhält man für die korrespondierende Zeile im DG
man nun φ := φ
System den Ausdruck
X
~ ), ej − ek ).
~ 0 (τ ) =
~ ), ek − ej ) − Φ1 (φ(τ
φ
Φ1 (φ(τ
k
j6=k
Gemäß der Definition der Reihenentwicklung der Übergangsraten,
ωx,R = f (N )(Φ1 (·) + N −1 Φ2 (·) + . . . ),
formt man um,
~ ek − ej ) =
Φ1 (φ,
1
ω~
− N −1 Kj,k ,
f (N ) φ,ek −ej
mit
~ ek − ej ) + N −1 Φ3 (·) + . . .
Kj,k := Φ2 (φ,
und erhält, eingesetzt
~ 0 (τ ) =
φ
k
N 1 X
−1
−1
~
~
ωφ,e
f (N )Kj,k − ωφ,e
f (N )Kk,j .
~ k −ej (φ) − N
~ j −ek (φ) + N
f (N ) N
j6=k
Mit der Zeittransformation τ → t fällt der Term
ten Umrechnung zwischen den Modellen
N
f (N )
weg und man erhält mitsamt der definier-
~ 0 (t) =
φ
k
 



X
X
X
f (N )
1
~ − 1
~  + N −1 
=
ωφ,e
ωφ,e
(Kk,j − Kj,k ) =
~ k −ej (φ)
~ j −ek (φ)
N
N
N
j6=k
j6=k
j6=k
|
{z
}

=:C


X
X
1
1
~ j (t)P ((1, k)|(0, j), φ)
~ −
~ k (t)P ((1, j)|(0, k), φ)
~  + N −1 C =
=
Nφ
Nφ
N
N


j6=k
j6=k

~k )
= (1 − φ

X
j6=k


X
~j
φ
~  − φ
~k
~  + N −1 C.
P ((1, k)|(0, j), φ)
P ((1, j)|(0, k), φ)
~
1 − φk
j6=k
98
KAPITEL 8. FEHLERANALYSE
Linker Hand erkennt man die Entry Wahrscheinlichkeit, rechter Hand, mit negativem Vorzeichen, die Exit Wahrscheinlichkeit des Zustands k.
~ k )λ(φ)
~ −φ
~ k µ(φ)
~ + N −1 C
= (1 − φ
Setzt man nun in die Taylorentwicklung ein, erhält man
~ k (1) = φ
~ k (0) − (1 − φ
~ k (0))λ(φ)
~ +φ
~ k (0)µ(φ)
~ − N −1 C + 1 φ
~ 00 (ξ) =
φ
2 k
1 ~ 00
~ k (0))λ(φ)
~ +φ
~ k (0)(1 − µ(φ))
~
= (1 − φ
− N −1 C + φ
(ξ).
2 k
Der geklammerte Ausdruck entspricht dem errechneten Erwartungswert im diskreten Modell die übrigen beiden Terme gilt es abzuschätzen.
1
1
||φ(1) − E(x, 1)|| = || − N −1 C + φ00 (ξ)|| ≤ N −1 ||C|| + ||φ00 (ξ)||
2
2
8.3.2
Abschätzungen für den Erwartungswertfehler
Zunächst wird der Ausdruck
||C|| =
f (N ) X
||
(Kk,j − Kj,k )|| ≤
N
j6=k
≤
f (N ) X
||Φ2 (·)j,k + N −1 Φ3 (·)j,k + · · · − Φ2 (·)k,j − N −1 Φ3 (·)k,j − . . . || =
N
j6=k
=
f (N ) X
||(Φ2 (·)j,k − Φ2 (·)k,j ) + N −1 (Φ3 (·)j,k − Φ3 (·)k,j ) + N −2 . . . ||
N
j6=k
~ ek − ej ) untersucht. Gemäß der Definition der Reihenentwicklung müssen
mit Φi (·)j,k := Φi (φ,
die Φn (·) unabhängig von N und stetig sein. Da die Übergangsraten kompakten Träger haben,
haben auch die einzelnen Φn kompakten Träger (womit alle Normen äquivalent sind). Es sei nun
αj,k := sup{||Φn (·)j,k − Φn (·)k,j ||} < ∞
n≥2
definiert. Damit konvergiert die geometrische Reihe innerhalb der Norm und es gilt die Abschätzung
||C|| =
f (N ) X
||(Φ2 (·)j,k − Φ2 (·)k,j ) + N −1 (Φ3 (·)j,k − Φ3 (·)k,j ) + N −2 . . . || ≤
N
j6=k
≤
2f (N ) X
(αj,k + N −1 αj,k + N −2 αj,k . . . ) =
N
j6=k
8.3. VERGLEICH DER RESULTATE MIT DEM DG MODELL
=
99
2f (N ) X
1
≤
αj,k
N
1 − N −1
j6=k
≤
2f (N )
1
(d − 1) sup(αj,k )
=
N
1 − N −1
j6=k
=
2f (N )
(d − 1) sup(αj,k ) =: C1 .
N −1
j6=k
Im klassischen Fall f (N ) = O(N ) erhält man eine von N unabhängige Konstante, die im
Fehler sogar mit N −1 multipliziert wird. Der durch N −1 C1 hervorgerufene Fehler ist also sogar
ein O(N −1 ).
Bemerkung 8.3.2.
Ist die Übergangsrate ωxk ,xk ±1 (Exit und Entry Rate) aus dem diskreten Agentenmodell durch
Umrechnung definiert, so hat sie stets die Form
ωxk ,ej −ek := N (1 − xk )λ,
ωx,ek −ej := N xk µ
mit Exit und Entry Wahrscheinlichkeiten λ bzw µ ≤ 1. Aus diesem Grunde kann die Funktion
f (N ) maximal Ordnung f (N ) = O(N ) haben.
Diese Tatsache ist im Rahmen der Kramers-Moyal-Entwicklung nicht notwendig gewesen, da
man zeitkontinuierliche, Markov-Prozess-basierte Mikrosimulationen mit Differentialgleichungen vergleichen wollte, wobei durchaus auch größere Übergangsraten entstehen konnten. Diese
müssen und können innerhalb dieser Fehlerabschätzung auf diese Weise aber auch nicht behandelt werden.
Es verbleibt den Fehler ||φ00 (ξ)|| abzuschätzen. Einsetzen in die Differentialgleichung liefert
zeilenweise

0
X
~ R)
~ 00 (ξ)|| = || 
~ R
~  || ≤
Φ1 (φ,
||φ
k
R6=0
~ k )λk (φ)
~ −φ
~ k µk (φ)
~
≤ || (1 − φ
0
+ N −1 C 0 (ξ)||.
Das für die Abschätzung unangenehme Problem ist, dass die 1. Ableitung nur zeilenweise angeschrieben werden kann, da jeder Zustand eigene Exit und Entry Raten hat. Definiert man mittels
~ 00 (ξ)|| ≤ λ(φ)
~ := max(λk (φ))
~
||φ
k
~ := min(µk (φ))
~
µ(φ)
k
skalare Funktionen, lässt sich der ganze Ausdruck auch vektorwertig abschätzen.
0
~ φ)
~ − φµ(
~ φ)
~ || + ||N −1 C 0 (ξ)||
≤ || (~1 − φ)λ(
100
KAPITEL 8. FEHLERANALYSE
Der rechte Term C 0 (ξ) lässt sich ganz analog mit den Ableitungen von Φn abschätzen und liefert
eine Konstante C2 . Den linken Term kann man mit Produkt und Kettenregel ableiten.
0
~ φ)
~ − φµ(
~ φ)
~
=
(~1 − φ)λ(
~ 0 λ + (~1 − φ)∇λ
~
~0 − φ
~ 0 µ − φ(∇µ · φ
~0) =
= −φ
·φ
~ 0 (−λ − µ) + (~1 − φ)(∇λ
~
~ 0 ) + φ(∇(µ)
~
~0)
=φ
·φ
·φ
Abschätzen liefert für die Norm davon
~ 0 || + ||(~1 − φ)(∇λ
~
~ 0 ) + φ(∇µ
~
~ 0 )|| ≤ ∗.
≤ |λ + µ|||φ
·φ
·φ
Der rechte Term ist nun zeilenweise eine Konvexkombination (da φ ≤ 1 elementweise) der
Ausdrücke ∇λ · φ~0 und ∇µ · φ~0 . Demnach kann man den Term mit dem Maximum der beiden
Ausdrücke abschätzen.
~ 0 || + max{||∇λ · φ0 ||, ||∇µ · φ0 ||} ≤
∗ ≤ |λ + µ|||φ
~ 0 || + max{||∇λ||, ||∇µ||}||φ
~ 0 || ≤
≤ |λ + µ|||φ
~ 0 || ≤ ∗
≤ (2 max{|λ|, |µ|} + max{||∇λ||, ||∇µ||}) ||φ
~ 0 liefert schlussendlich eine Abschätzung, die nur φ, λ und µ enthält.
Neuerliches Einsetzen für φ
~
Die Funktion φ wird erneut durch φ ≤ 1 für einen Konvexkombination benutzt.
~ + φµ||
~ + N −1 ||C(ξ)|| ≤
∗ ≤ (2 max{|λ|, |µ|} + max{||∇λ||, ||∇µ||}) ||(1 − φ)λ
≤ (2 max{|λ|, |µ|} + max{||∇λ||, ||∇µ||}) ||(max{|λ|, |µ|}) + N −1 C3 .
Das Resultat ist (berücksichtigt man die Zwischenstelle ξ) also die Fehlerabschätzung:
~
|φ(1)
− E(~x)| ≤
≤
2 max {|λ(~v )|, |µ(~v )|} + max {||∇λ(~v )||, ||∇µ(~v )||} max {|λ(~v )|, |µ(~v )|}+N −1 C4
~v ∈[0,1]d
~v ∈[0,1]d
~v ∈[0,1]d
mit den skalaren Funktionen
~ := max(λk (φ)),
~
λ(φ)
k
~ := min(µk (φ)).
~
µ(φ)
k
Die Normen der Übergangsraten und deren Ableitungen treten also sogar quadratisch auf.
Bemerkung 8.3.3.
Die Konstanten Ci treten natürlich nur dann in den Abschätzungen auf, wenn die Übergangsrate
auch Terme niederer Ordnung in N hat, als den führenden. Das ist z.B. dann der Fall, wenn man
gewisse Randwahrscheinlichkeiten (z.B. bei zellulären Automaten) berücksichtigen müsste, die
um eine Dimension in N geringere Auswirkung haben, als die Wahrscheinlichkeiten im Inneren
des Gebiets und dann in der DG-Modellierung nicht mehr auftreten.
8.4. VARIANZFEHLER
101
Bemerkung 8.3.4.
An dieser Stelle sei bemerkt, dass diese Fehlerabschätzung primär auf die Größe der Übergangsraten abzielt und der Fehler, der bei zu geringen Agentenzahlen N gemacht wird, bereits darin
absorbiert ist. Nichtsdestotrotz gilt immer noch die (nicht quantitative Aussage), dass der Fehler
1
der Erwartungswerte bei Vergrößerung der Agentenzahlen mit Ordnung N − 2 kleiner wird. D.h.
unter anderem, es gilt im Falle des Ehrenfestmodells (Ci = 0) die gezeigte Abschätzung für den
Fehler ||φ(1) − E(x(1))|| sogar bei N = 1.
Es verbleibt den Limes der Erwartungswertkurve zu analysieren und zu vergleichen. Gemäß
der Differentialgleichung erhält man als stationären Punkt,
~ − φk µk (φ)
~ + N −1 C,
0 = (1 − φk )λk (φ)
also
φk =
~
λk (φ)
+ N −1 C,
~ + µk (φ)
~
λk (φ)
für die Exit und Entry Rate des Zustandes k.
Im Grenzwert erfüllen die errechnete Erwartungswertkurve des DG Modells und der Grenzwert
der Fixpunktgleichung für das diskrete Modell (asymptotisch bzgl. N , aber unabhängig von den
Raten) die selbe Fixpunktgleichung. Für den selben Anfangswert müssen die beiden Kurven also
mit eine Fehler ≤ C1 N −1 zum selben Fixpunkt gehen.
8.4
Varianzfehler
Genauso, wie beim Erwartungswert ließe sich auch eine analoge, noch aufwändigere, Abschätzung für den Fehler in der Varianz eines einzelnen Zustandes nach einem Zeitschritt durchführen. Da aber die Differentialgleichung, aus der die Varianz folgten würde, für d > 2 kaum noch
lösbar ist (siehe Kapitel 5), wird hier nur das (sehr grob abgeschätzte) Resultat für das eindimensionale Problem (d = 2) angegeben.
|V(1) − σ 2 (1)| ≤
≤ N −1 4 max {|λ0 (~v )|, |µ0 (~v )|} + 6 max {|λ(~v )|, |µ(~v )|} max {|λ(~v )|, |µ(~v )|} + N −2 C
~v ∈[0,1]
8.5
~v ∈[0,1]
~v ∈[0,1]
Interpretation
Die im Kapitel vorgestellten Abschätzungen sind leider kaum verwertbar, da sie viel zu grob
sind und nur für einen Zeitschritt gelten. Man könnte z.B. über Multiplikation mit der Anzahl
der Zeitschritte, den Fehler linear wachsend für den Zeitschritt t abschätzen. Experimente zeigen jedoch, dass der Fehler einerseits deutlich kleiner ist, als die gewählte Abschätzung und
zusätzlich nicht einmal monoton wächst. Das Modell korrigiert sich also selbst, was man sogar
analytisch anhand der asymptotischen Äquivalenz der Ruhelagen der Erwartungswertkurven der
beiden Modelle erkennt.
102
KAPITEL 8. FEHLERANALYSE
In beiden Fällen, Erwartungswert sowie Varianz, kann man dennoch einige wichtige Schlüsse
ziehen:
Es existieren quantitative Abschätzungen für den Fehler. Die in diesem Kapitel Vorgestellten sind solche, jedoch mit Sicherheit nicht die Besten.
Es gilt die Folgerung limn→∞ ( ni,j , tn, N n) ⇒ ||φ(t) − E(x)|| → 0 sowie ||σ 2 (t) −
V(x)|| → 0. D.h. Skalieren von Zeit und Raten, sowie Vergrößern der Agentenzahlen
führt zu Konvergenz. Das erkennt man direkt aus den Abschätzungen, da die Raten in der
Formel quadratisch vorkommen, der Fehler aber nur linear in der Zeit wächst.
ω
Der Erwartungswertfehler Err(t) ist eine positive, beschränkte Funktion auf R+ mit mindestens einem Maximum und limt→∞,N →∞ Err(t) = 0.
KAPITEL
2. Bsp: SIR Modell
Das klassische SIR (Susceptible-Infected-Recovered) Modell ist ein, Anfang des 20. Jahrhunderts (Kermack und McKendrick, 1927, [KM27]) entwickeltes Modell zum einfachen mathematischen Beschreiben eines Krankheitsverlaufs. Zu dieser Zeit wurde das Modell als System
von Differentialgleichungen beschrieben, die heutzutage vorwiegend in Grundlagenvorlesungen
über Modellbildung und Simulation bzw. Epidemiologie Anwendung finden. Es handelt sich
dabei um ein gekoppeltes, nichtlineares Differentialgleichungssystem 1. Ordnung, welches trotz
der enormen Modellvereinfachung (das Modell kommt mit lediglich zwei Parametern aus), keine analytischen Lösungen mehr besitzt. Ende der 30er Jahre des vergangenen Jahrhunderts war
diese Tatsache enorm hinderlich, denn, obwohl Näherungsmethoden von Euler et al. längst bekannt waren, war die Umsetzung dieser ohne Computertechnologie äußerst zeitaufwändig und
ressourcenintensiv.
In der heutigen Computer-unterstützten Zeit schafft es beinahe sogar ein numerischer bzw. mathematischer Laie eine approximative Lösung der drei Gleichungen immerhin zeichnen zu lassen, sofern er/sie über die richtige Software verfügt. Die Forschung schreitet also voran. Während Anfang des 20. Jahrhunderts eine Epidemie offensichtlich noch mit zwei Parametern zu
beschreiben war, ist die Welt heutzutage scheinbar deutlich komplexer geworden. Auf jeden
Fall sind es die Anforderungen an das jeweilige Modell. Aus einem Projekt des Modellbildung und Simulations Unternehmen „dwh GmbH“ resultierte vor einiger Zeit ein InfluenzaInfektionsmodell (siehe [MZP+ 12]) mit mehr als 40 Parametern. Auf Grund der fehlenden Flexibilität des Modelltypus war es unmöglich, dieses Modell in Form von Differentialgleichungen
zu formulieren, also verwendete man agentenbasierte Modellierung (Es wäre 1927 noch deutlich
illusorischer gewesen, solch eine umzusetzen, als die numerische Lösung des Differentialgleichungssystems selbst).
Im Zuge von Arbeiten im Umfeld dieses Projekts entstand auch ein sehr vereinfachter stochastischer zellulärer Automat mit zwei bis vier Parametern (je nachdem, was man unter dem Begriff
Parameter verstehen will), der sehr ähnliche Ergebnisgraphen (Mittelwertkurven) lieferte, wie
das Differentialgleichungssystem aus dem Jahr 1927.
Ziel dieses Kapitels wird es sein, diesen zellulären Automaten zu analysieren, in interagierende
103
9
104
KAPITEL 9. 2. BSP: SIR MODELL
Markov-Prozesse zu zerlegen und mithilfe der hergeleiteten Theorie zu untersuchen. Es stellen
sich folgende Fragen:
Liefert die Theorie ähnliche Differentialgleichungen wie das klassische SIR-Modell?
Falls ja: Lassen sich die Parameter ineinander umrechnen?
9.1
Problemstellung
Um die Aufgabenstellung zu verdeutlichen, wird die Problemstellung in drei Unterkapitel zerlegt.
9.1.1
Reale Problemstellung
Gegeben ist eine Gesamtbevölkerung eines Gebiets (Staat, Stadt, Region, etc.), die über den
Verlauf der Krankheit als konstant angesehen wird (natürliche Geburten oder Todesfälle werden
also nicht berücksichtigt oder gleichen einander aus). Unter der Bevölkerung bricht schlagartig
eine Krankheit aus, sodass man jede Person genau einer der folgenden Klassen zuordnen kann:
Susceptible (S) - Die Person ist anfällig für die Krankheit.
Infected (I) - Die Person ist infiziert und stellt eine Ansteckungsgefahr dar.
Recovered (R) - Die Person ist genesen (verfügt also über Antikörper), von vorn herein
immun (geimpft) oder tot. Sie ist keine Ansteckungsgefahr mehr und kann (in diesem
Modell) auch nicht mehr infiziert werden.
9.1.2
Problemstellung des Differentialgleichungssystems
Im Bereich der Medizin bzw. Soziologie ist sogar der Mathematiker dazu gezwungen, sich von
seinem hohen Ross herab zu bewegen und sich auf Heuristiken einzulassen, um ein Modell
herzuleiten, da man sich im Bereich des sogenannten „Black Box Modelling“ befindet. Man
überlegt, beobachtet und kommt schlussendlich zu folgenden Ideen:
Je mehr Individuen infiziert (I) sind, umso mehr Individuen werden angesteckt.
Je weniger Individuen empfänglich (S) sind, umso weniger können angesteckt werden.
Die Ansteckungsgeschwindigkeit I 0 ist also proportional zu einer Funktion f , die positiv
von I und S abhängt. Man verwendet klassisch
I 0 = αIS.
Je mehr Individuen Infiziert sind, umso mehr Individuen genesen.
9.1. PROBLEMSTELLUNG
105
Die Genesungsgeschwindigkeit R0 ist also positiv von der Anzahl der Infizierten abhängig.
Im klassischen SIR Modell wird sie als direkt proportional angenommen.
R0 = βI
Der Fluss der Suszeptiblen zu den Infizierten muss in Summe 0 sein.
S 0 = −αIS
Mit der selben Überlegung erhält man
I 0 = αIS − βI.
Es folgt somit das DG System:
dS
= −αIS
dt
dI
= αIS − βI
dt
dR
= βI.
dt
9.1.3
Problemstellung des zellulären Automaten
Die Idee des zellulären Automaten beruht auf stochastischen Individuen-basierten Überlegungen. Dieses Konzept bietet neben einer deutlich größeren Flexibilität den Vorteil, dass es fachfremden Personen, wie bereits mehrfach erwähnt, deutlich leichter verständlich gemacht werden
kann. Da in diesem Modell die Anzahl aller Zellen, die mit dem Zustand S,I oder R belegt sind,
konstant bleibt, lässt sich die Idee des CAs besser mithilfe von, sich auf einem diskreten Gitter
bewegenden Agenten erklären. Es ist eine Philosophiefrage und eine Implementationsfrage, ob
man das Modell als stochastischen zellulären Automaten, oder als Agentenmodell betrachten
will.
Das als rechteckig angenommene Beobachtungsgebiet sei aufgeteilt in n · m benachbarte
Zellen. Jede dieser Zellen ist wiederum in 4 Unterzellen geteilt und bietet theoretisch Platz
für maximal 4 Agenten, wobei jeder Agent für ein Individuum steht, welches einen der
drei erwähnten Zustände (S,I,R) hat 1 .
Es sei N < 4mn die Anzahl der Individuen.
Das Modell wird Zeit getaktet (diskret) gerechnet.
1
Hier wird der enge Zusammenhang zwischen agentenbasierten Modellen und zellülären Automaten sichtbar. Zwar trägt die Zelle direkt den Zustand, doch lässt sich die Aufgabenstellung durch die Gleichgewichtsbedingung der Zellen (Summe ≡ N ) besser mithilfe von Agenten begreiflich machen.
106
KAPITEL 9. 2. BSP: SIR MODELL
Befindet sich innerhalb einer Parzelle zu einem Zeitpunkt ein Agent im suszeptiblen Zustand und einer im infizierten Zustand, so hat der suszeptible Agent eine gewisse Wahrscheinlichkeit sich am kranken „anzustecken“. Diese Wahrscheinlichkeit λ ≤ 1 wird als
Infektionswahrscheinlichkeit bezeichnet.
Jeder infizierte Agent hat während eines Zeitschrittes eine gewisse Wahrscheinlichkeit,
zu genesen (d.h. in den R Zustand überzugehen). Die Wahrscheinlichkeit µ ≤ 1 wird als
Genesungswahrscheinlichkeit bezeichnet.
Am Ende eines Zeitschrittes bewegen sich die Agenten nach gewissen Regeln am Gitter.
Die Anzahl der Agenten pro Zustand dient schlussendlich als Zustandsvariable, die mit
dem DG Modell verglichen werden soll.
So definiert ist das CA (bzw. Agenten) Modell noch lange nicht eindeutig.
An dieser Stelle wird einer der großen Unterschiede zwischen der Individuen-basierten Modellierung und dem Modellieren mit Differentialgleichungen am praktischen Beispiel deutlich:
Es ist kaum möglich das Modell zu definieren, ohne zumindest die Grundzüge der Implementierung des Modells vorzugeben. Allein um die Bewegungsregeln, die die Position des Agenten
zum nächsten Zeitpunkt bestimmen, zu beschreiben, muss man fast schon auf Indexschreibweise
von Matrizen zurückgreifen, bedenkt man z.B. das Verhalten der Agenten am Rand des Gebiets
oder das Problem des sequenziellen Bewegens der Agenten auf freie Felder. Die enorme Flexibilität in der Modellierung fordert so ihren Tribut, indem die Beschreibung des Modells auch
für einfache Probleme sehr detailliert sein muss, um insofern vollständig zu sein, als dass man
reproduzierbare Ergebnisse erhalten will. Die numerische Lösung der SIR Differentialgleichung
auf der anderen Seite sieht heute, trotz modernster numerischer Hilfsmittel, kaum anders aus,
als vor 80 Jahren.
Im weiteren Verlauf des Analyse wird nicht, und muss auch nicht näher auf die angesprochenen Bewegungsregeln eingegangen werden, sofern diese eine gewisse „Durchmischung“ der
Bevölkerung verursachen. Man verdankt das dem Umstand, dass bereits im ersten Schritt der
analytischen Analyse des zellulären Automaten das räumliche Konzept aufgelöst und in ein
Wahrscheinlichkeitsmodell übersetzt wird. Man erweitert damit sogar die Fragestellung von
Ist genau dieser zelluläre Automat ein diskretes Pendant zu den SIR Gleichungen?
auf
Sind alle diese zellulären Automaten, die gewisse Bewegungsregeln erfüllen, ein diskretes
Pendant zu den SIR Gleichungen?
9.2
Umsetzung der Theorie
Bevor man zu einer Schreibweise mit Übergangsraten übergehen kann, ist zunächst zu überprüfen, ob man die Bedingungen 6.6.1 mit dem so definierten Modell überhaupt erfüllen kann.
Zunächst kann ein Agent in diesem Fall genau einen von drei Zuständen annehmen (S, I oder R).
9.2. UMSETZUNG DER THEORIE
107
Das Problem ist also dreidimensional. Es ist also genau dann für eine Analyse tauglich, wenn es
3 × 3 = 9 verschiedene Übergangswahrscheinlichkeiten gibt, die nur von den Zustandsvektoren
(also nicht von der Zeit) abhängen, und in eine Reihe bzw. in ein Polynom (bzgl. der Agentenzahl) entwickelt werden können.
9.2.1
Übergangswahrscheinlichkeiten
Diese werden nun eine nach der anderen untersucht.
P ((1, R)|(0, S))
Diese Wahrscheinlichkeit ist 0, da ein suszeptibler Agent nicht sofort in den Zustand Immun übergehen kann.
P ((1, S)|(0, R)), P ((1, I)|(0, R)), P ((1, S)|(0, I))
Auch diese drei Wahrscheinlichkeiten belaufen sich auf 0, da ein immunes Individuum
weder suszeptibel noch krank wird. Genauso geht ein Agent im Zustand I nicht wieder
nach S zurück. Als direkte Folgerung erhält man
P ((1, R)|(0, R)) = 1.
P ((1, R)|(0, I))
Die Genesungswahrscheinlichkeit ist direkt aus dem Modell gegeben. Es gilt P ((1, R)|(0, I)) =
µ.
P ((1, I)|(0, S))
Um diese Wahrscheinlichkeit zu definieren, muss man sich einiger Tricks bedienen. Zunächst kann man die Wahrscheinlichkeit aufschlüsseln:
P ((1, I)|(0, S)) = P ((Agent trifft auf I) ∧ (Agent steckt sich dann an )|(0, S))
Eine Überlegung zeigt, dass diese beiden Wahrscheinlichkeiten unabhängig voneinander
sind und demnach als Multiplikation aufgelöst werden können. Mithilfe der Ansteckungswahrscheinlichkeit λ erhält man den Ausdruck
P ((1, I)|(0, S)) = P (( Agent trifft auf I )|(0, S)) · λ.
Um die erste Wahrscheinlichkeit zu bestimmen, wird zunächst der Begriff der Dichte ρ
als Anzahl der Agenten pro Feld definiert.
ρ :=
N
4nm
Diese ist, genauso wie die Agentenzahl, im Modell konstant.
Verweilt nun ein Agent mit suszeptiblem Zustand für einen Zeitschritt in einer Parzelle,
so kann er sich genau dann anstecken, wenn sich in zumindest einer der 3 Nachbarzellen
ein Agent mit infiziertem Zustand befindet. Würde man nun zufällig alle Infizierten auf
108
KAPITEL 9. 2. BSP: SIR MODELL
dem Gebiet verteilen, so wäre die Wahrscheinlichkeit, auf einem bestimmten Feld, einen
von ihnen anzutreffen genau
P ( I auf best. Feld) = Dichte × Anteil der Infizierten unter den Agenten = ρ
I
.
N
Für drei Nachbarfelder entspricht die Wahrscheinlichkeit also genau dem Dreifachen dieses Wertes.
I
P (( Agent trifft auf I )|(0, S)) = 3ρ
N
Natürlich fordert das eine gleichmäßige zufällige Vermischung der Agenten auf dem
Raum. Nachdem i.A. aber ein Regelwerk keine vollkommen wirren, zufälligen Bewegungen erlaubt, kann man folgende Bedingung formulieren.
Bedingung 9.2.1 (Zulässige Bewegungsregeln).
Für die weitere Theorie des Modells sind nur Bewegungsregeln zugelassen, die eine so
chaotische Vermischung der Agenten hervorrufen, dass
P (( Agent trifft auf I )|(0, S)) = 3ρ
I
+ O(N −1 )
N
I.A. ist diese Bedingung für vernünftige Regelwerke erfüllt. Der Ausdruck O(N −1 ) fängt
vereinzelte etwaige Cluster-Bildungen von ähnlichen Agenten oder ungewöhnliche Bewegungen von vereinzelten Agenten am Rand ab.
Insgesamt erhält man somit
P ((1, I)|(0, S)) = 3λρ
I
+ O(N −1 ).
N
P ((1, I)|(0, I)), P ((1, S)|(0, S))
Als Folgerung aus dem Satz für totale Wahrscheinlichkeit erhält man schlussendlich
P ((1, I)|(0, I)) = 1 − µ
und
P ((1, S)|(0, S)) = 1 − 3λρ
I
− O(N −1 ).
N
Aus der Definition der Übergangswahrscheinlichkeiten definiert man nun direkt die Raten für
die einzelnen Agenten ω.
ωA,B := P ((1, B)|(0, A))
Bevor nun die Raten des summierten Prozesses betrachtet werden, sei eine Vektorschreibweise
eingeführt (ai (t) bezeichne den Zustand des Agenten i zum Zeitpunkt t):
T
~ := PN I (a ), PN I (a (t)), PN I (a (t))
X(t)
i=1 S i
i=1 I i
i=1 R i
~ := N −1 X(t)
~
x(t)
9.2. UMSETZUNG DER THEORIE
109
Somit erhält man einen normierten Vektor (||x||1 = 1), wobei jeder Eintrag Aufschluss über die
Anzahl der gesunden, kranken und immunen Individuen zum Zeitpunkt t gibt. Es folgt nun analog zur Aufschlüsselung der Übergangswahrscheinlichkeiten P ((1, B)|(0, A)) die Berechnung
~ = ω(~x, ei − ej ). Gemäß der Analyse der Übergangswahrscheinder Übergangsraten ω(~x, R)
lichkeiten sind lediglich zwei dieser Übergangsraten nicht = 0, nämlich jene von den Vektoren
 
−1
 1  → ein Gesunder wird krank
0
und


0
−1
1
→ ein Kranker wird immun.
Gemäß der hergeleiteten Theorie belaufen sich diese auf
   
x1
−1
I
ω x2  ,  1  = X1 (3λρ + O(N −1 )) = N 3λρx1 x2 + O(N −1 )
N
x3
0
und
9.2.2
  
x1
0
ω x2  , −1 = X2 · µ = N (x2 µ).
1
x3

Die entstehenden Differentialgleichungen
Man erkennt sofort f (N ) = N und die Entwicklung der Raten nach der Agentenzahl:
Φ1 (~x, e2 − e1 ) = 3λρx1 x2 ,
Φ2 (~x, e2 − e1 ) = O(1)
Φ1 (~x, e3 − e2 ) = x2 µ
Es ergibt sich also keine Zeittransformation und die Differentialgleichung:
 
 
−1
0
X
~ 0 (t) =
~
φ
Φ1 (~x, R)R
= 3λρx1 x2  1  + µx2 −1 =
R6=0
0
1


−3λρx1 x2
= 3λρx1 x2 − µx2  .
µx2
Die wohlbekannten klassischen SIR Gleichungen entstehen auf ganz natürliche Art und Weise
und liefern die Antwort auf beide zu Anfang gestellten Fragen:
Ja, unter den Voraussetzungen der gut mischenden Bewegungsregeln erhält man die klassischen
SIR-Gleichungen.
110
KAPITEL 9. 2. BSP: SIR MODELL
α
3λρ
Unter diesen Voraussetzungen erhält man
=
für die Umrechnung der Parameter
β
µ
ineinander.
Als Dichtekurve erhält man
~ φ)
~ + ∇ξ Π · F~ (φ)
~ + g(Hξ (Π), φ)
~
Π(ξ, t)τ = Πf (ξ,
mit
~ φ)
~ :=
f (ξ,
X
~ R)
~ ·R
~ = 3λ(φ1 − φ2 ) − µ
∇Φ1 (φ,
~ =0
R6
X
~ := 1
~ R)
~ T Hξ (Π)RΦ
~ 1 (φ,
~ =
g(Hξ (Π), φ)
R
2
~ =0
R6
(Hξ1,1 − 2Hξ2,1 +Hξ2,2 )3ρλφ1 φ2 + (Hξ2,2 − 2Hξ3,2 + Hξ3,3 )µφ2


−3λρ(φ1 ξ2 + φ2 ξ1 )
X
~ :=
~ R))
~ R
~ = 3λρ(φ1 ξ2 + φ2 ξ1 ) − µξ2  .
F~ (φ)
(ξ · ∇Φ1 (φ,
µξ2
~ =0
R6
Obwohl das Problem also „nur“ dreidimensional ist, entsteht eine sehr komplexe partielle Differentialgleichung zweiter Ordnung, in welcher die Koeffizienten-Funktionen sehr ungleichmäßig
von den Variablen abhängen. Jeglicher Versuch über eine Parametrisierung zur Lösung zu gelangen ist somit zum Scheitern verurteilt.
9.3
Resultate zum konkreten Beispiel
Wie im Kapitel 7 folgen nun einige Grafiken, die die angewendeten Umformungen bestätigen
sollen. Es folgt aus Gründen der Übersicht eine Tabelle, die die verwendeten Parametersätze für
die Plots zusammenfasst. In diesem Kapitel werden die Parameter Ansteckungswahrscheinlichkeit (λ), Genesungswahrscheinlichkeit µ und die Dichte ρ verwendet.
Abb.
9.1
9.2
9.3
Typ
Vergleich: Mittelwerte
Vergleich: Mittelwerte
Vergleich: Mittelwerte
N
4000
4000
4000
M
300
300
300
9.4
Vergleich: Fehler
4000
300
λ
0.7
0.8
0.7


0.7
 0.7 
0.35
µ
0.2
0.1
0.05
0.5
ρ
0.5
0.5
0.5
30
45
60
x0
(0.9, 0.1, 0)T
(0.9, 0.1, 0)T
(0.9, 0.1, 0)T
(0.9, 0.1, 0)T
Die ersten 3 Abbildungen (9.1,9.2,9.3) zeigen linker Hand das Resultat des agentenbasierten
Modells (zellulären Automats)
gemittelt über 300 Durchläufe - also den empirischen Mittel1 PM
wertschätzer E(x) ≈ M i=1 xi . Gerechnet wurde ein Raster von 40 × 50 Zellen (d.h. 2000
Zellen, von denen jede wiederum in 4 weitere Parzellen unterteilt ist). Mit der Dichte ρ = 0.5
9.3. RESULTATE ZUM KONKRETEN BEISPIEL
111
erhält man somit 4000 Agenten. Rechter Hand sieht man die mit einem adaptiven Runge-KuttaVerfahren (Dormand & Prince) approximierten Lösungskurven der gemäß der Umrechnung aus
dem letzten Unterkapitel parametrisierten SIR Gleichungen. Diese drei Grafiken dienen weniger der quantitativen Fehleranalyse |φ(t) − E(x)(t)|, sondern mehr der Studie der qualitativen
Ähnlichkeiten der Modelle. Nicht immer steht bei einem Modell die Lösungskurve als Ganzes
im Vordergrund - in diesem Modell könnte z.B. auch der Zeitpunkt und die Höhe des ersten
Extremums der Infizierten-Kurve von Bedeutung sein.
Der angesprochene analytische Vergleich folgt in Abbildung 9.4. Dort sind für drei unterschied-
Abbildung 9.1: Parameter λ = 0.7, µ = 0.2
Abbildung 9.2: Parameter λ = 0.8, µ = 0.1
liche Parametersätze die Fehler der Kurven, jeweils aufgetrennt nach Zeile des Lösungsvektors,
112
KAPITEL 9. 2. BSP: SIR MODELL
Abbildung 9.3: Parameter λ = 0.7, µ = 0.05
aufgetragen. D.h. die oberste Grafik zeigt den Fehler, den die beiden Modelle zueinander machen, für die Anzahl der suszeptiblen Individuen. Man erkennt, z.B. mithilfe der punktierten
Linie, die in jede der drei Grafiken eingezeichnet ist, dass die Halbierung der Raten und die
Verdoppelung der Zeit, was für das ODE Modell lediglich eine Transformation in der Zeit bedeutet, den Fehler invers linear verringert. Der überraschende Effekt, dass der Fehler für die Rate
µ = 0.1 anstelle von µ = 0.2 (wobei λ unverändert) im Plot für die gesunden und kranken Individuen sogar größer ist, als der Fehler des Ausgangsmodells 0.7/0.2, lässt sich z.B. so erklären:
Die Exit Rate für den Zustand I wurde verkleinert. Demnach wächst der Zustand I schneller,
was die Entry Rate (die ja von I abhängt) des Zustandes I, sowie auch die Exit Rate des Zustandes S vergrößert. Demnach nimmt der Fehler, trotz Verringerung einer Rate, für diese beiden
Zustände, sogar zu. Diese Rate wirkt sich gem. der Gleichungen nicht mehr direkt auf die dritte
Komponente (R) aus. Dort nimmt der Fehler durch die Halbierung der Rate zwar ein wenig
langsamer als für den dritten Parametersatz, aber dennoch, ab.
9.4
Résumé
Das SIR-Modell reizt, im Gegensatz zum Ehrenfestmodell, die Theorie an zwei entscheidenden
Punkten aus:
Das Problem ist mehrdimensional.
Die Übergangsraten der Agenten, hängen von den Zustandsvektoren ab (hier dem Zustand
I).
Vor allem der zweite Punkt ist von besonderem Interesse, denn er bedeutet, dass die Agenten
miteinander interagieren dürfen. Die Fehlergrafiken zeigen, genauso wie die Fehlerabschätzun-
9.4. RÉSUMÉ
113
0.2
0.7/0.2
0.7/0.1
0.35/0.1
Fehler x1
0.15
0.1
0.05
0
0
0.2
5
10
15
Zeit
20
25
0.7/0.2
0.7/0.1
0.35/0.1
0.15
Fehler x2
30
0.1
0.05
0
0
0.2
5
10
15
Zeit
20
25
0.7/0.2
0.7/0.1
0.35/0.1
0.15
Fehler x3
30
0.1
0.05
0
0
5
10
15
Zeit
20
25
30
Abbildung 9.4: Fehlergraphen für S (oben), I (mittig) und R (unten) für drei Parametersätze
gen aus den Theorie-Kapiteln, dass die Idee der Kramers-Moyal Entwicklung auch auf solche
Modelle anwendbar ist.
KAPITEL
3. Bsp: Linearisiertes, ungedämpftes
Pendel
10.1
Motivation und Problemstellung
An diesem, letzten, Beispiel soll schlussendlich illustriert sein, dass die erarbeitete Theorie
durchaus auch in die umgekehrte Richtung, d.h das Erstellen eines agentenbasierten Modells
auf Basis einer Differentialgleichung, anwendbar ist. Ausgangspunkt dieses Beispiels ist die
wohlbekannte linearisierte Pendelgleichung
u00 = −ku,
u(0) = u0 , u0 (0) = u00
mit k > 0. Es sei für dieses Beispielkapitel sogar k < 1 gefordert. Die Lösung ist wohlbekannt
und leicht analytisch anzugeben:
√
√
u0
u(t) = √0 sin( kt) + u0 cos( kt)
k
Gemäß der Lösungstheorie über lineare Differentialgleichungen
kann die Differentialgleichung
u1
u
zweiter Ordnung mithilfe der Substitution
in ein System erster Ordnung ge:=
u2
u0
schrieben werden.
0 u1
u2
=
u2
−ku1
Sei also in Folge die Differentialgleichung
0
φ~0 =
0 1 ~
φ
−k 0 0
(10.1)
eine Approximation des Mittelwertes eines stochastischen agentenbasierten Modells, dessen Parameter und Übergangswahrscheinlichkeiten zu bestimmen sind.
115
10
116
10.2
KAPITEL 10. 3. BSP: LINEARISIERTES, UNGEDÄMPFTES PENDEL
Erarbeiten des Agentenmodells
Zunächst stellt man fest, dass als Output des in den Theoriekapiteln beschriebenen Verfahrens,
stets eine Differentialgleichung der Form
~0 =
φ
X
ωφ,
ei − e~j )
~ e~i −e~j (~
i,j
P ~0
resultiert. D.h. Differentialgleichungen die i φ
i = 0 und damit eine gewisse Erhaltungsgleichung erfüllen. Die beschriebene Modellgleichung 10.1 ist demnach in dieser Form noch nicht
verwendbar. Man löst das Problem z.B., indem man einen fiktiven dritten Zustand, der das Verhalten der ursprünglichen Differentialgleichung direkt noch nicht beeinflusst, in Form einer dritten Differentialgleichung dazu modelliert.
  
 
 0 
1
0
φ2
φ1
φ2  =  −kφ1  =  0  φ2 + −1 kφ1
−1
1
−φ2 + kφ1
φ3
~0 =
Mit der Taylorentwicklung ω~x,R = N Φ~x,R und der Formel φ
ω~x,e~1 −e~3 = N x2 ,
P
~ R
R Φφ,R
(10.2)
erhält man
ω~x,e~3 −e~2 = N kx1 .
Das größte Problem für die Anwendung der Theorie ist nun das Problem, dass die Werte der
Zustände auch negativ sein können, was negative Übergangsraten verursachen würde. Man ist
also gezwungen, Fallunterscheidungen zu machen:
ω~x,e~1 −e~3 := max(0, N x2 ),
ω~x,e~3 −e~2 := k max(0, N x1 ),
ω~x,e~3 −e~1 := max(0, −N x2 )
ω~x,e~2 −e~3 := k max(0, −N x1 )
Nun soll aber N xi einer Agentenzahl entsprechen, womit eben diese aber nicht negativ sein
kann. Um dieses Problem zu lösen, muss man noch einmal zum Anfang springen und die
Differentialgleichung umskalieren. Bekanntermaßen schwingt das Pendel
√ √ u1 auf dem Intervall
C[−1, 1] und die Ableitung des Pendels u2 auf dem Intervall C[− k, k], mit einer von den
Anfangswerten abhängigen Konstante C. Verwendet man stattdessen also die Differentialgleichung
 0 
  
φ1
φ2
C
φ2  =  −kφ1  + C  ,
φ3
−φ2 + kφ1
C
√
√
so schwingen die Lösungen für auf [0, 2C] bzw auf C[1 − k, 1 + k]. Um zu garantieren, dass
x1 + x2 + x3 = 1 bzw. überhaupt x1 + x2 < 1 kann man z.B.
C :=
1
4
10.2. ERARBEITEN DES AGENTENMODELLS
117
setzen. Damit erhält man die Differentialgleichung
 1
 0 
φ2
φ1
4
φ2  =  −kφ1  +  1  , (u0 − 1 )2 + 1 (u00 − 1 )2 = (≤) 1
4
4
k
4
4
1
−φ2 + kφ1
φ3
4
Die resultierenden Übergangsraten sind demnach
ω~x,e~1 −e~3 := max(0, N x2 −
N
),
4
ω~x,e~3 −e~1 := max(0, −N x2 +
N
)
4
ω~x,e~3 −e~2 := k max(0, N x1 −
N
),
4
ω~x,e~2 −e~3 := k max(0, −N x1 +
N
).
4
Die Umrechnungsformel
ω~x,e~j −e~i = N~xi ωi,j = Xi P ((1, j)|(0, i))
liefert schlussendlich die Übergangsmatrix

·


P ((1, j)|(0, i)) := cωi,j := c 
0
·
)
max(0,N x2 − N
4
N x3


= c

·
)
max(0,−N x1 + N
4
k
N x3
0
0
·
)
max(0,X2 − N
4
X3
max(0,−X1 + N
)
4
k
X3
)
max(0,−N x2 + N
4
N x1

)
max(0,N x1 − N
4 
k

N x2

0
=
·
)
max(0,−X2 + N
4
X1

)
max(0,X1 − N
4 .
k

X2

·
Da i.A. die definierten Wahrscheinlichkeiten nicht einmal kleiner als 1 sein müssen, bietet sich
hier die Skalierung mit einem kleinen c > 0 an, womit auch die Zeit skaliert werden muss.
Mithilfe dieser Matrix ist das agentenbasierte Modell bereits definiert und kann implementiert
werden. Mithilfe von Relationen zwischen den Zuständen könnte man zusätzlich noch versuchen, die Wahrscheinlichkeiten aus einem räumlichen Modell über Kontaktwahrscheinlichkeiten
zu erzeugen. In jedem Zeitschritt hängt die Veränderung der Zustandsvektors von der Positivität
der Ausdrücke X1 − N4 bzw. X2 − N4 ab. Je nach Vorzeichen haben entweder die Agenten im
(unbedeutenden) Zustand 3 die Möglichkeit, in den Zustand „Funktion“ (1) oder „Ableitung“ (2)
überzugehen und damit die jeweilige Zustandsvariable zu erhöhen, oder die Agenten aus dem
Zustand 1 oder 2 haben die Chance in den Zustand „Ruhe“ (3) überzugehen. Wie hier schon
herausgelesen werden kann, ist eine logische Deutung des definierten Agentenmodells fast nicht
möglich. Umso interessanter ist die Tatsache, dass das in dieser Form definierte Modell überhaupt entwickelt werden konnte.
So verrückt und abstrakt die Verwendung eines agentenbasierten Modells in diesem Fall auch
erscheinen mag, baut sie doch auf einem erst zunehmenden Hintergrund auf. So ausgereift die
Forschung auch im Bereich der Physik ist, liefert sie keinerlei Antworten darauf, wie die in der
Physik hergeleiteten Differentialgleichungen bzw. Differentialgleichungsmodelle gelöst werden
118
KAPITEL 10. 3. BSP: LINEARISIERTES, UNGEDÄMPFTES PENDEL
können. Z.B. allein um ein Fadenpendel mit Überschlag zu modellieren, benötigt man zwei unterschiedliche Modelle (schwingen und freier Fall), die über einen Event gekoppelt sind (Fliehkraft ↔ Winkelgeschwindigkeit). Das Eventhandling führt dabei über eine Zwangsbedingung,
die mit der Modellbeschreibung in vielen gängigen Simulatoren nicht konform geht und das
Modell unlösbar macht. Da agentenbasierte Modelle deutlich flexibler sind, könnte man solche
Probleme möglicherweise einfacher in den Griff bekommen.
10.3
Resultate zum konkreten Beispiel
In Folge wird stets das Modellproblem
u00 = −0.25u,
u(0) = 0, u0 (0) = 0.5
mit der Lösung
u(t) = sin(0.5t)
als Referenz verwendet und nur ein Durchlauf des Modells mit, im Gegenzug, sehr großen Agentenzahlen gerechnet und angegeben (M = 1). Wie auch in den vergangenen Kapiteln folgt
zunächst eine Übersichtstabelle über die verwendeten Parametersätze für die folgenden Abbildungen. Die Plots wurden mit dem im Appendix A zu findenden MATLAB Code erzeugt.


X1 (0)
X2 (0)
Abb.
Typ
N
c
X3 (0)


2500
3000
10.1
Vergleich mit DG
10000
0.01
4500
2500
3000
0.005 · (1, . . . , 15)
10.2 Vergleich Raten/Zeitskalierung
10000
 4500

25
10.3
Vergleich Agentenzahlen
100 · 100...2 30 100...2
0.001
45
Zunächst sei erwähnt, dass die Übergangsraten stark nichtlinear vom Zustandsvektor abhängen
und große Steigungen besitzen. Dadurch muss das Modell mit sehr kleinen Skalierungsfaktoren
c gerechnet werden, um sinnvolle Resultate zu erhalten. Einen Vergleich mit der analytischen
Lösung ist für c = 0.01 in Abbildung 10.1 zu sehen. Durch die notwendige Zeitskalierung
müssen 5000 Zeitschritte gerechnet werden, um es mit der analytischen Lösung auf dem Intervall [0, 50] vergleichen zu können. Verwendet man zu große Faktoren c, zeigen sich, ähnlich
zum Verhalten eines expliziten Euler-Verfahrens, Instabilitäten in den Lösungen. Dies wird in
der Vergleichsgrafik 10.2 ersichtlich. Hier sind für unterschiedliche Skalierungsfaktoren c die
Lösungen des Agentenmodells im selben Plot zu sehen und farblich gekennzeichnet. Ähnliche
Resultate erhält man, wenn man zu niedrige Agentenzahlen für die Simulation verwendet. Anhand von drei unterschiedlichen Agentenzahlen (100, 1000, 10000) ist für den Skalierungsfaktor
c = 0.001 das Ergebnis mit 10000 Zeitschritten in der Abbildung 10.3 zu sehen.
10.3. RESULTATE ZUM KONKRETEN BEISPIEL
119
Agentenmodell (10000 Agenten, c=0.01)
4000
3500
3000
2500
2000
1500
1000
0
500
1.00012571.500
2.000
2.500
3.000
3.500
4.000
4.500
5.000
30
35
40
45
50
Lösung DG
1
0.5
0
-0.5
-1
0
5
10 12.57 15
20
25
Abbildung 10.1: Graphen für u und u0 mit beiden Modellen berechnet
120
KAPITEL 10. 3. BSP: LINEARISIERTES, UNGEDÄMPFTES PENDEL
4500
u mit 0.005
u mit 0.075
4000
3500
3000
2500
2000
1500
1000
500
0
0
5000
5
10
15
20
25
30
35
40
45
50
20
25
30
35
40
45
50
u' mit 0.005
u' mit 0.075
4000
3000
2000
1000
0
0
5
10
15
Abbildung 10.2: Lösungen u (oben) und u0 für unterschiedliche Raten/Zeitskalierungsfaktoren
10.3. RESULTATE ZUM KONKRETEN BEISPIEL
121
N=100
50
40
30
20
10
0
0
1000
2000
3000
4000
5000
6000
7000
8000
9000
10000
N=1000
500
400
300
200
100
0
0
1000
2000
3000
4000
5000
N=10000
6000
7000
8000
9000
10000
0
1000
2000
3000
4000
5000
6000
7000
8000
9000
10000
5000
4000
3000
2000
1000
Abbildung 10.3: Agentensimulation für N = 100, 1000 und 10000
KAPITEL
Conclusio
11.1
Rückblick
In den vergangenen Kapiteln wurde gezeigt, wie mit rein mathematischen Mitteln auf analytischer Ebene, Modelltypen ineinander übergeführt werden können, und wie im Endeffekt sogar
Konvergenzresultate folgen. Vor allem bedingt durch die theoretische Komplexität einer Mikrosimulation waren viele Zwischenschritte notwendig, um vom DG Modell schlussendlich eine
Brücke zum zeitdiskreten - raumdiskreten Agentenmodell zu gelangen. Es seien nun ein letztes
Mal die wichtigsten Aussagen der Arbeit zusammengefasst:
Die Zustandsvektoren (Summe aller Agenten im selben Zustand) von stochastischen agentenbasierten Modellen, in denen die Übergangswahrscheinlichkeiten eines Agenten von
einem Zustand in den anderen maximal von dem Zustandsvektor selbst abhängen, haben
stochastische Größen, die approximativ mit Differentialgleichungen beschreibbar sind.
Die Kurve des Mittelwerts der agentenbasierten Modelle kann durch ein System von gewöhnlichen, evtl. nichtlinearen, Differentialgleichungen approximiert werden.
Die Varianz lässt sich im Fall von maximal zwei Zuständen ebenfalls durch eine gewöhnliche Differentialgleichung annähern. Sie ist nicht zwingend monoton wachsend. In diesem
Fall lässt sich damit sogar eine Approximation an die Wahrscheinlichkeitsdichte ermitteln.
Eine Approximation an die diskrete Wahrscheinlichkeitsverteilung erhält man mit einer
Dichtefunktion, die als Lösung einer Fokker-Planck-Gleichung auftritt.
Im eindimensionalen Fall entspricht diese Dichte einer zeitabhängigen Gauss-Verteilung
mit Mittelwert φ(t) und Varianz σ 2 (t).
Die Varianz ist auch für eine beliebige Anzahl an Zuständen stets ein O(N −1 ) und konvergiert gegen 0.
123
11
124
KAPITEL 11. CONCLUSIO
Im Vergleich der DG mit einem zeitkontinuierlichen agentenbasierten Markov-Modell
entsteht ein Orts-Diskretisierungs-Fehler, der von der Agentenzahl bzw. der Anzahl der
Durchläufe des Agentenmodells abhängt.
Im Vergleich des zeitkontinuierlichen Markov-Modells und des stochastischen zeitdiskreten agentenbasierten Modells entsteht ein Zeit-Diskretisierungs-Fehler der von der Größe
der Übergangsraten bzw. deren Ableitungen abhängt.
Die Konvergenz, zumindest der Erwartungswertkurven, erhält man mit dem Parametersetting
ω
lim (nTend , , N n)
n→∞
n
Die zu verwendenden Umrechnungen vom Agentenmodell zur Differentialgleichung lauten
ωj,i := P ((1, i)|(0, j)) = P (Agent wechselt von j zu i)
ω~x,e~i −e~j := N~xj ωi,j
f (N )(Φ1 (~x, e~i − e~j ) + N −1 Φ2 (~x, e~i − e~j ) + . . . ) := ω~x,e~i −e~j
X
~0 =
~ e~i − e~j )(~
φ
Φ1 (φ,
ei − e~j ),
i6=j
oder mithilfe der Exit und Entry Rate definiert
X
(ωex (~x))j := N~xj
ωj,i =: N~xj µj
i6=j
(ωen (~x))j := N
X
~xi ωi,j =: N (1 − ~xj )λj
i6=j
~ 0 := (Φ1 (φ))
~ j − (Φ1 (φ))
~ j.
φ
j
en
ex
Der Fehler, den beide Modelle zueinander machen, ist auch quantitativ abschätzbar.
Das Resultat ist ein fertiges, wenn auch noch nicht perfekt ausgereiftes Konzept zur Erstellung
von Differentialgleichungs bzw. agentenbasierten Modellen aus dem jeweils anderen.
11.2
Ausblick
Die vorgestellte Theorie könnte durchaus langfristig in Bereichen der Modellbildung in Simulation helfen, die Anwendungsbereiche von Modellen weiter zu vergrößern. Ist z.B. durch eine geringe Modelländerung ein Differentialgleichungsmodell unrechenbar geworden, z.B. durch eine
komplizierte Zwangsbedingung oder einen Event, könnte das Problem vielleicht im korrespondierende agentenbasierten Modell leicht zu lösen sein. Auf der anderen Seite könnten genauere
Analysen des Konzepts überdies dazu beitragen, mithilfe der ausgereiften Theorie über Differentialgleichungen das Verhalten von sich selbst korrigierenden mikroskopischen Systemen, die
11.2. AUSBLICK
125
ob ihres chaotischen Verhaltens stets schwer zu analysieren sind, besser zu verstehen und vorhersagen zu können. Die vorliegende Arbeit kratzt diesbezüglich gerade erst an der Wurzel, und
die Theorie bietet noch viel Potenzial (genauere Fehleranalysis, Untersuchen von Stabilität von
Lösungen, Rechenzeitanalysen, etc.).
Sowohl das Modellieren mit Differentialgleichungen, als auch die agentenbasierte Modellierung
leisten gerade in einer Zeit, in der es immer notwendiger wird, auf ihrem jeweiligen Anwendungsgebiet sehr gute Dienste. Wenn mithilfe von Ideen wie dieser die beiden Anwendungsgebiete immer weiter überlappen und man weniger an einen Modelltyp gefesselt ist, kann die
Modellbildung, denke ich, nur profitieren und mit ihr natürlich auch der Mensch.
ANHANG
Appendix
Matlab Code für das agentenbasierte Pendel Modell:
function [M] = pendel(N,x0,tt,k,c)
% Ausgangspunkt: x’’=-kx bzw (x_1,x_2)’=(x_2,-kx_1)
% N
- Anzahl an Agenten
% x0
- (X1(0),X2(0))
% tt
- Anzahl der Schritte
% k
- Frequenzkonstante
% c
- Skalierungsfaktor fuer die Wahrscheinlichkeiten
%
% ------Definition der Anfangskonfiguration------P(1:N)=0;
P(1:x0(1))=1;
P(x0(1)+1:x0(1)+x0(2))=2;
x(1)=x0(1);
xx(1)=x0(2);
% ------Schleife ueber die Zeit ------------------for t=2:tt
x(t)=x(t-1);
xx(t)=xx(t-1);
Q(1:N)=0;
W=WW(x(t-1),xx(t-1)); % Aufruf der Ratenfunktion
% ------Schleife ueber die Agenten ----------------for i=1:N
if P(i)==0
r=rand();
if r<W(3,1)
Q(i)=1;
x(t)=x(t)+1;
elseif r<W(3,1)+W(3,2)
Q(i)=2;
xx(t)=xx(t)+1;
else
Q(i)=0;
end;
127
A
128
ANHANG A. APPENDIX
elseif P(i)==1
r=rand();
if r<W(1,3)
Q(i)=0;
x(t)=x(t)-1;
elseif r<W(1,3)+W(1,2)
Q(i)=2;
x(t)=x(t)-1; xx(t)=xx(t)+1;
else
Q(i)=1;
end;
else
r=rand();
if r<W(2,3)
Q(i)=0;
xx(t)=xx(t)-1;
elseif r<W(2,3)+W(2,1)
Q(i)=1;
x(t)=x(t)+1; xx(t)=xx(t)-1;
else
Q(i)=2;
end;
end;
end;
M(t,1:N)=P(1:N);
P=Q; % Updateschritt
end;
% ------Plotbefehl------------------------------A=[x;xx];
plot(1:tt,A);
% ------Ratenfunktion---------------------------function omega = WW(x,xx)
omega=zeros(3);
omega(1,3)=c*max(0,-xx+N/4)/x;
omega(3,1)=c*max(0,xx-N/4)/(N-x-xx);
omega(2,3)=c*k*max(0,x-N/4)/xx;
omega(3,2)=c*k*max(0,-x+N/4)/(N-x-xx);
end;
end
Abbildungsverzeichnis
2.1
2.2
2.3
Übersichtsabbildung - Umweg zum Ziel . . . . . . . . . . . . . . . . . . . . . .
Vergleich stochastisch - deterministisch . . . . . . . . . . . . . . . . . . . . . .
Möglicher Pfad eines CTDS Markovporzesses . . . . . . . . . . . . . . . . . .
5
8
13
3.1
Approximation von p mit pcont bzw. pi . . . . . . . . . . . . . . . . . . . . . . .
43
4.1
4.2
Beispiel für die Lösungskurven einer Transportgleichung . . . . . . . . . . . . .
Beispiel für die Lösungskurven einer Diffusionsgleichung . . . . . . . . . . . .
50
50
7.1
7.2
7.3
7.4
7.5
7.6
7.7
Skizze des Ehrenfest’schen Urnenproblems . . . . .
Unterschiedliche Werte für N . . . . . . . . . . . . .
Erwartungswertkurve mit Standardabweichungskurve
Vergleich der Varianzen . . . . . . . . . . . . . . . .
Vergleich der Dichtekurven . . . . . . . . . . . . . . .
Fehler mit unterschiedlichen Werten von N · M . . .
Fehler mit Zeit- und Raten-Skalierung C . . . . . . .
.
.
.
.
.
.
.
76
82
83
84
85
86
87
8.1
8.2
Überblick über bisherige Abschätzungen . . . . . . . . . . . . . . . . . . . . .
Skizze für die Umrechnung - φ steht Beispielhaft für eine stochastische Größe .
89
91
9.1
9.2
9.3
9.4
Parameter λ = 0.7, µ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . .
Parameter λ = 0.8, µ = 0.1 . . . . . . . . . . . . . . . . . . . . . . . . . .
Parameter λ = 0.7, µ = 0.05 . . . . . . . . . . . . . . . . . . . . . . . . . .
Fehlergraphen für S (oben), I (mittig) und R (unten) für drei Parametersätze
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
111
111
112
113
10.1 Graphen für u und u0 mit beiden Modellen berechnet . . . . . . . . . . . . . . .
10.2 Lösungen u (oben) und u0 für unterschiedliche Raten/Zeitskalierungsfaktoren .
10.3 Agentensimulation für N = 100, 1000 und 10000 . . . . . . . . . . . . . . . . .
119
120
121
129
Literaturverzeichnis
[Aok02]
Masanao Aoki. Modeling Aggregate Behavior and Fluctuations in Economics: Stochastic Views of Interacting Agents. Cambridge University Press, New York, 2002.
[Enc07]
Encyclopaedia Britannica, inc. The New Encyclopaedia Britannica. Encyclopaedia
Britannica, Chicago, 15th edition, 2007.
[Kam82]
N. G. van Kampen. The Diffusion Approximation for Markov Processes. Thermodynamics and kinetics of biological processes. Walter de Gruyter and Co., 1982.
[Kam07]
N. G. van Kampen. Stochastic processes in physics and chemistry. North-Holland
personal library. Elsevier, Amsterdam ; Boston, 3rd ed edition, 2007.
[KM27]
W.O. Kermack and W.G. McKendrick. A contribution to the mathematical theory
of epidemics. 1927.
[Mik12]
F. Miksch. Mathematische Modelle für neue Erkenntnisse über Epidemien mittels
Herdenimmunität und Serotypenverschiebung. Dissertation, Inst. f. Analysis und
Scientific Computing, Vienna University of Technology, Vienna, 2012.
[MZP+ 12] Florian Miksch, Günther Zauner, Philipp Pichler, Christoph Urach, and Niki Popper.
Endbericht. Technical Report Endbericht des Influenza Projekts, Vienna, February
2012.
[PK12]
C. Pöll and A. Körner. A different kind of modelling: Cellular automata. In F. Breitenecker and I. Troch, editors, Preprints MATHMOD 2012 Vienna – Abstract Volume, volume 38 of ARGESIM Report, page 402, Vienna, Austria, 2012. ARGESIM /
ASIM.
[Sch05]
Volker Schmidt. Vorlesungsskript Wahrscheinlichkeitstheorie. Universität Ulm,
SS2005, Juli 2005. Vorlesung SS2005.
[Sto70]
William F. Stout. The hartman-wintner law of the iterated logaroithm for martingales. The Annals of Mathematical Statistics, 41(6), 1970.
131
Herunterladen