Evolution als Optimierungsprozess

Werbung
Evolution als
Optimierungsprozess
Proseminar
Evolutionsstrategien
Sommersemester 2002
Mirko Wölflick
Quelle: Schöneburg, E.; Heinzmann, F.; Feddersen, S.: Genetische
Algorithmen und Evolutionsstrategien. Bonn, Paris: Addison-Wesley
1994. (Kapitel 2, S. 96-140)
Gliederung
1.
Evolution als Optimierungsprozess
1.1
1.2
1.3
Prinzipien der Evolution
Die Evolution - eine kombinierte Suchstrategie
Finden des globalen Optimums
2.
Konventionelle Optimierungsverfahren
2.1
2.1.1
2.1.2
2.1.3
2.2
2.2.1
Deterministische Verfahren
Gauß-Seidel-Verfahren
Gradientenverfahren
Simplexverfahren
Nicht-deterministische Verfahren
Monte-Carlo-Verfahren
3.
Aspekte der modernen Evolutionstheorien
3.1
3.2
3.2.1
3.2.2
3.2.3
3.2.4
3.2.5
3.3
3.3.1
3.4
Evolution als Rückkopplungsprozess
Chaos, Fraktale und Selbstorganisation
Chaostheorie
Prinzip der Fraktale
Simuliertes Chaos
Anwendung auf Differenzierungsprozesse von biologischen Zellen
Selbstorganisation in NK-Zufallsnetzwerken
Gradualismus versus Saltationismus
Paradoxon bei Räumen hoher Dimension
Kommunikation, Kultur und Kooperation
4.
Zusammenfassung, Ausblick
1.
Evolution als Optimierungsprozess
Die Evolution ist ein Optimierungsverfahren, welches durch Manipulation der Erbinformation
eine Anpassung von Organismen an die Bedingungen der sie umgebenden Umwelt erreicht.
Dabei ist die Evolution mit einem Suchprozess vergleichbar, der den gigantischen Raum der
genetischen Informationen, nach der besten Genkombination durchsucht, die ein Individuum
dazu befähigt im Kampf ums Dasein zu bestehen.
1.1
Prinzipien der Evolution
Die Evolution wendet bei ihrer Suche drei Grundprinzipien an. Diese sind die Mutation, die
Rekombination und die Selektion. Alle Prinzipien unterscheiden sich hinsichtlich ihrer Funktion und Wichtigkeit für den Evolutionsprozess.
Die Mutation ist ein ungerichteter Suchprozess. Sie erzeugt Varianten und Alternativen. Dies
ist besonders wichtig, um lokale Optima zu überwinden. Die Wahrscheinlichkeit einer Mutation ist jedoch sehr gering.
Sehr viel häufiger finden Rekombinationen statt. Rekombination (engl. crossing over) genannt, bezeichnet den Austausch von langen Nucleotidketten zwischen den homologen
Chromosomen der Eltern. Der Sinn dieses Verfahrens besteht darin, bereits bewährte Genkombinationen neu zu mischen, um eine Verbesserung in Richtung des Optimums zu erreichen.
Das wohl wichtigste Prinzip der Evolution ist die Selektion. Sie bestimmt im Wesentlichen
die Richtung, in der sich die Evolution bewegt. Die Selektion wäre ein deterministischer Vorgang. Jedoch machen Störungen, z.B. zufällige Unglücke einzelner Individuen, oder Umweltkatastrophen, die den Lebensraum ganzer Populationen verändern, sowie Rückkopplungseffekte zwischen Lebewesen und Umwelt, aus der Selektion einen nicht-deterministischen
Vorgang.
1.2
Die Evolution – eine kombinierte Suchstrategie
Kombinierte Suchstrategie heißt, dass es sich um eine gleichzeitige Tiefen- und Breitensuche
handelt (auch serielle und parallele Suche genannt). Das Ziel dieser Kombination ist die
Minimierung der Evolutionszeit. In der Evolution bedeutet Tiefensuche, die Suche über Generationen hinweg. Dagegen bedeutet Breitensuche, die Suche über eine Anzahl gleichzeitig
lebender Individuen. Um eine möglichst schnelle Anpassung an sich verändernde Umweltbedingungen zu erreichen, müssen somit die Generationsfolgen (Reproduktionszeit) kurz und
die Individuenanzahl (Reproduktionsquote) hoch gehalten werden. In der Realität ist jedoch
das Verhältnis von Reproduktionszeit zu Reproduktionsquote von Art zu Art unterschiedlich.
Besondere Wichtigkeit fällt der parallelen Suche zu. Sie erhöht auf der einen Seite die Wahrscheinlichkeit optimale Punkte des Suchraumes zu erreichen und sie verringert auf der anderen Seite die Wahrscheinlichkeit suboptimale Pfade zu verfolgen.
1.3
Finden des globalen Optimums
Das wichtigste Ziel der Evolutionsstrategen ist ein schnelles und systematisches Finden der
optimalen Parameterwerte für die Komponenten eines Vektors, der einen Punkt im Suchraum
markiert. Um Aussagen über die Qualität einer Kombination aus Parametern treffen zu können, benötigt man eine Zielfunktion, die jedem Parametervektor einen Qualitätswert zuweist.
Diese nennt man Qualitätsfunktion. Sie besitzt lokale und globale Maxima und Minima.
Dabei ist es von der jeweiligen Problemstellung abhängig, ob man das Maximum oder das
Minimum sucht.
Nun könnte man, um das globale Optimum zu finden, alle möglichen Vektoren bewerten und
miteinander vergleichen. Dies würde jedoch sehr viel Zeit in Anspruch nehmen. Unter Umständen würde man länger rechnen müssen als das Universum existiert. Also benötigt man ein
Verfahren, um diese Zeit zu verkürzen.
2.
Konventionelle Optimierungsverfahren
Die bekannten klassischen Optimierungsverfahren teilen sich auf in deterministische und
nicht-deterministische Verfahren. Typische deterministische Verfahren sind: das GaußSeidel-Verfahren, das Gradientenverfahren und das Simplexverfahren. Diese Verfahren werden auch als Hill-Climbing bezeichnet.
Alle weiteren Betrachtungen beziehen sich auf folgende Vereinbarung:
Gesucht ist der Parametervektor (p1, p2, …, pn) für den die Qualitätsfunktion
Q(p1, p2, …, pn) ihr Maximum annimmt.
2.1
Deterministische Verfahren
2.1.1
Gauß-Seidel-Verfahren
Bei dieser Methode wird zunächst der erste Parameter p1 in einer Richtung verändert. Wenn
die Qualitätsfunktion Q größer wird, dann wird weiter in derselben Richtung verändert bis Q
wieder kleiner wird. Dann verändert man p2 in eine Richtung. Wenn Q kleiner wird, dann
verändert man in entgegengesetzter Richtung bis Q wieder kippt. Dies führt man für alle Parameter durch. Bei pn angekommen wiederholt man die gesamte Prozedur bis Q einen zufriedenstellenden Wert erreicht hat oder auf diese Weise keine Verbesserung mehr möglich ist.
2.1.2
Gradientenverfahren
Bei dieser Methode verändert man die Parameter je nach dem, welchen Anstieg die Qualitätsfunktion in einem Punkt hat. Dazu muss man zunächst die Ableitung der Qualitätsfunktion
bestimmen. Dann verändert man die Parameter in Richtung des steilsten Gradienten und proportional zum Anstieg. Das heißt, dass bei großem Anstieg die Parameter stark, und bei kleinem Anstieg die Parameter wenig verändert werden. Ein Nachteil dieses Verfahrens ist, dass
es bei lokalen Optima hängen bleibt.
2.1.3
Simplexverfahren
Beim Simplexverfahren handelt es sich um ein komplett anderes Prinzip. Es beginnt mit mehreren Startpunkten. Und zwar mit n+1 Startpunkten im n-dimensionalen Raum. Dabei haben
alle Punkte den gleichen Abstand zueinander. Bildlich gesprochen bedeutet dies im 2dimensionalen Raum ein gleichseitiges Dreieck, im 3-dimensionalen Raum ein Tetraeder und
im n-dimensionalen Raum ein reguläres Polyeder – ein Simplex.
Man verfährt bei dieser Strategie wie folgt: Zuerst bewertet man alle Eckpunkte. Dann
streicht man den Schlechtesten und ersetzt ihn durch seine Spiegelung am Mittelpunkt des
verbleibenden n-Ecks. Sollte der neue Punkt auch wieder der Schlechteste sein, so würde der
Simplex sich oszillierend zwischen den beiden Zuständen bewegen. Deshalb streicht man in
diesem Fall nicht den Schlechtesten Eckpunkt, sondern den Zweitschlechtesten. Nach einigen
Iterationen rotiert der Polyeder dann um den Punkt der höchsten Qualität. An diesem Zustand
angekommen, lässt sich eine Qualitätsverbesserung nur noch durch eine Verkürzung der Kantenlänge erreichen.
Es existieren noch weitere deterministische Verfahren, wie z. B. die Newton-Strategien und
die Complex-Strategie von Box. Die Nachteile dieser Verfahren sind: Zum einen, die Möglichkeit der Unauffindbarkeit des Optimum, welche aus der Systematik der Suchvorschrift
resultiert, und zum anderen die Unklarheit über die zu verwendende Suchmethode, wenn die
Struktur des Suchraums unbekannt ist.
2.2
Nicht-deterministische Verfahren
Bei diesen Verfahren verzichtet man völlig auf eine komplizierte Vorschrift und macht stattdessen systematisch vom Zufall Gebrauch. Der Vorteil der sich hieraus ergibt, liegt in der
geringeren Gefahr das Optimum „zu verpassen“.
2.2.1
Monte-Carlo-Verfahren
Anhand dieser Methode kann man zeigen, dass es möglich ist, durch den systematischen
Gebrauch des Zufalls, zu recht brauchbaren Ergebnissen zu gelangen. Man kann dieses Verfahren verwenden, um zum Beispiel den Flächeninhalt einer kompliziert zu berechnenden
Fläche zu ermitteln.
Man beginnt, indem man um die zu berechnende Fläche ein Rechteck zeichnet. Als nächstes
erzeugt man innerhalb des Rechtecks zufällige Punkte – die jedoch alle die selbe Wahrscheinlichkeit besitzen müssen. Einige Punkte werden dann innerhalb der zu berechnenden Fläche
liegen – andere nicht. Der Flächeninhalt, der komplizierten Fläche errechnet sich dann aus der
Anzahl der Punkte innerhalb der Fläche mal der Anzahl der Punkte, die nur im Rechteck liegen, geteilt durch die gesamte Anzahl der erzeugten Punkte. Das Ergebnis wird dann um so
genauer, je mehr Punkte man erzeugt.
Da die nicht-deterministischen Verfahren rein zufallsbasiert sind, kann die Suche nach dem
Optimum, jedoch sehr lang dauern.
Nebenbei sei gesagt, dass die Evolution nicht nach diesem simplen Prinzip vorgeht. Sie sucht
sehr viel zielgerichteter.
3.
Aspekte moderner Evolutionstheorien
Seit Darwin hat sich unser Weltbild hinsichtlich der Evolution stark verändert. Dazu haben
neue Erkenntnisse und Sichtweisen beigetragen.
3.1
Evolution als Rückkopplungsprozess
Ein Aspekt, den Darwin noch nicht erkannt hatte, ist, dass die Evolution ein von Rückkopplungen beeinflusster Prozess ist. Das heißt, dass die Lebewesen sich nicht nur an ihre Umwelt
anpassen, sondern sie auch verändern. Und das schon allein durch ihre bloße Existenz. Der
Rückkopplungseffekt besteht dann darin, dass sich die Lebewesen erneut an die veränderte
Umwelt anpassen müssen. Der Einfluss der Lebewesen ist von Art zu Art unterschiedlich.
Außerdem unterscheidet man direkten und indirekten Einfluss.
Das Rückkopplungsprinzip ist ein wichtiges Element der folgenden Theorien.
3.2
Chaos, Fraktale und Selbstorganisation
3.2.1
Chaostheorie
Die Chaostheorie untersucht das Verhalten komplexer rückgekoppelter Systeme. Zum Beispiel das Zusammenspiel der Zellen eines Individuums oder die Entwicklung von Organen.
Die Chaostheorie ist eine relativ junge Theorie – sie existiert erst seit einigen Jahrzehnten.
Unter Chaos versteht man den unvorhersagbaren spontanen Wechsel zwischen Ordnung und
Unordnung. Man unterscheidet nicht-deterministisches Chaos und deterministisches Chaos.
Das Merkmal des nicht-deterministischen Chaos ist, dass sein unvorhersehbarer Zustandswechsel allein von Zufallsfaktoren abhängt. Im Gegensatz dazu entsteht die Unvorhersehbarkeit beim deterministischen Chaos nicht durch den Gebrauch des Zufalls sondern allein durch
die Eigendynamik, die solche Systeme entwickeln.
Man spricht von einem chaotischen System, wenn eine geringfügige Änderung der Randbedingung ein gravierend anderes Verhalten zur Folge hat.
Die Unvorhersehbarkeit natürlicher Systeme resultiert zum einen aus der Fülle an beeinflussenden Faktoren, zum anderen aus der strukturbestimmten Nichtmessbarkeit bestimmter Elementarzustände (vgl. Heisenberg’sche Unschärferelation):
Faktoren, die unter der Messbarkeitsschwelle liegen. Und nicht zuletzt machen auch noch
generelle Messungenauigkeiten eine genaue Vorhersage unmöglich.
Das interessante an chaotischen Systemen ist, das sie in sich die Möglichkeit des Anti-Chaos
bergen. Da wo vorher Unordnung war, kann plötzliche Ordnung entstehen. Dies kann verwendet werden um ein Modell zur Entstehung des Lebens zu entwickeln.
3.2.2
Prinzip der Fraktale
Es ist Benoit Mandelbrot zu verdanken, dass man heute die Unvollkommenheit der Natur
(platonisches Weltbild) nicht mehr als einen Makel betrachtet, sondern als ein Grundprinzip
der belebten und unbelebten Materie, mit dem Zweck, eine große Formenvielfalt hervorzubringen. Dies hat er in seinem Buch „Die Fraktale Geometrie der Natur“ nachgewiesen.
Die wichtigste Eigenschaft der Fraktale ist ihre Selbstähnlichkeit (man spricht hier von Skaleninvarianz), das heißt wenn man in eine fraktale Struktur (einen fraktalen Graphen) hineinoder herauszoomt, so sieht man immer wieder dieselben, sich wiederholenden Muster. Weitere Eigenschaften sind der Wechsel zwischen Regularität und Irregularität sowie ihre spezielle,
gebrochene (nicht ganzzahlige!) Dimension.
In der Evolution findet man Fraktale bei der Vererbung von bestimmten phänotypischen
Merkmalen wieder. Der Fingerabdruck oder das Muster des Leopardenfells sind Beispiele für
solche Merkmale. Bei der Vererbung dieser Merkmale werden anstelle komplexer Baupläne
fraktale Erzeugungsfunktionen weitergegeben. Dies ist vorteilhaft, weil dadurch die Erbinformation sehr viel kompakter dargestellt werden kann und weil schon kleine Mutationen
große phänotypische Veränderungen hervorbringen können.
3.2.3
Simuliertes Chaos
Stuart Kauffman untersuchte das Problem, wie durch das Zusammenspiel der Gene der Phänotyp eines Lebewesens entsteht. Er entwickelte dazu ein Modell zur Simulation der Genaktivität.
Bei dem Modell handelt es sich um Boole’sche NK-Zufallsnetzwerke, in denen Gene durch
logische Funktionen (UND, ODER, XOR, ...) dargestellt werden. Diese werden miteinander
verschaltet und zwar so, dass der Ausgang eines Gens mit dem Eingang eines anderen Gens
verbunden ist. Der Ausgang eines Gens stellt dessen Zustand (aktiv oder nicht) dar. Die Anzahl der Elemente in einem solchen Netzwerk wird mit N angegeben und die Anzahl der Eingänge pro Element wird mit K angegeben. Daher die Bezeichnung NK-Zufallsnetzwerke.
Bei der Simulation wird dann wie folgt vorgegangen: Zuerst initialisiert man ein solches
Netzwerk, das heißt: aus allen möglichen Kombinationen, die Elemente miteinander zu verschalten, greift man sich eine heraus und weist jedem Element einen Zustand (aktiv oder inaktiv) zu. Dann startet man das Netzwerk und schaut sich an, wie sich das Netzwerk verhält.
Das Netzwerk durchläuft nacheinander viele Zustände. Der Zustand des gesamten Netzwerkes
lässt sich als Aktivitätsvektor der einzelnen Elemente darstellen. Bei einem Beispielnetzwerk
aus 200 Elementen ergibt dies eine Anzahl von 2200 ≈ 1060 möglichen Zuständen. Das Interessante hierbei ist, dass nicht alle möglichen Zustände durchlaufen werden. Es werden Zustandsketten durchlaufen, deren Anfangs- und Endvektoren gleich sind. Diese Ketten nennt
man dann Zyklus. Befindet sich einmal ein Netzwerk in einem solchen Zyklus, so kann es ihn
nicht mehr verlassen. Dies resultiert aus dem deterministischen Charakter dieser Systeme.
Wenn man dann jedoch das Netzwerk mit nur leicht verändertem Startvektor startet, zeigt sich
das chaotische Verhalten, denn es werden dann komplett andere Zustandsketten durchlaufen.
Das Interessante hierbei jedoch ist, dass oftmals viele dieser verschiedenen Zustandsketten in
ein und demselben Zyklus enden. Man nennt einen solchen Zyklus, in den viele Zustandsketten hineinmünden, einen Attraktor. Auf Grund der hohen Anzahl der möglichen Aktivitätsvektoren könnte man meinen, dass die Länge von Zyklen sehr groß sein sollte. Sie ist jedoch
tatsächlich nur ca. N/e. Das heißt bei N = 200 sind das ca. 74 Zyklen. Die Gesamtheit der Aktivitätsvektoren, die in einen Attraktor münden, nennt man den Einzugsbereich des Attraktors.
Beispiele für Attraktoren sind allgemein Krater in einer „hügeligen Landschaft“ oder spezielle
Fraktale (z.B. der Henon-Attraktor).
3.2.4
Anwendung auf Differenzierungsprozesse von biologischen Zellen
In der Natur ist die Rückkopplung der Gene nicht so stark, wie bei Netzwerken mit K=N-1.
Deshalb beschränkt man sich bei folgender Betrachtung auf Netzwerke mit K=2. Die Zykluslänge, sowie die Anzahl der Zyklen lassen sich bei beliebigem N leicht abschätzen. Sie sind
gleich groß und betragen ≈ N .
Durch Gen-Regulation wird die Differenzierung der Zellen eines Organismus gesteuert. Man
kann nun die verschiedenen Zelltypen mit Attraktoren für die Gen-Regulation vergleichen.
Nimmt man als Beispiel das Genom des Menschen, dass aus ca. 100.000 Genen besteht, so
ergibt sich eine ungefähre Zykluslänge von 370. Daraus lässt sich dann die durchschnittliche
Länge eines Zellzyklus berechnen. Es ist bekannt, dass ein Gen ca. eine bis zehn Minuten
benötigt um aktiv zu werden. Die Länge eines Zellzyklus sollte dann zwischen 370 · 1 min
und 370 · 10 min, also zwischen 6 und 60 Stunden liegen. Dies deckt sich mit der Realität!
Ebenso deckt sich die Anzahl der möglichen Zyklen (370) mit der Anzahl der möglichen Zelltypen (tatsächlich ca. 260). Bei Berücksichtigung aller möglichen Genomzustände (2100.000) ist
die Abweichung sicherlich vertretbar.
3.2.5
Selbstorganisation in NK-Zufallsnetzwerken
Interessante Ergebnisse wurden bei der Simulation von NK-Zufallsnetzwerken erzielt. Das
Forscherteam um Kauffman fand heraus, dass sich bestimmte Netzwerke chaotischer verhalten als andere. Chaotischeres Verhalten bedeutet, dass diese Netzwerke eher zu Unordnung
neigen. Unordnung heißt, es werden lange Zyklusketten durchlaufen. Und ein Netzwerk, dass
zu Ordnung neigt durchläuft dementsprechend kurze Zyklusketten.
Der Versuch, den die Forscher machten, gestaltete sich wie folgt. Alle Elemente eines Netzwerkes werden während der Simulation eingefärbt. Elemente, die selten ihren Zustand wechseln, bekommen eine rote Farbe und Elemente, die häufig ihren Zustand wechseln, bekommen
eine blaue Farbe. Als Konsequenz verhalten sich überwiegend blaue Netzwerke chaotischer
als rote. Die Ordnung der Netzwerke nimmt zu, je größer das Verhältnis aus roten zu blauen
Elementen ist. Außerdem nimmt die Ordnung zu, je kleiner man die Rückkopplung wählt (K
≤ 2). Die Ordnung wird ebenfalls erhöht, wenn man Elemente verwendet, die nur selten ihren
Zustand wechseln (ODER-Funktion).
Die Bedeutung dieser Ergebnisse für die Evolutionstheorie ist, dass diese NK-Zufallsnetzwerke, das Genom höherer Lebewesen recht gut beschreiben. Deshalb lassen sich aus dem
Verhalten dieser Netzwerke Vorhersagen über die spontane Bildung von Ordnung in GenRegulationssystemen treffen. Außerdem kann man abschätzen, welche Auswirkungen Mutationen auf die Gen-Regulation haben.
Dies konnte wiederum durch Experimente belegt werden. Bei der induzierten Mutation eines
Gens (von 5000) bei der Taufliege Drosophila, folgte eine Kaskade von 150 Veränderungen
der Genaktivitäten. Die Simulation mittels NK-Zufallsnetzwerken (N = 5000, K = 2 und
ODER-Elemente) sagte einen Wert von 160 voraus.
3.3
Gradualismus versus Saltationismus
Der Gradualismus ist eine Theorie, die davon ausgeht, dass die Evolution der Arten durch
geringfügige, kontinuierliche Veränderung vonstatten geht. Diese Ansicht wurde besonders
von Darwin und Leibniz entwickelt und vertreten.
Die Befürworter des Saltationismus hingegen, vertreten die Ansicht, dass die Evolution der
Arten durch größere, qualitative Sprünge fortschreitet. Ein wichtiges Argument für den Saltationismus ist die Tatsache, dass selten Fossilien gefunden werden, die Bindeglieder zwischen
zwei Arten sind.
Ein weiteres Argument gegen den Gradualismus liefert die moderne Genetik. Sie besagt, dass
die Entwicklung neuer Organe eine unvorstellbar große Anzahl an Mutationen benötigt und
dass dies nicht in einer Folge vieler kleiner Veränderungen möglich ist.
Allerdings sprechen auch Argumente gegen Makromutationen. Denn die Wahrscheinlichkeit,
dass sich durch Makromutationen neue Organe bilden, ist sehr gering. Die meisten dieser Mutationen führen nämlich zum Verlust der Überlebensfähigkeit.
Trotz der Argumente für den Saltationismus ist der Gradualismus dank dem Modell von Ingo
Rechenberg und Manfred Eigen theoretisch besser fundiert. Sie haben ein Modell entwickelt,
den „Rechenberg’schen Gradientenpfad“, der eine geeignete Struktur für den Suchraum vorgibt. Diese Struktur ermöglicht nun, durch eine kurze Folge von Mutationen, jede möglich
Genkombination im Suchraum zu erreichen. Die Grundlage dieses Modells ist die Basensequenz. Somit besitzt der Suchraum die Dimension n mit n gleich Anzahl der Basenpaare. Ein
jeder Punkt im Suchraum repräsentiert als Vektor eine mögliche Basensequenz. Man nennt
diesen Raum daher auch Sequenzraum.
Wird nun eine Base einer solchen Basensequenz durch Mutation verändert, so entspricht die
Änderung gerade einem Schritt im Sequenzraum von einem Punkt zum nächsten Punkt.
Durch die Redundanz des genetischen Codes (jede Aminosäure wird durch verschiedene
Codewörter codiert), haben geringe Mutationen auch kaum Auswirkungen.
3.3.1
Paradoxon bei Räumen hoher Dimension:
Bei Räumen hoher Dimension ist der Abstand zwischen zwei zufällig gewählten Punkten nahezu konstant. Dies kann man leicht am Beispiel eines Wanderers, der einen Ausweg aus einem Gebirge sucht und dabei keine Berge überqueren darf, zeigen. Befindet sich der Wanderer in einem Gebirge des zweidimensionalen Raumes, so ist es für ihn unmöglich dieses zu
verlassen. Befindet er sich in einem Gebirge des dreidimensionalen Raumes, so ist es schon
recht wahrscheinlich, dass es in irgend einer Richtung bergab geht. Bei Räumen höherer Dimension wird es immer wahrscheinlicher einen Ausweg zu finden. Bis es dann bei Räumen
extrem hoher Dimension sogar keine Umwege und Sackgassen mehr gibt.
Für die Evolution bedeutet dies, dass sie, bei ihrer Suche, zu keiner früheren Position mehr
zurückkehren muss. Und weiterhin bedeutet es, dass jeder Punkt des Sequenzraumes durch
eine kurze Folge von Mutationen erreichbar ist. Doch wie lang ist nun eine solche Mutationskette? Um diese Frage zu beantworten, arbeitet man zunächst mit einem vereinfachten Raum.
Man betrachtet einen binären Raum mit n Dimensionen. D.h. jeder Punkt dieses Raumes ergibt sich aus einem binären Vektor der Länge n. Man wählt sich dann einen Startpunkt s = (x1,
x2, ... , xn) und einen Zielpunkt z = (y1, y2, ... , yn) wobei xi, yi ∈{0,1}. Der Abstand zwischen
diesen beiden Punkten berechnet sich dann so:
Abstand (s, z ) =
n
∑ (x − y )
i =1
i
2
i
Da xi und yi nur in zwei von vier Fällen etwas zum Abstand beitragen, gilt
Abstand (s, z ) = n / 2
Der Abstand ist also gleich der Wurzel aus der halben Dimension, und er ist konstant. Das
selbe Prinzip gilt auch für den Basensequenzraum.
Dies alles zeigt, dass sich der Gradualismus durchaus rechtfertigen lässt.
3.4
Kommunikation, Kultur und Kooperation
Diese drei Prinzipien wurden in den klassischen Evolutionstheorien ebenfalls vernachlässigt.
Dabei stellen sie, besonders bei höher entwickelten Lebewesen, wichtige Evolutionsfaktoren
dar. Durch Kommunikation kann Wissen weitergegeben werden, durch dessen Einsatz der
Selektionsdruck gemindert werden kann. Diese Art des Informationsaustausch ist dabei sehr
viel gezielter und schneller als über den Weg der Vererbung.
Durch die Bildung von Kulturgemeinschaften können Individuen überleben, die sonst, auf
sich allein gestellt, nur geringe Überlebenschancen haben.
Das Prinzip der Kooperation existiert schon seit der Entstehung von mehrzelligen Organismen. Darwin ging davon aus, dass nur die Individuen einer Art zur Fortpflanzung kommen,
die sich im Kampf um Nahrung und Territorium gegenüber den Artgenossen durchsetzen
können. In der Realität finden Kämpfe zwischen Artgenossen jedoch relativ selten statt. Es
überwiegt die Kooperation.
Eine besondere Art der Kooperation ist die Symbiose. Dabei kooperieren Lebewesen unterschiedlicher Art miteinander.
Auch Kulturgemeinschaften unterliegen einer Art Evolution. Einige sind bereits „ausgestorben“. Andere müssen sich noch behaupten bzw. weiterentwickeln. Bei der Evolution der Kulturen herrschen jedoch andere Gesetze, als bei der Evolution der Arten.
4.
Zusammenfassung, Ausblick
Die klassische Evolutionstheorie geht von einer ewig währenden Evolution aus. Die moderne
Gentechnik prophezeit jedoch das Gegenteil. Mit dem Wissen, was die Menschheit bereits
über Evolutionsprozesse erworben hat und mit Hilfe der modernen Gentechnik ist es dem
Menschen (zumindest theoretisch) möglich, die Evolution durch natürliche Selektion zu beenden. Mit wachsendem Wissen über die Evolutionstheorien könnte der Mensch eines Tages
in der Lage sein, die Entwicklung aller Lebewesen nach seinem Willen zu steuern. Die natürliche Evolution wäre damit am Ende. Aber die Kenntnisse über die Evolution sind längst noch
nicht vollständig. Viele Fragen sind noch offen. Es existieren weitere interessante Theorien,
auf die hier nicht eingegangen wurde. Zum Beispiel die Überlegungen von Manfred Eigen zur
präbiotischen Evolution.
Die existierenden Algorithmen, die verwendet werden um evolutionäre Prozesse zu simulieren, sind im Vergleich zu realen Prozessen geradezu simpel. Aber trotzdem kann man mit
ihnen erstaunliche Ergebnisse erzielen, was für die Genialität der Evolution spricht.
Herunterladen