Peter Veith Blick hinter die biologische Evolution Peter Veith Blick hinter die biologische Evolution November 2000 Copyright © Peter Veith, 2000 Alle Rechte vorbehalten. Reproduktion ganz oder in Teilen gleich welcher Art, ob Nachdruck, Vervielfältigung, Übersetzung oder Erfassung in EDV-Systemen sind nur mit ausdrücklicher Genehmigung des Autors erlaubt. 2 Inhalt Inhalt............................................................................................................................3 Vorwort .......................................................................................................................3 1 Einführung .............................................................................................................4 2 Bio-Engineering.....................................................................................................5 3 Größenänderung von Organismen.........................................................................7 4 Die Telefonbuch-Analogie ..................................................................................10 5 Optimierungen in organismischen Strukturen.....................................................15 6 Engineering-Down und Engineering-Up.............................................................20 7 Signatur des Entwicklers .....................................................................................22 8 Erste Schlußfolgerung .........................................................................................25 9 Die gentechnischen Möglichkeiten des Menschen .............................................27 10 Die Erkenntnis ..................................................................................................30 11 Zusammenfassung der Argumentation.............................................................34 Anhang 1 Dekodierung des Genoms ........................................................................35 Anhang 2 Die Zelle als informationsverarbeitendes Element..................................35 Anhang 3 Weitere relevante Themen .......................................................................36 Glossar.......................................................................................................................37 Bibliographie .............................................................................................................39 Vorwort Als Student der Informationstechnik – damals hieß diese Studienrichtung noch Nachrichtentechnik - an der Technischen Hochschule Karlsruhe in den Jahren 1955 bis 1959 tauchten beim Autor Zweifel an der Universalität des Darwinschen Evolutionsprinzips auf, das die Entstehung aller Arten der Flora und Fauna auf unserer Erde erklären soll. Dem Zufall, der in der Mutation blind wirkt und der dann durch Auslese und Anpassung in eine zielgerichtete Wirkung gedrängt werden soll, kann nicht die Macht zugesprochen werden, hochkomplexe, optimierte und bis ins kleinste Detail „durchdachte“ Organismen wie den Menschen zu schaffen. So oder ähnlich waren damals die Gedankengänge. Inzwischen sind mehr als vier Jahrzehnte vergangen, und damals völlig unbekannte Wissensgebiete wie die moderne Gentechnik und Mikrobiologie sind heute etablierte Wissenschaften geworden. Die Ergebnisse der Gentechnik sind so tiefgreifend und haben so ungeahnte Erkenntnisse an den Tag gebracht, daß das Thema der biologischen Evolution auf unserem Planeten in einem ganz neuen Licht erscheint und von Grund auf neu durchdacht werden muß. Auf diesem Hintergrund wird im vorliegenden Essay versucht, einen Blick hinter die biologische Evolution zu werfen. Was dort vorgefunden wird, dürfte allerdings das Weltbild vieler Menschen ins Wanken bringen. 3 1 Einführung Die Mechanismen der biologischen Evolution gelten seit langem als Dogma: Durch irgendeine Störung wird das Erbgut eines Individuums verändert. Dieser Vorgang wird Mutation genannt. Die Nachkommen besitzen nun andere Eigenschaften, die bessere oder schlechtere Überlebenschancen bieten. Sind die Chancen verschlechtert, werden sich die Nachkommen im Lebenskampf nicht durchsetzen und aussterben. Die Auswahl der besseren wird Selektion genannt. Man beobachtet, daß sich Tierarten durch Mutationen besonders gut an die vorgegebenen Lebensumgebung angepaßt haben. Dieser Anpassungseffekt wird Adaption genannt. Mutation, Selektion und Adaption sind in der konventionellen Evolutionslehre die Grundmechanismen der biologischen Evolution. Das entscheidende dabei ist, daß es sich um Zufallsprozesse handelt, denn es wird vorausgesetzt, daß kein auf Intelligenz basierender Eingriff von außerhalb der Biosphäre erfolgt. Dies besagt, daß die Entwicklung von den ersten organischen Molekülen vor Milliarden von Jahren bis zu uns heutigen Menschen keine anderen Ursachen hat als die auf Zufall beruhende Mutation, Selektion und Adaption. Es gibt keine Zweifel, daß der geschilderte Evolutionsmechanismus existiert und funktioniert. Zahllose Beispiele in der Biologie haben dies bestätigt. Es werden aber immer mehr Stimmen laut, die bezweifeln, daß der auf Zufall basierende Evolutionsmechanismus auch die großen Entwicklungssprünge hervorrufen kann, z.B. der Sprung von den im Wasser lebenden Tieren zu den am Land lebenden und von diesen zu den Vögeln. Im kleinen, beispielsweise bei der Entwicklung von bestimmten sehr nahe verwandten Vogelarten auf einer Insel, kann sehr wohl die zufallsbedingte Evolution erfolgreich gewesen sein. Immer wieder findet man Aussagen von Evolutionsfachleuten, daß Mutationen in Verbindung mit Selektion und Adaption über Millionen von Jahren die Ursachen waren, unsere Gene zu dem zu machen, was sie sind: Die Bauanleitung für unsere höchstkomplexen Körper (und Geistesfunktionen). Verfolgt man jedoch die Aussagen der Molekularbiologen und Genforscher genauer, dann sieht es doch etwas anders aus: Für immer mehr Krankheiten findet man die Ursachen in veränderten, mutierten Genen. Von Mutationen, die einen Organismus verbessern oder verbesserten, ist nichts zu hören. Unter den Hunderttausenden von Menschen, die durch die Atombomben von Hiroschima und Nagasaki und durch den AKW-Unfall von Tschernobyl unterschiedlichsten Strahlungsintensitäten ausgesetzt waren, von höchster Dosis bis hin zu kaum meßbar erhöhter Umgebungsstrahlung, sollte doch der eine oder andere Nachkommen haben, die eine Mutation zum besseren aufweisen. Nichts davon ist zu hören. Die Strahlen haben nur zu Schäden geführt. Auch aus dem betroffenen Tierreich sind keine Mutationen zum besseren bekannt geworden. Es besteht der Verdacht, daß Mutationen niemals Verbesserungen, allenfalls Variationen bewirken können. In diesem Essay wird die Meinung begründet, daß die große Evolution, wissenschaftlich Makro-Evolution genannt, nicht auf Zufall beruhen kann. Dazu werden verschiedene Denkansätze vorgestellt, die die Grenzen der zufallsbedingten biologischen Evolution aufzeigen und die zur Annahme anderer Mechanismen zwingen. 4 2 Bio-Engineering Wer mit offenen Augen die Natur betrachtet, wird feststellen, daß die vorzufindenden „Konstruktionen“ oft geradezu genial sind und von einem hohen naturwissenschaftlichen „Wissen“ (wessen Wissen ist das?) zeugen. Wir wollen uns mit diesem Gesichtspunkt genauer befassen. Die traditionelle Lehre lautet: Alle Lebensformen sind aus der Urform durch Mutation, Selektion und Adaption entstanden. Dem weiten Spielraum des Zufalls sind durch Selektion und Adaption zwar wirksame Grenzen gesetzt, dennoch ist nach dieser Theorie der Zufall die Grundursache der Evolution. Wir wollen darlegen, daß die heute beobachtbare Vielzahl und Komplexität der Lebensformen nur dadurch zu erklären ist, daß eine Intelligenz vorausgesetzt wird, die die "Baupläne des Lebens" konkret entworfen hat. Dem Zufall wird dadurch nur noch eine stark untergeordnete Rolle zugewiesen. Das Leben entstand und entsteht nicht aufgrund darwinistischer Evolution, wiewohl diese auch durchaus für die Weiterentwicklung der einen oder anderen Lebensform gültig ist, sondern aufgrund intelligenter Planung, wie etwa Ingenieure einen Roboter oder ein Auto planen, also "Engineering" statt Evolution. Wenn man beispielsweise die Funktion der Lunge betrachtet, fällt die ingenieurmäßige Planung und Konstruktion ins Auge. Ein Ingenieur, der eine Lunge konstruieren soll, würde von einem Zwerchfell ausgehen, das durch das vegetative Nervensystem rhythmisch auf und ab bewegt wird. Es sorgt dafür, daß die Lunge aufgebläht und wieder zusammengepreßt wird, wobei sie Luft einsaugt, den Luftsauerstoff in den Lungenbläschen dem Blut zur Verfügung stellt, die Kohlensäure dem Blut entnimmt und wieder ausstößt. Ein einfaches Konstruktionsprinzip! ...aber es würde in der Praxis nicht funktionieren! Ein erfahrener Ingenieur wüßte nämlich, daß die angesaugte Luft Staub enthält, der sich in den Lungenbläschen absetzt und sie alsbald funktionsunfähig machen würde. Er würde also die Oberfläche der Lungenbläschen mit feinen Härchen versehen, die durch ihre Eigenbewegung abgelagerte Staubpartikel wieder nach außen transportieren. Zur Unterstützung dieser Selbstreinigung muß die Möglichkeit des Hustens geschaffen werden. Ferner muß die Luftröhre gegen Eindringen von Speiseteilchen durch einen Kehlkopfdeckel geschützt werden usw. Erst nach sehr viel Geistesarbeit, Planung, Erprobung und Verbesserung kann eine funktionierende Lunge entstehen. Alle Konstruktionsmerkmale müssen gleichzeitig realisiert werden, Lungenhärchen ohne Lungenbläschen hätten ebensowenig Sinn wie Lungenbläschen ohne Härchen. Es gibt in der lebenden Natur technische Lösungen, die auch der erfinderischste Ingenieur im Computerzeitalter nicht besser schaffen könnte, z.B. die Festigkeit eines dünnen Getreidehalms, die eine Wuchshöhe von 2 m und mehr zuläßt, ohne daß der Halm unter normalen Umständen knickt. Viele weitere Beispiele ließen sich anführen. Die Wirkmöglichkeiten (oder Wirk-Unmöglichkeiten) der zufallsbedingten Mutation soll an einem weiteren einfachen Beispiel untersucht werden. Dazu vergleichen wir ein Lebewesen, z.B. ein Pferd, mit einem industriellen Roboter, wie er heute 5 beispielsweise bei der vollautomatischen Herstellung von Autokarosserien eingesetzt wird. Im Vergleich zu einem Pferd ist der Roboter sehr viel unkomplizierter und primitiver. Doch wenn wir erkennen sollten, daß blinde, zufällige Informationsänderung in den Bauplänen des Roboters niemals zu einer verbesserten Version führen wird, so müssen wir auch annehmen, daß eine Mutation nicht zu einer verbesserten Pferderasse führen wird. Die den Geninformationen entsprechenden Baupläne eines Roboters mögen Zeichnungen, Fertigungsvorschriften, Stücklisten usw. in z.B. 10 Ordnern sein. Sie geben wie die DNA1 an, wie der Roboter gebaut werden muß. Zufallsbasierte Mutation heißt nun, einen beliebigen Ordner herauszugreifen, an beliebiger Stelle aufzuschlagen und dort irgendeine Angabe beliebig zu verändern, z.B. eine 3 in eine 8. Dann werden alle 10 Ordner in die Werkstätten gegeben, wo nach diesen Vorschriften ein neuer Roboter gebaut wird. Höchstwahrscheinlich wird dieser neu Roboter wegen der veränderten Ziffer nicht funktionsfähig sein. Sollte er dennoch funktionieren, so hat er mit größter Wahrscheinlichkeit schlechtere Leistungsmerkmale als seine Vorgänger, denn die Leistungsmerkmale der Vorgänger waren von den Ingenieuren schon optimal ausgedacht und in die Herstellungspläne umgesetzt worden. Auch wenn wir in den 10 Ordnern gleichzeitig an mehreren Stellen Veränderungen vornehmen würden, kämen niemals höhere Leistungen heraus. Es würde immer nur noch wahrscheinlicher werden, daß der neu gebaute Roboter gar nicht funktioniert. Schaut man sich die von den Ingenieuren erstellten Baupläne zweier aufeinanderfolgender industriell gefertigter Robotergenerationen an, so wird man viele gezielte Veränderungen vorfinden, und die Baupläne der neuen Generation werden auch umfangreicher sein. Dies ist nicht durch zufällige, mutative Informationsveränderung erzielbar. Ein Einwand, der gern von den Verfechtern der darwinistischen Evolutionstheorie vorgebracht wird, ist der, daß im Laufe der Jahrmilliarden so viele Generationen möglich waren, daß auch der unwahrscheinlichste Zufall in Verbindung mit Selektionsmechanismen einmal erfolgreich gewesen sein konnte. Eine kleine Rechnung zeigt jedoch, daß dies schon bei einem Roboter kaum denkbar ist, dessen Bauplan hier aus nur 10 (!) dreistelligen Zahlenangaben2 bestehend angenommen werden soll, obwohl für einen richtigen Roboter Millionen von Informationseinheiten zur vollständigen Beschreibung benötigt werden,. Um alle Zahlenkombinationen durchzuspielen, braucht man bei 1 dreistelligen Zahl 1000 (d.h. 103) Versuche, bei 2 dreistelligen Zahlen 1000-mal mehr, also 1.000.000 oder 106, bei 3 109 usw., und bei 10 dreistelligen Zahlen 1030 Versuche, das ist eine 1 mit 30 Nullen. Nimmt man weiter an, der nur durch 10 Zahlenangaben definierte Roboter könne in 1 Sekunde gebaut und auf Funktionsfähigkeit geprüft werden (Generationenfolge = 1 Sekun1 DNS ist die Abkürzung für Desoxyribonukleinsäure. Im englischen wird Säure mit Acid übersetzt, daher im englischen die Bezeichnung DNA, die hier generell verwendet wird. Ebenso RNA statt RNS usw. 2 Es sei darauf hingewiesen, daß 10 dreistellige Zahlen nicht einmal ausreichen, um ein Blatt Papier genau zu definieren. Dazu sind u.a. folgende Angaben erforderlich: Höhe 297 mm, Breite 210 mm, Gewicht 80,0 g/m², Farbanteil Rot 63,5, Farbanteil Grün 22,0, Farbanteil Blau 19,3, Porengröße 135 µ, Beschichtungsstärke 100 µ, Reißfestigkeit 0,363 N/cm, Tinten-Saugfähigkeit Oberseite 5,25 µl/m², Unterseite 6,50 µl/m² usw. 6 de), dann bräuchte man für die 1030 Versuche 1030 Sekunden. Handelt es sich um eine Population von Robotern, die über die gesamte Versuchszeit konstant 6 Milliarden (6 x 109) beträgt (man bedenke, daß heute 6 Milliarden Menschen auf der Erde leben, und daß diese Zahl vor einigen Tausend Jahren fast Null war, hier aber eine über die ganze Zeit gleich große Population angenommen wird!) so würden 1030 / 6 x 109 = 1,6 x 1020 Sekunden oder mehr als 5 x 1012 Jahre, das sind 5000 Milliarden Jahre, benötigt. Solange besteht das Weltall noch gar nicht (ca. 10 bis 20 Milliarden Jahre). Die Wahrscheinlichkeit, um in den 20 Milliarden Jahren des Bestehens der Welt eine bestimmte Zahlenkombination aus den 10 Zahlen zu erhalten, beträgt 20 / 5000 oder 0,4 %. Wohlgemerkt, bei einer Generationenfolge von 1 Sekunde und bei einer über die ganze Zeit konstanten Population von 6 Milliarden. Bei einer Generationenfolge von 1 Tag wäre diese Wahrscheinlichkeit nur noch 0,000005 %. Es ist nicht möglich, mittels Durchspielen aller Kombinationen oder bei nur wenigen Versuchen mit einer vernünftigen Wahrscheinlichkeit einen funktionsfähigen, durch nur 10 Zahlen definierten Roboter zu erhalten. Noch mehr: Es ist im höchsten Grade unwahrscheinlich, ein solch komplexes Lebewesen wie etwa das Pferd durch zufällige Änderung der Geninformationen, die nicht aus 10 Zahlen sondern aus Millionen und Abermillionen von Informationseinheiten bestehen, zu erhalten. Ein Einwand könnte darin bestehen, daß sich die in den Plänen des Roboters enthaltenen Angaben auf Funktionseinheiten, z.B. auf einen Motor für den rechten Arm, beziehen und nicht, wie oben angenommen, auf die Grundbausteine, z.B. Drähte, Schrauben, Bleche usw. Würde eine Zahl zufällig geändert, so könnte dies z.B. bedeuten, daß in der nächsten Generation für den rechten Arm ein stärkerer Motor verwendet wird. Hiergegen ist zunächst einmal vorzubringen, daß es i.a. mit der Änderung einer Angabe allein nicht getan ist. Der stärkere Motor würde nämlich auch eine stärkere Oberarmkonstruktion voraussetzen, die alte würde ja den höheren Belastungskräften nicht mehr standhalten und brechen. Diese Robotergeneration wäre also schlechter als die vorhergehende. Zum anderen wäre vorzubringen: Der stärkere Motor mag zwar gut sein, aber der Energiehaushalt des Roboters wäre gestört. Es müßten also auch entsprechende Änderungen in der Energieversorgung erfolgen. Nur durch intelligente Neukonzipierung des gesamten Roboters oder wesentlicher Teile sind Verbesserungen zu erwarten. Ein wichtiger Gedanke darf nicht übersehen werden: Wenn sich die Geninformationen auf "Baugruppen" (und nicht auf "Bauelemente") beziehen, von denen für ein und denselben Zweck mehrere zur Auswahl stehen (also z.B. mehrere Motortypen für den Oberarm des Roboters), so muß es eine Intelligenz geben, die diese verschiedenen Varianten vorgeplant und der Evolution verfügbar gemacht hat. Die "Baugruppen" selbst können aus "Bauelemente" nicht evolutiv entstanden sein, da hier die gleichen Überlegungen gelten wie bereits geschildert. 3 Größenänderung von Organismen Es sei ein weiteres Beispiel aufgezeigt, und zwar ausgehend von einem Skelett-Modell eines Dinosauriers, wie z.B. im Wiener naturhistorischen Museum zu sehen ist. Es hat eine Länge von 27 Metern. Wir gehen davon aus, daß sich ein Dinosaurier dieser Größe durch Zufallsmutation aus einem ähnlichen Tier, das aber viel kleiner war, nämlich mit einer hier angenommenen Länge von nur 2,70 m, entwickelt hat. 7 Es stellt sich die Frage, was die Evolutionsmechanismen allein auf der physikalischtechnischen Seite leisten mußten, um aus einem 2,70 m großen Tier ein 27 m großes hervorzubringen. Zunächst kann man das Problem mit dem Bau einer Brücke vergleichen. Über einen schmalen Bach führt eine Brücke, die eine Spannweite von 2,70 m hat. Nun soll der Bauingenieur eine Brücke über einen Fluß bauen, die eine Spannweite von 27 m erfordert. Die naheliegende Idee wäre, die gleichen Baupläne wie für die kleine Brücke zu verwenden, nur alle Maße um den Faktor 10 vergrößert. Damit wäre die gewünschte Spannweite erreicht, und keine weiteren Ingenieurarbeiten wären erforderlich. Doch diese Brücke ist nicht realisierbar! Der Denkfehler liegt darin, daß bei der 10-mal so großen Brücke die Flächen um das 100-fache und das Volumen bzw. das Gewicht um das 1000-fache steigen. Das 1000-fache Gewicht der Brücke muß sie aber unweigerlich zum Einsturz bringen. Die Brücke muß also nach ganz anderen Prinzipien konstruiert werden als das kleine Vorbild, sie kann z.B. nicht mehr aus Holz sein wie die kleine. Es muß eine Konstruktion gewählt werden, die bei relativ kleinem Eigengewicht eine stark erhöhte Biegefestigkeit bzw. Tragfähigkeit aufweist, z.B. Spannbeton. Ähnliche Probleme gibt es bei der proportionalen Vergrößerung des Dinosauriers. Auch hier steigt das Gewicht auf das 1000-fache. Wog das kleine Tier z.B. 250 kg, so würde das große 250 Tonnen wiegen. Bei dem kleinen Tier müßte ein Beinknochen beim Laufen kurzzeitig das ganze Gewicht und dazu beim Springen noch dynamische Kräfte in beispielsweise gleicher Größe, also 500 kg tragen. Bei einem angenommenen Querschnitt des Knochens von z.B. 50 cm² treten in diesem Fall Drücke von 500 kg / 50 cm², also 10 kg/cm² auf. Beim großen Tier muß der Beinknochen 500 t bei einem Querschnitt von 5000 cm² tragen. Dies entspricht einem Druck von 500.000 kg / 5000 cm², also 100 kg/cm², 10-mal mehr als beim kleinen Tier. Kann ein Knochen, der sich im Laufe der Zeit so entwickelt hat, daß er einen Druck von 10 kg/cm² gut aushalten kann, auch dem 10-fachen Druck widerstehen? Dies ist sehr unwahrscheinlich. Folglich muß die Knochenstruktur des großen Tieres ganz anders sein, um solchen Drücken standzuhalten. Die Evolution „müßte“ eine neue Knochen-Struktur hervorgebracht haben, sonst wäre das große Tier nicht lebensfähig gewesen, es hätte sich sonst bei jeder unsanften Bewegung die Beine gebrochen. Hals, Rücken und Schwanz sind aus einzelnen Knochenstücken, den Wirbeln zusammengesetzt. Zwischen den Wirbeln befinden sich Knorpel, und Bänder halten alle Teile zusammen. Auch die Knorpel und die Bänder sind 10-fachen Drücken bzw. Spannungen ausgesetzt. Auch diese müßten von den Evolutionsmechanismen neu "konstruiert" worden sein. Ähnliches gilt für die Hornhäute auf den Fußsohlen, die ebenfalls 10-fachen Drücken ausgesetzt sind und die sich bei den 1000-mal so hohen Kräften (1000-faches Gewicht) durch die Unebenheiten des Bodens nicht verletzen dürfen. Bei genauerem Hinsehen ergibt sich bei der Konstruktion des Fußes eine weitere Komplikation. Bei 1000-fachem Gewicht sinkt der Fuß viel tiefer in den Boden ein, dabei würde sich die Fußfläche so verformen, daß ein schüsselähnlicher Abdruck verbleibt. Dies würde aber heißen, daß sich das Gesamtgewicht nicht gleichmäßig auf die ganze Fußfläche verteilt, sondern hauptsächlich direkt unter dem Beinknochen (also etwa am tiefsten Punkt der „Schüssel“), was dort einer viel größeren Kraft pro cm² entspricht. Ist der Boden nicht gerade felsig, so sinkt der Fuß durch 8 diese erhöhte lokale Kraft noch tiefer ein und biegt die Fußsohle noch mehr schüsselförmig. Der Effekt verstärkt sich, da eine noch kleinere Fläche das Gesamtgewicht übernehmen muß. Nur eine Umkonstruktion des Fußes kann hier eine Lösung bringen, eine Umkonstruktion, die dafür sorgt, daß auch bei weicherem Boden das 1000-fache Gesamtgewicht des Tieres auf eine möglichst große Standfläche verteilt wird. Hinter diesen Überlegungen verbirgt sich, daß die Drehmomente um das 10.000fache3 steigen. Ohne eine Neukonstruktion des Fußaufbaus können 10.000-fache Dreh- und Biegemomente nicht aufgenommen werden. Ähnliches gilt auch für den langen Hals dieser Tiere. Das Gewicht von Kopf und Hals sind 1000-mal so hoch wie beim kleinen Tier, der Hals ist 10-mal länger, somit müssen die Muskeln an dem Teil des Körpers, an dem der Hals kräftemäßig verankert ist, 10.000-mal so hohe Momente aufbringen. Auf ganz andere Probleme stößt man bei folgender Betrachtung. Es muß davon ausgegangen werden, daß die Zellen aus denen die Tierkörper bestehen, stets von etwa gleicher Größe sind, unabhängig davon, wie groß das Tier selbst ist. Das bedeutet, daß bei dem großen Dinosaurier das Volumen einer Zelle nicht 1000-mal so groß, sondern etwa gleich groß ist wie beim kleinen Tier, dafür aber die Zahl der Zellen 1000-mal so hoch. Zellen müssen durch Blutgefäße mit Nährstoffen versorgt und Abfallprodukte entfernt werden. In ihrer feinsten Verästelung reichen die Blutgefäße bis an eine Zellgruppe bestimmter Größe heran. Bei einer maßstäblichen Vergrößerung des Tieres würden die Blutgefäße im Querschnitt zwar 100-mal so groß sein, aber sie wären von der zu versorgenden Zellgruppe 10-mal so weit entfernt. Außerdem wäre die Gruppe auf die 1000-fache Anzahl von Zellen angewachsen. Die Verästelung der Blutgefäße müßte ganz neu realisiert werden. Ferner: Die Stoffwechselvorgänge in den Zellen erzeugen Wärme. Hat ein Tier 1000-mal mehr Zellen, so entsteht die 1000-fache Wärmeleistung. Diese Wärmeleistung muß aus einem 1000-mal so großen Volumen abgeführt werden. Dies setzt einen ganz anderen Kühlungsmechanismus voraus als bei dem kleinen Dinosaurier. Weitere Probleme dieser Art könnten aufgezählt werden. Viele Konstruktionsänderungen hätten gleichzeitig durchgeführt werden müssen, sonst hätte es nie einen lebensfähigen Dinosaurier mit dieser Körpergröße gegeben. Wären z.B. die Wirbel 10-mal so groß geworden, ohne daß die dazwischenliegenden Knorpel den höheren Drücken hätten standhalten können, das Tier wäre vor Bandscheibenschmerzen umgekommen. Das gleichzeitige Zusammentreffen der geänderten Konstruktionsmerkmale ist einerseits das Entscheidende, andererseits aber das Unwahrscheinliche, sofern die Evolution auf den Zufall angewiesen ist. Spielen wir einmal die "erforderlichen“ Zufälle durch: Bei der ersten Mutation werde die Knochenstruktur so geändert, wie sie das große Tier erfordert, die Größe der Knochen selbst bleibe aber noch unverändert, da ja sonst vieles andere sofort mitgeändert werden müßte, um ein lebensfähiges Tier zu erhalten. Bei den nächsten Mutationen werde das Größenwachstum etwas gesteigert, aber nur solange dies noch ohne weitere Änderungen an den Knorpeln möglich ist. Nun „muß“ beispielsweise eine Mutation erfolgen, die die Struktur der Knorpel ändert und zwar in der Richtung wie wir es brauchen, die 3 Das Drehmoment berechnet sich aus der Kraft, multipliziert mit dem Hebelarm. Die genannte Zahl 10.000 ergibt sich daraus, daß die Kräfte 1000-mal so groß und die Hebelarme 10-mal so lang sind. 9 Knorpel dürfen nicht etwa schwächer werden. Es muß sichergestellt sein, daß die neue Knorpelstruktur genau dem entspricht, was die anvisierte Größe des Tieres erfordert. Entspricht sie dem nicht, „muß“ der Zufall nochmals eine Mutation an diesem Teil vornehmen. Die nächsten Mutationen dürfen keinesfalls die Wachstumsgröße beeinflussen, denn unser Tier ist noch nicht mit der neuen Struktur der Blutgefäßverästelung und mit der neuen Strömungsgeschwindigkeit des Blutes ausgestattet. Dies muß der Zufall zuerst noch bewirken. Das Herz müßte eine ungewöhnlich hohe Pumpleistung aufweisen, denn in den noch engen Blutgefäßen gibt dies erheblichen Reibungswiderstand. Der Wärmehaushalt kommt durcheinander, da das schneller strömende Blut mehr Wärme aus dem Innern des Körpers abführt. Kurz, es ist zu befürchten, daß das Tier in diesem Stadium gar nicht mehr lebensfähig wäre. Obwohl wir unsere Mutationen so vorgenommen haben, daß die Evolution zielstrebig vom kleinen zum großen Tier verläuft, sehen wir doch folgendes: Ohne zielgerichtete Mutationen kommt niemals das große Tier zustande, zufallsbedingte Evolution erreicht nicht das Ziel, es ist vielmehr eine determinierte MakroEvolution mit ingenieurmäßigem Wissenshintergrund erforderlich. Ein besonders interessantes Denkmodell ist die Telefonbuch-Analogie, die im folgenden ausführlich dargelegt wird. 4 Die Telefonbuch-Analogie Unser Erbgut ist in jeder Zelle in Form der DNA, einer langen Kette von Nukleotiden (Basenpaare), von denen es vier Typen gibt, Adenin, Cytosin, Guanin und Thymin, in der Genetik mit A, C, G und T abgekürzt, gespeichert. Es handelt sich um ca. 3 Milliarden Nukleotide, d.h. man muß sich eine Kette aus den Symbolen A, C, G und T (z.B. GCCATACGCACTGTGA...) vorstellen, die 3 Milliarden Buchstaben umfaßt. Ein Gen ist ein bestimmter Abschnitt (Sequenz) in dieser DNA, z.B. 10.000 Nukleotide lang, das die Informationen für eine bestimmte Aufgabe4 enthält. Die Gensequenz selbst besteht im allgemeinen aus einem sogenannten Strukturteil und einem regulatorischen Teil. Die Informationen im Strukturteil bestimmen die von der Zelle zu erzeugenden biochemischen Substanzen, vorwiegend Proteine, während die Informationen im regulatorischen Teil als Steuerinformationen darüber entscheiden, wann und unter welchen Bedingungen die vom Strukturteil bestimmten Substanzen erzeugt werden sollen. Die Gene sind in der DNA unmittelbar aneinander gereiht oder auch durch unterschiedlich lange Sequenzen von Nukleotiden getrennt, die – so weit wir heute wissen – keinerlei genutzte Information tragen. Die Längen des regulatorischen Teils und des Strukturteils sind von Gen zu Gen unterschiedlich, wie auch die sich daraus ergebende Gesamtlänge eines Gens unterschiedlich ist. Die in der Zelle wirksamen Mechanismen (Ribosomen) erkennen genau die Position in der DNA-Kette, an der ein bestimmtes Gen beginnt und wo es endet. Wir betrachten nun ein Telefonbuch, das mit der DNA sehr gut verglichen werden kann. Jeder Eintrag (Gen) besteht aus einem Anschriftteil (Name, Adresse etc.) und 4 Solche Aufgaben sind beispielsweise die Erzeugung bestimmter biochemischer Stoffe, insbesondere Proteine, oder die Sperrung bzw. Aktivierung anderer Gene. 10 einer Rufnummer. Den Anschriftteil setzen wir mit dem regulatorischen Teil eines Gens gleich und die Rufnummer dem Strukturteil. Alle Einträge eines Telefonbuchs könnten in eine einzige, sehr lange Zeile geschrieben werden, die der DNA vergleichbar ist. Statt der vier Buchstaben A, C, G und T der DNA, kommen im Telefonbuch natürlich alle Buchstaben unseres Alphabets, die Ziffern und die Interpunktionszeichen vor. Dieser Unterschied ist jedoch lediglich eine Frage der Codierung5. Sucht man im Telefonbuch eine Rufnummer, muß man erst die Anschriften durchsuchen bis die gewünschte gefunden ist. Dann entnimmt man die Rufnummer und führt am Telefon den Wählvorgang aus. Alle anderen Einträge im Telefonbuch sind zu diesem Zeitpunkt uninteressant. Der regulatorische Teil, also die Anschrift eines Eintrags, bestimmt, ob wir den Strukturteil, die zugehörige Rufnummer, verwenden oder nicht und gegebenenfalls einen Wählvorgang ausführen. Dies entspricht genau den Vorgängen bei der DNA: Der regulatorische Teil eines Gens entscheidet, ob der Strukturteil aktiviert (Genetiker sagen exprimiert) werden soll oder nicht, und der Strukturteil – falls er aktiviert wurde – führt eine Aktion aus, nämlich nach dieser Information Proteine zu erzeugen oder andere Vorgänge in der Zelle zu steuern. Im Telefonbuch befinden sich auch Textteile, die nicht zu den Einträgen gehören, wie z.B. Kopf- und Fußzeilen auf jeder Seite, Leerzeilen und Werbeeinträge. Dies entspricht den in der DNA ungenutzten Sequenzen zwischen den Genen. Die Einträge im Telefonbuch müssen fehlerfrei sein, sowohl im Anschriftenteil wie auch in der Rufnummer. Fehler würden dazu führen, daß man einen gesuchten Teilnehmer nicht findet oder daß man falsch verbunden wird. Fehler in den Genen bewirken, daß sie zum falschen Zeitpunkt oder unter falschen Bedingungen aktiviert werden oder daß die erzeugten Proteine falsch und unbrauchbar sind. Im örtlichen Telefonbuch von Reutlingen und Umgebung, Ausgabe 1999/2000 befindet sich mindestens ein fehlerhafter Eintrag: Ein Ehepaar hat (korrekterweise) zwei verschiedene Rufnummern, aber eine gemeinsame Anschrift. Wegen der getrennten Rufnummern sind logischerweise auch zwei Einträge vorhanden. Der Fehler besteht darin, daß bei der Frau die Hausnummer 34 angegeben ist und beim Mann die Hausnummer 43. Es ist natürlich leicht zu vermuten, was die Ursache des Fehlers ist: ein Zahlendreher bei der Erstellung des Telefonbuchs. 5 Man kann die Buchstaben unseres Alphabets so codieren, daß nur die Symbole A, C, G und T verwendet werden. Dazu ordnen wir beispielsweise den folgenden Buchstaben die Symbole in Dreiergruppen auf beliebige Weise so zu: E = ATC F = TCC H = GTA I = CGA P = AAT R = ATA T = GGC V = TAG W = TCG Eine Sequenz in der „DNA-Schreibweise“ könnte dann so aussehen: AATATCGGCATCATATAGATCCGAGGCGTA. Der Leser möge selbst herausfinden, was dies im Klartext bedeutet. Würde man am Anfang – versehentlich, d.h. mutativ – ein weiteres Symbol, z.B. T, voranstellen, also TAATATCGGCATCATATAGATCCGAGGCGTA, könnte der Leser diese Sequenz nicht mehr interpretieren, da für die erste Dreiergruppe TAA nach obiger Tabelle kein Buchstabe zugeordnet werden kann. Diese „Mutation“ würde eine Verschlechterung bedeuten. 11 Wir simulieren nun anhand des Telefonbuchs in einem Gedankenexperiment Mutation und Selektion und wollen feststellen, ob durch zufällige Veränderungen eine Verbesserung des Telefonbuchs möglich ist. Der Leser erhalte die Möglichkeit, in diesem Telefonbuch an beliebigen Stellen beliebig viele Buchstaben und Zahlen zu löschen, zu ändern oder hinzuzufügen. Dabei muß er ungezielt vorgehen wie auch Mutationen ungezielt sind. Wenn er damit fertig ist, wird das „mutierte“ Telefonbuch neu gedruckt und neben dem Orginal zum Erwerb angeboten. Ein Narr, wer sich für die Mutation entscheiden würde! Es ist evident, daß in der Mutation viel mehr Fehler enthalten sein müssen als im Orginal. Betrachten wir diese Mutationen etwas genauer. Um die Natur besser nachzuahmen, darf zunächst nur ein Buchstabe geändert werden. Dann muß das Telefonbuch veröffentlicht werden (Nachkommen). Ist das Telefonbuch besser geworden6, werden die alten Bücher beseitigt, und im neuen nun eine weitere „Mutation“ vorgenommen. Ist das Telefonbuch schlechter geworden als das Orginal, wird es verworfen und die nächste Mutation mit dem Orginal vorgenommen (Selektion). Auf diese Weise ist es denkbar, daß der Zahlendreher im Reutlinger Telefonbuch irgendwann eliminiert wird, auch wenn dies höchst unwahrscheinlich ist. Den in der natürlichen Evolution zu berücksichtigenden langen Zeiträumen und den unzähligen Generationen, die eine erfolgreiche Mutation begünstigen, werden wir dadurch gerecht, daß wir gleich von vornherein beliebig viele Veränderungen zulassen. Wir können sogar die Einschränkung, daß der Leser bei den vorzunehmenden Änderungen ungezielt vorgehen muß, fallen lassen und ihn ermutigen, dabei Überlegungen zur Verbesserung des Ergebnisses einfließen zu lassen. Wenn er nicht weiß, daß die oben erwähnte Frau und der Mann die gleiche Anschrift haben, wird der Zahlendreher aber wahrscheinlich nicht beseitigt, zumal der Leser nicht weiß, ob 34 oder 43 richtig ist. Er bräuchte dazu Information von außen, die ihm der Autor geben könnte, dem dieses Ehepaar bekannt ist. Information von außen widerspricht aber dem zufallsbedingten Mutationsmechanismus. Machen wir es dem Leser etwas einfacher und nehmen an, bei einem Eintrag laute der Name fälschlicherweise Mülleer. Der Leser wird eine „Mutation“ vornehmen und den Namen in Müller abändern, weil er annehmen muß, daß es niemals den Namen Mülleer geben kann (kann es den wirklich niemals geben?). Es ist also durchaus denkbar, daß Mutation und Selektion diesen Fehler schließlich auf Müller korrigieren können. Wenn aber Herr Maier fälschlicherweise mit Meier eingetragen ist, wird das Verfahren scheitern. Von Zeit zu Zeit muß das Telefonbuch überarbeitet werden, neue Einträge kommen hinzu, da z.B. Familien neu zugezogen sind, Einträge müssen gelöscht werden, weil z.B. Personen verstorben sind, und Einträge müssen korrigiert werden, weil z.B. für einen Stadtteil vor die erste Ziffer aller Rufnummern aus technischen Gründen eine 7 gesetzt werden muß. Im Vergleich zur Korrektur von Mülleer auf Müller stellen diese Veränderungen eine ganz andere Qualität dar. Wir bezeichnen evolutorische Veränderungen dieser Art als Makro-Evolution, weil sie die Ursachen für die 6 Um festzustellen, ob das neue Telefonbuch besser ist als das alte, können wir in diesem Gedankenexperiment annehmen, daß ein Computer das Telefonbuch in Sekundenschnelle überprüft und das Ergebnis >besser< oder >nicht besser< liefert. 12 Genese neuer Arten in der Biosphäre sind, und die anderen als Mikro-Evolution7, da sie lediglich kleinere Änderungen oder Variationen an Lebewesen verursachen können. Die Telefonbuch-Analogie zeigt, daß Mikro-Evolution, entsprechend der Verbesserung von Mülleer auf Müller in der Natur vorkommen kann. Wie steht es aber mit der Makro-Evolution? Dies soll wiederum am Telefonbuch untersucht werden. Wie schon gesagt, müssen vollständige Einträge hinzugefügt, entfernt oder abgeändert werden. Dazu sind umfangreiche Kenntnisse der Telefonbuchmaterie erforderlich, die der Leser als Laie nicht haben kann. Er wird niemals in der Lage sein, auch wenn man ihm beliebig lange Zeit läßt, ohne von außen herbeigeholte Informationen eine derartige Überarbeitung des Telefonbuchs zu bewerkstelligen. Selbst wenn man ihm den Text eines neuen Eintrags auf einem Zettel geben würde, wäre es absolut unwahrscheinlich, daß er diesen Eintrag (blindlings, wie hier gefordert) funktionsgerecht, d.h. an der richtigen Stelle im Alphabet einträgt. Er wird ihn höchstwahrscheinlich inmitten eines anderen Eintrags oder gar innerhalb einer Rufnummer einsetzen und damit statt einer Verbesserung eine Verschlechterung hervorrufen. Es ist offensichtlich, daß auf Zufall beruhende Mutationen bei einer solchen Aufgabe an eine absolute Grenze stoßen. Mikro-Evolution basiert auf Zufall, MakroEvolution jedoch erfordert ein auf Intelligenz basierendes zielgerichtetes Vorgehen. 1975 wurde von zwei Forschern unabhängig voneinander etwas entdeckt, was für das Verständnis der Makro- Evolution von höchster Bedeutung ist. Bis dahin galt in der Molekularbiologie das Dogma, daß genetische Information ausschließlich in eine Richtung fließt, nämlich von der DNA zum Protein. HOWARD TEMIN und DAVID BALTIMORE erhielten 1975 den Nobelpreis für die Entdeckung des Enzyms Reverse Transkriptase. Dieses Enzym katalysiert8 in der Zelle die Synthese von DNA und benutzt dazu Vorlagen, die aus dem Genom von Viren, sogenannten Retroviren, stammen. Diese meist nützlichen Gene werden an den richtigen Positionen innerhalb der DNA der Wirtszelle eingefügt. Dazu wird durch komplexe biochemische Vorgänge die DNA-Kette aufgetrennt, die neuen Sequenzen eingefügt und die Kette wieder geschlossen. Wenn dies in Keimzellen geschieht, werden die Nachkommen ebenfalls die auf diese Weise veränderte DNA in allen Zellen tragen und ihrerseits weitervererben. Durch diese Entdeckung ist bewiesen, daß genetische Information auch von außen in die DNA fließen kann, genau wie der Telefonbuch-Redakteur neue Informationen an die richtigen Stellen einfügt (auch wenn ihm heute dabei Computer helfen und die Arbeit drastisch erleichtern). Die DNA ist – um in unserer Computerterminologie zu sprechen - ein Datenträger, der nicht nur – wie man bisher glaubte - gelesen werden kann, wie z.B. eine CD, sondern der auch beschreibbar ist, wie eine CD-R (recordable CD). Wir kennen heute einige Mechanismen, wie man künstlich genetische Information mittels Trägersubstanzen („Gen-Taxi“) in eine Zelle einschleusen und den Einbau in die DNA veranlassen kann, d.h. wie man den DNA-Datenträger beschreiben kann. 7 In Anlehnung an Reinhard Junker und Siegfried Scherer. 8 Ein Katalysator hilft bei der Herstellung anderer biochemischer Produkte, ohne sich dabei selbst zu verändern. Ist der Katalysator nicht vorhanden, laufen die entsprechenden chemischen Reaktionen nicht oder nur sehr träge ab. 13 Die durch Retroviren eingeschleusten DNA-Sequenzen, die beim Menschen, zusammen mit anderen auf Reverse Transkriptase zurückzuführende Elemente, auf ca. 10% des gesamten Genoms geschätzt werden, sind an bestimmten Merkmalen erkennbar. Man konnte damit die retroviralen Elemente beim Menschen bis zu 40 Millionen Jahre zurückverfolgen und feststellen, daß die entsprechenden Sequenzen nicht nur im Genom anderer Primaten wie Orang-Utan oder Schimpanse zu finden sind, sondern auch in den Erbanlagen der stammesgeschichtlich weiter entfernten Altweltaffen wie Rhesusaffe oder Meerkatze. Mit dem Wort Virus assoziieren wir gern Krankheiten und andere Schäden. Die meisten von Retroviren stammenden Sequenzen in unserer DNA sind aber gar nicht schädlich, sondern im Gegenteil höchst nützliche und wesentliche Bestandteile zur Ausbildung eines Organismus. Die Telefonbuch-Analogie hat auf beeindruckende Weise gezeigt, wie wir die biologische Evolution verstehen müssen. Wir stellen somit folgende Thesen auf: These 1.: Bei der biologischen Evolution muß zwischen Mikro- und Makro-Evolution unterschieden werden. These 2.: Mikro-Evolution beruht auf den Zufallsgesetzen von Mutation, Selektion und Adaption und kann morphologische Varianten, nicht aber neue Arten hervorbringen. These 3.: Makro-Evolution beruht auf deterministischen, intelligenten Eingriffen von außen in die Erbsubstanz und ist Ursache der Genese neuer Arten. Wenn man allgemein von der Evolution von den ersten Einzellern bis zum Menschen spricht, ist meist die auf Zufallsmutation beruhende, also die MikroEvolution gemeint. Wir haben aber gezeigt, daß die Mikro-Evolution niemals imstande ist, Arten-Genese zu vollbringen. Ein Umdenken ist hier notwendig, auch wenn es sehr schwer fällt, da dann ja die Makro-Evolution mit den postulierten Eingriffen von außen angenommen werden muß. Von diesen intelligenten Eingriffen wissen wir nicht, woher sie kommen und wie sie wirken. Auf diese wichtige Frage wird unten ausführlicher eingegangen. Einen einfachen Mechanismus kann sich diese externe Intelligenz zunutze machen: Die für den nächsten Makro-Evolutionsschritt vorgesehenen DNA-Abschnitte werden einfach in (gutmütigen) Viren eingebaut und diese Viren, die sich natürlich von selbst vermehren, in der Umwelt freigesetzt. Durch Infektion gelangen sie in die Lebewesen und von da in die DNA, wie bereits beschrieben. Sobald Keimzellen betroffen sind, werden die Nachkommen einer neuen Art angehören. Sehr vereinfacht gesagt: Man braucht nur ein paar geeignete Viren auf unserem Planeten auszusetzen, und schon gibt es eine neue Art. Ein wichtiger Gesichtspunkt wurde bisher nicht betrachtet. Der Leser kann nur mutative Veränderungen vornehmen, wenn er ein brauchbares Telefonbuch als Ausgangsbasis hat. Wenn er keine Ausgangsbasis hätte, müßte er das erste Telefonbuch selbst erstellen. Es ist evident, daß dieses keinen einzigen korrekten Eintrag enthalten wird. Zuerst muß also jemand einmal ein brauchbares Telefonbuch erstellt haben, bevor Mutationen möglich sind. Übertragen auf die Biologie heißt dies, zuerst muß ein Makro-Evolutionsschritt erfolgt sein, bevor Mikro-Evolutionsschritte möglich sind, zuerst muß ein Eingriff von außen erfolgt sein, der die Sequenzen der 14 anfänglichen DNA erstellt hat, bevor diese DNA mutieren kann. Dies ist eine überraschende Erkenntnis, die in einer weiteren These formuliert wird: These 4.: Makro-Evolution kommt zeitlich vor der Mikro-Evolution, d.h. der Ausgangspunkt der biologischen Evolution muß ein intelligenter Eingriff von außen gewesen sein. Als wichtigstes Ergebnis müssen wir somit festhalten, daß die biologische Evolution eine externe Intelligenz voraussetzt, die die ersten Sequenzen der DNA erzeugt hat und die dann immer wieder durch Eingriffe, z.B. durch Einschleusung von Retroviren, die DNA so geschickt verändert hat, daß die Genese aller Arten möglich wurde. Extern heißt, sie muß unabhängig von der DNA (allgemeiner vom Genom oder Erbgut) sein, die wir auf der Erde vorfinden, da sie ja die DNA erst erzeugen mußte. Diese Forderung muß allerdings relativiert werden: Der Mensch ist heute in der Lage, selbst die DNA nach eigenen Zielen zu modifizieren. Dies muß als ein Schritt hinaus aus der Evolutionskette angesehen werden, also als eine Art Hyperevolution. Wir werden nochmals darauf zu sprechen kommen. Doch zuvor soll noch ein ganz anderer Gesichtspunkt untersucht werden, der bei der Beurteilung der Evolution eine wichtige Rolle spielt, die Optimierungen. 5 Optimierungen in organismischen Strukturen Ein weiterer Einwand gegen die biologische Evolution, wie sie bisher verstanden wurde, folgt aus den zahllosen Optimierungen, die man in der Natur findet. Optimierungen können nicht durch Zufall entstehen. Findet man in einem Organismus Optimierungen, muß man annehmen, daß gezielte Änderungen im Genom vorgenommen wurden. Um dies näher zu erläutern greifen wir ein außerordentlich interessantes Beispiel heraus, die Optimierung der optischen Eigenschaften des menschlichen Auges. Ein ferner, winzig kleiner Lichtpunkt soll als scharfer Punkt auf der Netzhaut im Augenhintergrund abgebildet werden. Dies wird durch die Augenlinse erzielt, die ihre Brennweite entsprechend einstellt. Die Abbildung des Lichtpunkts auf der Netzhaut führt zur Erregung von lichtempfindlichen Sensoren (Stäbchen und Zäpfchen), die ihre Signale über die Sehnerven ans Gehirn weitergeben. Wie viele Sensoren sind erforderlich? Sind es zu wenig, z.B. nur 13 x 18, können wir fast überhaupt nichts erkennen, wie auf dem nebenstehenden Abb. 1 Bild, das das Gesicht von Abraham Lincoln darstelGesicht im Raster 13 x 18 len soll9. Also – so folgern wir - müssen es möglichst viele sein, am besten Milliarden von Milliarden, dann wären die Abstände zwischen ihnen am kleinsten und es müßte beste Sehschärfe vorliegen. Der 9 Wenn man das Bild mit fast verschlossenen Augen aus größerer Entfernung ansieht, kann man Abraham Lincoln einigermaßen erkennen. 15 Entwickler des Auges, wer immer dies gewesen sein mag, hat etwas berücksichtigt, das nur unter genauer Kenntnis physikalischer Gesetze möglich ist: Jedes optische System kann nämlich einen beliebig feinen Lichtpunkt nicht beliebig fein abbilden. Der Lichtpunkt wird stets als Scheibe (Kreisfläche), Beugungsscheibe genannt, mit endlichem Durchmesser abgebildet. Um die Scheibe gibt es mehrere konzentrische Ringe, die in der Helligkeit allerdings sehr viel schwächer sind als die zentrale Beugungsscheibe. Die Ursache dafür sind sogenannte Beugungseffekte an den Rändern der Lichteintrittsöffnung, beim Auge also an der Pupille. Je größer die Lichteintrittsöffnung ist, desto kleiner ist der Durchmesser der Beugungsscheibe. Bilden wir zwei sich nebeneinander befindliche Lichtpunkte ab, entstehen zwei Beugungsscheiben, jede von ihren konzentrischen Ringen umgeben. Bringt man nun die Lichtpunkte immer näher zusammen, bewegen sich auch die auf der Netzhaut abgebildeten Beugungsscheiben aufeinander zu. Irgendwann kommen sie so nah zusammen, daß sie sich berühren und gar überlappen. Sobald sie sich überlappen, kann man nicht mehr sagen ob der Abbildungsfleck von einem oder von zwei Lichtpunkten stammt. Damit ist die Grenze der Auflösung erreicht. Dieser Beugungseffekt ist z.B. ein wesentlicher Grund, weshalb astronomische Hochleistungsfernrohre mit Lichteintrittsöffnungen (Spiegel) von vielen Metern Durchmesser ausgestattet sind. Die Beugungsscheibchen, durch die die Sterne abgebildet werden, sind dabei am kleinsten und erlauben somit noch die Unterscheidung von Sternen, die extrem nahe beieinander stehen. Der Durchmesser d der Beugungsscheibe hängt von der Brennweite f der Linse, dem Radius r der Lichteintrittsöffnung (Pupille), dem Brechungsindex n des Mediums (Augenflüssigkeit) zwischen Linse und Projektionsfläche (Netzhaut) und der Wellenlänge λ des Lichts ab, wie die folgende Formel10 angibt: d = 1,22 ⋅ f ⋅λ r ⋅n Für das Auge gilt: Pupillenradius r = 0,2 cm, Brennweite der Linse f = 1,7 cm, Lichtwellenlänge λ = 0,00006 cm und Brechungsindex der Augenflüssigkeit n = 1,33. In die Formel eingesetzt ergibt sich: d = 1,22 ⋅ 1,7 ⋅ 0,00006 ≈ 0,00047 cm 0,2 ⋅ 1,33 Der Durchmesser der Beugungsscheibe liegt also bei ca 0,0005 cm oder 5µ 11 Wir stellen unsere Frage nochmals: Welchen gegenseitigen Abstand müssen die Sehzellen (Stäbchen) im Augenhintergrund haben? Nehmen wir einmal 10µ an. Hierbei kann es sein, daß ein Beugungsscheibchen mit 5µ Durchmesser zwischen den Sehzellen zu liegen kommt, es würde nicht erkannt und dementsprechend dem Gehirn nicht gemeldet werden. Nehmen wir nun einen Abstand von 2µ an. Jedes Beugungsscheibchen würde in diesem Fall mehrere Sehzellen überdecken, aber alle würden die gleiche Information ans Gehirn liefern, obwohl die Information von 10 11 Quelle: Chr. Gerthsen, Physik, 1956 1µ entspricht 1/1000 mm 16 einer Sehzelle schon ausreichend wäre. Es ist evident, daß der Abstand genau 5µ betragen muß, damit einerseits kein Beugungsscheibchen verloren geht und andererseits nicht unnötig viele Sehzellen ans Gehirn angeschlossen sein müssen. Die Überraschung: der mittlere Abstand zweier Zäpfchen beim menschlichen Auge beträgt in der Tat ca. 5µ. Das heißt: Die optischen Eigenschaften des Auges sind optimiert. Die Optimierung der optischen Eigenschaften des menschlichen Auges, wie gerade aufgezeigt, wirft die Frage auf, ob die Evolution in der Lage ist, derartige Optimierungen zu erzielen. Wir argumentieren auf zweierlei Weise: einmal zeigen wir auf, daß das Prinzip der Selektion hier nur teilweise funktionieren kann. Zum anderen betrachten wir die erforderlichen Maßnahmen, die zu einer Verbesserung der Sehfähigkeit getroffen werden müßten, und zeigen, daß dies nicht durch zufällige Mikro-Evolutionsschritte möglich ist. 1. Argument Die Evolution beruht im wesentlichen auf zufälliger Änderung von Erbinformationen und Auslese der leistungsfähigsten Nachkommen. Würden Nachkommen einen Stäbchenabstand von mehr als 5µ aufweisen, wären sie wegen der schlechteren Sehfähigkeit nicht so leistungsfähig, wie diejenigen mit 5µ Stäbchenabstand, und würden im laufe der Zeit aussterben. Nachkommen, die durch Mutation einen Stäbchenabstand von z.B. nur 2µ aufweisen, sehen wegen der durch die optischen Eigenschaften vorgegebenen Auflösung von 5µ nicht besser und haben keinen evolutorischen Vorteil. Dies heißt: Alle Mutationen, die zu Stäbchenabstände von mehr als 5µ führen, haben schlechtere Überlebenschancen, und alle Mutationen, die zu Stäbchenabstände von weniger als 5µ führen, haben keine besseren Überlebenschancen. Es sind alle Zäpfchenabstände unter 5µ aus Sicht der Evolution gleich gut. Um besser zu verstehen, wie die Evolution mit diesem Problem umgeht, spielen wir die Mutationen und Selektionen in Gedanken einmal durch. Davor müssen ein paar Details zurechtgelegt werden. Es wird statt der Maßeinheit µ, die Maßeinheit nm12 verwendet. Der optimale Stäbchenabstand beträgt somit 5000 nm. Ferner werden Zufallszahlen im Bereich von 0000 bis 9999 (tatsächlich kommen hier nur Zahlen im Bereich von 0255 bis 9083 vor) verwendet, die von einem Computer generiert wurden: 9083, 6885, 0308, 4491, 0885, 3944, 7385, 7765, 3637, 0255... Wir nehmen nun der Reihe nach diese Zufallszahlen und deuten sie als Stäbchenabstand in nm für die nächste Generation der Nachkommen. Immer wenn die Zahl größer als 5000 ist, hat die nächste Generation schlechtere Seheigenschaften und stirbt aus. Wenn die Zahl kleiner als 5000 ist, haben die Nachkommen die bestmöglichen Seheigenschaften, nämlich die, die einem Stäbchenabstand von 5000 nm entspricht, aber keine bessere. Diese Nachkommen werden überleben. Anfangs nehmen wir einen sehr großen Stäbchenabstand von 9999 nm an. Die erste Mutation führt, entsprechend der ersten Zufallszahl zum Wert 9083 nm. Die Nachkommen sehen besser und werden überleben, alle anderen Individuen sterben aus. Die nächste Mutation führt zum Wert 6885 nm. Die Nachkommen sehen noch besser und werden alle anderen Individuen verdrängen. Nun erfolgt eine Mutation auf den Wert 0308 nm, also weit unter 5000 nm. Dies bringt wiederum eine Verbesserung 12 nm = Nanometer, 1 µ hat 1000 nm 17 der Sehfähigkeit und sichert das Überleben gegenüber allen anderen Individuen. Die Mutation auf den Wert 4491 nm verschlechtert die Sehfähigkeit nicht, da erst oberhalb von 5000 nm Verschlechterungen eintreten. Die Nachkommen haben keine evolutorischen Vorteile und werden neben den Individuen mit 0308 nm Stäbchenabstand existieren. Die beiden nächsten Mutationen mit Werten von 0885 und 3944 nm bringen keine Verbesserungen. Es existieren nun Generationen mit 0308, 4491, 0885 und 3944 nm. Die folgenden Mutationen mit 7285 und 7765 nm führen eindeutig zu Verschlechterungen und haben keine Überlebenschancen. Die Mutationen mit 3637 und schließlich 0255 nm bringen wiederum keine Verbesserungen, aber auch keine Verschlechterungen, und werden nicht zum Aussterben führen. Nach 10 Mutationsschritten haben wir 6 verschiedene Generationen mit den Werten 0308, 4491, 0885, 3944, 3637 und 0255 nm. Es gibt keine Generation mit dem Wert 5000. Dieses Prinzip zeigt, daß, je mehr Mutationsschritte erfolgen, immer mehr unterschiedliche Stäbchenabstände vorkommen, alle im besten Sehbereich von 0000 bis 5000 nm. Angewandt auf das menschliche Auge heißt dies, daß jeder Mensch einen anderen Stäbchenabstand (im Bereich 0 bis 5000 nm) haben würde. Die Augen aller Menschen sind in dieser Hinsicht jedoch gleich (nämlich ca. 5000 nm) und können nicht – wie dieses Gedankenexperiment exzellent aufzeigt - durch zufallsbasierte Mutation, d.h. durch Mikro-Evolution entstanden sein. Wir stellen eine weitere These auf: These 5.: Mikro-Evolution kann in organismischen Strukturen keine Optimierungen hervorbringen. Wenn Optimierungen vorgefunden werden – und es gibt unzählige in der Natur –, müssen Makro-Evolutionsmechanismen im Spiel gewesen sein. 2. Argument Dies sei noch von einer anderen interessanten Seite her beleuchtet: Nehmen wir an, einer unserer Gentechniker, der auf optische Eigenschaften des Auges spezialisiert ist, soll durch einfache Änderung im Genom erreichen, daß die optische Auflösung des Auges der Nachkommen doppelt so hoch ist, wie bei uns, daß also der Stäbchenabstand statt 5µ nun 2,5µ beträgt. Die Betonung liegt hierbei auf den Worten einfache Änderung. Denn nur dies entspricht einer zufallsbedingten Mutation. Um es vorweg zu sagen, die gestellte Aufgabe ist nicht zu lösen. Es müßten in den Genen viele Informationselemente in genau abgestimmter Weise gleichzeitig verändert werden. Wenn die Aufgabe von unserem Gentechniker schon nicht lösbar ist, kann sie auch nicht durch die Mikro-Evolution gelöst werden. Dies soll nun genauer erläutert werden. Die oben angegebene Formel zeigt, daß 5 physikalische (optische) Parameter (f, λ, r, n und d) optimal aufeinander abgestimmt sind. Der auf Augenoptik spezialisierte Gentechniker hat danach prinzipiell 4 Möglichkeiten, die optische Auflösung zu verdoppeln bzw. den Wert von d zu halbieren. 1. Halbierung der Lichtwellenlänge λ Diese Änderung bedeutet, daß die uns bekannten Farben nicht mehr gesehen werden, dafür nun aber Licht, das weit im UV-Bereich liegt. Wenn dies vom Auftraggeber nicht akzeptiert werden kann, kann am Parameter λ nicht gedreht werden. 18 Wenn man dies jedoch akzeptiert, gilt es weitere Hürden zu nehmen. Die wichtigste Hürde: die Sehzellen im Augenhintergrund müssen völlig umkonstruiert werden, damit ihre Lichtempfindlichkeit im neuen Bereich zu liegen kommt. Damit müssen Gen-Spezialisten für Sehnerven hinzugezogen werden, was aber gemäß der Aufgabenstellung nicht zulässig ist. Die Änderung von λ führt nicht zum gestellten Ziel. 2. Verdopplung des Puppillenradius r Damit muß das Auge insgesamt vergrößert werden, damit die neue Pupille hineinpaßt. Abgesehen davon, daß die Muskeln, die die Pupille betätigen, auf die größeren Hübe und Kräfte umkonstruiert werden müssen, müssen insbesondere die Augenhöhlen im Schädelknochen vergrößert werden. Dies hätte Konsequenzen für die Lage des Gehirns und der Ohren, eventuell auch der Nasenwurzel. Ferner müssen Augenlid, Tränenkanäle und vieles mehr neu angepaßt werden. Auch diese Aufgabe ginge weit über die Möglichkeiten unseres Gentechnikers für Optik hinaus. Die Änderung des Parameters r führt ebenfalls nicht zur Lösung. 3. Halbierung der Brennweite f Wenn eine Linse eine kleinere Brennweite aufweisen soll, muß sie dicker werden. Dies hätte wiederum eine Veränderung der Augengestalt zur Folge, mit ähnlichen Konsequenzen wie bei der Verdopplung des Pupillenradius. Somit wäre auch die Änderung von f keine Lösung. 4. Verdopplung des Brechungsindex n der Augenflüssigkeit Die Augenflüssigkeit muß vom Körper ständig produziert werden, damit ein kontinuierlicher Austausch der Flüssigkeit möglich ist und eine Trübung vermieden wird. Sollen die Eigenschaften dieser Flüssigkeit geändert werden, sind weitreichende Eingriffe in die betreffenden Drüsenmechanismen erforderlich, die wiederum über die Kompetenzen unseres Gentechnikers hinausgingen. Verdopplung von n ist unter den hier gemachten Voraussetzungen nicht möglich. Selbst wenn es unserem Gentechniker gelänge, die optischen Eigenschaften so zu verändern, daß eine doppelte Auflösung erzielt wird, bliebe eine weitere Aufgabe: Die Sehzellen müßten so umkonstruiert werden, daß sie so schlank würden, um einen Abstand von 2,5µ zu ermöglichen. Dies ist aber wiederum eine Aufgabe für Nervenspezialisten und liegt jenseits der Möglichkeiten unseres Gentechnikers. Dieses Beispiel zeigt deutlich, daß eine Mutation nicht eine Verbesserung der optischen Eigenschaften des Auges bewirken kann. Dies gilt auch dann, wenn man annimmt, daß mehrere Parameter gleichzeitig, dafür aber nur geringfügig geändert werden. In allen Fällen sind weitere Maßnahmen an anderen Organen erforderlich. Diese Maßnahmen müßten genau koordiniert und aufeinander abgestimmt sein, was dem Wesen der Mutation widerspricht. Das Ergebnis dieser Überlegungen unterstützt These 5. Aber noch etwas überraschendes zeigt dieses Beispiel: Hochkomplexe Organismen können nur dadurch entstanden sein, daß ein schlüssiges Konzept vorlag, das gezielt in Erbinformationen umgesetzt wurde. Damit stellen wir eine weitere These auf: 19 These 6.: Biologische Evolution ist nur möglich, wenn von vorn herein ein Konzept für den organischen Aufbau der Zielorganismen vorliegt, das in DNA-Informationen gespeichert wird. Wiederum taucht hier das Postulat einer Intelligenz auf, die die Evolution in Gang gesetzt hat, nachdem sie die Konzepte für die zu schaffenden Organismen in der DNA fixiert hat. Die verschiedenen Beispiele verdeutlichten, daß es höchst unwahrscheinlich, wenn nicht gar unmöglich ist, durch willkürliche, blinde Informationsänderung eine leistungsfähigere Nachfolgegeneration zu erhalten. Die Informationsänderung muß entweder intelligent durchgeführt werden, oder es müssen bereits intelligent erstellte Baugruppen vorhanden sein. Nicht Evolution, sondern Engineering brachte die zahllosen Lebensformen hervor, nicht der Zufall, sondern eine externe Intelligenz. 6 Engineering-Down und Engineering-Up Die moderne Gentechnik geht im wesentlichen nach der Engineering-Down-Methode vor. Bei dieser Methode analysiert man die DNA und studiert die biochemischen und informationstechnischen Prozesse in den Zellen und Organismen. Das Ergebnis führt dazu, daß man in die Lage versetzt wird, an vorhandenem Bio-Material biogenetische Manipulationen gezielt vorzunehmen, z.B. Verbesserung der Eigenschaften von Mais, Klonen von Mäusen und Schafen usw. Die mit dieser Methode erzielbaren Ergebnisse können dem Begriff der Mikro-Evolution zugeordnet werden. makro-evolutive Schritte sind mit dieser Methode allerdings nicht zu erreichen. Um diese Behauptung zu untermauern greifen wir zu einer Analogie, nämlich zum Software-Engineering. Die sich in den Zellen und Organismen abspielenden Vorgänge können im wesentlichen in biochemische und in informationsverarbeitende Prozesse gegliedert werden. Die biochemischen Mechanismen entsprechen in der Informationstechnik der Hardware und die informationsverarbeitenden Prozesse der Software. Wie in der Informationstechnik bzw. der Computertechnik ein und dasselbe HardwareSystem zu verschiedenen Leistungen führt, je nach dem welche Software aktiviert wurde, führen die Vorgänge in den Zellen zu unterschiedlichen Ergebnissen, je nach dem welche Software, genauer welche DNA-Abschnitte bzw. Gene aktiviert wurden. So wird aus einer Stammzelle beispielsweise eine Leberzelle oder eine Nervenzelle. Wir müssen allerdings im Auge behalten, daß die biologischen Systeme erheblich komplexer sind als unsere heutigen informationsverarbeitenden Systeme wie z.B. Computer, Internet oder Roboter. Wenn die Engineering-DownMethode an den „einfachen“ technischen Systemen schon an Grenzen stößt – wie wir gleich aufzeigen werden -, wird sie an den hochkomplexen biologischen System noch viel weniger erfolgreich sein. Worin besteht nun die Engineering-Down-Methode auf dem Softwaregebiet? Man geht von einem Hardware-System aus auf dem eine Software läuft, beispielsweise ein Textverarbeitungsprogramm (Software), das auf einem Computer (Hardware) läuft. Der Software-Code (sog. Maschinencode) liegt auf der Festplatte des Computers vor und kann von Software-Ingenieuren mit entsprechenden Hilfsmitteln analysiert werden. Im biologischen System entspricht dies der DNA, die vom Bio-Ingen20 ieur analysiert wird. Da die Analyse des Maschinencodes bzw. der DNA kaum Erkenntnisse über die Leistungsmöglichkeiten der Software bzw. der informationsverarbeitenden Prozesse in der Zelle liefert13, sind weitere Analysen auf anderen Ebenen erforderlich. Dazu gehört das Verfolgen der einzelnen Verarbeitungsschritte in der Hardware, d.h. die detaillierte Beobachtung der Verarbeitungsschritte des Prozessors im Computer bzw. der Transkriptions-, Translations-, Reproduktionsund sonstigen Mechanismen in der Zelle. In der Informations-Technik kann dies von einem Spezialisten mit entsprechenden Hilfsmitteln durchaus bis ins kleinste Detail analysiert werden, d.h. er kann jederzeit mitverfolgen, was der Prozessor im einzelnen gerade ausführt. Prinzipiell können ihn die Erkenntnisse aus diesen Analysen in die Lage versetzen, beispielsweise ein Textverarbeitungsprogramm im Maschinencode so zu verändern, daß es statt schwarz auf weiß nun gelb auf blau schreibt, oder daß es bei jedem Schreibfehler einen Piepton von sich gibt usw.14 Unter Fachleuten gibt es die Vermutung15, daß es unmöglich ist, mittels der Engineering-Down-Methode, bei der – wie dargelegt – ein komplexes laufendes16 System in allen Details analysiert wird, alle Kenntnisse zu gewinnen, die ein anschließendes erfolgreiches Engineering-Up ermöglichen. D.h. wir werden mit der Engineering-Down-Methode, die einzige Methode, die wir heute im biotechnischen Bereich anwenden können, niemals die Erkenntnisse gewinnen, die wir benötigen, um von Null aus einen biologischen Organismus entwickeln zu können (was der Engineering-Up-Methode entspricht). Mit der Engineering-Down-Methode lassen sich mikro-evolutive Ziele erreichen, was für uns zweifellos einen ungeheuren Fortschritt bedeutet. Aber nur mit der Engineering-Up-Methode wären wir in der Lage, makro-evolutive Schritte zu vollziehen. Wenn wir heute nur die Engineering-Down-Methode anwenden und von dieser – wie behauptet – nicht zur Engineering-Up-Methode fortschreiten können, wie können wir dann jemals makro-evolutive Entwicklungen durchführen? Die Antwort ist einfach: Wie bei allen technischen (und bio-technischen) Entwicklungen muß man „klein“ anfangen. Es wurde nicht zuerst ein Rennauto entwickelt und dann der Kleinwagen, sondern man ging von der Pferdekutsche aus einen „kleinen“ Schritt weiter und ersetzte das Pferd durch einen Benzinmotor, aber das Fahrzeug selbst 13 Solange man von der DNA z.B. nur die Sequenz ...CTGAATGTACACCACTGA... kennt, kann man allein daraus nicht auf die Funktion eines Gens schließen. Man weiß ja nicht einmal an welcher Stelle in der 3 Milliarden Nukleotide lange DNA-Kette die Sequenz eines bestimmten Gens anfängt. Dazu sind weitere Informationen nötig, die einerseits hardwarebezogen sind, z.B. die Frage, wie der Lesemechanismus in der Zelle erkennt, wo im DNA-Strang ein Gen anfängt und wo es aufhört, ob es freigegeben ist oder gesperrt, und die andererseits von der Vorgeschichte der bis dahin abgelaufenen Prozesse, z.B. ob ein Gen gesperrt wurde oder nicht, abhängig sind. 14 Jeder Softwarespezialist wird zugeben, daß dies zwar möglich, aber mit ungeheurem Aufwand verbunden ist, wenn es sich um ein komplexes Textverarbeitungsprogramm wie beispielsweise Microsoft Word handelt. 15 Diese Vermutung ist nach Wissen des Autors wissenschaftlich noch nicht bewiesen worden. 16 Das zu analysierende System muß laufen, d.h. in Betrieb sein, der Computer also hochgefahren und das Textverarbeitungsprogramm gestartet sein. Wenn man alle Prozessorschritte vom Einschalten des Computers an mitverfolgen kann, kann man die Funktionsweise der betreffenden Software etwas besser verstehen. Bei Zellen und Organismen gibt es den „Einschaltvorgang“ nicht. Man kann immer nur das „laufende System“ analysieren. 21 sah immer noch (fast) wie eine Kutsche aus.17 Wenn wir durch das EngineeringDown im Biobereich eines Tages genügend Kenntnisse gewonnen haben, werden unsere Spezialisten mit der Neuentwicklung kleinster Organismen anfangen (benzinmotor-getriebene Kutsche) und nach und nach im Sinne des Engineering-Up zur Entwicklung komplexerer Organismen fortschreiten (Rennauto). Alle Entwicklungen der Menschheit sind so verlaufen. In der Gentechnik kann es nicht anders sein. Nun sind wir an einem entscheidenden Punkt der Argumentation angekommen: Auf unserer Erde hat eine biologische Evolution stattgefunden, die genau dem Engineering-Up-Prinzip entspricht. Kein Wissenschaftler zweifelt daran, daß das Leben auf der Erde mit primitiven Organismen, z.B. den Einzellern angefangen hat. Nach und nach entstanden dann die höheren Organismen. Genau wie unsere Spezialisten vorgehen würden oder vorgehen müßten. Es sieht so aus, als hätte eine externe Intelligenz auf unserer Erde über Millionen von Jahren hinweg ihre Fähigkeiten in einem Engineering-Up-Prozess in die Flora und Fauna, wie sie uns heute vorliegen, umgesetzt. Wir stellen nun eine weiter These auf: These 7.: Die auf der Erde vorgefundene Makro-Evolution basiert auf dem Engineering-UP-Prinzip 7 Signatur des Entwicklers Es gibt biogenetische Besonderheiten, die durch Evolution überhaupt nicht erklärbar sind. Ein exzellentes Beispiel hierzu ist der Bakteriophage18 mit dem wissenschaftlichen Namen Φx74. Was hier entdeckt wurde ist so unglaublich, daß wir uns unbedingt damit befassen müssen, auch wenn zunächst ein kleiner Exkurs in spezielle Aspekte der Gentechnik erforderlich ist. Der Leser wird es nicht bereuen, wenn er sich nun ein Bißchen mit Theorie befassen muß. Es wurde oben schon aufgezeigt, daß die Informationen der DNA durch chemische Bausteine (Nukleotide) codiert sind, die mit A, C, G und T bezeichnet werden. Das Ablesen der zu einem Gen gehörenden Informationen, also einer bestimmten Sequenz innerhalb der DNA, durch entsprechende chemische Vorgänge in der Zelle erfolgt stets in Dreiergruppen (genannt Codon) und zwar von einer genau bestimmten Stelle aus, d.h. vom Anfang der Gensequenz aus. Aus den 4 Nukleotiden A, C, G und T kann man auf genau 64 Weisen Dreiergruppen bilden. Eine abgelesene Dreiergruppe bestimmt eindeutig eine Aminosäure, die dem entstehen- 17 Auch im Softwarebereich fing man klein an. Die Arbeitsspeicher der ersten Computer hatten eine Kapazität von beispielsweise 1 kB (1000 Bytes) und die Festplatten eine von z.B. 40 MB (40.000.000 Byte), während heutige gängige Modelle Arbeitsspeicher von 64 MB (64.000.000 Byte) und Festplatten von 20 GB (20.000.000.000 Byte) und mehr besitzen. Die Größe des Arbeitsspeichers und der Festplattenkapazität ist ein indirektes Maß für die Komplexität der Software, die auf dem Computer laufen kann. 18 Bakterien befallendes und diese oft zerstörendes Virus. 22 den Protein19 hinzugefügt wird. So wird beispielsweise die Aminosäure Methionin gebildet, wenn von der DNA die Dreiergruppe ATG abgelesen wird. Es gibt genau 20 verschiedene Aminosäuren. Eine Dreiergruppe (TGA) dient als Endemarke, d.h. wenn TGA abgelesen wird, hört der Prozeß der Aminosäurenerzeugung auf und das bis dahin gebildete Protein wird freigegeben. Es werden von den 64 Dreiergruppen eigentlich nur 21 benötigt. Es ist nun nicht so, daß die überschüssigen 43 Dreiergruppen unberücksichtigt blieben. Sie erzeugen ebenfalls Aminosäuren, aber nur solche aus der Gruppe der 20 vorkommenden Aminosäuren. Mit anderen Worten: Die Erzeugung einer bestimmten Aminosäure kann durch verschiedene Dreiergruppen ausgelöst werden. So bilden z.B. alle 6 Dreiergruppen CTT, CTG, CTC, CTA, TTG und TTA die Aminosäure Leucin. Es gibt auch 3 Endemarken: TGA, TAG und TAA20. Diese Mehrfachcodierung von Aminosäuren ist der Anlaß für ein unglaubliches Spiel der Natur (wirklich ein Spiel der Natur?), das gleich aufgezeigt werden soll. Doch müssen wir uns zuvor noch den Begriff des Leserasters klar machen. Nehmen wir z.B. folgende DNA-Sequenz an: ATG GCA CTG CCT AAA ACG T.... Sie erzeugt ein Protein, das aus den Aminosäuren Met Ala Leu Pro Lys Thr usw. besteht. Würde der Ablesevorgang aus irgendeinem Grund ein Nukleotid später beginnen, d.h. ein um einen Schritt versetztes Leseraster verwenden, müßte die folgende Sequenz in Aminosäuren übersetzt werden: TGG CAC TGC CTA AAA CG.T... Die entstehenden Aminosäuren wären: Trp His Cys Leu Lys..., eine ganz andere Folge als ursprünglich! Möglicherweise würde das entstehende Protein den Zellmechanismus stören. Es kommt entscheidend auf den genauen Startpunkt innerhalb der Gen-Sequenz an. Versetzte Leseraster würden zu völlig anderen Ergebnissen führen. Wir kommen nun zurück auf den Bakteriophagen Φx74. Damit das Virus seine Aufgabe erfüllen kann, sind u.a. zwei Proteine erforderlich: Das Lysis-Protein, das die Zellwand der Wirtszelle zerstört, damit die Phagennachkommen freigesetzt werden können, und das Holin-Protein, das dafür sorgt, daß das Lysis-Protein überhaupt an die Zellwand gelangen kann. Die DNA-Sequenzen für Holin-Erzeugung und für Lysis-Erzeugung befinden sich bei vielen Bakteriophagen unmittelbar hintereinander. Nicht so bei Φx74. Die Sequenz für Holin liegt innerhalb(!) der Sequenz für das Lysis-Protein, allerdings auf einem anderen Leseraster. Dies zeigen wir an einem realistischen Beispiel: Ab der 65. Dreiergruppe für die Synthese des Lysis-Proteins sind folgende Nukleotide zu finden: 19 Ein Protein (Eiweiß) besteht aus zahlreichen Aminosäuren, die in ganz bestimmter Reihenfolge aneinander gekettet sind. In der Wissenschaft werden die 20 vorkommenden Aminosäuren mit jeweils 3 Buchstaben abgekürzt. Das Lysis-Protein besteht beispielsweise aus einigen Hundert Aminosäuren, deren Folge mit Met Ala Leu Pro Lys Thr Gly Lys Pro Thr...beginnt. In der Folge können sich Aminosäuren auch wiederholen. Das Holin-Protein ist 57 Aminosäuren lang und beginnt mit Met Leu Met Val Ile Met Val Gly... 20 Die Zuordnung der 64 möglichen Dreiergruppen zu den 20 verschiedenen Aminosäuren und der Endemarke heißt genetischer Code. 23 GGT GTC GAT GTT GAT GGT T... Gly Val Asp Val Asp Gly... Diese erzeugen die Aminosäuren Wir schreiben nun obige Nukleotid-Dreiergruppen um eins versetzt, legen also ein anderes Leseraster zugrunde, ohne aber sonst irgend etwas in der Reihenfolge zu ändern, und erhalten: GTG TCG ATG TTG ATG GTT.. Die Holin-Synthese beginnt bei der ersten ATG-Gruppe: Met Leu Met Val... und erzeugt die nebenstehenden Aminosäuren. Um es noch mehr zu verdeutlichen schreiben wir alles ohne Leerzeichen: c) Dreiergruppen-Leseraster für Zeile b): b) Aminosäuren für Lysis-Protein: a) DNA-Nukleotide eines Gens: d) Aminosäuren für Holin-Protein: e) Dreiergruppen-Leseraster für Zeile d): ...123123123123123123... ...GlyValAspValAspGly... ...GGTGTCGATGTTGATGGTT... MetLeuMetVal... 123123123123... Zeile a) stellt einen Ausschnitt (ab der 65. Dreiergruppe) der Nukleotid-Sequenz mit den Bausteinen A, G, C und T dar. In der darüber befindlichen Zeile b) sind die zugeordneten Aminosäuren (in 3-Buchstaben-Abkürzung) angegeben, die für die Erzeugung des Lysis-Proteins erforderlich sind. In Zeile c) ist das Leseraster für die Dreiergruppen angegeben. Zeile d) zeigt die zugeordneten Aminosäuren für die Holin-Synthese. Die Sequenz beginnt an der 67. Dreiergruppe, aber um eins versetzt, also in einem um eins versetzten Leseraster. Das zugehörige Leseraster ist in Zeile e) dargestellt. Es ist gegenüber Zeile c) um einen Schritt nach rechts verschoben. Die Sequenz für die 57 Aminosäuren, aus denen das Holin-Protein besteht, ergeben sich aus der gleichen Nukleotid-Sequenz, die für das Lysis-Protein gilt, nur muß das Leseraster geändert und der richtige Einstiegspunkt gewählt werden. Es ist nicht so, daß das Lysis-Protein aus den Aminosäuren besteht, die das Holin-Protein ausmachen, nur vorne und hinten um noch andere Aminosäuren erweitert. Dann wäre kein anderes Leseraster nötig, sondern nur ein anderer Einstiegspunkt21 Ermöglicht wird dieses Ineinanderschachteln der Lesesequenzen dadurch, daß für die Synthese mancher Aminosäuren bis zu 6 verschiedene Codierungen erlaubt sind, wie oben schon dargelegt. Dadurch ergibt sich ein gewisser Spielraum22, der von der Intelligenz, die die DNA codiert hat, höchst genial ausgenutzt wurde. 21 ...und ein anderer Endpunkt, was aber ein Problem darstellt, da bei einer Endemarke die Synthese beider Proteine beendet würde. Das eine Protein würde sich vom anderen nur dadurch unterscheiden, daß vorn ein Teil der Aminosäuren fehlt. Dies trifft bei Holin- und Lysis-Protein jedoch nicht zu! Das erstaunliche an dieser Art des Ablesens der DNA Sequenz mit versetztem Leseraster ist, daß für Holin an der richtigen Stelle eine Endemarke vorgefunden wird, die aber im Leseraster für das Lysis-Protein nicht in Erscheinung tritt. 22 In der Lysis-Sequenz steht an der Stelle, an der die Holin-Sequenz beginnt – wie im Text ausgeführt - GAT (für Aminosäure Asp). Die nächste Dreiergruppe ist GTT (für Aminosäure Val). Im versetzten Leseraster findet sich dann an dieser Stelle ATG, was die erste Aminosäure, Met, für Holin definiert. Für Asp gibt es 2 verschiedene Codierungen, nämlich GAT und GAC. 24 Da bei den meisten anderen Bakteriophagen die Sequenzen für Holin- und LysisProtein hintereinander liegen und nicht ineinandergeschachtelt sind, bleibt für uns nur ein Staunen über das Spiel, das bei dieser Bakteriophage getrieben wurde. Durch Zufall kann dies niemals erklärt werden. Es muß eine Intelligenz auf die „Idee gekommen sein“, einmal zu untersuchen, ob man in der Sequenz für das Lysis-Protein durch geeignete Wahl der Codierungsvarianten der einzelnen Aminosäuren und durch Versetzung des Leserasters eine andere sinnvolle und nützliche Sequenz einbauen kann. Wo muß der Einstiegspunkt liegen und ergibt sich an der richtigen Stelle eine Endemarke? Wäre das anhand dieser Sequenz synthetisierte Protein für die Aufgabe des Bakteriophagen überhaupt sinnvoll? Die Erzeugung unnützer Proteine könnte der Zelle ja schaden. Die „Überlegung“ war – wie wir gesehen haben - erfolgreich und führte zu dem wichtigen Protein Holin. Aber notwendig war die ganze „Anstrengung“ nicht, da die Holin-Sequenz ja ganz normal in den DNA-Strang eingebaut sein könnte wie bei den anderen Bakteriophagen. Aus Sicherheitsgesichtspunkten ist diese Lösung der Einbettung sogar schlechter, da eine Störung in der DNA nicht nur die Synthese des Lysis-Protein, sondern gleichzeitig auch die des Holin-Protein unmöglich machen würde. Der blinde Mutationsmechanismus hätte diesen benachteiligten Bakteriophagen längst aussterben lassen müssen, ja genauer: er wäre gar nie zustande gekommen. Muß man dieses Phänomen als die Signatur des Entwicklers der DNA ansehen und als ein „Design-Signal“23 verstehen, das die Intelligenz, die die DNA codiert hat, für uns gesetzt hat, um uns unwiderlegbar darauf zu stoßen, daß auf Intelligenz basierende Makro-Evolution im Spiele ist? Etwa so wie die großen Pyramiden in Ägypten die Signatur einer Kultur sind, deren baumeisterliches Können wir noch lange nicht begriffen haben? In dem ausgezeichneten Werk Junker und Scherer: Evolution sind noch weitere Design-Signale aufgeführt, die der Wissenschaft heute bekannt sind. Wir müssen die überlappenden Gene schlechthin als den Beweis ansehen, daß die DNA nicht aus Zufall entstanden sein kann, sondern von einer hohen Intelligenz gezielt codiert worden ist. Sie sind der Beweis für die Existenz dieser Intelligenz. Wir halten diese Erkenntnis in einer weiteren These fest: These 8.: Überlappend codierte DNA-Sequenzen können durch Mutation nicht entstehen. Ihr Vorkommen zeugt von einer externen Intelligenz. 8 Erste Schlußfolgerung In den vorhergehenden Kapiteln mußte immer wieder festgestellt werden, daß Mikro-Evolution nicht die zahllosen Lebensformen auf der Erde hervorbringen konnte. Dazu ist ausschließlich die Makro-Evolution in der Lage. Diese setzt aber gezielte, Mit der zweiten Codiermöglichkeit hätte sich für die erste Holin-Dreiergruppe CTG ergeben, was zur Synthese der Aminosäure Leu (statt Met) und damit zu einem unbrauchbaren Holin geführt hätte. Es wurde an dieser DNA-Stelle „absichtlich“ die Asp-Codevariante GAT verwendet, um im versetzten Leseraster eine korrekte Holinsynthese zu ermöglichen!. 23 Nach Reinhard Junker und Siegfried Scherer 25 intelligente Eingriffe in die DNA von außen voraus. Es muß eine Intelligenz geben, die die DNA der ersten Zelle auf unserer Erde programmiert hat und die später von Zeit zu Zeit weitere makro-evolutive Eingriffe (möglicherweise auf Virenbasis) in die DNA veranlaßt hat, so daß schließlich – auch mit Hilfe der Mikro-Evolutionsmechanismen - die heutige Flora und Fauna zustande kam. Da wesentliche Änderungen in der humanen DNA seit mindestens 40 Millionen Jahren nicht mehr vorkamen, ist davon auszugehen, daß seit mindestens jenem Zeitpunkt die wesentlichen Merkmale der heutigen Lebewesen durch diese Intelligenz vorkonzipiert waren, möglicherweise schon viel früher. Die wesentlichen Argumente haben wir in Thesen zusammen gefaßt, die hier nochmals geschlossen wiedergegeben werden sollen. These 1: Bei der biologischen Evolution muß zwischen Mikro- und Makro-Evolution unterschieden werden. These 2: Mikro-Evolution beruht auf den Zufallsgesetzen von Mutation, Selektion und Adaption und kann morphologische Varianten, nicht aber neue Arten hervorbringen. These 3: Makro-Evolution beruht auf deterministischen, intelligenten Eingriffen von außen in die Erbsubstanz und ist Ursache der Genese neuer Arten. These 4: Makro-Evolution kommt zeitlich vor der MikroEvolution, d.h. der Ausgangspunkt der biologischen Evolution muß ein intelligenter Eingriff von außen sein. These 5: Mikro-Evolution kann in organismischen Strukturen keine Optimierungen hervorbringen. These 6: Biologische Evolution ist nur möglich, wenn von vorn herein ein Konzept für den organischen Aufbau der Zielorganismen vorliegt, das in DNA-Informationen gespeichert wird. These 7: Die auf der Erde vorgefundene Makro-Evolution basiert auf dem Engineering-Up-Prinzip These 8: Überlappend codierte DNA-Sequenzen können durch Mutation nicht entstehen. Ihr Vorkommen zeugt von einer externen Intelligenz. Diese Thesen können in einer geschlossenen Aussage wie folgt formuliert werden: Die biologische Evolution kommt als Mikro- und Makro-Evolution vor. Makro-Evolution setzt eine externe Intelligenz, die ein Konzept verfolgt, voraus und kommt zeitlich vor der MikroEvolution, die ihrerseits auf Zufallsprozessen beruht. Beobachtete Optimierungen in organismischen Strukturen setzen 26 ebenfalls eine externe Intelligenz voraus. Diese Intelligenz ging offenbar nach dem Engineering-Up-Prinzip vor und bewies durch Design-Signale in der DNA ihre Existenz. Die biologische Evolution auf unserer Erde kann allein durch Zufallsprozesse nicht erklärt werden. Wer oder was ist nun diese Intelligenz, deren Existenz wir zwingend annehmen müssen? Ist es Gott? Wir werden in den nächsten Abschnitten dieser Frage nachgehen und – soviel sei jetzt schon gesagt – zu einem verblüffenden Ergebnis kommen. Die Berücksichtigung der gentechnischen Möglichkeiten des heutigen Menschen werden uns dabei weiterhelfen. 9 Die gentechnischen Möglichkeiten des Menschen Wir stehen in der biotechnischen Entwicklung vor einer gewaltigen Umwälzung: Wir werden in absehbarer Zeit Menschen nach Wunsch erzeugen können! Viele der dazu erforderlichen Techniken sind heute schon im praktischen Einsatz. Fast täglich gehen Meldungen durch die Medien, die über neue Erfolge in der Gentechnik berichten. Die vollständige Dekodierung (siehe hierzu Anhang 1) des menschlichen Genoms wird in kürze erwartet, nachdem schon das Erreichen der 97%-Marke vor einigen Wochen großes Aufsehen erregt hatte. Dieser Tage wurde das Klonen von menschlichen Embryos in Großbritannien und in den USA freigegeben, wenn auch nur für medizinische Zwecke, in Deutschland will man bald nachziehen. Einige der Schlagzeilen seien hier angeführt: • Tiere (Schafe) werden geklont. • 8-zellige Föten werden auf Gendefekte untersucht und dann je nach Ergebnis abgetötet oder in einen Uterus eingepflanzt. • Erbinformationen in den DNA-Strängen werden so verändert, daß Eigenschaften des entstehenden Lebewesens nach Wunsch erzielt werden. • Embryonen werden einer künstlichen Umgebung ausgesetzt, in der sie heranwachsen können wie in einem Uterus. Eine austragende Mutter ist nicht mehr erforderlich. • Die Alterung von Zellen kann gestoppt werden, jedenfalls wird diese Möglichkeit von den Wissenschaftlern ernsthaft in Aussicht gestellt • Dieser Tage wurde gemeldet, Forscher hätten das Genom von Mäusen so geändert, daß die ausgewachsenen Mäuse eine vergleichsweise stark erhöhte Intelligenz aufwiesen. Wir malen nun ein Szenario von morgen: Ein Forscherteam entwickelt das Genom eines neuen Menschentyps nach Vorgaben des Auftraggebers. Ein anderes Spezialistenteam stellt eine geeignete Zelle her, in die das Genom eingesetzt wird. In speziellen Brutmaschinen entwickelt sich die Zelle zu einem Fötus und schließlich zu einem Baby. Dieses Baby ist absolut gesund, da während des Wachstums ständig vollautomatische Kontrollen erfolgten, die jeden geringsten Defekt oder Fehler erkannt und beseitigt hatten. Das Baby wird 27 von speziell ausgebildeten Wissenschaftlern erzogen und zu einem erwachsenen Menschen herangebildet. Seine Intelligenz, in den Genen je nach Wunsch des Auftraggebers festgelegt, ist demgemäß über- oder unterdurchschnittlich. Wenn dieser Mensch den Erwartungen des Auftraggebers entspricht, werden – vielleicht nach ein paar kleineren Verbesserungen – weitere Menschen dieses Typs durch Klonen „hergestellt“. Inzwischen bemühen sich die Bioingenieure um weitere Verbesserungen am menschlichen Genom für die nächste künstliche Menschengeneration. Auch wenn dieses Szenario heute noch keine Realität ist und wenn mancher Wissenschaftler erhebliche Einwände vorbringt24, eines Tages wird es in dieser oder ähnlicher Form Tatsache sein. Und dies unabhängig davon, ob man es für ethisch vertretbar hält oder nicht! Alles was dem Menschen machbar schien, wurde bisher auch realisiert oder ist auf dem Weg der Realisierung. Alle sich entgegenstellenden technischen Probleme wurden stets überwunden, manchmal schnell, manchmal auch erst nach jahrzehntelanger akribischer Forschung. Die formulierte Ethik trat immer erst hinterher in Erscheinung und wurde an die Realität angepaßt. Abb. 2 Zeitungsmeldung vom 31.7.2000 24 Unabhängig davon, ob die Realisierung dieses Szenarios in 80 oder 100 Jahren möglich ist, müssen wir heute davon ausgehen, daß ein menschliches Wesen von Bioingenieuren konzipiert, designed, entwickelt, hergestellt und zum erwachsenen Menschen herangebildet werden kann, ja nicht nur ein Mensch, sondern ganze Generationen. Genauso wie Ingenieure ein neues Automodell, z.B. ein reines Kunststoffauto, zunächst konzipieren und designen, in dem die wesentlichen Eigenschaften wie Größe, maximales Gewicht, Zahl der Sitzplätze, Höchstgeschwindigkeit usw. festgelegt werden, Ein nicht zu unterschätzender Einwand ist die Erkenntnis, daß wir nur durch Engineering-up makro-evolutive Entwicklungen realisieren können, wie ausführlich dargelegt wurde. Bis wir zum Engineering-up fähig sind, dürften sicherlich noch viele Jahrzehnte vergehen. Bis wir einen Organismus der Komplexität des Menschen entwickeln können, werden weitere Zeiträume vergehen, die wir heute noch gar nicht abschätzen können. Bei dem hier behandelten Thema kommt es aber gar nicht darauf an, wann wir welche Entwicklungsstufen erreicht haben werden, sondern nur darauf, daß wir mitten auf dem Weg sind, eines Tages künstliche Organismen nach Wunsch erzeugen zu können. Und daran kann heute niemand mehr ernsthaft zweifeln. 28 dann die Entwicklung der Details angehen, z.B. die Entwicklung des Motors, und schließlich das Projekt zur Fertigungsreife bringen. In den Fabriken werden anschließend Tausende des neuen Autos am Fließband hergestellt. Es sei nochmals klar gesagt: Der Mensch wird eines Tages Menschen nach Zielvorgaben künstlich herstellen! Sicherlich wird bei manchem Leser eine solche Aussage auf Widerwillen oder Ablehnung stoßen. Man muß aber zwischen dem unterscheiden, was man möchte und anstrebt bzw. was man vermeiden möchte, und dem, was einmal Tatsache sein wird. Schon immer gab es hier unüberbrückbare Differenzen. Es ist wohl den meisten Lesern aus dem Herzen gesprochen, wenn man versucht, eine solche Entwicklung mit allen Mitteln zu verhindern. Kann sie vielleicht in den Industrie- und hochentwickelten Staaten verhindert werden, wird sie sicherlich in Ländern, in denen man über den Menschen anders denkt, forciert werden. Das Resultat wird sein: Was wir wüschen bleibt Wunsch, was wir verhindern wollen, kann nicht verhindert werden, und eines Tages wird irgendwo auf unserer Erde zur Realität: Der künstlich erzeugte Mensch. Man darf sich nun nicht an dem Strohhalm festhalten, daß doch noch lange Zeit vergehen wird, bis der erste künstlich geschaffene Mensch auf der Erde herumläuft, in diesem langen Zeitraum kann sich noch vieles ändern, vielleicht wird es sogar irgendwie verhindert, eine Suppe wird ja nie so heiß gegessen wie sie gekocht wurde. Dies sind sehr beruhigende Gedanken - mehr aber nicht. Der aufgeschlossene Mensch spürt sehr genau, daß die Hyper-Evolution, d.h. biologische Evolution zielorientiert gesteuert durch evolutiv entstandene biologische Entitäten, bevorsteht und unweigerlich Realität werden wird. Für unsere Überlegungen in diesem Essay spielt der Zeitrahmen allerdings keine Rolle. Entscheidend ist vielmehr die Erkenntnis, daß der Mensch Menschen erschaffen wird. Davon müssen wir wohl oder übel - ausgehen. Abb. 3 Zeitungsmeldung vom 6.10.2000 Die biologisch-chemische Basis des Lebens, wie wir es heute kennen, beruht im wesentlichen auf den Elementen Kohlenstoff, Sauerstoff und Wasserstoff. Daraus sind die kleinsten organischen Bausteine, die Zellen aufgebaut. Zum Wachstum und zur Erhaltung der Lebensfähigkeit muß ständig Energie zugeführt werden. Bei den tierischen Lebewesen wird der größte Teil der benötigten Energie durch Fressen anderer 29 Lebewesen und durch Sauerstoffaufnahme gewonnen. Es gibt keinen wissenschaftlichen Beweis, daß Leben nur auf dieser Basis möglich ist. Unsere Bioingenieure könnten eines Tages vielleicht eine ganz andere Basis finden und intelligente Lebewesen entwickeln, die den Energiebedarf beispielsweise direkt aus Sonnenenergie decken und nicht Sauerstoff atmen müssen. Sie wären geeignet, auf dem Mars, dem Jupitermond Europa oder sonst irgendwo im All zu leben, und würden sicherlich von uns zur Bevölkerung eines geeigneten Himmelskörper ausgesetzt. Wir stellen nun zwei weitere Thesen auf: These 9.: Die Menschheit ist auf dem Weg, künstliche Menschen nach Zielvorgaben entwickeln zu können. These 10.: Es ist nicht ausgeschlossen, daß wir Lebensformen erschaffen können, die auf anderen Himmelskörpern unseres Sonnensystems existenzfähig sind. Aus früheren Kapiteln haben wir gelernt, daß die biologische Evolution auf der Erde durch eine externe Intelligenz gesteuert sein muß. In diesem Kapitel haben wir uns klar gemacht, daß der Mensch mit Sicherheit eines Tages künstliche Menschen entwickeln wird. Daraus leiten wir nun die entscheidende Erkenntnis ab. 10 Die Erkenntnis Wir wagen nun einen weiteren Schritt, der sich konsequent aus dem bisher Betrachteten ergibt. Wir Erdenmenschen schaffen ein neues Menschengeschlecht, mit Eigenschaften, die eine Existenz beispielsweise auf dem Mars zuläßt. Diesen Marsmenschen25, denen wir – einmal angenommen - nicht mehr und nicht weniger Intelligenz mitgegeben haben als unserem heutigen Intelligenzniveau entsprechend, verheimlichen wir, daß wir sie geschaffen haben. Aufgrund ihrer Intelligenz werden sie glauben, daß sie von Gott erschaffen worden sind, wie wir es von uns ja auch glauben. Eines Tages werden sie so weit sein, daß sie selbst Menschen schaffen können wie wir es heute von uns annehmen müssen. Diese werden sie vielleicht auf einem dritten Himmelskörper ansiedeln. Sich selbst werden sie aber die naheliegende Frage stellen, ob nicht auch sie von irgendwelchen Wesen und nicht von Gott erschaffen und auf ihrem Heimatplaneten angesiedelt worden sind. Vielleicht kommen sie dahinter, daß wir es waren... Nun sind wir am Kernpunkt des Themas angelangt: Wenn wir eines Tages Menschenwesen nach Wunsch erschaffen können, mit welcher Berechtigung dürfen wir dann davon ausgehen, daß wir unmittelbar von Gott erschaffen worden sind, wie es fast alle Religionen lehren? Könnte es nicht viel eher sein, daß wir von irgendwelchen uns unbekannten Wesen nach deren Plänen 25 Der Mars sei hier nur als populäres Objekt gewählt. Selbstverständlich gelten die hier vorgestellten Überlegungen für jeden anderen Himmelskörper gleichermaßen. 30 geschaffen worden sind? Wenn wir künstliche Menschen erschaffen können, können es andere auch, auch wenn sie vor uns existierten! Dies ist ein Gedanke, der den Leser sicherlich beunruhigen wird. Der Gedanke ist von seiner Tragweite und Bedeutung her sicherlich gleichrangig mit den Umstürzen unserer Weltbilder von der als Scheibe gedachten Erde zur Kugel und von der als im Universum feststehenden Erde, um die sich alles andere dreht, zu einem Planeten eines unscheinbaren Sonnensystems am Rande einer Milliarden von Sonnen umfassenden Galaxis. Der unvoreingenommen und nüchtern denkende Mensch wird diesen Gedanken, nämlich daß wir von Bioingenieuren erschaffen wurden, angesichts der fast unvorstellbaren Leistungen der modernen Bio- und Gentechnik nicht unberücksichtigt lassen können. Wir werden diesen Gedanken als realistische Möglichkeit in unser Weltbild einbeziehen müssen, gleichgültig welche Konsequenzen auch immer daraus folgen. Einige dieser Konsequenzen sollen hier aufgedeckt und grob umrissen werden. Damit der Denkhintergrund diesem Vorhaben gerecht wird, gehen wir für die wieteren Überlegungen davon aus, daß wir Menschen – so sehr uns diese Vorstellung zuwider ist - von anderen, uns unbekannten und überlegenen Wesen nach ingenieurmäßigen Prinzipien erschaffen worden sind. Dies besagt nicht, daß es tatsächlich so gewesen sein muß. Andererseits kann niemand mit Sicherheit sagen, daß wir (direkt) von Gott geschaffen wurden. Es stehen zwei Denkmöglichkeiten zur Debatte: Der Mensch von Gott geschaffen oder der Mensch von Ingenieurwesen geschaffen. Ersteres ist eine uns vertraute Annahme, letzteres jagt uns Schauder über den Rücken. Ist eine Denkweise deshalb falsch, weil sie uns Schauder über den Rücken jagt? Und ist eine Denkweise deshalb richtig, nur weil sie uns vertraut ist? Wenn etwas wie eine Ente schnattert, wie eine Ente watschelt und wie eine Ente aussieht, dann ist es eine Ente! Und wenn ein Wesen die auf der Erde beobachtete Evolution gesteuert hat wie sie Wesen wie der Mensch (künftig) steuern werden, wenn es die Engineering-Up-Methode anwandte wie sie Wesen wie der Mensch anwenden werden und wenn es ein Konzept hat wie es Wesen wie der Mensch haben werden, dann handelt es sich um ein Wesen, das dem Wesen eines Bioingenieurs vergleichbar26 ist. Zunächst muß festgehalten werden, daß die gesamte abendländische Kultur und die meisten der anderen Kulturen den Menschen als direkt von Gott geschaffen verstehen und anderen Wesen, die mit Schöpfermacht ausgestattet sind, keinen Platz lassen. Nun aber gibt es ein Wesen, das kurz davor steht, die Schöpfermacht – in dem hier zugrunde liegenden Sinn – zu erreichen, nämlich der Erdenmensch des 21. Jahrhunderts! Wenn es ein Wesen gibt, sind auch mehrere denkbar. Wir müssen zwischen Gott und Geschöpfen noch andere Machtwesen27 annehmen. Wir kennen dieses oder diese Wesen nicht, denen wir unsere Existenz verdanken. Wir wissen nicht ob es ein Wesen oder mehrere Wesen sind. Wenn wir von unseren Bioingenieuren ausgehen, müssen wir annehmen, daß es mehrere sind. Es ist höchst 26 27 in dem hier zugrundeliegenden Sinn. Diese Machtwesen werden ihrerseits Geschöpfe sein. 31 unwahrscheinlich, daß sie heute auf der Erde leben. Vielleicht lebten sie vor Millionen von Jahren hier und entwickelten den Menschen direkt auf dieser Erde. Wenn man die prähistorischen Entwicklungs- oder Evolutionssprünge betrachtet, muß man annehmen, daß über große Zeiträume hinweg makro-evolutive Verbesserungen an Flora und Fauna vorgenommen wurden, wie auch seit dem ersten Automobil zahlreiche Entwicklungssprünge am Auto zu beobachten sind. Diese Wesen sind möglicherweise ihrerseits von übergeordneten Wesen erschaffen worden und diese wiederum von anderen Wesen. Die Kette könnte man gedanklich beliebig zurückverfolgen. Wo bleibt bei all dem Gott? Dies ist eine Frage, die in dem hier vorgesehenen Rahmen nicht beantwortet werden kann. Damit diese Aussage nicht als billige Ausrede des Autors angesehen wird, sei ein Denkansatz genannt: Das Gottesbild muß neu überdacht werden28. Das christliche Gottesbild stößt unter diesen Gesichtspunkten wohl an seine Grenzen. Der Mensch des 21. Jahrhunderts erschafft Menschen nach Wunsch. Da ist nicht daran zu rütteln, auch wenn man weiterhin verkünden möchte, daß nur Gott Menschen erschaffen kann. Der Mensch stamme von Gott ab, wird gelehrt. Vielleicht stimmt dies, bezogen auf uns Erdenmenschen. Es stimmt aber ganz bestimmt nicht bezüglich der von uns erschaffenen Menschen. Der Mensch stammt nicht29 von Gott ab! Jedenfalls nicht von einem Gott wie ihn das Christentum vorstellt. Weiter: Der Mensch ist das Ebenbild Gottes, wird im Christentum gelehrt. Die von uns geschaffenen Menschen werden unser Ebenbild sein, genauer: sie werden Merkmale haben, die die Auftraggeber vorgeschrieben haben. Der Mensch ist nicht29 Ebenbild Gottes - wiederum eine Feststellung, die der christlichen Lehre widerspricht. Die Wesen, die uns erschaffen haben, müssen die Biotechnik exzellent beherrscht haben. In gewisser Hinsicht kann der menschliche Organismus als eine Maschine angesehen werden. Diese Maschine ist perfekt konstruiert, sie funktioniert wartungsfrei, prinzipiell ein Leben lang (100 Jahre und mehr). Echte Konstruktionsmängel sind nicht erkennbar, wenngleich auch Verbesserungen denkbar wären. In jeder Phase zwischen Geburt (und schon davor) und Erwachsensein ist der Körper seinen Bedürfnissen bestmöglich angepaßt. Die physikalischen Gesetze sind genauestens befolgt, um Optimierungen in jeder Hinsicht zu erzielen. Wir haben bisher nicht über Software30 gesprochen (und werden es auch in diesem Essay nicht weiter tun), die z.B. für die Realisierung des räumlichen Sehens oder für das Erlernen von Sprache höchst komplex ist. Auch über die Leistungen der Software kann man nur staunen, sie arbeitet extrem zuverlässig und ist bis ins Detail optimiert. 28 Nach Meinung des Autors kann dies zu einem „größeren“ Gott führen als wir bisher annahmen. 29 Besser: ...nicht nur... 30 Gemeint ist hier die Software, die die Organismen als solche besitzen und die ihren Sitz in den Gehirn- und Rückenmarksregionen hat. Software, die die Steuerung der Muskeln beim aufrechten Gehen bewirkt usw. Dies ist etwas anderes als die Software, die durch die DNA und die Zellmechanismen in Erscheinung tritt. 32 Wie müssen wir über diese Wesen denken? Sind sie Gott? Ja und nein. Der Donner galt Menschen früherer Generationen als das Schimpfen Gottes über die bösen Menschen. Von diesem direkten Eingreifen Gottes war man absolut überzeugt. Was sonst kann solche gewaltigen akustischen Energien hervorbringen, daß Fensterscheiben klirren? Es war unseren Vorfahren nicht bekannt, daß der Blitz die direkte Ursache des Donners ist. Der Blitz hat seine Ursache in den unterschiedlichen elektrischen Ladungen in der Atmosphäre. Diese haben ihre Ursachen in den Luftströmungen, ionisierenden Energien der Sonne usw. Auf diese Weise kann man die Ursachenkette immer weiter nach hinten verfolgen bis irgendwann der Schöpfer als letzte Ursache angesehen werden muß. Somit kann man durchaus mit Recht sagen, die letzte Ursache für den Donner sei Gott. Die früheren Menschen hatten also recht. Doch übersahen sie (d.h. sie wußten es nicht besser), daß dazwischen eine lange Ursachenkette liegt.31 Die Wesen, von denen wir reden, gehen sicherlich in der Letztursache auf Gott zurück. Ob sie aber direkt Gott sind, oder ob eine Ursachenkette zwischen Gott und ihnen steht, können wir nicht beantworten. Wir wollen aber vorsichtig sein und nicht alles, was nicht erklärbar oder verstehbar ist, direkt auf Gott zurückführen wie früher den Donner. Da wir Menschen bis heute kein einziges Faktum kennen, das mit Sicherheit direkt auf Gott zurückzuführen ist, sollten wir annehmen, daß auch diese Wesen nicht Gott sind. Wir können keine andere Erklärung für diese Wesen vorbringen, aber diese Einstellung scheint vernünftig zu sein. Wir und unsere lebendige Umwelt sind nicht durch evolutive Zufälle entstanden. Unsere Mängel, Gebrechen und Schwächen haben wir nicht, weil es zufällig so ist, wir hätten auch nicht besser werden können, wenn es der Zufall gewollt hätte. Wir sind überhaupt nicht im wesentlichen vom Zufall bestimmt, sondern von den Plänen einer hoch über uns stehenden wesenhaften Intelligenz. Wie hoch diese Wesen über uns stehen müssen, leuchtet auf, wenn wir die Komplexität des Lebens, der Lebensvorgänge und der Psyche betrachten32. Es ist nach unseren Überlegungen nicht denkbar, daß diese Wesen die Lebensgeschichte einmal angestoßen und sie sich dann selbst, also dem Zufall überlassen haben. Wäre sie dem Zufall überlassen worden, wären wir heute nicht, weil der Zufall nur Chaos, aber keine sinnvollen, hochkomplexen Lebewesen hervorbringen kann – wie in den meisten Kapiteln dieses Essays aufgezeigt werden konnte. Die Wesen müssen die Entwicklung des Lebens bis zumindest in unsere Tage, wahrscheinlich aber noch viel weiter, systematisch geplant haben. Der Mensch hat die Fähigkeit erreicht, um durch derartige Überlegungen die unvorstellbare Überlegenheit dieser Wesen zu erahnen, und er sieht sich gezwungen, eine geistige Haltung ihnen gegenüber einzunehmen. Welche Haltung ist hier angemessen? Zunächst einmal folgt aus der Überlegenheit dieser Wesen, daß wir ihr Werk, die Pläne, die Ideen nicht kritisieren, sondern akzeptieren müssen. Wir dürfen nicht klagen, in einem "Jammertal" zu leben, der Mensch könne viel besser sein, er sei 31 Die Ursachenkette ist ihrerseits eine Schöpfung und hat Gott als Ursache. 32 Wir dürfen die psychische Entwicklung aus den gleichen Überlegungen wie für die organische Evolution nicht dem mutativen Zufall zuordnen, sondern wir müssen einen systematischen Plan voraussetzen. 33 unvollkommen. Wir müssen ihnen positive Absichten und bestmögliche Pläne unterstellen. Wer gäbe uns das Recht, das Gegenteil annehmen zu dürfen? Der Überblick, den diese Wesen haben, muß unvorstellbar weiter sein als unserer. Wir können daher, weil der Überblick fehlt, keine endgültigen Urteile bezüglich dieser Wesen fällen. Ist es gemäß diesen Überlegungen nicht angemessen, sie restlos zu bejahen, zu akzeptieren, sich ihnen zuzuwenden, ihnen gegenüber aufgeschlossen zu sein, sich für sie zu interessieren, ja sie zu lieben? Und dies nicht zuletzt deshalb, weil sie die Fähigkeit zu lieben in unsere Psyche und unseren Geist einprogrammiert haben? 11 Zusammenfassung der Argumentation Folgende schwer zu widerlegende Gesichtspunkte wurden in diesem Essay herausgearbeitet: Der Mensch ist unaufhaltbar auf dem Weg, eines Tages künstliche Menschen zu erzeugen. Er wird dabei nach der Engineering-Up-Methode vorgehen, d.h. er wird mit der Entwicklung kleinster Lebewesen anfangen und zu größeren fortschreiten, nach dem er durch Studium der gentechnischen Grundlagen mittels der Engineering-Down-Methode das nötige Wissen erlangt hat. Durch Beobachtung der auf unserer Erde stattfindenden Evolution kommen wir zu dem Ergebnis, daß sie im Großen nicht auf Zufallsprozessen beruhen kann, sondern auf intelligenten Eingriffen von außen. Wenn wir Menschen durch Eingriffe in die Gene in der Lage sein werden, künstliche Lebewesen, ja künstliche Menschen zu erzeugen, also die Evolution zu steuern, liegt der Gedanke auf der Hand, daß auch die Evolution auf der Erde und somit die Entstehung des Menschen von Wesen gesteuert wurde, die in diesem Aspekt uns Menschen gleichen. Was die Evolution anbelangt, sind sie genau so vorgegangen, wie wir Menschen vorgehen werden. Ist es intellektuell vertretbar, anzunehmen, wir seien von Gott erschaffen, wenn wir selbst schon bald künstliche Menschen erschaffen werden? Die Väter der Menschheit sind Wesen, die vor Äonen das getan haben (und vielleicht heute noch tun), was die Menschheit in kürze tun wird, nämlich die Evolution zu steuern bis hin zur Erschaffung künstlicher Menschen. Dies zu leugnen fällt schwer. Es bleiben schließlich zwei Denkmöglichkeiten: • Die eines Tages von uns geschaffenen Menschen werden mit Recht glauben, daß sie von uns geschaffen wurden, wir aber glauben, daß wir von Gott geschaffen wurden. • Die eines Tages von uns geschaffenen Menschen werden mit Recht glauben, daß sie von uns geschaffen wurden, wir glauben in ähnlicher Weise, daß wir von Wesen geschaffen wurden, die Evolution betrieben haben, wie wir sie betreiben werden. Welche Annahme ist realistischer? 34 Anhang 1 Dekodierung des Genoms Das menschliche Genom sei heute fast zu 100% decodiert, wird in den Medien berichtet. Was heißt das, decodiert? Zur Beantwortung dieser Frage betrachten wir einen verschlüsselten Text eines Geheimdienstes. Er bestehe aus Buchstabenfolgen, die für den Betrachter keinerlei Bedeutung aufweisen. Nun wenden wir den Dechiffrierschlüssel an (den uns jemand verraten habe) und kommen zu einer neuen Buchstabenfolge, die wir aber ebensowenig lesen können, weil die dechiffrierte Nachricht in einer Sprache verfaßt ist, die wir nicht kennen. Der verschlüsselte Text des Geheimdienstes ist erst dann als decodiert anzusehen, wenn er uns als verständliche Nachricht vorliegt. Übertragen auf die DNA bedeutet dies, daß wir heute nur eine Transkribierung haben (was allerdings schon eine gewaltige Leistung darstellt), die uns den genetischen Code von der Form „Folge der Nukleotide in der DNA-Doppelhelix“ auf die Form „Buchstabenfolge A, C, G und T auf dem Papier“ gebracht hat. Was der Code aber bedeutet, ist damit noch lange nicht gesagt. Besser wäre die Aussage: Das menschliche Genom ist fast zu 100% in A-C-G-T-Folgen transkribiert worden. Eine Dekodierung ist bisher erst in geringem Umfang möglich gewesen. Anhang 2 Die Zelle als informationsverarbeitendes Element Wenn auch die Zelle ein höchst komplexes Wunderwerk ist, in der sich schätzungsweise 10000 verschiedene biochemische Abläufe, gesteuert durch die Informationen in der DNA, abspielen, die in der Lage ist, 200 verschiedene Gewebetypen im menschlichen Körper zu erzeugen und die dabei mit erstaunlich geringem Energiebedarf auskommt, so kann Sie dennoch nur genau das bewirken, was die Nukleotide der DNA vorgeben. Auch wenn die Aktivitäten der Zelle durch Einflüsse von externen Signalstoffen (Enzyme etc.) ausgelöst oder gebremst werden können, letztlich ist die in der DNA gespeicherte Information entscheidend. Da alle Zellen des Körpers durch Zellteilung die gleiche DNA enthalten, muß diese schon in der ersten Zelle, aus der eine neues Individuum entsteht, den vollständig ausgearbeiteten Plan des Organismus besitzen. Eine Zelle, die blindlings Proteine produziert, kann nicht zu einem Organismus beitragen, als kanzerogene Zelle hingegen kann sie den Organismus sehr wohl schädigen. Die Zelle ist auf eine korrekte DNA angewiesen, wie die DNA auf eine funktionierende Zelle angewiesen ist. 35 Anhang 3 Weitere relevante Themen Das behandelte Thema wirft weitere Fragen auf, die näher untersucht werden müssen. Sie seien unter folgenden Stichworten angedeutet: • Informationsdefizit im Genom. Ab einem bestimmten Komplexitätsgrad des Embryos müssen externe Informationen zur Weiterentwicklung hinzukommen, da die in der DNA gespeicherten Information viel zu gering ist, als zur Beschreibung eines komplexen Organismus wie beispielsweise der Mensch erforderlich ist. • Nicht-materielle Komponenten des Menschen. Der Mensch besteht nicht nur aus einem biologischen Organismus, sondern auch aus Komponenten, die wir mit Geist, Vernunft, Psyche, Spiritualität usw. umschreiben. Die Frage ist, wie diese Komponenten, die als nicht-materiell angesehen werden müssen, mit dem biologischen Organismus verknüpft sind. • Unsere Brüder im All. Haben die Wesen, die uns erschaffen haben, auch „Menschen“ auf anderen Planeten im Universum erschaffen? 36 Glossar Hier werden die wichtigsten Fachausdrücke in dem Sinn kurz erläutert, wie er für das Verständnis dieses Essays erforderlich ist. Adaption Evolutive Anpassung an Umgebungsverhältnisse. Aminosäure Chemische Verbindung, die zum Aufbau von Proteinen dient. Es gibt genau 20 verschiedene Aminosäuren. Auslese → Selektion. Bakteriophage Bakterien befallendes und diese oft zerstörendes Virus. Beugungsscheibe Ergebnis der optischen Abbildung eines beliebig kleinen Lichtpunkts auf der Zielfläche eines optischen Systems. Die Beugungsscheibe hat stets einen endlichen Durchmesser, der im wesentlichen vom Durchmesser der Lichteintrittsöffnung abhängt. Sie ist von nach außen immer schwächer werdenden Ringen umgeben. Codon Kombination aus 3 → Nukleotiden der → DNA-Kette, die eine → Aminosäure codiert. Darwin Charles, gestorben 1882, entwickelte die nach ihm benannte darwinsche Evolutionslehre, basierend auf → Mutation, → Selektion und → Adaption. Decodierung Entzifferung einer Verschlüsselung, Gegensatz zu Codierung. Design-Signal Annahme, daß Lebewesen spezifische Design-Signale tragen, deren Entstehung nicht durch Evolutionsprozesse erklärbar ist und die Merkmale aufweisen, die die Annahme einer planenden Intelligenz nahelegen. → Signatur. DNA Englische Abkürzung für Desoxyribonukleinsäure (deutsch: DNS). Die DNA enthält den genetischen Code, den Bauplan für das betreffende Lebewesen. Sie besteht aus ca. 3 Milliarden → Nukleotide. Engineering-Down Entwicklungsmethode, bei der der Entwicklungsingenieur von einem bestehenden (komplexen) System ausgeht und die Grundlagen, auf denen es basiert, zu verstehen versucht. Engineering-Up Entwicklungsmethode, bei der der Entwicklungsingenieur von Grundlagen ausgeht, um komplexe Systeme zu entwickeln. Enzym → Protein, das einen Stoffwechselprozess → katalysiert. Erbgut Gesamtheit aller Gene eines Lebewesens. Evolution Biologische Entwicklung auf der Erde, von der ersten Zelle an bis zum höchstkomplexen Organismus, dem Menschen. Gen Erbfaktor, Abschnitt der → DNA, der in ein → Protein übersetzt wird (→ Transkription, → Translation). Gentechnik Techniken, die zur Manipulation der Gene und der Zellmechanismen entwickelt wurden und weiter entwickelt werden. Hardware „Anfassbare“ Gegenstände mit durch → Software steuerbare Funktionen. Beispiel: der Computer, soweit er ohne Software verstanden wird. Katalysator Chemischer Stoff, dessen Anwesenheit chemische Reaktionen ermöglicht oder beschleunigt, ohne daß er sich selbst verändert. Leseraster Versetztes ablesen der → Codons aus der DNA. Da ein Codon stets aus 3 → 37 Nukleotiden besteht, kann man das Ablesen mit dem ersten Nukleotid (normalfall) oder mit dem zweiten oder dritten Nukleotid beginnen. In den beiden letzteren Fällen entstehen → Proteine, die normalerweise für die Zelle schädlich sind. Makro-Evolution Entstehung neuartiger Organe, Strukturen oder Bauplantypen, Entstehung qualitativ neuer → Gene. Setzt eine externe Intelligenz voraus. Mikro-Evolution Evolution innerhalb vorgegebener Organisationsmerkmale, quantitative Veränderung bereits vorhandener Strukturen. Mutation Spontane oder künstlich ausgelöste Änderung in der → DNA oder in Zellmechanismen. Nukleotid Einzelelement der → DNA-Kette. Es gibt 4 verschiedene Nukleotide, die in der Gentechnik mit A, C, G und T abgekürzt werden. Protein (= Eiweiß): Aus → Aminosäuren bestehendes kettenförmiges Molekül, das in charakteristischer Weise gefaltet ist. Hat elementare Bedeutung beim Aufbau der Lebewesen. Regulatorischer Teil Abschnitt innerhalb einer → Gen- → Sequenz, der entscheidet, ob und wann der zugehörende → Strukturteil des Gens in → Proteine umgesetzt werden soll. Reverse Transkriptase Ribosom → Enzym, das den Einbau von externen Informationen in die → DNA ermöglicht. Stoffwechselmechanismus in der Zelle, der aus von der → DNA abgelesenen Informationen die entsprechenden → Proteine erzeugt. Selektion Auswahl der am besten an die Umgebungsbedingungen angepaßten Individuen. Sequenz Abschnitt auf der → DNA, der eine bestimmte Anzahl von → Nukleotiden umfaßt. Ein → Gen ist eine genau bestimmte Sequenz. Signatur Kennzeichen des Entwicklers, das er in sein Entwicklungsobjekt in geeigneter Weise eingefügt hat, wie z.B. ein Maler seinen Namen oder sein Identifikationssymbol an passender Stelle auf dem Bild aufbringt. Software Gesamtheit von Anweisungen, die von der → Hardware, auf der die Software läuft, ausgeführt werden. Wird auf Datenträgern (z.B. → DNA) gespeichert, ist selbst aber immateriell. Strukturteil Abschnitt innerhalb einer → Gen- → Sequenz, der in → Proteine umgesetzt wird. Die Umsetzung kann vom → regulatorischen Teil des Gens freigegeben oder gesperrt werden. Transkription Abschrift einer → DNA-Sequenz und ihre Übersetzung in einen Zwischenzustand, von dem aus dann die → Translation erfolgt. Translation Erzeugung von → Proteinen aus dem von der → Transkription erzeugten Zwischenzustand. Überlappenden Gene Ein → Gen, dessen → Nukleotid- → Sequenz ein anders Gen enthält, wobei für das letztere Gen ein versetztes → Leseraster gilt. Gilt in der Wissenschaft als → DesignSignal. Variationen Ergebnisse von → Mikro-Evolution-Prozessen. Z.B. rote oder gelbe Blüten. Zufallsprozesse Prozesse in der → Evolution, die auf Zufall basieren, wie z.B. → Mutationen. 38 Bibliographie GERTHSEN, CHR.: Physik, 1956 GITT, WERNER: Am Anfang war die Information, München, 1982 HITZBLECK, ERICH: Die Schöpfung als Gottes Offenbarung, NeuhausenSuttgart, 1982 JUNKER, REINHARD UND SCHERER, SIEGFRIED: Evolution, Ein kritisches Lehrbuch, Gießen, 1998 MENSCH + UMWELT (Hrsg.): GSF-Forschungszentrum für Umwelt und Gesundheit, GmbH, 10. Ausgabe, Dez. 1995 VEITH, PETER: Wahrscheinlichkeiten abhängiger Mutationen, Manuskript, Feb. 1997 VESTER, FREDERIC: Die Kunst vernetzt zu denken, Stuttgart, 2000 39 Peter Veith: 40 Blick hinter die biologische Evolution