Leben als Maschine?

Werbung
Klaus Mainzer
Leben als Maschine?
Von der Systembiologie zur Robotik
und Künstlichen Intelligenz
mentis
PADERBORN
Einbandabbildung: © fotolia.de, Tonis Pan
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation
in der Deutschen Nationalbibliografie; detaillierte
bibliografische Daten sind im Internet über
http://dnb.d-nb.de abrufbar.
Gedruckt auf umweltfreundlichem, chlorfrei gebleichtem
und alterungsbeständigem Papier ∞ ISO 9706
© 2010 mentis Verlag GmbH
Schulze-Delitzsch-Straße 19, D-33100 Paderborn
www.mentis.de
Alle Rechte vorbehalten. Dieses Werk sowie einzelne Teile desselben sind urheberrechtlich geschützt.
Jede Verwertung in anderen als den gesetzlich zulässigen Fällen ist ohne vorherige Zustimmung des
Verlages nicht zulässig.
Printed in Germany
Einbandgestaltung: Anne Nitsche, Dülmen (www.junit-netzwerk.de)
Satz: Rhema – Tim Doherty, Münster [ChH] (www.rhema-verlag.de)
Druck: AZ Druck und Datentechnik GmbH, Kempten
ISBN 978-3-89785-714-8
Einführung
Der Schlüssel zum menschlichen Ich, so meldet die Presse, ist bald vollständig
auf einem kleinen USB-Stick untergebracht, der nach Belieben in einen menschenähnlichen (humanoiden) Roboter einsetzbar oder im Internet manipulierbar ist. Die übrigen Lebewesen dieses Planeten finden sich ebenfalls auf winzigen
Datenträgern wieder, die patentierbar und auf dem freien Markt käuflich sind. Firmen spekulieren auf Gewinne mit entsprechenden Aktien, denn davon hängen die
menschliche Ernährung und medizinische Versorgung, kurzum die Grundlagen
unseres Lebens ab. Der gläserne Mensch und die gläserne Natur – Science-Fiction
und bloß Horrorszenario? Keineswegs. Es ist eine mögliche Welt von morgen,
die sich heute bereits wissenschaftlich und technisch abzeichnet. Daher müssen
wir heute bereits darüber nachdenken, was wir wissenschaftlich wissen, technisch
können und ethisch verantworten wollen.
Leben als Maschine ist spätestens seit der Renaissance eine wirkungsmächtige
Metapher, die Menschen fasziniert und erschrocken hat. Ob Zellen, Organe und
Organismen tatsächlich als Maschinen verstanden werden können, hängt vom angenommenen Maschinenbegriff ab. Die eigentliche Frage, die sich hinter der Maschinenmetapher verbirgt, zielt aber auf die Berechenbarkeit des Lebens ab. Gibt
es Gesetze und Gleichungen wie in der Physik, mit denen Lebensvorgänge berechnet, erklärt und prognostiziert werden können? Seit den Anfängen der Biologie
schienen Lebensvorgänge nur qualitativen Beschreibungen und Klassifizierungen
zugänglich zu sein. Das hat sich mit den neuen Methoden der Biomathematik, Biophysik und Bioinformatik gründlich geändert. In der Systembiologie entwickelt
sich Forschung in der Wechselwirkung von in vitro-, in vivo- und in silico-Experimenten. Gemeint sind Computersimulationen (mit in Silikon gefassten Programmen) von hochkomplexen Wechselwirkungen in Molekülen, Zellen, Organen
und Organismen, die ohne Computertechnik nicht erfasst werden könnten.
Wenn bereits das Leben einfachster Organismen über Jahrhunderte von der
Berechnung ausgeschlossen zu sein schien, so traf das umso mehr für die komplexen Vorgänge des menschlichen Körpers, des Wahrnehmens, Denkens, Fühlens
und Handelns zu. Auch hier hat sich die Situation verändert. Robotik und KI-Forschung schicken sich an, mit Gehirnforschung und Neuropsychologie technische
Systeme mit kognitiven Leistungen zu entwickeln. Einerseits dienen sie der Simulation biologischer und psychologischer Prozesse, andererseits werden aber für
technische und kommerzielle Zwecke andere Wege als in der biologischen Evolution beschritten. Ob es sich um kognitive Maschinen oder Organismen handelt,
ist letztendlich wieder nur eine Frage der Definition. Gelegentlich heißt es bereits,
dass Technik der nächste Schritt der Evolution sei.
Was ist die treibende Kraft, die hinter der Maschinenmetapher steht und
getrennte Wissenschaftsdisziplinen wie Physik, Chemie, Biologie, Neuro- und
8
Einführung
Kognitionswissenschaften zusammenwachsen lässt? Keine Technologie hat wohl
in den letzten 50 Jahren derart eindringlich Wissenschaft und Gesellschaft verändert wie die Computer- und Informationstechnologie. Angetrieben wurde diese
Dynamik von einem rasanten Wachstum der Rechenkapazitäten, einer rasanten
Miniaturisierung der Rechnerbauteile (von Röhren und Transistoren zu Nanoelektronik und Quantencomputing), einer rasanten Globalisierung der Informationssysteme und einer rasanten Automatisierung der Gesellschaft bei gleichzeitiger Verbilligung immer kleinerer und leistungsfähigerer IT-Systeme. Nach dem
Mooreschen Gesetz verdoppelte sich die Leistung von Rechenmaschinen alle 18
Monate.
Seit der Entschlüsselung des menschlichen Genoms 2001 zeichnet sich eine
noch größere Beschleunigung von Sequenziermaschinen ab, die in immer schnellerer Zeit immer mehr Gene für immer weniger Geld identifizieren und berechnen.
Die Gentechnik, so frohlockt bereits die Branche, wird die Informatik hinter sich
lassen und sich mit einem Faktor zehn pro Jahr entwickeln. Automatische DNASequenzierungsgeräte wurden zum ersten Mal vor 15 Jahren vorgestellt und konnten inzwischen zu Höchstleistungsmaschinen mit einer Sequenzierungsleistung
von rund 500 000 Basenpaaren pro Tag weiterentwickelt werden. Die mit diesen
Sequenzierungsapparaten ausgestatteten internationalen Genomforschungszentren des Genomsequenzierungskonsortiums schaffen in Computernetzen eine
Sequenzierungsleistung von 172 Millionen Basen pro Tag oder 2000 Basen pro
Sekunde. Der damit verbundene Preisverfall ist bereits absehbar: Kostete die
Sequenzierung eines Genoms im Jahr 2000 noch drei Milliarden Dollar, so liegt
der Preis 2009 bei 50 000 Dollar und wird nach Schätzung von Experten in den
nächsten zehn Jahren auf unter 1000 Dollar sinken. Genome mit der vollständigen
genetischen Information eines Menschen werden auf USB-Sticks für wenig Geld
zur Verfügung stehen.
Das Genomprogramm, das mit der Zusammenstellung der menschlichen
Gene 2001 einen vorläufigen Höhepunkt erreichte, war ein reduktionistischer Forschungsansatz, der durch immer größere Rechenleistungen immer kleinere Bausteine des Lebens entschlüsselte. Nun stehen wir in der Systembiologie vor einer
unvergleichlich schwierigeren Aufgabe: Wie lässt sich aus der enormen Datenflut
über einzelne Komponenten das biologische Gesamtsystem der Zellen, Organe
und Organismen erschließen? Riesige Genkarten über alle genetischen Wechselwirkungen und komplexe Stoffwechselnetzwerke sind in Computermodellen zu
entschlüsseln, um komplexe Systemfunktionen wie Regulation, Kontrolle, Steuerung und Adaption in Wachstumsprozessen und der Evolution zu verstehen. Die
»gläserne« Zelle mit ihren Schaltplänen wird neue Möglichkeiten der genetischen
Beeinflussung von Krankheiten (wie z. B. Krebs und Herzkreislauferkrankungen),
aber auch Rückschlüsse auf den Alterungsprozess erlauben. Ohne Computermodelle von Zellen, Organen und Organismen mit großen Rechenleistungen wird
diese Hürde nicht zu nehmen sein.
Einführung
9
In einem nächsten Schritt liefert die Systembiologie die Blaupausen für die
Synthetische Biologie: Hier geht es dann um die Erschaffung neuer Lebensformen. Wenn nämlich die Funktion biologischer Systeme wie z. B. Zellen und
Bakterien durchschaut ist, dann sollte es auch möglich sein, aus verschiedenen Biomolekülen neue Module und Netzwerke mit speziellen Eigenschaften
zu konstruieren. Künstliches Leben war bisher nur als Software in der Informatik
bekannt. Bereits Ende der 1950er Jahre hatte der amerikanische Computerpionier
John von Neumann mathematisch bewiesen, dass zelluläre Automaten sich als
schachbrettartige Muster selbst reproduzieren können. John Conway baute diesen
Ansatz zum Game of Life (Spiel des Lebens) aus, wonach sich Darwins Evolutionsregeln in einem Computerprogramm simulieren lassen. In der Synthetischen
Biologie wird aber aus der Software »Wetware«, d. h. neues organisches Leben.
Craig Venter, der Pionier des Genomprogramms von 2001, glaubt bereits an die
Konstruktion von Bakterien, die Wasserstoff produzieren und damit helfen, das
Energieproblem der Menschheit zu lösen. Immerhin spricht auch die Nationale
Akademie der Wissenschaften (Leopoldina) in einer gemeinsam mit der DFG
und der deutschen Akademie für Technikwissenschaften (acatech) veröffentlichten Stellungnahme davon, dass die Synthetische Biologie »ein großes Potenzial
eröffnet, neue Impfstoffe und Medikamente, aber auch Kraftstoffe und neue
Materialien zu entwickeln«. 1
Biomoleküle, Zellen, Organe, Organismen und Populationen sind hochkomplexe dynamische Systeme, in denen viele Elemente wechselwirken. Komplexitätsforschung beschäftigt sich fachübergreifend in Physik, Chemie, Biologie und
Ökologie mit der Frage, wie durch die Wechselwirkungen vieler Elemente eines
komplexen dynamischen Systems (z. B. Atome in Materialien, Biomoleküle in
Zellen, Zellen in Organismen, Organismen in Populationen) Ordnungen und
Strukturen entstehen können, aber auch Chaos und Zerfall. Allgemein wird in
dynamischen Systemen die zeitliche Veränderung ihrer Zustände durch Gleichungen beschrieben. Der Bewegungszustand eines einzelnen Himmelskörpers lässt
sich noch nach den Gesetzen der klassischen Physik genau berechnen und voraussagen. Bei Millionen und Milliarden von Molekülen, von denen der Zustand einer
Zelle abhängt, muss auf Hochleistungscomputer zurückgegriffen werden, die
Annäherungen in Simulationsmodellen liefern. Komplexe dynamische Systeme
gehorchen aber fachübergreifend in Physik, Chemie, Biologie und Ökologie denselben oder ähnlichen mathematischen Gesetzen. Daher liefern sie einen Schlüssel
zur Komplexität der Welt, von der im 2. Kapitel die Rede sein soll.
1
Gemeinsame Pressemitteilung der Deutschen Forschungsgemeinschaft, acatech und Leopoldina
vom 27. Juli 2009 »Synthetische Biologie – Chancen und Risiken«. Dazu »Synthetische Biologie
– Stellungnahme« als PDF-Datei unter http://www.dfg.de/dfg profil/reden stellungnahmen/2009/
pk synthetisch.
10
Einführung
Die universellen Gesetze komplexer dynamischer Systeme sind der Rahmen
für die folgenden Kapitel. Die Grundidee ist immer dieselbe: Erst die komplexen Wechselwirkungen von vielen Elementen erzeugen neue Eigenschaften des
Gesamtsystems, die nicht auf einzelne Elemente zurückführbar sind. So ist ein
einzelnes Wassermolekül nicht »feucht«, aber eine Flüssigkeit durch die Wechselwirkungen vieler solcher Elemente. Einzelne Moleküle »leben« nicht, aber eine
Zelle aufgrund ihrer Wechselwirkungen. In der Systembiologie ermöglichen die
komplexen chemischen Reaktionen von vielen einzelnen Molekülen die Stoffwechselfunktionen und Regulationsaufgaben von ganzen Proteinsystemen und
Zellen im menschlichen Körper. Wir unterscheiden daher bei komplexen dynamischen Systemen die Mikroebene der einzelnen Elemente von der Makroebene
ihrer Systemeigenschaften. Diese Emergenz oder Selbstorganisation von neuen
Systemeigenschaften wird in der Systembiologie berechenbar und in Computermodellen simulierbar. In diesem Sinn ist die Systembiologie der Schlüssel zur
Komplexität des Lebens (3. Kapitel).
Von mechanischen Systemen wie einer Uhr sind wir gewohnt, dass ein Zahnrad ins andere greift und so alle Abläufe durch genaue Festlegung der Reihenfolge
(Sequenz) der Einzelschritte geregelt werden. Im Zeitalter der Mechanik des 17.
und 18. Jahrhunderts stellte man sich in dieser Weise auch Organismen als perfekte
»lebende« Automaten vor. Konsequenterweise musste ein genialer Ingenieurgott
angenommen werden, der alle diese komplizierten Automaten nach einem Masterplan (»intelligent design«) gebaut hatte. Tatsächlich genügt es nach den Gesetzen komplexer dynamischer Systeme, dass einzelne Elemente mehr oder weniger
zufällig zusammentreffen, wechselwirken und dadurch neue Systemeigenschaften erzeugen, die auf der Mikroebene der einzelnen Systemelemente noch nicht
absehbar sind. Es bedarf also keines zielorientierten »intelligent design«. Manche
Systemeigenschaften sind der jeweiligen Systemumgebung angepasst und setzen
sich durch, andere zerfallen wieder und werden ausgesondert. Dieses Zusammenspiel von Zufall und Selektion bei der Entstehung von Neuem wurde erstmals von
Charles Darwin am Beispiel der biologischen Evolution der Arten entdeckt. Es
handelt sich um universelle Eigenschaften komplexer dynamischer Systeme, die
daher auch in technischen Systemen Anwendung finden können. Wir sprechen
dort von genetischen und evolutionären Algorithmen.
In der Tradition mechanischer Automaten wurden zunächst Roboter gebaut,
deren Bewegungsabläufe genau festgelegt waren. In einer komplexen und sich
ständig verändernden Umwelt können aber nicht alle Eventualitäten in einem
Programm berücksichtigt werden. So ist Gehen eine komplexe körperliche Selbstorganisation, weitgehend ohne bewusste Zentralsteuerung. Ähnlich bewegen sich
Laufroboter einen leichten Abhang hinunter, nur angetrieben durch Schwerkraft,
Trägheit und Stöße, also körperliche Wechselwirkung ohne Programmsteuerung.
Komplexe Bewegungsmuster werden in der Natur nicht zentral gesteuert und
berechnet, sondern organisieren sich dezentral mit rückgekoppelten neuronalen
Einführung
11
Netzen. Bewegungswissen wird in unbekanntem Gelände gelernt und – learning
by doing – in neuronalen Netzen gespeichert. Neuronale Netze sind Beispiele für
komplexe dynamische Systeme aus einzelnen Nervenzellen, die neurochemisch
durch Botenstoffe (Neurotransmitter) wechselwirken und Verhaltensmuster als
Systemeigenschaften erzeugen.
Roboter müssen sich also mehr oder weniger selbständig anpassen lernen und
neue Situationen einschätzen können. Die steigende Komplexität unserer Welt
erfordert immer größere Grade der Autonomie und Selbstorganisation. Beim
Einsatz von Robotern in der Raumfahrt wird unmittelbar klar, dass wir ihre
Reaktionen z. B. auf dem Mars wegen der langen Signalgeschwindigkeit nicht
direkt von der Erde aus steuern können. Aber auch ein Industrie- und Alltagsroboter (z. B. in einer Küche) wird selbständig und schnell auf neue Situationen
reagieren müssen. Das Ein- und Ausräumen einer Spülmaschine beispielsweise ist
von einer enormen Komplexität, die nicht durch deterministische Sequenzen von
Einzelbefehlen in einem Roboter vorprogrammiert werden kann. Pflegeroboter in
einer immer älter werdenden Gesellschaft müssen zudem sensibel mit Menschen
umgehen lernen.
Dazu werden Roboter mit sensorischen, motorischen und neuronalen Fähigkeiten ausgestattet, die im Laufe von Experimenten Erfahrungen sammeln, Verhaltensmuster und kognitive Fähigkeiten ausbilden. Die japanische Industrie will
bis 2015 humanoide Roboter entwickelt haben, die wie Menschen laufen und
greifen. Bis 2020 sollen sie mit Menschen im Team selbstständig arbeiten und
umgehen können. Das setzt ein sensibles und autonomes System voraus, das eine
Vorstellung entwickeln kann, wie mit Menschen umzugehen ist. Roboter werden
immer komplexere Aufgaben bewältigen müssen, die wir Menschen in jedem
einzelnen Schritt nicht mehr kontrollieren, aber am Ende (hoffentlich) wenigstens
verantworten können. In diesem Sinn werden Roboter der Schlüssel zur Komplexität der Technik (Kapitel 4) sein.
Auch in der klassischen KI (Künstlichen Intelligenz)-Forschung glaubte man
lange Zeit, den menschlichen Geist quasi mechanisch in Programmbefehlen vollständig abbilden zu können. Viele umfangreiche und komplizierte Programmabläufe z. B. in der Industrie bei der Steuerung einer Produktionsstraße wurden so
erfolgreich realisiert. Wegen der dabei verwendeten Programmzeilen aus formalen
Symbolen sprechen wir auch von der symbolischen KI. Es wäre aber eine Illusion, in
dieser Weise alle geistigen Fähigkeiten des Menschen erfassen zu wollen. Dahinter
steht der alte Glaube, wonach Geist und Maschine wie Körper und Geist in
Software und Hardware geschieden sind und es nur noch darauf ankommt, alle
geistigen Fähigkeiten in einem Programm aufzuschreiben.
Bereits die Anatomie des Gehirns zeigt den grundlegenden Unterschied zum
Aufbau eines Computers. Das menschliche Gehirn ist wieder ein Beispiel für
ein komplexes dynamisches System, in dem Milliarden von Neuronen neurochemisch wechselwirken. Durch vielfach versendete elektrische Impulse entste-
Herunterladen