Künstliche Intelligenz - Eine Frage der Zeit? Martin Burkhart März 2002 Kaum jemand scheint heutzutage ernsthaft daran zu zweifeln, dass es Wissenschaftlern eines Tages gelingen wird, intelligente Roboter oder Programme zu schaffen. Nachdem die Maschinen den Menschen in körperlicher Hinsicht auf vielen Gebieten schon lange ersetzt haben, da sie stärker sind und ausdauernder und präziser arbeiten, dringen sie nun auch in Bereiche vor, die bisher dem Menschen auf Grund seiner einzigartigen Intelligenz vorbehalten waren. Computer entdecken gesuchte Verbrecher in den Zuschauerreihen eines Footballstadions, sie schreiben Briefe, welche der Chef diktiert, und sie schlagen den Weltmeister in der geistigen Königsdisziplin, dem Schach. Wenn der Autofahrer sich hoffnungslos verirrt, weist ihm eine Computerstimme bescheiden den richtigen Weg, Expertensysteme liefern das Wissen für Entscheidungen und neuronale Netze scheinen zu erraten, was wir denken [1]. In der Science-Fiction gehört künstliche Intelligenz zum ganz normalen Alltag. Androiden leben mit Menschen zusammen und fallen überhaupt nicht auf, nach Belieben können sie sich Emotions-Chips einsetzen. Steven Spielbergs Film “A. I.” (Artificial Intelligence) diskutiert bereits die gesellschaftlichen Probleme, die auftreten könnten, wenn sich intelligente, fühlende “Mechas” unter die Menschen mischen. Andere Filme beschreiben eine Zukunft, in welcher sich die Maschinen emanzipieren und von der Bevormundung durch die Menschen befreien werden. In “Matrix” haben die Maschinen sogar den Spiess umgedreht und missbrauchen die Menschen als Bio-Energiequelle. Der polnische Science-Fiction-Autor Stanislav Lem beschreibt in “Also sprach GOLEM” [2], wie sich die Computer durch “Psychoevolution” selbst weiterentwickeln und schliesslich ein intellektuelles Niveau erreichen, welches um Grössenordnungen über dem des Menschen liegt. Der am weitesten entwickelte Computer, GOLEM genannt, hält schliesslich Vorlesungen, in denen er sich mühsam auf das Niveau der Menschen hinabbegibt und ihnen ihr eigenes Schicksal prophezeit: “Sollte diese Tendenz sich noch wenigstens hundert Jahre lang fortsetzen, so werdet ihr selbst am Ende die dümmsten Punkte auf dem mit technischer Raffinesse ausgestatteten Erdboden sein.” ([2] Seite 151). Anthropomorphismen1 wie “Der Computer ist schuld ”, “Jetzt lernt der PC sprechen” oder “Mein Computer spinnt wieder” zeigen, dass dem Computer umgangssprachlich bereits menschliche Eigenschaften zugeschrieben werden. Daraus resultiert eine grosse Unsicherheit darüber, was Computer eigentlich können und wie sie funktionieren. Im Folgenden 1 Projektionen von (zum Beispiel) menschlichen Eigenschaften auf Objekte 1 werden diese (Horror-)Visionen beiseite gestellt und das wirkliche Wesen von Computern und Intelligenz im Detail untersucht. Wer einen heutigen Computer programmiert, tut nichts weiter, als ihm Algorithmen vorzugeben. Jeder mögliche Fall muss vom Programmierer durchdacht werden. Alles, was ein Computer zu einem gewissen Zeitpunkt als Reaktion auf einen bestimmten Input macht, ist exakt bestimmt2 . Jeder Computer verhält sich demnach vollkommen deterministisch. Algorithmen Doch wie lässt sich der Begriff “Algorithmus” beschreiben? Was ist ein Algorithmus? Was kann er? Alan M. Turing hat in den 30er Jahren ein mathematisches Modell für den intuitiven Begriff des Algorithmus geschaffen [3]. Kern dieses Modells ist die sogenannte Turingmaschine. Diese Turingmaschine besitzt interne Zustände, in welchen sie sich befinden kann, und hat ein (unendliches) Speicherband zur Verfügung, welches sie beschreiben und lesen kann. Die Maschine kann in jedem Arbeitsschritt abhängig von ihrem aktuellen Zustand und dem Zeichen auf dem Band in einen beliebigen anderen Zustand wechseln und ein Zeichen auf das Band schreiben. Es existiert ein Zeiger, der jeweils auf die aktuelle Position des Bandes zeigt und der von der Turingmaschine in jedem Schritt bei Bedarf eine Stelle nach links oder rechts verschoben werden kann. Ein Algorithmus ist nun alles, was eine solche Turingmaschine ausführen kann. Abbildung 1 zeigt ein Beispiel einer Turingmaschine. 0 1 = 0, R 1, R =, R 1 = START 1.Rechtes Ende suchen Leer 1 0, L (Übertrag weitergeben) 5. FERTIG Leer, L 2. Eine Eins löschen 1, L = 3. Suche das "=" 1 Leer, L 4. Addiere Eins binär = =, L 0 1, R Leer 1, R (fertig addiert) Aktuelle Position auf dem Band Unäre Representation der Zahl 9 auf dem Speicherband = 1 1 1 1 1 1 1 1 1 Ausführen der Turingmaschine Binäre Representation der Zahl 9 auf dem Speicherband 1 0 0 1 = Abbildung 1: Turingmaschine, welche eine Zahl von unärer zu binärer Darstellung konvertiert. Zu Beginn steht auf der rechten Seite die Zahl 9 unär. Nach Ausführung der Turingmaschine ist die unäre Zahl gelöscht und links steht 9 binär. 2 Natürlich kann der Verlauf eines Programmes von (Pseudo-)Zufallszahlen abhängig gemacht werden. Auch diese sind letztlich jedoch berechnet. 2 Die Turingmaschine im Beispiel rechnet die Zahl 9, die zuerst in unärem Format (die Anzahl der Einsen entspricht dem dargestellten Wert) gegeben ist, in die Binärdarstellung (Basis 2 anstelle von 10 beim Dezimalsystem; 910 = 10012 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 ) um. Der Algorithmus funktioniert so, dass in jedem Durchlauf (Zustand 1 bis Zustand 4) rechts eine 1 der unären Darstellung gelöscht wird und dafür links zu der binären Zahl 1 dazugezählt wird. Wenn nun rechts keine Einsen mehr vorhanden sind, ist die gesamte Zahl konvertiert. Im Diagramm stellen die Rechtecke die Zustände dar und die Pfeile die Übergänge zwischen den Zuständen. Eine Zeile der Form “0 ⇒ 1,R” bedeutet folgendes: ’Wenn im aktuellen Zustand (Pfeilanfang) das Zeichen 0 an der aktuellen Position auf dem Speicherband steht, schreibe eine 1 auf das Band, schiebe die Position des Bandes eins nach rechts (R) und gehe in den durch die Pfeilspitze angedeuteten Zustand über.’ Der nächste Schritt hängt dann von den Regeln für den neuen Zustand und dem aktuellen Zeichen auf dem Band ab. Im Beispiel tut Zustand 1 nichts weiter, als das Band solange nach rechts zu schieben, bis das Band leer ist. Dann wird das Band eine Stelle nach links auf die vermeintlich letzte 1 der unären Darstellung geschoben. Steht dort ein “=”, ist die Maschine fertig (Zustand 5), andernfalls wird die letzte 1 gelöscht (1 ⇒ Leer) und ans rechte Ende der binären Darstellung zurückgegangen (Zustand 3), wo daraufhin eine Addition von 1 an der binären Zahl durchgeführt wird. Ist die Addition erledigt, wird wieder in den Zustand 1 übergegangen, worauf die nächste unäre 1 gelöscht wird usw. Seit Turings Definition der Turingmaschine sind einige Jahrzehnte vergangen und die ersten Computer wurden tatsächlich gebaut. Sie haben unsere Gesellschaft erobert und unsere Arbeit sowie unseren Alltag verändert. Ihre Leistung verdoppelt sich gemäss Moores Gesetz seit Dekaden ungefähr alle 18 Monate. Auch die Speicherkapazität wächst unaufhaltsam (?) exponentiell. Und trotzdem ist jeder heutige Computer mitsamt seinen Programmen nichts weiter als eine komplizierte Turingmaschine. Im Sinne der Berechenbarkeitstheorie sind heutige Computer und Turingmaschinen äquivalent. Das bedeutet, dass ein Computer nicht mehr und nicht weniger berechnen kann, als Turing’s Modell von Algorithmen3 . Turing war nicht der einzige, der sich mit der Definition des Begriffs Algorithmus auseinandersetzte. Andere Systeme, wie λ-calculus, rekursive Funktionen oder Markov Algorithmen wurden vorgeschlagen. Es stellte sich jedoch heraus, dass alle diese Modelle mathematisch äquivalent sind. Das heisst, sie beschreiben denselben Begriff des Algorithmus wie die Turingmaschine4 . Die Optimisten Die Frage drängt sich auf, ob unser Gehirn nicht auch bloss ein Computer ist, der einen (wenn auch sehr komplizierten) Algorithmus ausführt? Bereits im Jahre 1680, als die modernen Naturwissenschaften im Begriff waren zu entstehen, hegte Leibniz die Phantasie vom “Gott als Uhrmacher” und dem Gehirn als “Uhrwerk”: “Was aber ist, wenn diese Theorien wirklich zutreffen und wir wie durch ein Wunder schrumpften und in 3 Im Sinne der Komplexitätstheorie macht ein heutiger Computer das jedoch einiges schneller. Vorallem das RAM ist gegenüber Turings Speicherband, welches von der Maschine selber an die richtige Stelle geschoben werden muss, viel effizienter. 4 Diese Äquivalenz der Rechenmodelle ist unter dem Namen Church-Turing These bekannt. 3 das Gehirn eines Menschen - wenn dieser denkt - gelangten. Wir würden sehen, wie all die Pumpen, Kolben, Zahnräder und Hebel arbeiteten, und wir könnten ihre Arbeitsweise was die Mechanik anbelangt - vollständig beschreiben, wodurch wir auch die Denkprozesse des Gehirns vollständig beschreiben könnten. Doch in dieser Beschreibung würde das Denken mit keinem Wort erwähnt werden! Es wäre nichts weiter als eine Beschreibung von Pumpen, Kolben und Hebeln!” Die heutigen Anhänger der “starken künstlichen Intelligenz” (KI)5 sprechen natürlich nicht von Pumpen, Kolben oder Zahnrädern, doch unterscheiden sich ihre Ansichten nicht wesentlich von der von Leibniz. Sie sind überzeugt, dass unser Gehirn nichts weiter als ein riesiger neuronaler Computer ist. Sämtliche Hirnfunktionen liessen sich im Prinzip algorithmisch simulieren. Früher oder später werde man die der Intelligenz zu Grunde liegenden Algorithmen gewiss entdecken oder das Bewusstsein werde sich von selbst einstellen: “Programme und Maschinen werden auf gleiche Weise Empfindungen erwecken: als Nebenprodukt ihrer Struktur, der Art wie sie organisiert sind - nicht durch direkte Einprogrammierung.” ([6], Seite 721). Wenn man den Computern etwas mehr Zeit gibt komplexer und grösser zu werden, werden sie eines Tages auch Intelligenz und ein Bewusstsein entwickeln. Warum auch nicht? Die Evolution soll den Menschen und sein Gehirn schliesslich nach demselben Prinzip hervorgebracht haben. Nicht-algorithmische Probleme 1931 hat der österreichische Logiker Kurt Gödel die mathematische Welt mit seinem verblüffenden Unvollständigkeitssatz [4] erschüttert. Dieser Satz sagt aus, dass jedes widerspruchsfreie mathematische System von Axiomen und Ableitungsregeln, welches mächtig genug ist einfache arithmetische Aussagen zu machen, wahre Aussagen enthält, die sich weder beweisen noch wiederlegen lassen. Solche Aussagen gelten als “unentscheidbar”. Übertragen auf die theoretische Informatik bedeutet dies, dass Probleme existieren, die zwar lösbar sind, deren Lösung aber nicht algorithmisch herbeigeführt werden kann. Hier einige Beispiele solcher nicht-algorithmischen Probleme: • Hilberts 10. Problem Es ist nicht entscheidbar, ob beliebige algebraische Gleichungssysteme mit ganzzahligen Koeffizienten (diophantische Gleichungen) für ganzzahlige Werte lösbar sind. • Das Halteproblem Es existiert kein Algorithmus, welcher für eine beliebige Turingmaschine und ihre Eingabedaten entscheidet, ob sie jemals anhalten wird oder nicht. • Busy Beaver Funktion [5] Die Werte der “Busy Beaver” Funktion wachsen für genügend grosse Argumente über jede berechenbare Funktion hinaus. 5 Die These der starken KI geht davon aus, dass sämtliche Bewusstseinprozesse berechenbar sind. Die These der schwachen KI begnügt sich damit, dass Bewusstseinsprozesse auch auf Berechnungen beruhen. 4 • Das Wortproblem für Halbgruppen In diesem Spiel gibt es Wörter und Ersetzungsregeln, die einem erlauben Teile von Wörtern durch andere zu ersetzen. Für zwei gegebene Wörter lässt sich algorithmisch nicht entscheiden, ob sie durch die erlaubten Substitutionen ineinander überführbar sind. ([7], Seite 126) • Parkettierung der Ebene Gegeben sei eine Menge von verschiedenen Vielecken. Die Frage, ob sich damit die Euklidische Ebene vollständig überdecken lässt, ist im Allgemeinen nicht entscheidbar. ([7], Seite 129) • Die gesamte nicht-rekursive Mathematik “Für eine nicht-rekursive Menge gibt es kein allgemeines algorithmisches Verfahren, das entscheidet, ob ein Element (oder ein “Punkt”) zur Menge gehört”. ([7], Seite 121) Was macht man nun mit solchen nicht-algorithmischen Problemen? Sollte man sie einfach ignorieren und sich etwas Erfolgsversprechenderem zuwenden? In seinem Buch “Computerdenken - Des Kaisers neue Kleider” [7], welches eine hervorragende Kritik an der starken KI ist, zeichnet der Mathematikprofessor Roger Penrose ein interessantes Bild von der Erkenntnis mathematischer Wahrheit. Er sagt, dass sich viele Wahrheiten nur aufgrund einer “Einsicht” als wahr ansehen lassen, genau so wie eine Gödelsche Aussage von allen Mathematikern als wahr anerkannt wird, obwohl sie eben nicht beweisbar ist. Gemäss dem Reflexionsprinzip der Logik kann sich der Mensch der “Bedeutung” von Axiomen oder Ableitungsregeln bewusst werden und daraus Erkenntnisse gewinnen, aus welchen sich wiederum mathematische Aussagen konstruieren lassen, die auf formalem Wege (über Axiome und Regeln) nicht erreicht werden können. Für Penrose existiert eine platonische Ideenwelt der Mathematik, welche nur unserem Geist zugänglich ist: “Jedesmal, wenn man im Geiste eine mathematische Wahrheit betrachtet und sie durch mathematische Überlegung und Einsicht wahrnimmt, tritt der Geist in Kontakt mit der Platonischen Welt.” (Seite 154) Wie es scheint, entziehen sich viele Probleme dem Zugang über die strikte Algorithmik. Die Lösungen solcher Probleme lassen sich nur auf einer “höheren”, semantischen, geistigen Stufe finden: “Der Begriff der mathematischen Wahrheit geht über das ganze Konzept des Formalismus hinaus. An ihr ist etwas Absolutes und ’Gottgegebenes’.” (Seite 109). Nachdem er die Vorstellung, mathematische Wahrheitsfindung laufe algorithmisch ab, ad absurdum 6 geführt hat, fasst Penrose zusammen: “Wir stellen mathematische Wahrheit nicht bloss mit Hilfe eines Algorithmus fest. Ich glaube ausserdem, dass unser Bewusstsein eine wesentliche Voraussetzung für unser Begreifen von mathematischer Wahrheit ist. Wir müssen die Wahrheit eines mathematischen Arguments ’einsehen’, um von seiner Gültigkeit überzeugt zu sein.” (Seite 407) 6 Eine Idee wird ad absurdum geführt, wenn sie so lange logisch weiterentwickelt wird, bis Widersprüche auftreten. 5 Wenn sich schon die klar definierte und logische Welt der Mathematik den Algorithmen verschliesst, wie viel mehr dann die Prozesse, die beim menschlichen Denken ablaufen! Gerade dem Bewusstsein und der Intelligenz, die laut Penrose nötig sind um mathematische Wahrheit zu erkennen, müssen starke nicht-algorithmische Prozesse zu Grunde liegen. Man weiss bis heute immer noch sehr wenig über solche Prozesse. Sicher ist einzig, dass Computer in ihrer heutigen Form keinerlei Zugang zu solchen Vorgängen haben, weil sie in ihrer algorithmischen Beschaffenheit gefangen sind. Neuronale Netze Wenn nun herkömmliche digitale Computer streng algorithmisch funktionieren, wir Menschen aber auch nicht-algorithmische Leistungen vollbringen können, muss das Geheimnis der Intelligenz wohl irgendwo im menschlichen Gehirn verborgen sein!? Die Neuroinformatik analysiert die Funktionsweise des Gehirns und versucht, diese mittels künstlicher Modelle nachzuahmen. Die Grundbausteine unseres Gehirns sind Neuronen. Diese Neuronen sind spezielle Nervenzellen, die durch Synapsen miteinander verbunden sind. Ein Neuron empfängt von verschiedenen anderen Neuronen Signale und wenn sein inneres Spannungspotential einen gewissen Wert übersteigt, feuert es selbst ein Signal (einen sogenannten “Spike”) an seine Nachbarneuronen. Eine wichtige Eigenschaft ist dabei die Feuerrate, das heisst die Anzahl der Spikes, welche ein Neuron pro Sekunde generiert. Je höher diese Feuerrate, umso “angeregter” ist ein bestimmtes Neuron. Ein ganzes Netz solcher Neuronen kann nun gewisse Berechnungen durchführen. Zu den am besten verstandenen Bereichen im Gehirn gehört der Weg der visuellen Informationen. Die Kette der Verarbeitung beginnt, wenn Licht auf unsere Retina fällt. Bereits die Retina wird zum Gehirn gezählt, da sie gewisse Informationen wie Farbe, Kontrast und Hintergrundbeleuchtung abstrahiert. Von der Retina fliesst die Information weiter zu den Ganglionzellen, welche Eigenschaften wie Kanten oder räumliche Frequenz von Mustern aus den visuellen Daten extrahieren. Erste räumliche Eigenschaften werden in den sogenannten “einfachen” und “komplexen” Zellen des primären visuellen Kortex (V1) berechnet. Dafür werden Informationen von beiden Augen zusammengeführt. Die Zellen im V1 reagieren auch auf die Orientierung und die Bewegungsrichtung von Mustern. Die nächsten Stufen können illusorische Konturen (V2) sowie zusammenhängede grössere Regionen (V4) verarbeiten, bevor dann auf höheren Stufen optische Bewegungsmuster (MST) und Geschwindigkeiten von Objekten (MT) wahrgenommen werden. Daraufhin erfolgt eine Übersetzung der gesehenen Objekte in Augen-, Kopf- und Körperkoordinaten und die Integration von anderen sensorischen Informationen. So weit so gut. Nur sind alle diese Komponenten der visuellen Informationsverarbeitung rein algorithmische Funktionen. Zusätzlich sind sie sehr lokal und jeweils auf eine kleine Teilaufgabe spezialisiert. Es können nirgends im Gehirn Regionen gefunden werden, wo alle diese Informationen zusammenfliessen und als Ganzes wahrgenommen werden. Trotzdem erfahren Menschen die sie umgebende Umwelt als eine nahtlose Einheit. Dieses bis anhin ungelöste Problem ist unter dem Namen “Binding Problem” bekannt. Nach der Synchronizitäts-Hypothese feuern jene Neuronen synchron, welche eine Eigenschaft für dasselbe 6 Objekt kodieren. Diese Hypothese ist jedoch noch jung und stark umstritten. Alle Simulationen von neuronalen Strukturen im Gehirn, ob sie nun softwaremässig oder (aus Gründen der Performance) direkt in Hardware mittels aVLSI7 Technologie realisiert werden, beschränken sich auf die Realisierung solcher algorithmischer Kompenenten. Die gesuchte Intelligenz, beziehungsweise das Bewusstsein, müsste allerdings genau an der Stelle in Erscheinung treten, wo die Resultate dieser Komponenten zusammengefügt werden. Ein weiteres Problem der neuronalen Netze besteht darin, dass sie sich prinzipiell beliebig genau mit herkömmlichen Computern simulieren lassen. Daraus folgt, dass neuronale Netze im Sinne des Rechenmodells nicht mächtiger sind als digitale Computer. Das wiederum bedeutet, dass neuronale Netze keine nicht-algorithmischen Funktionen ausführen können. Wenn sie das tatsächlich könnten, könnte jede Turingmaschine das auch, indem sie einfach ein neuronales Netz simulieren würde. Die Performance-Einbusse der SoftwareSimulation ist diesbezüglich vollkommen irrelevant. Ein einfacher intelligenter Gedanke, welcher zehn Jahre benötigen würde, um von einem Computer gedacht zu werden, wäre dennoch ein intelligenter Gedanke. Quantencomputer Im Gegensatz zu den Bits der klassischen Computer, die immer exakt 0 oder 1 darstellen, können die Qubits (quantum bits) der Quantencomputer sämtliche möglichen Zustände zugleich annehmen. Ein Qubit könnte zum Beispiel ein Elektron in einem Magnetfeld sein. Dieses Elektron kann nun entweder einen aufwärts oder abwärts gerichteten Spin haben. Wenn das Elektron richtig angeregt wird, kann es gemäss dem Superpositionsprinzip der Quantentheorie in einen Zustand übergehen, in dem der Spin gleichzeitig aufwärts und abwärts gerichtet ist. Wenn man sich nun zehn solcher Qubits vorstellt, so können diese zusammen 210 = 1024 Zustände zugleich annehmen. Eine Berechnung mit diesen Qubits würde dann auf allen diesen Zuständen zugleich stattfinden. Das Resultat einer solchen Berechnung ist jedoch probabilistisch und verlangt nach speziell auf Quantencomputer angepassten Algorithmen. Der Quantencomputer ist ein Gebiet der intensiven Forschung. Die Meinungen über die Realisierbarkeit einer solchen Maschine gehen weit auseinander. Optimistische Zungen sprechen von einem ersten lauffähigen Quantencomputer innerhalb der nächsten 10-20 Jahre. Dagegen steht die Behauptung, dass es nie gelingen wird, eine solche Maschine zu bauen. Die enorme Parallelität eines Quantencomputers macht es potentiell möglich, NPschwierige Probleme8 in polynomieller Zeit zu lösen. Das wäre für die Informatik im wahrsten Sinne des Wortes ein Quantensprung. Beispielsweise könnten durch den von Peter Shor vorgestellten Faktorisierungsalgorithmus für Quantencomputer kryptographische InternetProtokolle wie RSA ausgehebelt werden. Auf der Suche nach künstlicher Intelligenz führt 7 aVLSI: Analog Very Large System Integration: Technik, bei welcher analoge Eigenschaften von an sich digitalen Schaltelementen (z.B. Transistoren) benutzt werden, um Neuronen-ähnliches Verhalten zu simulieren. 8 Klasse von Problemen aus der Komplexitätstheorie. P: Probleme mit polynomiellem Zeitaufwand, NP: Probleme mit nicht-deterministisch polynomiellem Zeitaufwand 7 diese enorme Steigerung an Rechenkraft jedoch nicht weiter, denn nach David Deutsch kann ein Quantencomputer keine nicht-algorithmischen Probleme lösen, womit er wiederum äquivalent zu einer Turingmaschine wäre. Die Physik der Zukunft Vielleicht weiss die Wissenschaft einfach noch zuwenig über die detailierte Funktionsweise des Gehirns. Möglicherweise muss man noch tiefer vordringen, noch kleinere Strukturen analysieren, um auf die gesuchten Intelligenzmuster zu stossen. Penrose sucht auch in der Quantenmechanik nach Erklärungen für mögliche “geistige” Gehirnfunktionen. Doch selbst der Quantenzustand eines Systems entwickelt sich gemäss der Schrödingergleichung vollkommen deterministisch und lässt daher keinen “freien Willen” als Steuerzentrale zu. Der einzige Indeterminismus der Quantentheorie tritt auf, wenn die Wellenfunktion eines Zustandes aufgrund einer “Beobachtung” in eine probabilistische Alternative kollabiert. Doch auch dabei geschieht nichts Magisches und Penrose kommt zum Schluss, dass die Zukunft neue Theorien liefern müsse, damit man dem Phänomen des Geistes auf die Spur kommen könne: “Wir wissen, dass auf der submikroskopischen Ebene die Quantengesetze herrschen; aber auf der Ebene von Billardkugeln gilt die klassische Physik. Irgendwo dazwischen, würde ich behaupten, müssen wir das neue Gesetz begreifen, damit wir sehen, wie die Quantenwelt in die klassische übergeht. Auch denke ich, dass wir dieses neue Gesetz brauchen, wenn wir überhaupt jemals geistige Phänomene verstehen wollen!” ([7] Seite 291) In diesem Zusammenhang ist auch ein Ausspruch Albert Einsteins interessant: “Die Quantenmechanik ist sehr achtung-gebietend. Aber eine innere Stimme sagt mir, dass das doch nicht der wahre Jakob ist. Die Theorie liefert viel, aber dem Geheimnis des Alten bringt sie uns kaum näher. Jedenfalls bin ich überzeugt, dass der nicht würfelt.” (Einstein, 1969) Das Geist-Gehirn Problem Die starke KI ist eine sehr materialistische These. Nach ihr beruhen alle geistigen Prozesse einzig auf der Vernetzung von Neuronen. Es gibt in dieser Weltanschauung keinen Platz für eine Seele oder einen Geist, welcher neben dem Körper als eigenständige Entität existiert. Es wird mit dem Märchen der “Seele” aufgeräumt, man braucht keine metaphysische Welt mehr, es lässt sich alles in “Hardware” realisieren. Die allgemeine Ansicht, dass Menschen ihre Handlungen durch einen “freien Willen” beeinflussen können, wird als trügerisch angesehen. Alles was sie tun ist vorbestimmt. Entgegen dem “Mainstream” der materialistischen Theorien hat der Hirnforscher und Nobelpreisträger John C. Eccles seine Theorie des dualistischen Interaktionismus entwickelt [8]. Dualistisch darum, weil Eccles zusätzlich zur physischen Gesamtheit des Gehirns den Geist als eigenständige, real existierende, immaterielle Instanz betrachtet: “Je mehr wir in wissenschaftlicher Hinsicht über das Gehirn entdecken, desto deutlicher können wir zwischen Gehirnereignissen und den mentalen Phänomenen unterscheiden und desto wunderbarer werden die mentalen Phänomene.” ([8] Seite 24). Interaktionismus bedeutet dabei, dass diese beiden Entitäten - materielles Gehirn und immaterieller Geist - miteinander kommunizieren. Dieser Geist beinhaltet die Identität und den freien Willen eines Men8 schen. Als Bindeglied zwischen Gehirn und Geist zieht Eccles die Quantentheorie heran: ”Die Hypothese der Wechselwirkung von Geist und Gehirn lautet, dass mentale Ereignisse über ein quantenmechanisches Wahrscheinlichkeitsfeld die Wahrscheinlichkeit der Emission von Vesikeln aus präsynaptischen Vesikelgittern ändern.” ([8] Seite 114). Weil bei dieser Interaktion nur Information und keine Energie fliesst, wird der Energieerhaltungssatz der Physik nicht verletzt. Der Geist benutzt den Körper mitsamt seinem Gehirn nur als Werkzeug, um mit der sichtbaren Welt zu interagieren. Wie im Abschnitt über neuronale Netze beschrieben, kann das Gehirn dabei sehr wohl eine gewisse Aufbereitung sensorischer Daten betreiben. Danach werden die Informationen aber dem Geist zugänglich gemacht, welcher sie bewusst wahrnehmen und interpretieren kann. Unser freier Wille entwickelt daraufhin vielleicht eine mentale Absicht, welche wiederum im Gehirn Wahrscheinlichkeitsfelder verändert und so Einfluss auf das Feuern bestimmter Neuronen nimmt. Das Feuern dieser Neuronen wird nun in motorische Befehle übersetzt und unser Körper tritt in Aktion. Der Kreislauf einer intelligenten Reaktion auf eine Stimulation aus der Umwelt ist damit geschlossen. Wie ein Puppenspieler alle Fäden seiner Marionette in der Hand hält, so laufen beim Geist die Resultate aller Hirnregionen zusammen: “Man muss erkennen, dass die vollständigen visuellen Bilder im Geist erfahren werden, der sie aus der Analyse in der Sehrinde zusammenzusetzen scheint. ([8] Seite 258). Die Lösung des “Binding Problem” ist somit auf einer geistigen Ebene angesiedelt. Die menschliche Intelligenz und das Bewusstsein sind in einer transzendenten, unserer Physik bis anhin nicht zugänglichen Dimension zu Hause. Die Funktionsweise des Geistes ist somit nicht an die bekannte Physik oder gar die Algorithmik gebunden. Mit diesem Bild des Geistes kann das Gehirn sehr wohl ein vollkommen deterministisch und algorithmisch funktionierender neuronaler Computer sein, denn es ist schliesslich nur das Gefäss eines autonomen, nicht-algorithmischen Geistes. Die Strukturen der Intelligenz sind damit aber für die materialistische Wissenschaft unauffindbar geworden. Genau wie heutige Computer wäre eine exakte Simulation unseres gesamten physischen Gehirns ohne seinen Geist kein bisschen bewusst oder intelligent. Zusammenfassung und christliche Gedanken Die Fähigkeiten von digitalen Computern sind auf die Ausführung von Algorithmen beschränkt. Damit sind sie äquivalent zu Turingmaschinen. Auch neuronale Netze und Quantencomputer erweitern das Spektrum der lösbaren Probleme nicht. Leider ist die Klasse der algorithmischen Probleme jedoch sehr beschränkt, denn es existieren viele nicht-algorithmische Probleme. Vor allem aber ist für Penrose das menschliche Denken ein erheblich nicht-algorithmischer und indeterministischer Prozess, für den es in der heutigen Physik keine Erklärung gibt. Da nach Eccles der menschliche Geist unabhängig von den physischen Strukturen des Gehirns existiert, entzieht sich die Funktionsweise der Intelligenz dem Zugriff der materialistischen Wissenschaft und wird wohl für immer ein Geheimnis bleiben. In 1. Mose 1,26 sagt die Bibel: “Und Gott sprach: Lasst uns Menschen machen in unserem Bild, uns ähnlich!”. Gott schuf den Menschen als Krone der Schöpfung, um mit ihm in Beziehung zu treten. Dafür hat er ihn mit freiem Willen und der Fähigkeit zu lieben 9 ausgestattet. Er gab dem Menschen als einzigem Geschöpf einen Geist. Dieser Geist ist ein Wesenszug Gottes selbst und macht den Menschen damit Gott ähnlich. Die Fähigkeit des Verstandes ist laut der Bibel eng an diesen Geist gebunden: “Es ist der Geist im Menschen und der Atem des Allmächtigen, der verständig macht.” (Hiob 32,8). Mit seinem Bestreben diesen Geist und auch den menschlichen Körper nachzubauen, versucht der Mensch sich an Gottes Stelle zu setzen. Von Nietzsche für tot erklärt und durch die Evolutionstheorie unnötig geworden, wurde Gott abgeschafft: “Sie tauschten den wahren Gott gegen ein Lügengespinst ein, sie haben die Geschöpfe geehrt und angebetet anstatt den Schöpfer - gepriesen sei er in Ewigkeit, Amen!” (Römer 1, 25. Das Neue). Der Mensch ist gerne bereit, in die frei gewordene Stelle zu treten und das Geschick der Welt in die eigene Hand zu nehmen. Gott sei Dank ist das wunderbare Geheimnis des menschlichen Geistes vor solchem Trachten verborgen. Literatur [1] Twenty Questions, The neural-net on the Internet, http://www.20q.net [2] Stanislaw Lem: Also sprach GOLEM, suhrkamp taschenbuch 1266, 1986 [3] Alan M. Turing: On computable numbers, with an application to the Entscheidungsproblem, Proc. London Math Soc. [4] Kurt Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, Monatshefte für Mathematik und Physik 38, 173-198, 1931 [5] On non-computable functions, Bell Sys. Tech. J. 41, 877-884, 1962 [6] Douglas R. Hofstadter: Gödel Escher Bach - Ein Endloses Geflochtenes Band, dtv, München, 1999 [7] Roger Penrose: Computerdenken, Des Kaisers neue Kleider, Spektrum der Wissenschaft, Heidelberg, 1991 [8] John C. Eccles: Wie das Selbst sein Gehirn steuert, Piper Verlag GmbH, München, 1994 10