Künstliche Intelligenz

Werbung
Künstliche Intelligenz - Eine Frage der Zeit?
Martin Burkhart
März 2002
Kaum jemand scheint heutzutage ernsthaft daran zu zweifeln, dass es Wissenschaftlern
eines Tages gelingen wird, intelligente Roboter oder Programme zu schaffen. Nachdem die
Maschinen den Menschen in körperlicher Hinsicht auf vielen Gebieten schon lange ersetzt
haben, da sie stärker sind und ausdauernder und präziser arbeiten, dringen sie nun auch in
Bereiche vor, die bisher dem Menschen auf Grund seiner einzigartigen Intelligenz vorbehalten waren. Computer entdecken gesuchte Verbrecher in den Zuschauerreihen eines Footballstadions, sie schreiben Briefe, welche der Chef diktiert, und sie schlagen den Weltmeister in
der geistigen Königsdisziplin, dem Schach. Wenn der Autofahrer sich hoffnungslos verirrt,
weist ihm eine Computerstimme bescheiden den richtigen Weg, Expertensysteme liefern
das Wissen für Entscheidungen und neuronale Netze scheinen zu erraten, was wir denken
[1].
In der Science-Fiction gehört künstliche Intelligenz zum ganz normalen Alltag. Androiden leben mit Menschen zusammen und fallen überhaupt nicht auf, nach Belieben können
sie sich Emotions-Chips einsetzen. Steven Spielbergs Film “A. I.” (Artificial Intelligence)
diskutiert bereits die gesellschaftlichen Probleme, die auftreten könnten, wenn sich intelligente, fühlende “Mechas” unter die Menschen mischen. Andere Filme beschreiben eine
Zukunft, in welcher sich die Maschinen emanzipieren und von der Bevormundung durch die
Menschen befreien werden. In “Matrix” haben die Maschinen sogar den Spiess umgedreht
und missbrauchen die Menschen als Bio-Energiequelle. Der polnische Science-Fiction-Autor
Stanislav Lem beschreibt in “Also sprach GOLEM” [2], wie sich die Computer durch “Psychoevolution” selbst weiterentwickeln und schliesslich ein intellektuelles Niveau erreichen,
welches um Grössenordnungen über dem des Menschen liegt. Der am weitesten entwickelte
Computer, GOLEM genannt, hält schliesslich Vorlesungen, in denen er sich mühsam auf
das Niveau der Menschen hinabbegibt und ihnen ihr eigenes Schicksal prophezeit: “Sollte
diese Tendenz sich noch wenigstens hundert Jahre lang fortsetzen, so werdet ihr selbst am
Ende die dümmsten Punkte auf dem mit technischer Raffinesse ausgestatteten Erdboden
sein.” ([2] Seite 151).
Anthropomorphismen1 wie “Der Computer ist schuld ”, “Jetzt lernt der PC sprechen”
oder “Mein Computer spinnt wieder” zeigen, dass dem Computer umgangssprachlich bereits menschliche Eigenschaften zugeschrieben werden. Daraus resultiert eine grosse Unsicherheit darüber, was Computer eigentlich können und wie sie funktionieren. Im Folgenden
1
Projektionen von (zum Beispiel) menschlichen Eigenschaften auf Objekte
1
werden diese (Horror-)Visionen beiseite gestellt und das wirkliche Wesen von Computern
und Intelligenz im Detail untersucht.
Wer einen heutigen Computer programmiert, tut nichts weiter, als ihm Algorithmen
vorzugeben. Jeder mögliche Fall muss vom Programmierer durchdacht werden. Alles, was
ein Computer zu einem gewissen Zeitpunkt als Reaktion auf einen bestimmten Input macht,
ist exakt bestimmt2 . Jeder Computer verhält sich demnach vollkommen deterministisch.
Algorithmen Doch wie lässt sich der Begriff “Algorithmus” beschreiben? Was ist ein
Algorithmus? Was kann er?
Alan M. Turing hat in den 30er Jahren ein mathematisches Modell für den intuitiven
Begriff des Algorithmus geschaffen [3]. Kern dieses Modells ist die sogenannte Turingmaschine. Diese Turingmaschine besitzt interne Zustände, in welchen sie sich befinden kann,
und hat ein (unendliches) Speicherband zur Verfügung, welches sie beschreiben und lesen
kann. Die Maschine kann in jedem Arbeitsschritt abhängig von ihrem aktuellen Zustand
und dem Zeichen auf dem Band in einen beliebigen anderen Zustand wechseln und ein Zeichen auf das Band schreiben. Es existiert ein Zeiger, der jeweils auf die aktuelle Position des
Bandes zeigt und der von der Turingmaschine in jedem Schritt bei Bedarf eine Stelle nach
links oder rechts verschoben werden kann. Ein Algorithmus ist nun alles, was eine solche
Turingmaschine ausführen kann. Abbildung 1 zeigt ein Beispiel einer Turingmaschine.
0
1
=
0, R
1, R
=, R
1
=
START
1.Rechtes
Ende
suchen
Leer
1 0, L
(Übertrag
weitergeben)
5. FERTIG
Leer, L
2. Eine
Eins
löschen
1, L
=
3. Suche
das "="
1
Leer, L
4. Addiere
Eins binär
=
=, L
0 1, R
Leer 1, R
(fertig addiert)
Aktuelle Position auf dem Band
Unäre Representation der Zahl 9 auf dem Speicherband
= 1 1 1 1 1 1 1 1 1
Ausführen der Turingmaschine
Binäre Representation der Zahl 9 auf dem Speicherband
1 0 0 1 =
Abbildung 1: Turingmaschine, welche eine Zahl von unärer zu binärer Darstellung konvertiert. Zu Beginn steht auf der rechten Seite die Zahl 9 unär. Nach Ausführung der
Turingmaschine ist die unäre Zahl gelöscht und links steht 9 binär.
2
Natürlich kann der Verlauf eines Programmes von (Pseudo-)Zufallszahlen abhängig gemacht werden.
Auch diese sind letztlich jedoch berechnet.
2
Die Turingmaschine im Beispiel rechnet die Zahl 9, die zuerst in unärem Format (die
Anzahl der Einsen entspricht dem dargestellten Wert) gegeben ist, in die Binärdarstellung
(Basis 2 anstelle von 10 beim Dezimalsystem; 910 = 10012 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 )
um. Der Algorithmus funktioniert so, dass in jedem Durchlauf (Zustand 1 bis Zustand 4)
rechts eine 1 der unären Darstellung gelöscht wird und dafür links zu der binären Zahl
1 dazugezählt wird. Wenn nun rechts keine Einsen mehr vorhanden sind, ist die gesamte
Zahl konvertiert. Im Diagramm stellen die Rechtecke die Zustände dar und die Pfeile die
Übergänge zwischen den Zuständen. Eine Zeile der Form “0 ⇒ 1,R” bedeutet folgendes:
’Wenn im aktuellen Zustand (Pfeilanfang) das Zeichen 0 an der aktuellen Position auf dem
Speicherband steht, schreibe eine 1 auf das Band, schiebe die Position des Bandes eins
nach rechts (R) und gehe in den durch die Pfeilspitze angedeuteten Zustand über.’ Der
nächste Schritt hängt dann von den Regeln für den neuen Zustand und dem aktuellen
Zeichen auf dem Band ab. Im Beispiel tut Zustand 1 nichts weiter, als das Band solange
nach rechts zu schieben, bis das Band leer ist. Dann wird das Band eine Stelle nach links
auf die vermeintlich letzte 1 der unären Darstellung geschoben. Steht dort ein “=”, ist
die Maschine fertig (Zustand 5), andernfalls wird die letzte 1 gelöscht (1 ⇒ Leer) und
ans rechte Ende der binären Darstellung zurückgegangen (Zustand 3), wo daraufhin eine
Addition von 1 an der binären Zahl durchgeführt wird. Ist die Addition erledigt, wird
wieder in den Zustand 1 übergegangen, worauf die nächste unäre 1 gelöscht wird usw.
Seit Turings Definition der Turingmaschine sind einige Jahrzehnte vergangen und die ersten Computer wurden tatsächlich gebaut. Sie haben unsere Gesellschaft erobert und unsere
Arbeit sowie unseren Alltag verändert. Ihre Leistung verdoppelt sich gemäss Moores Gesetz
seit Dekaden ungefähr alle 18 Monate. Auch die Speicherkapazität wächst unaufhaltsam
(?) exponentiell. Und trotzdem ist jeder heutige Computer mitsamt seinen Programmen
nichts weiter als eine komplizierte Turingmaschine. Im Sinne der Berechenbarkeitstheorie
sind heutige Computer und Turingmaschinen äquivalent. Das bedeutet, dass ein Computer
nicht mehr und nicht weniger berechnen kann, als Turing’s Modell von Algorithmen3 .
Turing war nicht der einzige, der sich mit der Definition des Begriffs Algorithmus auseinandersetzte. Andere Systeme, wie λ-calculus, rekursive Funktionen oder Markov Algorithmen wurden vorgeschlagen. Es stellte sich jedoch heraus, dass alle diese Modelle mathematisch äquivalent sind. Das heisst, sie beschreiben denselben Begriff des Algorithmus
wie die Turingmaschine4 .
Die Optimisten Die Frage drängt sich auf, ob unser Gehirn nicht auch bloss ein Computer ist, der einen (wenn auch sehr komplizierten) Algorithmus ausführt? Bereits im Jahre
1680, als die modernen Naturwissenschaften im Begriff waren zu entstehen, hegte Leibniz
die Phantasie vom “Gott als Uhrmacher” und dem Gehirn als “Uhrwerk”: “Was aber ist,
wenn diese Theorien wirklich zutreffen und wir wie durch ein Wunder schrumpften und in
3
Im Sinne der Komplexitätstheorie macht ein heutiger Computer das jedoch einiges schneller. Vorallem
das RAM ist gegenüber Turings Speicherband, welches von der Maschine selber an die richtige Stelle
geschoben werden muss, viel effizienter.
4
Diese Äquivalenz der Rechenmodelle ist unter dem Namen Church-Turing These bekannt.
3
das Gehirn eines Menschen - wenn dieser denkt - gelangten. Wir würden sehen, wie all
die Pumpen, Kolben, Zahnräder und Hebel arbeiteten, und wir könnten ihre Arbeitsweise was die Mechanik anbelangt - vollständig beschreiben, wodurch wir auch die Denkprozesse
des Gehirns vollständig beschreiben könnten. Doch in dieser Beschreibung würde das Denken mit keinem Wort erwähnt werden! Es wäre nichts weiter als eine Beschreibung von
Pumpen, Kolben und Hebeln!”
Die heutigen Anhänger der “starken künstlichen Intelligenz” (KI)5 sprechen natürlich
nicht von Pumpen, Kolben oder Zahnrädern, doch unterscheiden sich ihre Ansichten nicht
wesentlich von der von Leibniz. Sie sind überzeugt, dass unser Gehirn nichts weiter als
ein riesiger neuronaler Computer ist. Sämtliche Hirnfunktionen liessen sich im Prinzip
algorithmisch simulieren. Früher oder später werde man die der Intelligenz zu Grunde
liegenden Algorithmen gewiss entdecken oder das Bewusstsein werde sich von selbst einstellen: “Programme und Maschinen werden auf gleiche Weise Empfindungen erwecken: als
Nebenprodukt ihrer Struktur, der Art wie sie organisiert sind - nicht durch direkte Einprogrammierung.” ([6], Seite 721). Wenn man den Computern etwas mehr Zeit gibt komplexer
und grösser zu werden, werden sie eines Tages auch Intelligenz und ein Bewusstsein entwickeln. Warum auch nicht? Die Evolution soll den Menschen und sein Gehirn schliesslich
nach demselben Prinzip hervorgebracht haben.
Nicht-algorithmische Probleme 1931 hat der österreichische Logiker Kurt Gödel die
mathematische Welt mit seinem verblüffenden Unvollständigkeitssatz [4] erschüttert. Dieser Satz sagt aus, dass jedes widerspruchsfreie mathematische System von Axiomen und
Ableitungsregeln, welches mächtig genug ist einfache arithmetische Aussagen zu machen,
wahre Aussagen enthält, die sich weder beweisen noch wiederlegen lassen. Solche Aussagen
gelten als “unentscheidbar”.
Übertragen auf die theoretische Informatik bedeutet dies, dass Probleme existieren, die
zwar lösbar sind, deren Lösung aber nicht algorithmisch herbeigeführt werden kann. Hier
einige Beispiele solcher nicht-algorithmischen Probleme:
• Hilberts 10. Problem
Es ist nicht entscheidbar, ob beliebige algebraische Gleichungssysteme mit ganzzahligen Koeffizienten (diophantische Gleichungen) für ganzzahlige Werte lösbar sind.
• Das Halteproblem
Es existiert kein Algorithmus, welcher für eine beliebige Turingmaschine und ihre
Eingabedaten entscheidet, ob sie jemals anhalten wird oder nicht.
• Busy Beaver Funktion [5]
Die Werte der “Busy Beaver” Funktion wachsen für genügend grosse Argumente über
jede berechenbare Funktion hinaus.
5
Die These der starken KI geht davon aus, dass sämtliche Bewusstseinprozesse berechenbar sind. Die
These der schwachen KI begnügt sich damit, dass Bewusstseinsprozesse auch auf Berechnungen beruhen.
4
• Das Wortproblem für Halbgruppen
In diesem Spiel gibt es Wörter und Ersetzungsregeln, die einem erlauben Teile von
Wörtern durch andere zu ersetzen. Für zwei gegebene Wörter lässt sich algorithmisch
nicht entscheiden, ob sie durch die erlaubten Substitutionen ineinander überführbar
sind. ([7], Seite 126)
• Parkettierung der Ebene
Gegeben sei eine Menge von verschiedenen Vielecken. Die Frage, ob sich damit die
Euklidische Ebene vollständig überdecken lässt, ist im Allgemeinen nicht entscheidbar. ([7], Seite 129)
• Die gesamte nicht-rekursive Mathematik
“Für eine nicht-rekursive Menge gibt es kein allgemeines algorithmisches Verfahren,
das entscheidet, ob ein Element (oder ein “Punkt”) zur Menge gehört”. ([7], Seite
121)
Was macht man nun mit solchen nicht-algorithmischen Problemen? Sollte man sie einfach ignorieren und sich etwas Erfolgsversprechenderem zuwenden?
In seinem Buch “Computerdenken - Des Kaisers neue Kleider” [7], welches eine hervorragende Kritik an der starken KI ist, zeichnet der Mathematikprofessor Roger Penrose
ein interessantes Bild von der Erkenntnis mathematischer Wahrheit. Er sagt, dass sich viele Wahrheiten nur aufgrund einer “Einsicht” als wahr ansehen lassen, genau so wie eine
Gödelsche Aussage von allen Mathematikern als wahr anerkannt wird, obwohl sie eben
nicht beweisbar ist. Gemäss dem Reflexionsprinzip der Logik kann sich der Mensch der
“Bedeutung” von Axiomen oder Ableitungsregeln bewusst werden und daraus Erkenntnisse gewinnen, aus welchen sich wiederum mathematische Aussagen konstruieren lassen, die
auf formalem Wege (über Axiome und Regeln) nicht erreicht werden können. Für Penrose
existiert eine platonische Ideenwelt der Mathematik, welche nur unserem Geist zugänglich
ist: “Jedesmal, wenn man im Geiste eine mathematische Wahrheit betrachtet und sie durch
mathematische Überlegung und Einsicht wahrnimmt, tritt der Geist in Kontakt mit der
Platonischen Welt.” (Seite 154)
Wie es scheint, entziehen sich viele Probleme dem Zugang über die strikte Algorithmik.
Die Lösungen solcher Probleme lassen sich nur auf einer “höheren”, semantischen, geistigen
Stufe finden: “Der Begriff der mathematischen Wahrheit geht über das ganze Konzept
des Formalismus hinaus. An ihr ist etwas Absolutes und ’Gottgegebenes’.” (Seite 109).
Nachdem er die Vorstellung, mathematische Wahrheitsfindung laufe algorithmisch ab, ad
absurdum 6 geführt hat, fasst Penrose zusammen: “Wir stellen mathematische Wahrheit
nicht bloss mit Hilfe eines Algorithmus fest. Ich glaube ausserdem, dass unser Bewusstsein
eine wesentliche Voraussetzung für unser Begreifen von mathematischer Wahrheit ist. Wir
müssen die Wahrheit eines mathematischen Arguments ’einsehen’, um von seiner Gültigkeit
überzeugt zu sein.” (Seite 407)
6
Eine Idee wird ad absurdum geführt, wenn sie so lange logisch weiterentwickelt wird, bis Widersprüche
auftreten.
5
Wenn sich schon die klar definierte und logische Welt der Mathematik den Algorithmen verschliesst, wie viel mehr dann die Prozesse, die beim menschlichen Denken ablaufen!
Gerade dem Bewusstsein und der Intelligenz, die laut Penrose nötig sind um mathematische Wahrheit zu erkennen, müssen starke nicht-algorithmische Prozesse zu Grunde liegen.
Man weiss bis heute immer noch sehr wenig über solche Prozesse. Sicher ist einzig, dass
Computer in ihrer heutigen Form keinerlei Zugang zu solchen Vorgängen haben, weil sie
in ihrer algorithmischen Beschaffenheit gefangen sind.
Neuronale Netze Wenn nun herkömmliche digitale Computer streng algorithmisch
funktionieren, wir Menschen aber auch nicht-algorithmische Leistungen vollbringen können,
muss das Geheimnis der Intelligenz wohl irgendwo im menschlichen Gehirn verborgen sein!?
Die Neuroinformatik analysiert die Funktionsweise des Gehirns und versucht, diese mittels
künstlicher Modelle nachzuahmen.
Die Grundbausteine unseres Gehirns sind Neuronen. Diese Neuronen sind spezielle Nervenzellen, die durch Synapsen miteinander verbunden sind. Ein Neuron empfängt von verschiedenen anderen Neuronen Signale und wenn sein inneres Spannungspotential einen
gewissen Wert übersteigt, feuert es selbst ein Signal (einen sogenannten “Spike”) an seine
Nachbarneuronen. Eine wichtige Eigenschaft ist dabei die Feuerrate, das heisst die Anzahl
der Spikes, welche ein Neuron pro Sekunde generiert. Je höher diese Feuerrate, umso “angeregter” ist ein bestimmtes Neuron. Ein ganzes Netz solcher Neuronen kann nun gewisse
Berechnungen durchführen.
Zu den am besten verstandenen Bereichen im Gehirn gehört der Weg der visuellen
Informationen. Die Kette der Verarbeitung beginnt, wenn Licht auf unsere Retina fällt.
Bereits die Retina wird zum Gehirn gezählt, da sie gewisse Informationen wie Farbe, Kontrast und Hintergrundbeleuchtung abstrahiert. Von der Retina fliesst die Information weiter zu den Ganglionzellen, welche Eigenschaften wie Kanten oder räumliche Frequenz von
Mustern aus den visuellen Daten extrahieren. Erste räumliche Eigenschaften werden in
den sogenannten “einfachen” und “komplexen” Zellen des primären visuellen Kortex (V1)
berechnet. Dafür werden Informationen von beiden Augen zusammengeführt. Die Zellen
im V1 reagieren auch auf die Orientierung und die Bewegungsrichtung von Mustern. Die
nächsten Stufen können illusorische Konturen (V2) sowie zusammenhängede grössere Regionen (V4) verarbeiten, bevor dann auf höheren Stufen optische Bewegungsmuster (MST)
und Geschwindigkeiten von Objekten (MT) wahrgenommen werden. Daraufhin erfolgt eine Übersetzung der gesehenen Objekte in Augen-, Kopf- und Körperkoordinaten und die
Integration von anderen sensorischen Informationen.
So weit so gut. Nur sind alle diese Komponenten der visuellen Informationsverarbeitung
rein algorithmische Funktionen. Zusätzlich sind sie sehr lokal und jeweils auf eine kleine
Teilaufgabe spezialisiert. Es können nirgends im Gehirn Regionen gefunden werden, wo alle
diese Informationen zusammenfliessen und als Ganzes wahrgenommen werden. Trotzdem
erfahren Menschen die sie umgebende Umwelt als eine nahtlose Einheit. Dieses bis anhin
ungelöste Problem ist unter dem Namen “Binding Problem” bekannt. Nach der Synchronizitäts-Hypothese feuern jene Neuronen synchron, welche eine Eigenschaft für dasselbe
6
Objekt kodieren. Diese Hypothese ist jedoch noch jung und stark umstritten.
Alle Simulationen von neuronalen Strukturen im Gehirn, ob sie nun softwaremässig
oder (aus Gründen der Performance) direkt in Hardware mittels aVLSI7 Technologie realisiert werden, beschränken sich auf die Realisierung solcher algorithmischer Kompenenten.
Die gesuchte Intelligenz, beziehungsweise das Bewusstsein, müsste allerdings genau an der
Stelle in Erscheinung treten, wo die Resultate dieser Komponenten zusammengefügt werden.
Ein weiteres Problem der neuronalen Netze besteht darin, dass sie sich prinzipiell beliebig genau mit herkömmlichen Computern simulieren lassen. Daraus folgt, dass neuronale
Netze im Sinne des Rechenmodells nicht mächtiger sind als digitale Computer. Das wiederum bedeutet, dass neuronale Netze keine nicht-algorithmischen Funktionen ausführen
können. Wenn sie das tatsächlich könnten, könnte jede Turingmaschine das auch, indem
sie einfach ein neuronales Netz simulieren würde. Die Performance-Einbusse der SoftwareSimulation ist diesbezüglich vollkommen irrelevant. Ein einfacher intelligenter Gedanke,
welcher zehn Jahre benötigen würde, um von einem Computer gedacht zu werden, wäre
dennoch ein intelligenter Gedanke.
Quantencomputer Im Gegensatz zu den Bits der klassischen Computer, die immer exakt 0 oder 1 darstellen, können die Qubits (quantum bits) der Quantencomputer sämtliche
möglichen Zustände zugleich annehmen. Ein Qubit könnte zum Beispiel ein Elektron in
einem Magnetfeld sein. Dieses Elektron kann nun entweder einen aufwärts oder abwärts
gerichteten Spin haben. Wenn das Elektron richtig angeregt wird, kann es gemäss dem
Superpositionsprinzip der Quantentheorie in einen Zustand übergehen, in dem der Spin
gleichzeitig aufwärts und abwärts gerichtet ist. Wenn man sich nun zehn solcher Qubits
vorstellt, so können diese zusammen 210 = 1024 Zustände zugleich annehmen. Eine Berechnung mit diesen Qubits würde dann auf allen diesen Zuständen zugleich stattfinden.
Das Resultat einer solchen Berechnung ist jedoch probabilistisch und verlangt nach speziell
auf Quantencomputer angepassten Algorithmen.
Der Quantencomputer ist ein Gebiet der intensiven Forschung. Die Meinungen über
die Realisierbarkeit einer solchen Maschine gehen weit auseinander. Optimistische Zungen
sprechen von einem ersten lauffähigen Quantencomputer innerhalb der nächsten 10-20
Jahre. Dagegen steht die Behauptung, dass es nie gelingen wird, eine solche Maschine zu
bauen.
Die enorme Parallelität eines Quantencomputers macht es potentiell möglich, NPschwierige Probleme8 in polynomieller Zeit zu lösen. Das wäre für die Informatik im wahrsten Sinne des Wortes ein Quantensprung. Beispielsweise könnten durch den von Peter Shor
vorgestellten Faktorisierungsalgorithmus für Quantencomputer kryptographische InternetProtokolle wie RSA ausgehebelt werden. Auf der Suche nach künstlicher Intelligenz führt
7
aVLSI: Analog Very Large System Integration: Technik, bei welcher analoge Eigenschaften von an
sich digitalen Schaltelementen (z.B. Transistoren) benutzt werden, um Neuronen-ähnliches Verhalten zu
simulieren.
8
Klasse von Problemen aus der Komplexitätstheorie. P: Probleme mit polynomiellem Zeitaufwand, NP:
Probleme mit nicht-deterministisch polynomiellem Zeitaufwand
7
diese enorme Steigerung an Rechenkraft jedoch nicht weiter, denn nach David Deutsch
kann ein Quantencomputer keine nicht-algorithmischen Probleme lösen, womit er wiederum äquivalent zu einer Turingmaschine wäre.
Die Physik der Zukunft Vielleicht weiss die Wissenschaft einfach noch zuwenig über
die detailierte Funktionsweise des Gehirns. Möglicherweise muss man noch tiefer vordringen, noch kleinere Strukturen analysieren, um auf die gesuchten Intelligenzmuster zu stossen.
Penrose sucht auch in der Quantenmechanik nach Erklärungen für mögliche “geistige”
Gehirnfunktionen. Doch selbst der Quantenzustand eines Systems entwickelt sich gemäss
der Schrödingergleichung vollkommen deterministisch und lässt daher keinen “freien Willen” als Steuerzentrale zu. Der einzige Indeterminismus der Quantentheorie tritt auf, wenn
die Wellenfunktion eines Zustandes aufgrund einer “Beobachtung” in eine probabilistische
Alternative kollabiert. Doch auch dabei geschieht nichts Magisches und Penrose kommt
zum Schluss, dass die Zukunft neue Theorien liefern müsse, damit man dem Phänomen
des Geistes auf die Spur kommen könne: “Wir wissen, dass auf der submikroskopischen
Ebene die Quantengesetze herrschen; aber auf der Ebene von Billardkugeln gilt die klassische Physik. Irgendwo dazwischen, würde ich behaupten, müssen wir das neue Gesetz
begreifen, damit wir sehen, wie die Quantenwelt in die klassische übergeht. Auch denke
ich, dass wir dieses neue Gesetz brauchen, wenn wir überhaupt jemals geistige Phänomene
verstehen wollen!” ([7] Seite 291) In diesem Zusammenhang ist auch ein Ausspruch Albert
Einsteins interessant: “Die Quantenmechanik ist sehr achtung-gebietend. Aber eine innere
Stimme sagt mir, dass das doch nicht der wahre Jakob ist. Die Theorie liefert viel, aber
dem Geheimnis des Alten bringt sie uns kaum näher. Jedenfalls bin ich überzeugt, dass der
nicht würfelt.” (Einstein, 1969)
Das Geist-Gehirn Problem Die starke KI ist eine sehr materialistische These. Nach ihr
beruhen alle geistigen Prozesse einzig auf der Vernetzung von Neuronen. Es gibt in dieser
Weltanschauung keinen Platz für eine Seele oder einen Geist, welcher neben dem Körper
als eigenständige Entität existiert. Es wird mit dem Märchen der “Seele” aufgeräumt, man
braucht keine metaphysische Welt mehr, es lässt sich alles in “Hardware” realisieren. Die
allgemeine Ansicht, dass Menschen ihre Handlungen durch einen “freien Willen” beeinflussen können, wird als trügerisch angesehen. Alles was sie tun ist vorbestimmt.
Entgegen dem “Mainstream” der materialistischen Theorien hat der Hirnforscher und
Nobelpreisträger John C. Eccles seine Theorie des dualistischen Interaktionismus entwickelt
[8]. Dualistisch darum, weil Eccles zusätzlich zur physischen Gesamtheit des Gehirns den
Geist als eigenständige, real existierende, immaterielle Instanz betrachtet: “Je mehr wir in
wissenschaftlicher Hinsicht über das Gehirn entdecken, desto deutlicher können wir zwischen Gehirnereignissen und den mentalen Phänomenen unterscheiden und desto wunderbarer werden die mentalen Phänomene.” ([8] Seite 24). Interaktionismus bedeutet dabei,
dass diese beiden Entitäten - materielles Gehirn und immaterieller Geist - miteinander
kommunizieren. Dieser Geist beinhaltet die Identität und den freien Willen eines Men8
schen. Als Bindeglied zwischen Gehirn und Geist zieht Eccles die Quantentheorie heran:
”Die Hypothese der Wechselwirkung von Geist und Gehirn lautet, dass mentale Ereignisse
über ein quantenmechanisches Wahrscheinlichkeitsfeld die Wahrscheinlichkeit der Emission von Vesikeln aus präsynaptischen Vesikelgittern ändern.” ([8] Seite 114). Weil bei dieser
Interaktion nur Information und keine Energie fliesst, wird der Energieerhaltungssatz der
Physik nicht verletzt. Der Geist benutzt den Körper mitsamt seinem Gehirn nur als Werkzeug, um mit der sichtbaren Welt zu interagieren. Wie im Abschnitt über neuronale Netze
beschrieben, kann das Gehirn dabei sehr wohl eine gewisse Aufbereitung sensorischer Daten
betreiben. Danach werden die Informationen aber dem Geist zugänglich gemacht, welcher
sie bewusst wahrnehmen und interpretieren kann. Unser freier Wille entwickelt daraufhin vielleicht eine mentale Absicht, welche wiederum im Gehirn Wahrscheinlichkeitsfelder
verändert und so Einfluss auf das Feuern bestimmter Neuronen nimmt. Das Feuern dieser Neuronen wird nun in motorische Befehle übersetzt und unser Körper tritt in Aktion.
Der Kreislauf einer intelligenten Reaktion auf eine Stimulation aus der Umwelt ist damit
geschlossen.
Wie ein Puppenspieler alle Fäden seiner Marionette in der Hand hält, so laufen beim
Geist die Resultate aller Hirnregionen zusammen: “Man muss erkennen, dass die vollständigen
visuellen Bilder im Geist erfahren werden, der sie aus der Analyse in der Sehrinde zusammenzusetzen scheint. ([8] Seite 258). Die Lösung des “Binding Problem” ist somit auf
einer geistigen Ebene angesiedelt. Die menschliche Intelligenz und das Bewusstsein sind
in einer transzendenten, unserer Physik bis anhin nicht zugänglichen Dimension zu Hause. Die Funktionsweise des Geistes ist somit nicht an die bekannte Physik oder gar die
Algorithmik gebunden. Mit diesem Bild des Geistes kann das Gehirn sehr wohl ein vollkommen deterministisch und algorithmisch funktionierender neuronaler Computer sein,
denn es ist schliesslich nur das Gefäss eines autonomen, nicht-algorithmischen Geistes. Die
Strukturen der Intelligenz sind damit aber für die materialistische Wissenschaft unauffindbar geworden. Genau wie heutige Computer wäre eine exakte Simulation unseres gesamten
physischen Gehirns ohne seinen Geist kein bisschen bewusst oder intelligent.
Zusammenfassung und christliche Gedanken Die Fähigkeiten von digitalen Computern sind auf die Ausführung von Algorithmen beschränkt. Damit sind sie äquivalent zu
Turingmaschinen. Auch neuronale Netze und Quantencomputer erweitern das Spektrum
der lösbaren Probleme nicht. Leider ist die Klasse der algorithmischen Probleme jedoch
sehr beschränkt, denn es existieren viele nicht-algorithmische Probleme. Vor allem aber ist
für Penrose das menschliche Denken ein erheblich nicht-algorithmischer und indeterministischer Prozess, für den es in der heutigen Physik keine Erklärung gibt. Da nach Eccles der
menschliche Geist unabhängig von den physischen Strukturen des Gehirns existiert, entzieht sich die Funktionsweise der Intelligenz dem Zugriff der materialistischen Wissenschaft
und wird wohl für immer ein Geheimnis bleiben.
In 1. Mose 1,26 sagt die Bibel: “Und Gott sprach: Lasst uns Menschen machen in
unserem Bild, uns ähnlich!”. Gott schuf den Menschen als Krone der Schöpfung, um mit
ihm in Beziehung zu treten. Dafür hat er ihn mit freiem Willen und der Fähigkeit zu lieben
9
ausgestattet. Er gab dem Menschen als einzigem Geschöpf einen Geist. Dieser Geist ist ein
Wesenszug Gottes selbst und macht den Menschen damit Gott ähnlich. Die Fähigkeit des
Verstandes ist laut der Bibel eng an diesen Geist gebunden: “Es ist der Geist im Menschen
und der Atem des Allmächtigen, der verständig macht.” (Hiob 32,8).
Mit seinem Bestreben diesen Geist und auch den menschlichen Körper nachzubauen,
versucht der Mensch sich an Gottes Stelle zu setzen. Von Nietzsche für tot erklärt und
durch die Evolutionstheorie unnötig geworden, wurde Gott abgeschafft: “Sie tauschten
den wahren Gott gegen ein Lügengespinst ein, sie haben die Geschöpfe geehrt und angebetet
anstatt den Schöpfer - gepriesen sei er in Ewigkeit, Amen!” (Römer 1, 25. Das Neue). Der
Mensch ist gerne bereit, in die frei gewordene Stelle zu treten und das Geschick der Welt in
die eigene Hand zu nehmen. Gott sei Dank ist das wunderbare Geheimnis des menschlichen
Geistes vor solchem Trachten verborgen.
Literatur
[1] Twenty Questions, The neural-net on the Internet, http://www.20q.net
[2] Stanislaw Lem: Also sprach GOLEM, suhrkamp taschenbuch 1266, 1986
[3] Alan M. Turing: On computable numbers, with an application to the Entscheidungsproblem, Proc. London Math Soc.
[4] Kurt Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, Monatshefte für Mathematik und Physik 38, 173-198, 1931
[5] On non-computable functions, Bell Sys. Tech. J. 41, 877-884, 1962
[6] Douglas R. Hofstadter: Gödel Escher Bach - Ein Endloses Geflochtenes Band, dtv,
München, 1999
[7] Roger Penrose: Computerdenken, Des Kaisers neue Kleider, Spektrum der Wissenschaft, Heidelberg, 1991
[8] John C. Eccles: Wie das Selbst sein Gehirn steuert, Piper Verlag GmbH, München,
1994
10
Herunterladen