Syntax, Semantik, Bedeutung oder hat Gödel bewiesen, dass es nur übernatürliche Intelligenz gibt? Thomas Letschert FH Giessen–Friedberg Künstliche Intelligenz, der Frankenstein der Informatik HAL: Hör auf Dave, ich habe Angst. ... Dave entfernt weitere Module ... HAL: Hänschen klein, ging allein, ... aus: S. Kubrick, 2001 Odyssee im Weltraum. Das Thema der künstlichen Intelligenz verbindet man mit High–Tech, Computern, Robotern und aktuellen Produktionen der Fabriken Hollywoods, in und mit deren Träumen die globale Realität immer mehr verschwimmt. Diese modernen Sagen sind aber nur die aktuelle Form einer uralten Geschichte, mit der die Menschheit sich schon seit Jahrhunderten unterhält. Einer Geschichte, in der in immer neuen Variationen davon erzählt wird, wie der Mensch Kreaturen erschafft, die ihm selbst ähnlich sind. Die Hybris, die in diesen Vorhaben steckt, verlockt und schreckt. Mit der Erschaffung menschenähnlicher Wesen werden ihre Schöpfer Gott ähnlich. Sie ahnen aber, dass es ihnen an Weisheit fehlt, um mehr zu sein, als vorwitzige Zauberlehrlinge, die später vielleicht vergeblich auf den Meister warten. Wohlig schaurig rieselt es den Rücken herunter, wenn die Kreaturen menschlicher Selbstüberhebung sich an ihren Schöpfern vergreifen. Sie haben es leicht dabei. Die künstlichen Geschöpfe sind ihren natürlichen Erzeugern seltsamerweise stets überlegen. Golem und Frankenstein waren einfach nur stärker als ihre natürlichen Mitgeschöpfe. Die Computer, die man in den 50-ern und 60-ern vorhersah, besaßen schon mehr Intelligenz. Für die Betreiber der Matrix sind die Menschen (fast) nur noch hilflose Fleischklumpen in einer Nährlösung. Die Faszination, die von den Kreaturen als Abbildern des Menschen ausgeht, ist vielleicht noch tiefer, als der Reiz, den der gefährliche Umgang mit zu mächtigem Spiel– und Werkzeug ausübt. 1 2 Die Menschenähnlichkeit der Affen im Zoo lässt uns zwischen Amüsiertheit und Zuneigung schwanken. Unsere künstlichen Wesen sehen wir ernster an. Ihre Menschenähnlichkeit ist von uns geschaffen. Das setzt voraus und impliziert, dass wir wissen und verstehen, was der Mensch im tiefsten Innern eigentlich ist. Mit den künstlichen Wesen, die uns ähnlich sind, halten wir uns einen Spiegel vor und kaum ein Blick fesselt Menschen mehr, als der in einen Spiegel. Mittelalterliche Uhrwerke hauchten Figuren Bewegung, damit Leben und ihren Zuschauern Staunen und Ehrfurcht ein. Das mechanische Zeitalter beschäftigte sich ausgiebig mit den verschiedensten Automaten. Seien es nun Enten mit “natürlicher” Verdauung, oder, wenn auch gefälscht, künstliche Schachspieler. Später erschienen die Menschen sich selbst als Dampfmaschinen, dann als elektrische Maschinen, schließlich als Computer, die man nachbauen kann. Jede Zeit hat ihre Vision von Frankenstein, die, so harmlos skurril sie im Rückblick erscheinen mag, den Zeitgenossen sehr ernst war. Immer ist es die neueste Technik, die das Potential zu bieten scheint, mit dem der letzte Schritt von der Maschine zur Kreatur gegangen werden kann. Hat man sich aber an die Technik und ihre Möglichkeiten gewöhnt, dann sind ihre Fähigkeiten nicht mehr “menschlich” oder “natürlich”. Schach spielenden Computern, die praktisch jeden Großmeister schlagen, begegnet inzwischen die gleiche achselzuckende Verachtung gegenüber dem rein Mechanischen wie sie der hölzerne Tanz der Figuren in mittelalterlichen Uhrwerken schon seit Jahrhunderten erfährt. Der Blick in den Spiegel, den die Technik immer wieder aufs Neue bietet, ist im Fall der Informatik besonders tief ausgefallen. Ihr Frankenstein, die künstliche Intelligenz, bietet besonders reichhaltigen Stoff für scheinbare oder tatsächliche Einsichten in das Wesen des Menschen. Kein Wunder, sind ihre Maschinen doch mit Informationsverarbeitung beschäftigt, einer Tätigkeit, die früher einmal einfach und pauschal “Denken” genannt wurde und lange als feste Bastion im Rückzugsgefecht des Natürlichen und Menschlichen erschien. Das alte, das mythische Thema dessen, was wir heute künstliche Intelligenz nennen, ist die Frage, was ist Tod und was ist Leben, was ist menschlich und was nicht. Autonome Bewegung galt solange als Zeichen alles Lebendigen, bis jeder die plump oder fein tickenden Uhrwerke gesehen hatte, die sie als erste erzeugten. Die Fähigkeit, komplexe arithmetische Operationen ausführen zu können, war ein Zeichen überlegenen menschlichen Intellekts, bis Rechenmaschinen sie durch ihre schiere Existenz als stupide maschinelle Routine entlarvten. Die Frage bleibt die gleiche, auf der Suche nach der Antwort führen uns Wissenschaft und Technik in Landschaften, deren Luft stetig dünner und deren Charakter immer wüstenhafter wird. Landschaften, die sich, nach dem Durchzug der Techniker mit den gedankenschweren Philosophen im Tross, oft in üppig blühende Ebenen verwandeln, in denen sich viele fröhlich einrichten und erstaunlich schnell und problemlos mit bockigen Computern, sympathischen Robotern und überdrehten Handys koexistieren. Die anderen ziehen weiter in neue Steppen der Wissenschaft und Technik und bestaunen die bizarre Schönheit der ariden Gewächse des Geistes, die sie dort vorfinden. 3 Gödels Theoreme und ihre Fans Du kannst deine eigene Sprache in deiner eigenen Sprache beschreiben: aber nicht ganz. Du kannst dein eigenes Gehirn mit deinem eigenen Gehirn erforschen: aber nicht ganz. aus [4] Unter den spröden Schachtelhalmen und Kakteen der Mathematik und theoretischen Informatik hat ein Exemplar besonders fasziniert und dazu verleitet, es als Totempfahl oder Litfaßsäule diverser Ideen zu verwenden. Es ist Gödels Unvollständigkeitstheorem. Aus diesem Theorem leiten die einen ab, dass Menschen nichts als Maschinen sind und die anderen, dass der menschliche Geist jenseits aller algorithmischen Modelle und Methoden steht und damit letztlich etwas Übermechanisches oder gar Übernatürliches ist. Genau genommen hat Gödel um 1930 ein Vollständigkeitstheorem und zwei Unvollständigkeitstheoreme bewiesen. Populär sind die beiden Unvollständigkeitstheoreme und unter ihnen vor allem das zweite. Das erste Unvollständigkeitstheorem sagt In jedem korrekten logischen Formalismus, der mindestens in der Lage ist, die Gesetze der einfachen Arithmetik herzuleiten, sind Aussagen formulierbar, die wahr, aber in eben diesem Formalismus nicht herzuleiten sind. Dieses Theorem lieferte einen wichtigen Beitrag zur mathematischen Logik und ist jedem bekannt, der sich mit dieser Thematik auch nur oberflächlich beschäftigt. Gleichzeitig ist es, zusammen mit dem zweiten Theorem, ein Allzeit–Hit der Pop(ulärwissenschaftlichen) Kultur. Es hat ja auch alles, was zu einem solchen Hit gehört. Da ist zunächst einmal Gödel, der Autor. Sein bizzarer Charakter passt so wundervoll zu einem Logik–Genie. Schon auf Photos ist es zu erkennen und kontrastiert so herrlich zu dem knuffigen Physik–Genie seines Freundes Einstein. Dann die Aussage, in der streng wissenschaftlich mit exaktem Formalismus die Unvollständigkeit, also das Unvollkommene, das Defizitäre, eben all dieser Formalismen nachgewiesen wird. Die kalte Logik windet sich gedemütigt im Staub, nachdem sie erfolglos versuchte sich auf unsere Stufe zu erheben und sich dabei selbst in den Hals biss. Schließlich der Beweis, der mit einer Formel G arbeitet, die als G: Ich bin keine beweisbare Aussage! interpretiert werden kann. Das verdreht den Kopf und ist doch irgendwie intuitiv zu verstehen. Etwas nüchterner wird eine Unvollständigkeit festgestellt, die allen logischen Formalismen eigen ist. Der Begriff “Unvollständigkeit” bezieht sich auf den Beweis– oder Ableitungsmechanismus der in einem logischen Formalismus steckt. Ein solcher Mechanismus ist unfähig, alle wahren Aussagen herzuleiten, sobald er so ausdrucksstark ist, dass in ihm Gesetze der einfachen Arithmetik, mit den Grundrechenarten auf natürlichen Zahlen, formuliert werden können. Wenn er zu mehr als absoluten Trivialitäten taugt, dann ist er schon unvollkommen. 4 Dieses Theorem beeindruckt zunächst durch seinen philosophischen Gehalt, indem es zeigt, dass Wahrheit und Beweisbarkeit in allen nicht-trivialen Fällen nicht identisch sind. Jeder Begriff von Beweisbarkeit ist zwangsläufig unvollständig, wenn man ihn an dem misst, was wahr ist. Zu der beeindruckenden Aussage kommt aber noch ein Beweis, der mit einer Variante des alten Lügner-Paradoxons “Alle Kreter lügen, sagte der Kreter” arbeitet. Mit G ist ein wahrer aber nicht beweisbarer Satz gefunden. Entweder ist G im Formalismus herleitbar, dann ist eine falsche Aussage herleitbar und der Formalismus nicht korrekt, oder G ist nicht herleitbar, dann gibt es eine wahre aber im Formalismus nicht herleitbare Aussage. Der Beweis fasziniert nicht nur durch die Verwendung eines logischen Paradoxons. Erstaunlich ist auch, dass eine solche rückbezügliche Aussage in einem Formalismus ausgedrückt werden kann, der nicht mehr als die Grundrechenarten beherrscht. Gödel verwendet dazu eine Technik, die nach als “Gödelnummerierung” oder “Gödelisierung” bekannt und in das Repertoire der logischen Beweismittel übernommen wurde, und in das der allgemeinen Informatik–Kultur – aber hat die sich nicht schon überall breit gemacht: Frage: Wieviele Glühbirnen braucht man um eine Glühbirne zu wechseln? Antwort: Eine, falls sie ihre Gödelnummer kennt. [5] Das zweite Unvollständigkeitstheorem lässt sich mit Hilfe des ersten beweisen. Es lautet wieder etwas informal ausgedrückt: Mit keinem korrekten logischen Formalismus, der mindestens in der Lage ist, die Gesetze der einfachen Arithmetik herzuleiten, kann die Widerspruchsfreiheit eben dieses Formalismus’ bewiesen werden. Auch dieses Theorem enthält einen Selbstbezug. Diesmal noch expliziter in seiner Behauptung, dass kein korrekter und halbwegs aussagekräftiger Formalismus in der Lage ist, eine sehr wichtige Aussage über sich selbst zu machen, nämlich die, kein kompletter Unsinn zu sein! Widerspruchsfreiheit in einem logischen Kalkül bedeutet nämlich nichts anderes, als dass mit ihm nicht jede sinnige oder auch unsinnige Aussage bewiesen werden kann. Ein logischer Formalismus der nicht widerspruchsfrei ist, ist völlig wertlos. Der “Trick” der Gödelisierung erlaubt, dass bereits innerhalb einfachster Formalismen fundamentale Aussagen über diese Formalismen selbst formuliert können. Die Korrektheit dieser Aussagen aber kann nicht innerhalb des Formalismus bewiesen werden; nicht einmal dann, wenn es sich um die fundamentalste Aussage über den Formalismus handelt: die nicht unsinnig zu sein. Das zweite Theorem schlägt also in die gleiche Kerbe wie das erste, nur noch etwas heftiger. Im ersten wird festgestellt, dass es Wahrheiten gibt die Formalismen nicht erkennen können, im zweiten wird dies verschärft zu der Aussage, dass sie ganz und gar fundamentale Wahrheiten über sich selbst nicht erkennen können. Es muss allerdings betont werden, dass dies keine Aussage über die Beschränktheit aller Formalismen ist. Zwar können in keinem Formalismus fundamentale Aussagen über den Formalismus selbst bewiesen werden. Andere, mächtigere Formalismen sind dazu aber sehr wohl in 5 der Lage. So kann sehr wohl formal bewiesen werden, dass der Formalismus, der die Gesetze der einfachen Arithmetik enthält, widerspruchsfrei ist. Dieser Beweis kann aber nicht mit den “Bordmitteln” des arithmetischen Formalismus geführt werden. Man muss schon aus dem System heraus und auf eine höhere Stufe treten. Auf dieser Stufe gilt dann wieder das Gleiche. Es bedeutet auch nicht, dass ein Formalismus keinerlei Aussagen über sich selbst herleiten kann. Es kann nur nicht alles über ein System innerhalb des Systems hergeleitet werden. Ab einer gewissen Ausdrucksfähigkeit des Systems auch nicht die seiner Konsistenz. Um bestimmte wichtige Aussagen über dieses System herzuleiten, muss man wieder eine Stufe höher in der Ausdrucksmächtigkeit gehen. Fundamentale Aussagen über ein System erfordern also einen Blick von außen und weiter oben. Das ist nicht wirklich überraschend, oder? Unterbrechen wir hier unsere Spekulation über die Gödelschen Theoreme und wenden uns der Frage zu, wie es zu der intensiven Beschäftigung mit logischen Formalismen kam. Die Wiederentdeckung der Logik – Aussagenlogik Die alte Logik legte das Denken in Fesseln, die neue Logik gibt ihm Flügel. Sie hat meiner Meinung nach, denselben Fortschritt in die Philosophie eingeführt, den Galilei in der Physik einführte. B. Russel (nach [6]) Ab dem 18–ten bis ins 19–te Jahrhundert entwickelten sich Mathematik und Naturwissenschaften in rasanter Weise. Dabei wurde eine Fülle neuer Erkenntnisse gewonnen, die sehr erfolgreich, aber gleichzeitig auch oft genug vage und umstritten waren. Selbst in der scheinbar so exakten Mathematik wurden von wenigen Großmeistern wie Euler, den Bernoulis, Fermat, etc. beachtliche Fortschritte erzielt, indem sie in virtuoser Genialität mit irrationalen und imaginären Zahlen rechneten, unendliche Reihen aufaddierten oder mit unendlich kleinen Größen hantierten. Diese obskuren Geschöpfe des menschlichen Geistes waren dabei nicht nur mathematischen Laien wie Musils verwirrtem Zögling Törleß suspekt. Verwundert über Rechnungen mit imaginären Zahlen, die von soliden Zahlen zu soliden Zahlen führen und dabei über etwas gehen, das es nicht gibt, fragt er sich: “Ist das nicht wie eine Brücke, von der nur Anfangs– und Endpfeiler vorhanden sind und die man dennoch so sicher überschreitet, als ob sie ganz dastünde?” [13] Die imaginären Zahlen erinnern ihn an die dunklen geheimnisvollen Kräfte, die unter der ruhig– soliden Oberfläche der Gesellschaft des bürgerlichen Zeitalters lauern. Mit seiner 1903 geschriebenen Novelle hat Musil erstaunliche Hellsicht bewiesen und die Mathematik war dabei nicht nur Symbol. Das zu Bändigende waren zwar nicht die imaginären Zahlen und die Bändigung ist auch nicht so blutig abgelaufen, wie im gesellschaftlichen Bereich, aber ab dem späten 19–ten Jahrhundert es war an der Zeit das Dunkle aufzuhellen. Speziell der Begriff des Unendlichen war klärungsbedürftig. Schon die Infinitesimalrechnung, ein essenzielles Hilfsmittel der modernen Naturwissenschaften, beruhte auf vagen ungeklärten 6 unendlichen Summen unendlich kleiner Werte. Geniale Mathematiker konnten mit solchen Dingen intuitiv korrekt umgehen. Aber der Kreis der Tätigen hatte sich dramatisch erweitert. Jetzt waren sich lawinenartig vermehrende Heerscharen von Lehrern, Ingenieuren und Technikern am wissenschaftlichen Prozess beteiligt. Eine Systematisierung und Grundlegung der Mathematik war unumgänglich – aber so wenig einfach oder klar, dass man eine Grundlagenkrise der Mathematik diagnostizieren musste. In dieser Krise ging es um das Wesen mathematischer Erkenntnis, um die Frage, was erkennbar ist und unter welchen Voraussetzungen mathematische Erkenntnisse und Schlussfolgerungen als “wirklich wahr” anzuerkennen seien. Das Fundament der Mathematik am Ende des 19–ten Jahrhundert enthielt zu viele unsichere Wände. Da war eine problematische Mengenlehre, aber auch schon der elementare Begriff des korrekten Schlussfolgerns erwies als erstaunlich untrivial und als unsicherer Bestandteil des mathematischen Fundaments. Wie kommt man von gegebenen Aussagen zweifelsfrei zu daraus abgeleiteten neuen Aussagen. Auch wenn man nicht so weit gehen will, Schlussfolgern generell mit dem Denken zu identifizieren, so spielt es doch im Denkprozess sicher eine wichtige Rolle. Tagtäglich folgern wir aus vorliegenden Informationen abgeleitete Fakten. Ein typisches Beispiel ist etwa: Ich habe die Garagentür und ein Motorengeräusch gehört, also ist unser Auto weg und ich muss wohl mit dem Bus fahren. Wir sind dabei intuitiv zu respektablen Leistungen fähig, aber gelegentlich werden auch Fehler gemacht. Im Alltagsleben werden solche Irrtümer im Allgemeinen schnell aufgedeckt und meist sind sie auch harmlos. Wissenschaftliche Erkenntnisse und die auf ihnen basierenden technischen Konstrukte brauchen aber eine sicherere Basis als die Intuition. Mathematische Gesetze werden in einer formalen Sprache formuliert und man beweist Aussagen, indem man von einer Grundmenge an vorgegebenen Axiomen ausgehend mit anerkannten Regeln des Schlussfolgerns zu neuen Aussagen kommt. Hierbei sind drei prinzipielle Fragen zu klären: • In welchem Formalismus, welcher “Sprache”, werden Axiome, Aussagen und Regeln des Schlussfolgerns formuliert. • Wann ist eine Aussage wahr. • Welche Regeln des Schlussfolgerns führen von wahren zu wahren Aussagen. Nicht, dass Mathematiker solche trockenen Formelspiele betreiben würden, aber im Prinzip sollte jedes Argument auf eine sichere und zweifelsfrei prüfbare formale Basis gestellt werden können. Alle strittigen mathematischen Begriffsbildungen, Schlussfolgerungen und Berechnungen wären damit objektiv bewertbar. Die Frage des korrekten Schlussfolgerns ist Thema der Logik. Aristoteles begann mit deren systematischem Studium und formulierte seine Syllogismen als die Regeln, auf die sich alle gültigen Schlussfolgerungen seiner Meinung nach reduzieren lassen. Im gesamten Mittelalter wurde die aristotelische Logik eifrig studiert. Dabei ging es zwar nicht um eine Fundierung 7 der Mathematik oder der auf ihr aufbauenden Naturwissenschaften, sondern um die Rhetorik theologischer Debatten. Die Fortschritte dieses ausdehnten Studiums waren auch so gering, dass der Logiker mit seinen Syllogismen zur Witzfigur des blutleeren Dogmatikers geriet, der seine Umwelt mit aufgeblasenen Nichtigkeiten und Unsinn langweilt. Logiker: [...] Alle Katzen sind sterblich. Sokrates ist gestorben. Also ist Sokrates eine Katze. Älterer Herr: Und hat vier Pfoten. Richtig, ich habe eine Katze die heißt Sokrates. Logiker: Sehen Sie ... Älterer Herr: Sokrates war also eine Katze! Logiker: Die Logik hat es uns eben bewiesen. aus [10] Nicht dass hier ein gültiger Syllogismus dargelegt würde, aber der Ruf der Logik war in der Neuzeit soweit dahin, dass sie für viele nur noch gut für solche Scherze war. Eine gute Logik wurde aber dringend gebraucht. In der Grundlagenkrise der Mathematik zeigte sich, dass die Frage, welche Schlussfolgerungen zulässig sind und welche nicht, nicht einfach intuitiv entschieden werden kann. Und da die Mathematik die Grundlage aller modernen Naturwissenschaft und Technik ist, haben Fragen ihrer Grundlage fundamentale Bedeutung. Die Hauptprobleme der aristotelischen Logik sind die mangelnde Ausdruckskraft und der informale Charakter ihrer Sprache. Nicht einmal einfachste Sachverhalte der Geometrie und Arithmetik können in ihr formuliert werden. Um zu einem aussagekräftigeren Kalkül zu kommen, über dessen Regeln und Ergebnisse exakte Aussagen gemacht werden können, war es dringend notwendig, ihre Sprache zu formalisieren und und ihre Ausdruckskraft zu steigern. Nur durch eine Formalisierung kann die Logik vom Subjekt zum gleichzeitigen Objekt des Denkens werden. Nur durch eine Steigerung der Ausdrucksfähigkeit der Formalismen sind relevante Aussagen möglich. Den ersten Schritt nach einem Jahrtausende langen Dämmerschlaf der Logik ging G. Boole mit seiner Mathematical Analysis of Logic von 1847, mit der er die Aussagenlogik in der heute bekannten Form einführte. Die atomaren Elemente der Aussagenlogik sind Aussagen, also Behauptungen, die entweder wahr oder falsch sein können. Aussagen können mit Hilfe von Verneinung und Verknüpfungen wie und, oder zu neuen Aussagen zusammengefügt werden, deren Wahrheitswert sich im Kalkül der Aussagenlogik aus dem seiner Bestandteile herleiten lässt. Die Aussagenlogik lehrt etwa, dass A oder B wahr ist, wenn die Aussage A, oder die Aussage B, oder beide wahr sind. Und das ist völlig unabhängig davon, was A und B nun konkret bedeuten. So beschäftigt sich die Aussagenlogik bei der zusammengesetzten Aussage Der Mond ist aus günem Käse (A), oder nachts sind alle Katzen grau (B). weder mit dem Mond noch mit Katzen, sondern nur damit, wie Gesamtaussage von ihren Teilaussagen abhängt, was immer sie sie nun genau bedeuten. Das mag jetzt nicht besonders beeindruckend klingen, aber das Prinzip kann auf beliebig komplexe Konstruktionen ausgedehnt werden und schon bei der Feststellung, dass Wenn A dann B genau dann wahr ist, wenn A falsch oder A und B wahr sind, muss man schon ein wenig mitdenken. 8 Der Zweck des Formalismus besteht nun genau darin, das Mitdenken soweit wie möglich zu eliminieren, um auf bequeme und sichere Art “automatisch” zu richtigen Ergebnissen zu kommen. Man unterscheidet dabei die, Axiome genannten Grundannahmen, und die Schlussregeln. Die Axiome werden als gegeben angenommen und durch Anwendung der Schlussregeln kommt man zu neuen gültigen Aussagen. Das Schließen erfolgt dabei rein mechanisch, ohne jede Beachtung des Inhalts der Aussagen. Ein Beispiel für eine Schlussregel ist1 A`A∨B Mit ihr soll ausgedrückt werden, dass aus der Wahrheit einer beliebigen Aussage A die Wahrheit von A oder B (∨ = oder) geschlussfolgert werden kann. Das Zeichen ` steht für folgt (syntaktisch) und ∨ ist eine Kurzform von oder. Ein anderes Beispiel ist: A, B ` A ∧ B Wenn A und B wahr sind, dann ist auch die Aussage A und B wahr (∧ = und). Manche Folgerungen sind Tautologien, sie sind ohne Voraussetzungen gültig, z.B.: ` A ∨ ¬A D.h. A oder nicht A ist immer wahr (¬ = nicht). Eine etwas kompliziertere Regel war schon den Scholastikern unter dem Namen Modus Ponens bekannt: A, A → B ` B Wenn A wahr ist und aus der Wahrheit von A die von B folgt (→ = folgt), dann kann man schlussfolgern dass B wahr ist. Die Schlussregeln sollten von ewiger unverrückbarer Wahrheit sein – logisch eben. Die Axiome dagegen stellen unser aktuelles Wissen über die Welt dar. Angenommen die moderne Raumfahrt hätte herausgefunden, dass der Mars aus alten Schokoriegeln besteht, und die theoretische Biologie postulierte, dass in alten Schokoriegeln neues Leben entsteht, dann wäre sicher, dass der Mars von lebenden Wesen bewohnt ist. Die Schlussregeln definieren einen Kalkül der von wahren zu wahren Aussagen führt. Ein Kalkül kann als Maschine betrachtet werden, die wahlweise dazu benutzt werden kann, um die Gültigkeit einer Aussage zu bestätigen, oder auch um alle Wahrheiten zu generieren. Prädikatenlogik Die Ausdruckskraft des Kalküls der Aussagenlogik ist zwar beschränkt, aber mit ihr war Mitte des 19–ten Jahrhunderts eine Basis für eine wiederbelebte moderne Logik geschaffen. Die Weiterentwicklung der Notation und die Formulierung des weiteren Prädikatenkalküls hat ab Mitte des 19–ten bis zum Beginn des 20–sten Jahrhunderts noch viele Jahre der Logik–Forschung in Anspruch genommen. Eine wirklich nützliche Logik kann sich nicht mit Aussagen als atomaren Einheiten begnügen. 1 Im Sinne der Lesbarkeit und Kürze haben wir auf exakte Definitionen und eine strenge Unterscheidung der Begriffe verzichtet. 9 Sie muss auch deren innere Struktur betrachten können. Für die Aussagenlogik sind Sätze wie Alle Zahlen sind Primzahlen oder Der Mars ist unbewohnt einfach nur entweder wahr oder falsch. Sie kann nicht erkennen und unterscheiden, dass hier jeweils allen Elementen einer Menge bzw. einem bestimmten Element eine Eigenschaft, ein Prädikat zugeschrieben wird. In der Sprache der Aussagenlogik können nur vorgegebene elementare Aussagen zu neuen Aussagen kombiniert werden. Die Prädikatenlogik erlaubt es dagegen, elementare Aussagen aus Prädikaten (Eigenschaften und verallgemeinert Funktionen) zu konstruieren. Wenn P ein beliebiges Prädikat darstellt, z.B. P(x) = x ist eine Primzahl, dann ist P (x) eine prädkatenlogische Aussage. Dazu kommt noch die Möglichkeit der Quantifizierung, also die Möglichkeit, Aussagen über alle oder ein bestimmtes Element machen zu können. Beispielsweise bedeutet ∀x∃y : P (x, y) dass es für alle x (im Zeichen ∀x) ein y gibt (∃y), derart, dass P (x, y) wahr ist. Falls P das Prädikat “größer” ist kann man so sagen, dass es für Elemente ein Element gibt, das größer ist. Auf diese Art können aus Variablen, Namen für Elemente und Prädikaten Aussagen zusammengestellt werden. Dazu kommen dann noch die Mittel der Aussagenlogik, z.B.: ∀x∃y : (y > x) ∨ (y > x) Die Sprache der Prädikatenlogik ist also eine Erweiterung der Sprache der Aussagenlogik. Entsprechendes gilt für ihre Schlussregeln. Sie sind reichhaltiger als die der Aussagenlogik. Ein Beispiel für einen gültigen Schluss ist: ∀x : P (x) → Q(x), P (a) ` Q(a) Mit P (x) als x ist eine Katze, Q(x) als x hat 4 Pfoten und a ist Sokrates können ihn als klassischen – und diesmal korrekten – Syllogismus konkretisieren: Alle Katzen haben vier Pfoten, Sokrates ist eine Katze; also hat Sokrates vier Pfoten. Euklid und die beste aller Welten Mais Dieu a choisi celuy qui est le plus parfait, c’est-à-dire celuy qui est en même temps le plus simple en hypotheses et le plus riche en phenomenes, ... Leibniz in [11] Mathematiker räsonieren selten über die Zahl der Pfoten von Sokrates, sie haben Probleme in anderen Welten. Seit gut 2000 Jahren beschäftigen sie sich beispielsweise mit einfachen geometrischen Figuren: Kreisen, Dreiecken und so weiter. So formulierte Euklid schon ca. 300 v.C. in seinem Buch der Elemente alles Wesentliche über die Geometrie der Ebene. Das Werk ist Langzeit–Bestseller der Weltliteratur und vorbildlich für die Mathematik. Ein kleiner Satz 10 von Axiomen beschreibt unmittelbar einleuchtend die grundlegenden Fakten über geometrische Figuren: 1. Zwei Punkte legen eine Gerade fest. 2. Eine Gerade hat keinen Endpunkt. 3. Jedes Segment einer Geraden definiert eindeutig einen Kreis mit diesem Segment als Radius. 4. Alle rechten Winkel sind gleich. 5. Durch einen Punkt geht genau eine Gerade, die eine vorgegebene andere Gerade nicht schneidet. (Parallelenaxion: Jede Gerade hat genau eine durch einen Punkt gehende Parallele.) Aus diesen Axiomen leitete Euklid eine Vielzahl geometrischer Aussagen ab, nicht formal, sondern in natürlicher Sprache. Das war das Vorbild der mathematischen Arbeit. Wenn die Regeln des Schlussfolgerns korrekt sind, so können alle (mathematischen) Wahrheiten erkannt werden. Axiome, die offensichtlich mit der Wirklichkeit übereinstimmen, und korrekte überprüfbare Schlussregeln (ein Kalkül) liefern alle und nur die wahren Fakten einer mathematischen Welt. Die “geometrische Methode” war beständiges und weitgehend unerreichtes Vorbild für den Rest der Mathematik. Die, je weiter sie sich im 17–ten und 18–ten Jahrhundert entwickelte, sich um so weiter von ihr entfernte. Es war aber nicht nur die damals neue Infinitesimalrechnung, auf die “Geometer” nur mit leichter Verachtung sehen konnten, bereits die simple Arithmetik war ohne axiomatische Grundlage und wurde damit nicht wirklich als seriöse mathematische Wissenschaft angesehen. Aber auch das hehre Vorbild musste sich Zweifel und kritische Mäkeleien gefallen lassen. Ein Axiomensystem sollte gewissen ästhetischen Ansprüchen genügen und nicht aus einem Sammelsurium zufällig zusammengetragener Fakten bestehen: • Widerspruchsfreiheit (Konsistenz): Kein Axiom widerspricht einem anderen. • Unabhängigkeit: Kein Axion ist aus einem anderen ableitbar. • Vollständigkeit: Aus den Axiomen sollten alle Fakten ableitbar sein. Wären Euklids Axiome nicht in jedem dieser Punkte vorbildlich, so hätten sich die Mathematiker nicht über so viele Generationen damit beschäftigt. Aber waren sie perfekt? Das fünfte Axiom, das Parallelenaxiom, kam bereits den Schülern Euklids verdächtig vor. Im Vergleich zu den anderen Axiomen ist es auffällig komplex und stört damit das Gesamtbild. Vielleicht war Euklid einfach nicht in der Lage zu zeigen, dass es aus den anderen Axiomen abgeleitet werden kann. In der Folge haben Generationen von Mathematikern vergeblich versucht zu zeigen, dass sie besser als Euklid sind, indem sie es beweisen, d.h. aus den anderen Axiomen ableiten. – Natürlich waren sie nicht besser, alle diese Beweise waren falsch. 11 Bei den Versuchen, den Status des Parallelenaxioms zum Rest der Axiome zu klären, fanden Mitte des 19–ten Jahrhunderts mehrere Forscher unabhängig voneinander heraus, dass es tatsächlich von den anderen Axiomen unabhängig war. Man kann eine konsistente Geometrie betreiben, ohne das umstrittene Axiom zu verwenden. Man kann sogar sein Gegenteil annehmen, sowohl in der Form, dass es zu jeder Geraden mehrere Parallelen gibt, als auch in der, dass es keine Parallele gibt. Beides führt zu keinerlei Widerspruch. Natürlich hat in der Geometrie der Ebenen in der wirklichen Welt jede Gerade eine Parallele, die Geometrie, in der dies nicht der Fall ist, muss eine andere sein, eine astrale Geometrie2 . Das Parallenaxiom stellte sich nicht nur als unabhängig von den anderen heraus, es war in einer ganz überraschenden Weise unabhängig. Man hatte erwartet, dass es entweder aus den anderen ableitbar ist, oder dass die anderen allein zu schwach sind, um eine sinnvolle Geometrie zu definieren. Statt dessen zeigte sich, dass die ersten vier Axiome ein nahezu3 vollständiges geometrisches System definierten. Nimmt man das Parallelenaxiom hinzu, dann wird aus ihm eine Beschreibung der Geometrie unserer Anschauung, nimmt man eine beliebige andere Variante dieses Axioms hinzu, dann wird daraus die Beschreibung uns fremder Welten. Deren Fremdheit wird zwar ein wenig dadurch gemildert, dass sie teilweise noch der Vorstellung zugänglich sind, so kann die “Ebene” als Kugeloberfläche und die Gerade als Großkreis interpretiert werden, in einer Welt in der es keine Parallelen gibt. Wenn, wie Leibniz meint, Gott die beste aller Welten als die gewählt hat, in der die größte Vielzahl an Phänomenen aus den einfachsten Hypothesen folgt, dann leben wir offensichtlich nicht in der besten aller Welten, sondern in einer von vielen Welten. Eine die eine gewichtige und recht unelegante Hypothese braucht, um das Phänomen von genau einer Parallelen pro Punkt und Gerade zu erzeugen. – So viel an Axiom–Text für so wenig an Phänomenen. Es war an der Zeit genauer darüber nachzudenken, was mathematische Theorien eigentlich bedeuten und in welcher Beziehung sie zu den “wirklichen” Wahrheiten stehen. Hilbert und sein Programm Wir müssen wissen, wir werden wissen. David Hilbert, nach [3] Die Geometrie Euklids war das Vorbild bei der Entwicklung einer sauber fundierten Mathematik. Wenn die Axiome erst einmal in zufriedenstellender Weise formal exakt definiert sein sollten und der allgemeine logische Kalkül endlich einmal festliegt, dann kann sie als geklärt und abgeschlossen betrachtet werden – und andere, schwierigere mathematische Theorien können folgen. Da gab es genug zu tun. Beispielsweise waren die reellen Zahlen, mehr intuitiv als mathematisch exakt gefasst, aber schon die simplen natürlichen Zahlen harrten einer axiomatischen– 2 F.K. Schweikart in einem Brief an Gaus, zitiert nach[8], Seite 92 Die Axiome Euklids sind nicht vollständig. Es gibt geometrische Fakten, die sich nicht aus ihnen ableiten lassen. Hilbert hat allerdings ein im wesentlichen äquivalentes vollständiges und formales Axiomensystem angegeben. 3 12 deduktiven Behandlung. Dazu kam dann noch die Mengenlehre, die sich als fundamentaler Grundbaustein der Mathematik erwies. Der Kampf um die Grundlagen der Mathematik wurde also Mitte bis Ende des 19–ten Jahrhunderts an folgenden Fronten geführt: • Logik: wie lassen sich wahre aus wahren Aussagen korrekt und vollständig schlussfolgern; in welcher Sprache und Notation lassen die Fakten sich ausdrücken? • Grundlegende Mathematische Theorien, wie etwa: – Geometrie: Welchen Status haben die Euklidschen Axiome, was ist mit dem Parallelenaxiom? – Zahlen: Wie sieht eine axiomatische Fundierung der natürlichen und der reellen Zahlen aus? – Mengenlehre: Welchen Beitrag liefert die Mengenlehre zu einer Fundierung der Mathematik und wie kann sie selbst formal exakt nach der axiomatischen Methode definiert werden. Es war Zeit im üppig zugewucherten Garten der Mathematik geordnete Pfade und Rabatte anzulegen. Das Ziel war klar und der Weg dahin auch. Die gesamte Mathematik sollte auf Axiome und ein Kalkül begründet werden. • Ein formales Axiomensystem beschreibt die mathematischen Grundfakten. • Ein Kalkül (Deduktionsregeln) formalisiert die Logik und erlaubt es – jede korrekte mathematische Aussage herzuleiten (Aufzählbarkeit aller Wahrheiten), sowie – zu jeder mathematischen Aussage angeben zu können, ob sie wahr ist oder nicht (Entscheidbarkeit). • Der Kalkül sollte natürlich konsistent sein und nur wahre Aussagen herleitbar machen (Korrektheit) und • er sollte alle wahren Aussagen herleiten können (Vollständigkeit). Der Plan war ehrgeizig, aber sinnvoll und hatte gute Aussichten zu gelingen. David Hilbert formulierte ihn im Jahre 1900 noch einmal explizit in einem Vortrag vor dem internationalen Mathematikerkongress in Paris, damit war er zu Hilberts Programm geworden. Hilbert war berufen ihn zu verkünden und ergdies tat auf der Basis wesentlicher Fortschritte in der mathematischen Grundlagenforschung. Zunächst war es ihm selbst, in seinen Grundlagen der Geometrie, gelungen die Euklidsche Geometrie mit einem formalen, konsistenten und vollständigen Axiomensystem auszustatten. Damit hat er den Maßstab gesetzt – den Maßstab des Formalen. Man muss jederzeit an Stelle von “Punkten”, “Geraden”, “Ebenen”, auch “Tische”, “Stühle”, “Bierseidel” sagen können. 13 empfahl er4 um Missverständnisse auszuschließen, die durch intuitive und alltägliche Interpretation der Begriffe entstehen können. In drastischer Weise brachte er damit den formalistischen Standpunkt zum Ausdruck: Die Bedeutung mathematischer Begriffe ist nicht relevant, es kommt nur auf ihre Beziehungen zueinander an und die werden durch Axiome und logische Kalküle bestimmt. Er und die anderen Formalisten waren sicher nicht der Meinung, dass mathematische Begriffe keine Bedeutung hätten. Nur war diese für sie kein Thema der Mathematik, sondern bestenfalls philosophische Spekulation. Der formalistische Standpunkt hatte um die Jahrhundertwende einige Argumente für sich. Mit Boole und seiner Aussagenlogik hatte die Entwicklung einer modernen mathematischen Sprache der Logik gut begonnen. Forscher wie Peirce und Frege entwickelten danach den Kalkül der Prädikatenlogik.Innerhalb weniger Jahre hatte die Logik damit mehr Fortschritte gemacht, als in Jahrtausenden zuvor. Peano hatte eine Axiomatisierung der natürlichen Zahlen gefunden, Cantor den Grundstein einer Mengenlehre gelegt, ... Antinomien und die Grundlagenkrise Diesen Hinweis bitte nicht beachten! Um die Jahrhundertwende traten dann plötzlich die sogenannten Antinomien oder Paradoxien auf. Es zeigte sich, dass bei einem naiven Gebrauch der formalen Sprache widersprüchliche Aussagen möglich sind. Cantor selbst entdeckte die Problematik seiner Allmenge X = {x | x ist eine M enge} (enthält X sich selbst als Element?) Er berichtete Hilbert, dem damaligen Papst der Mathematik, schon vor 1900 darüber. Cantor und wohl auch Hilbert nahmen das nicht sonderlich ernst. Sie erwarteten, dass es sich um ein lösbares Problem handelte. Die Alarmglocken schrillten erst, als der sprach– und publikationsgewaltige Russel 1902 eine griffigere Form solcher Antinomien publizierte und mit ihnen die Grundfesten der Logik und Mathematik erschüttert sah. Am bekanntesten ist B. Russels “Menge aller Mengen, die sich nicht selbst als Element enthalten.”: {X|X 6∈ X} (Russels Antinomie) Die Frage, ob diese Menge sich selbst als Element enthält führt unweigerlich zu einem Widerspruch: X ∈ X ⇔ X 6∈ X Wenn X sich selbst nicht enthält, dann muss sie sich, per Definition enthalten. Wenn sie sich nicht enthält, dann muss sie sich, wieder per Definition, enthalten. Die Definition von X ist eine Variante des klassischen Barbierparadoxons: 4 zitiert nach [7], Seite 26 14 Im alten Theben (manchmal auch Sevilla) gab es einen Barbier der alle rasiert, die sich nicht selbst rasieren. Rasiert er sich selbst, dann rasiert er sich nicht selbst. Rasisert er sich nicht selbst, dann muss er sich selbst rasieren. Die alten Griechen grübelten über dem Lügnerparadoxon Alle Kreter lügen, sagte der Kreter. Mit solchen Spielereien kann man ganze Bücher füllen ([9]). Für Oscar Wild waren sie nur Wahrheiten, die einen Kopfstand machen, um mehr Aufmerksamkeit zu erregen5 und man ist durchaus versucht sie als Kindereien abzutun, die keinen Bezug zu einer ernsthaften Wissenschaft haben. Aber andererseits: können Formalismen, in denen solche widersprüchlichen Aussagen möglich sind, die Basis der Mathematik und damit aller Naturwissenschaften bilden? Das Problem musste unbedingt gelöst werden. In ihrem monumentalen Werk Principia Mathematica (3 Bände 1910 – 1913) konnte Russel dann zusammen mit A. Whitehead zeigen, wie mit Hilfe von Typen zulässige von unzulässigen Aussagen getrennt und wie, auf Basis der zulässigen, ein Logikkalkül entwickelt werden kann, indem die Gesetze der Arithmetik formuliert werden können. Statt der Typtheorie Russels und Whiteheads verwendet man heute die axiomatische Mengenlehre nach Zermelo und Fraenkel, doch das ist nicht weiter relevant, da beide äquivalent sind. In der Typtheorie unterscheidet man Typen und verbietet deren Vermischung in mathematischen Aussagen. So gehören beispielsweise Objekte, Mengen von Objekten und Mengen von Mengen von Objekten zu unterschiedlichen Typen. Auch Relationen und Funktionen sind von anderem Typ, als die Objekte auf denen sie operieren. Im Russelschen Paradoxon werden die Typen vermischt, es ist damit nicht zulässig. Das ist das Prinzip der Typisierung, wie man es bei modernen Programmiersprachen wie C++, Java findet. Auch dort kann man an einen Parameter kein Argument vom falschen Typ übergeben. Der Test x 6∈ x in {X|X 6∈ X} kann beispielsweise als Aufruf not enthaelt(x,x) einer Funktion bool enthaelt (Element e, Menge m) { .... } angesehen werden. Ein solcher Aufruf ist immer ein Typfehler, da die beiden Argumente von enthaelt unterschiedliche Typen haben müssen und darum niemals die Gleichen sein können. Die Typtheorie legt nahe, zwischen Objekten sowie Relationen und Funktionen auf diesen Objekten zu unterscheiden. In der Stufeneinteilung der Prädikatenlogik wird diesem Unterschied Beachtung geschenkt. In der ersten Stufe sind nur solche Aussagen erlaubt, in denen Quantifizierungen sich ausschließlich auf Elemente beziehen. Quantifizierungen über Relationen oder Funktionen sind nicht erlaubt. In der Prädikatenlogik erster Stufe ist es also beispielsweise erlaubt zu sagen “Jedes x mit der Eigenschaft P hat auch die Eigenschaft Q.”, aber es ist nicht erlaubt zu sagen “Für jede Eigenschaft P gilt, x hat die Eigenschaft P oder es hat sie nicht.” 5 nach [9] 15 Kronecker und die bescheidene Rolle Gottes in der Mathematik Die natürlichen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk. Leopold Kronecker Die Antinomien bzw. Paradoxien waren zwar die publikumswirksamsten Querelen der Grundlagenkrise, aber es waren nicht die einzigen. Einer prominenten Schule von Mathematikern passte die gesamte Richtung nicht, die die moderne Mathematik nahm, sie misstrauten dabei grundsätzlich vielen Ergebnissen und hielten sie für nicht korrekt und vertrauenswürdig hergeleitet. Speziell die Mengenlehre Cantors zog die Abscheu Kroneckers und anderer Vertreter dieser Schule auf sich und das brachte den tief verletzten Cantor dazu, sich aus der mathematischen Gemeinschaft zurück zu ziehen. Diese Reaktion war sicher übertrieben und ein Verlust für die Mathematik, aber um Cantors psychische Gesundheit war es auch nicht besonders gut bestellt. Ob dies Ursache oder Folge seiner Profession war sei, genau wie bei Gödel, dahingestellt. Kroneckers Ausspruch über die natürlichen Zahlen, die – als einzige (!) – von Gott gemacht wurden, ist Bestandteil des universellen Zitatenschatzes. Er wollte damit nicht etwa ausdrücken, dass die natürlichen Zahlen etwas besonders verehrungswürdiges sind. Die Betonung liegt auf dem anderen und dem Menschenwerk. Es ist ein Leitspruch der Konstruktivsten, die das Konstruierte der mathematischen Dinge betonten. Alle mathematischen Objekte sind konstruiert und nur das explizit Konstruierte ist als “richtiges” mathematisches Objekt zu akzeptieren. Von dieser Regel kann man bestenfalls die natürlichen Zahlen ausnehmen, die “irgendwie” schon da sind – vielleicht durch Gottes Wille. Den Unwillen der Konstruktivsten an der modernen, in ihrer Sicht zu spirituellen Mathematik kann man leicht an dem berühmten Auswahlaxiom darlegen. In diesem Axiom wird behauptet, dass es zu jedem System nicht-leerer Mengen eine Funktion f gibt, die aus jeder dieser Mengen ein Element auswählt. Das Auswahlaxiom kann in mathematischen Beweisen häufig eingesetzt werden und klingt auch sehr überzeugend: Warum sollte man nicht innerhalb einer Kollektion von nicht–leeren Mengen, jeder dieser Mengen ein Element auswählen können? Was Kronecker und die anderen Konstruktivsten daran stört ist, dass hier nur die reine Existenz von etwas behauptet wird, aber nicht angegeben wird, wie es denn im Zweifelsfall zu konstruieren wäre. Bei endlichen Mengen ist die Konstruktion kein Problem. Man gibt aus jeder Menge einfach ein Element an. Bei unendlichen Mengen von unendlichen Mengen kann aber mit dem Auswahlaxiom die Existenz von abenteuerlichen Gebilden erschlossen werden, von denen niemand weiß, wie sie zu konstruieren wären und die darum durchaus mit Recht ein gewisses Misstrauen auf sich ziehen. In der sogenannten Grundlagenkrise der Mathematik haben wir es also mit einer Gemengelage zu tun • aus mächtigen und produktiven neuen mathematischen Ergebnissen, die auf ungeklärten Prinzipien basieren, • vermischt mit großen Fortschritten in den “Grundlagenfächern” Logik und Mengenlehre, 16 • die sich aber überraschend als durchaus problematisch herausstellten • und einer prinzipiellen Diskussion zwischen diversen Varianten an Formalisten und Konstruktivisten darüber, was das Wesen der Mathematik ist und wie man schlüssig argumentieren kann. Syntax, Semantik und Bedeutung in der Welt der Logik Die Bedeutung eines Wortes ist das, was die Erklärung der Bedeutung erklärt. L. Wittgenstein, Philosophische Untersuchungen Der Charakterisierung von Hilbert und anderen als “Formalisten” haftet etwas Negatives an, das relativiert werden muss. Sie waren weder der Meinung, dass es keine wirklichen mathematischen Objekte gibt, noch empfahlen sie, dass die Mathematiker aller Intuition entsagen, und nur noch öde Spiele mit drögen Formeln spielen sollten. Sie waren aber der Meinung, dass Spekulieren über die Existenz oder Nicht–Existenz für Mathematiker nur nach Feierabend und sonntags nach der Frühmesse erlaubt ist. Ebenso sollten intuitive Argumente zwar weiterhin wie üblich verwendet werden, aber im Zweifelsfall sollte jeder Beweis akribisch in einem logischen Kalkül nachvollziehbar sein. Hilbert vertrat dabei durchaus eine respektable Meinung. Die Rolle der Kalküle würde man heute einem Computerprogramm zuweisen. Dieses Programm – einmal als korrekt bewiesen – könnte dann bei der Eingabe eines Beweises akribisch entscheiden, ob der Beweis korrekt ist. Weiter könnte es in einer endlosen Folge alle nur möglichen korrekten Beweise und damit alle nur möglichen korrekten Behauptungen produzieren. Oder, es könnte auch, durch systematischen Vergleich mit dieser Liste von Wahrheiten herausfinden, ob eine vorgelegte Behauptung korrekt ist. Das ist das Entscheidungsproblem, das – lange unter diesem (deutschen) Namen – einen wesentlichen Einfluss auf Turing und andere Pioniere der Informatik hatte. Das Ziel war also die automatische Kontrolle der Wahrheit mathematischer oder auch beliebiger anderer formalisierbarer Aussagen. – Ein Projekt der Logik und der Mathematik, aber auch eins der Informatik. Das Problem war nicht nur die Ungeheuerlichkeit des Plans – es musste ja das gesamte mathematische Wissen in ein Axiomensystem gepresst werden. Die Formalisten hatten auch ein mentales Problem. Sie wollten ein System zur Prüfung und Erzeugung von Wahrheiten, aber sie scheuten sich wie der Teufel vor dem Weihwasser davor, so etwas wie den Begriff “Wahrheit” ernsthaft zu untersuchen. Erst als die Hemmschwelle überwunden und eine saubere Definition der Semantik in Angriff genommen war, konnten die nächsten substanziellen Fortschritte erzielt werden. Werfen wir also einen etwas genaueren Blick darauf, was die Logiker mit korrekt und vollständig genau meinen, denn es ist ihre Art über die Wirklichkeit und deren geistige Abbilder zu reden. Sie unterscheiden formale Systeme und die wirklichen Dinge. Das Wirkliche nennen sie Strukturen. Eine Struktur ist so etwas wie die natürlichen Zahlen, oder die Menge aller Punkte in einer Ebene, oder sonstige mathematische Objekte die miteinander in Beziehung stehen. 17 Syntax und Semantik Man unterscheidet also sauber zwischen Syntax und Semantik. Die Syntax basiert auf den Zeichen formaler Sprachen L. Eine solche “Sprache” enthält Zeichen. Die Sprache der Aussagenlogik enthält Zeichen für Aussagen. Bei der ausdruckstärkeren Prädikatenlogik sind es Zeichen für Objekte, sowie für Funktionen und Relationen auf diesen Objekten. Den syntaktischen Gebilden stehen auf Seiten der Semantik Strukturen gegenüber. Eine Struktur ist also eine Menge von realen (?) mathematischen Objekten zwischen denen bestimmte reale Beziehungen bestehen. Objekte sind Werte bestimmter Funktionen, die auf andere Objekte angewendet werden, etc. • Welt der Syntax: Sprachen die aus Zeichen bestehen, wobei Zeichen unterschieden werden als solche für Objekte, Funktionen und Relationen. Die Zeichen können nach bestimmten Regeln zusammengesetzt werden. • Welt der Semantik: Strukturen jeweils bestehend aus Objekten, Funktionen, Relationen, die in einer realen Beziehung zueinander stehen. In der Welt der Syntax hat beispielsweise eine Sprache L mit den Zeichen a, b und f, wobei a und b Objektzeichen sind und f ein Funktionszeichen ist. Nach den syntaktischen Regeln ist es dann erlaubt f(a,b) oder f(a,f(b,a)) zu bilden. In der semantischen Welt haben wir dagegen beispielsweise die Struktur der natürlichen Zahlen mit den Objekten 1 und 2 die Funktion + und können 1 + 2 oder 1 + (2 + 1) bilden. Bedeutung Den syntaktischen Objekten einer Sprache L kann in einer Struktur A eine Bedeutung zugewiesen werden, indem jedem Objekt–Zeichen ein Objekt und jedem Funktions– und Relationszeichen eine Funktion bzw. eine Relation in A zugewiesen wird. Man spricht dann von einer L–Struktur. Eine L–Struktur A ist also eine “Welt” mathematischer Objekte, über die man in der Sprache L reden kann. Bedeutung (Interpretation): Abbildung einer Sprache (Syntax) auf eine Struktur (Semantik) Beispielsweise könnten a, b und f die Bedeutung 1, 2 und + haben. Gültigkeit Die Sprache L kann man um logische Formeln erweitern. Eine solche Formel ist etwa (P (a) ∧ P (b)) → P (f (a, b)). Eine Formel φ kann, bei einer bestimmten Interpretation ihrer Zeichen, nun in einer L–Struktur A gültig (wahr) sein oder nicht. Im ersten Fall schreibt man: A |= φ (φ ist wahr in A) Beispielsweise ist die Formel ∀x.f (x, 1) > x in der Struktur der natürlichen Zahlen N gültig (wenn f als Addition interpretiert wird), oder kurz: N |= ∀x.f (x, 1) > x (x + 1 > x ist in N gültig; N ist Modell von x + 1 > x) 18 Modell Wenn eine Formel φ in A gültig (wahr) ist, dann sagt man auch, dass A ein Modell von φ ist. Ein Modell ist in der Logik also etwas aus der semantischen, der “wirklichen” Welt, das einen Sachverhalt “modelliert”! Man lasse sich nicht von dieser Umkehrung der üblichen Interpretation des Wortes “Modell” irritieren. Manche Formeln sind in allen Strukturen gültig. Man nennt sie dann allgemeingültig. Beispielsweise ist φ ∨ ¬φ allgemeingültig. In dem Fall schreibt man |= φ (φ ist allgemeingültig) Eine allgemeingültige Formel im Kalkül der Aussagenlogik nennt man Tautologie. Allgemeingültige Formeln sind ewige, logische, von der Wirklichkeit unabhängige Wahrheiten. Die exakte Definition der Semantik der Kalküle war aber Voraussetzung für ein sinnvolles Reden über deren Korrektheit und Vollständigkeit. Erst mit dem Sich–Einlassen auf diese “philosophischen Definitionen” war nicht nur ein Fortschritt in der Logik möglich, es hat auch innerhalb kurzer Zeit zu einem reichhaltigen neuen mathematischen Gebiet, der Modelltheorie, geführt. Syntaktisches und semantisches Schlussfolgern Captain Kirk: Analyse Mr. Spock! Dem semantischen Begriff der Wahrheit/Gültigkeit kann man den syntaktischen der Ableitbarkeit, bzw. des syntaktischen Schlussfolgerns gegenüber stellen. Das syntaktische Schlussfolgern ist ein mechanischer Prozess. Er führt durch quasi automatisch von Aussagen zu neuen Aussagen. Ein solcher Mechanismus des Schlussfolgerns ist ein erstrebenswertes Ideal, denn mit ihm können wissenschaftliche oder sonstige Aussagen objektiv geprüft, bzw. generiert werden, ohne dass ein Rückgriff auf eine irgendwie geartete Begabung, Intuition oder Genialität notwendig ist, deren Vorhandensein ja stets angezweifelt werden kann. Syntaktisches Schlussfolgern Eine Formel φ folgt aus einer Menge von Axiomen F (φ ist aus F ableitbar), wenn sie nach den Regeln des Kalküls aus F generiert werden kann. Man schreibt dann F `φ (φ folgt syntaktisch aus F ) Hier steht ` für den syntaktischen Prozess des Schlussfolgerns, der es erlaubt φ zu beweisen. Oder, prosaisch auf der syntaktischen Ebene formuliert: Es gibt eine korrekte Anwendung der Ableitungsregeln von `, die von F zu φ führt. Die moderne Logik hat diesem klassischen Begriff eine Semantik gegenüber gestellt, die es erlaubt von Gültigkeit oder Wahrheit zu reden: A |= φ φ ist gültig in A Zu diesem Gültigkeitsbegriff definieren wir eine passende inhaltliche Ableitung. Semantisches Schlussfolgern Eine Aussage φ folgt semantisch aus einer Formelmenge F , wenn in jeder Welt, in der die Aussagen aus F wahr sind, auch φ wahr ist. Man schreibt dann: F |= φ (φ folgt semantisch/logisch aus F ) 19 Etwas präziser wird das über den (logischen) Modellbegiff von oben ausgedrückt: Eine Formel φ folgt semantisch aus einer Formelmenge F , wenn jedes Modell von F auch ein Modell von φ ist. (F |= φ) ⇔ (A |= F ⇒ A |= φ) Je kleiner die Formelmenge F ist, um so größer ist die Zahl der “Welten” in denen sie gültig ist. Verschiedene Welten haben natürlich um so weniger Gemeinsamkeiten, je größer ihre Zahl ist. Der semantische Folgerungsbegriff erfasst das Gemeinsame dieser Welten. Aus einer kleinen Formelmenge kann man wenige Fakten φ ableiten. F klein ⇒ Viele A mit A |= F ⇒ Wenige φ mit A |= φ für alle diese A ⇒ Wenige φ mit F |= φ. Wenn F beispielsweise die Euklidschen Axiome ohne das Parallelenaxiom sind, dann beschreibt F mehr Welten, als nur die Geometrie unserer Anschauung. Das aus F Ableitbare ist auch in unserer Geometrie gültig, aber auch noch in anderen seltsamen Welten ohne Parallenen oder solchen mit vielen Parallen. Nehmen wir das Parallelenaxiom hinzu, dann schränken wir die Modelle auf die uns bekannte Geometrie ein. Vielleicht treffen wir dann “unsere Geometrie” genau, vielleicht auch nicht. Nun bei der Geometrie ist das so, zumindest mit den Hilbertschen, statt den Euklidschen Axiomen. Generell stellt sich aber die Frage, ob mit irgendeinem (endlichen) Axiomensystem eine mathematische Welt unserer Anschauung genau (!) charakterisiert werden kann. Insgesamt haben die mathematischen Logiker zwei Begriffe des Folgerns definiert, einen syntaktischen “Was kann ich ableiten” und einen semantischen “Welche Wahrheiten folgen”, wobei der zweite über den Gültigkeitsbegriff, “Was ist in welcher Welt wahr” eingeführt wird: F ` φ φ kann aus F syntaktisch abgeleitet werden A |= φ φ ist gültig (wahr) in A F |= φ Wo auch immer F wahr ist, ist auch φ wahr Das syntaktische Schlussfolgern ist das seit Aristoteles Untersuchte. Sehr lange war es der einzige Begriff des Schlussfolgerns, den ernsthafte Mathematiker betrachtet haben. Ohne einen Bezug auf auf die Wahrheit, oder bescheidener, auf eine semantische Komponente, sind alle syntaktischen Ableitungen sinnlose Formelspielereien. Das wussten natürlich auch die mathematischen Logiker aller Zeiten. Trotzdem hat es bis zu Beginn des 20–sten Jahrhunderts gedauert, bis man sich an eine präzise Definition dieser Komponenten herangetraut hat, möglicherweise aus Angst vor allzu philosophischen Spekulationen, oder allzu spekulativer Philosophie. Korrektheit und Vollständigkeit des Schlussfolgerns Der ideale syntaktische Prozess zur Prüfung oder gar Generierung von Wahrheiten sollte natürlich korrekt sein und diese Korrektheit sollte idealerweise auch bewiesen werden können. Die Korrektheit des Schlussfolgerns lässt sich nur durch einen Bezug auf die “reale” Welt, die Semantik, die Wahrheit der bewiesenen Aussagen definieren. 20 Die Korrektheit des syntaktischen Schließens zeigt sich, wenn es am semantischen Schließen gemessen wird. Wenn also alles aus wahren Formeln Abgeleitete auch wahr ist. Korrektheit des syntaktischen Schlussfolgerns Ein syntaktischer Ableitungsmechanismus ist korrekt, wenn jedes Modell der Voraussetzungen F einer Schlussfolgerung auch ein Modell der gefolgerten Aussage φ ist. Kurz: Aus F ` φ folgt F |= φ (Korrektheit von `) Man kann auch kürzer sagen, ` ist korrekt, wenn alles Abgeleitete wahr ist. Der komplementäre Begriff zur Korrektheit ist die Vollständigkeit. Bei der Korrektheit geht es darum, ob das formal Abgeleitete wahr ist. Bei der Vollständigkeit eines Kalküls geht es umgekehrt darum, ob das Wahre auch abgeleitet werden kann. Auch dies kann mit Hilfe des Modellbegriffs formuliert werden. Vollständigkeit des syntaktischen Schlussfolgerns Ein syntaktischer Ableitungsmechanismus ist vollständig, wenn jede Aussage A, die in jedem Modell der Voraussetzungen F gültig ist, syntaktisch aus F gefolgert werden kann: Aus F |= A folgt F ` A (Vollständigkeit von `) Man kann auch kürzer sagen, ` ist vollständig, wenn alles Wahre ableitbar ist. Der Kalkül der Aussagenlogik ist korrekt. Dies nachzuweisen bereitet Logikern keine Mühe. Auch die Korrektheit der Prädikatenlogik lässt sich einfach beweisen. Vor den harschen Aufforderungen zur Bescheidenheit durch seine Unvollständigkeitstheoreme, spendierte Gödel den formalen Systemen ein positives Ergebnis. Er zeigte in seiner Dissertation von 1929 die Vollständigkeit des Kalküls der Prädikatenlogik. Dieser Beweis ist als Gödels Vollständigkeitssatz bekannt geworden und in die Geschichte der Logik eingegangen. Dies war ein wichtiger Schritt im Programm Hilberts, auch wenn er kurz darauf mit seinem Unvollständigkeitstheorem diesem Programm seine Grenzen aufzeigte. Genau gesagt, bewies Gödel nicht die Vollständigkeit der Prädikatenlogik sondern die Vollständigkeit der Prädikatenlogik erster Stufe. Verschiedene Kalküle unterscheiden sich in der Ausdruckskraft ihrer Sprache. Eine alte Unterscheidung ist die zwischen Aussagenlogik und Prädikatenlogik. In der Aussagenlogik werden Aussagen, die als Ganzes wahr oder falsch sein können, zu neuen Aussagen verknüpft. Die Prädikatenlogik enthält dazu noch Prädikate (Eigenschaften) und Funktionen und kann quantifizierende Aussagen machen, etwa solche von der Art, dass eine Eigenschaft auf alle oder mindestens ein Ding zutrifft. Die Stufen sind Verfeinerungen in der Einteilung der logischen Kalküle. In der Prädikatenlogik der zweiten Stufe sind Quantifizierungen von Prädikaten und Funktionen erlaubt. Die Prädikate und Funktionen müssen allerdings auf Elementen operieren. In der nächsten, der dritten Stufe können dann Prädikate quantifiziert werden, die Aussagen über Prädikate machen und so weiter. Die Vollständigkeit und Korrektheit der Prädikatenlogik kann man so interpretieren, dass die Welten, in denen die Gesetzte der Prädikatenlogik gelten, durch deren Kalkül exakt charakterisiert werden. Jedes Faktum, das in all diesen Welten gilt, kann abgeleitet werden, jedes ableitete Faktum gilt in all diesen Welten. Der pure Prädikatenkalkül ist nun aber noch keine Mathematik. Mathematik betreiben wir erst, 21 wenn es so etwas wie geometrische Figuren oder Zahlen oder Sonstiges gibt. Dinge also die durch zusätzliche Axiome definiert werden. Die Axiome der Mengenlehre definieren die Welt der Mengen, die Axiome der natürlichen Zahlen charakterisieren die natürlichen Zahlen. Setzen wir den richtigen logischen Kalkül auf diese Axiome an, dann bekommen wir eben alle und nur die Aussagen, die in den Mengen, den natürlichen Zahlen, etc. gelten. Das ist das Hilbertsche Programm: finde die richtigen Axiome für die diversen mathematischen Welten, finde den richtigen Kalkül, dann kannst du alle und genau die Fakten ableiten, die in diesen Welten gelten. Nun hat Gödel bewiesen, dass genau dies prinzipiell nicht möglich ist. – Welche philosophischen Konsequenzen das nun auch haben mag, für den “Unterhaltungswert” der Mathematik – für Mathematiker – ist es ein Glück. Kalküle die rechnen können, sind nicht vollständig Die Prädikatenlogik der ersten Stufe ist vollständig. Alles, was in allen Welten gilt, die ihren logischen Gesetzen gehorchen, kann syntaktisch abgeleitet werden. Man kann dies auch algorithmisch fassen: Die Prädikatenlogik erster Stufe ist aufzählbar, oder, was damit äquivalent ist, sie ist semi–entscheidbar. Die Aufzählbarkeit bedeutet, dass man einen Algorithmus angeben kann, der alle wahren Sätze systematisch produziert. Die Semi–Entscheidbarkeit sagt, dass wir einen Algorithmus konstruieren können, der die Wahrheit jeder wahren Aussage feststellen kann, aber nicht unbedingt die Falschheit einer falschen Aussage. Die Prädikatenlogik der ersten Stufe ist nur semi–entscheidbar, nicht entscheidbar. Damit ist eine Brücke geschlagen zwischen den logischen Kalkülen und der Theorie der Algorithmen. Das formal Beweisbare entspricht dem Berechenbaren. Die Arbeit Gödels ist um so bemerkenswerter, als er seine Ergebnisse mit quasi algorithmischen Methoden fand, ohne die später von Turing und anderen entwickelte, leichter handhabbare Theorie der Berechenbarkeit zu kennen. Die Vollständigkeit der Prädikatenlogik ist schön, aber noch nicht ganz das Gewünschte. Wir interessieren uns ja nicht in erster Linie für Welten in denen nur die Gesetzte der Logik gelten, es sollen ja auch andere Gesetze gelten, z.B.: das Gesetz, dass 2+2 gleich 4 ist. Dazu werden weitere Axiome benötigt, die so zu justieren sind, dass mit ihnen und dem logischen Kalkül genau die mathematische Welt, etwa der natürlichen Zahlen, getroffen wird. Gödel zeigte nun, dass genau dies nicht so wie erwartet gehen kann. Gödel veröffentliche sein Unvollständigkeitstheorem unter dem Titel “Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme”. Mit Principia Mathematica und denen verwandten Systemen waren alle Logikkalküle gemeint, die “rechnen können”, in den sich also die elementaren Gesetze der Arithmetik, die natürlichen Zahlen mit Addition und Multiplikation, ausdrücken lassen. Hilberts Programm und Traum einer vollständigen formalen Erfassung der Mathematik war damit am Ende. Die mathematische Welt der natürlichen Zahlen ist nicht übermäßig anspruchsvoll, trotzdem ist es unmöglich, sie mit Axiomen und einem logischen Kalkül exakt in den Griff zu kriegen. Entweder bricht das ganz zusammen und alles lässt sich beweisen (dann ist vielleicht die Hölle ein Modell des Systems), oder wir formulieren zu weit. Beispielsweise indem wir die unserer 22 Anschauung nach wahre Gödelsche Aussage G (“ich bin nicht beweisbar”, siehe oben) nach dem Vorbild des Parallelenaxioms als Grundaxiom annehmen. Dann finden wir in den, von unserem System beschriebenen Welten nicht nur natürliche Zahlen, sondern auch solche, in denen absonderliche Wesen wie übernatürliche Zahlen ihr Wesen treiben. Das sind Zahlen, die sich nicht durch Addition von 1 aus der Null bilden lassen. Die Prädikatenlogik der ersten Stufe ist vollständig. Sobald man aber ein wenig Arithmetik hineinstreut wird die Sache unvollständig. Kalküle, die die Arithmetik über den natürlichen Zahlen beherrschen, erfordern eine Prädikatenlogik der zweiten Stufe. Dieser Kalkül ist zwar korrekt, aber nicht mehr vollständig. In seiner Sprache können “Welten” beschrieben und unterschieden werden, ohne dass alle Gesetze, die in ihnen gelten formal syntaktisch ableitbar wären. Der Grund dafür, dass ein Rechnen über natürlichen Zahlen zur zweiten Stufe führt, liegt im Induktionsprinzip. Nach diesem Prinzip gilt ein Prädikat für alle natürlichen Zahlen, wenn es für die Null gilt, sowie wenn seine Gültigkeit für x die Gültigkeit für x + 1 impliziert. ∀P : (P (0) ∧ (P (x) → P (x + 1))) → ∀x : P (x) Das Induktionsprinzip ist eine Aussage über alle Prädikate und gehört damit der zweiten Stufe an. Sobald das Induktionsprinzip in einem Kalkül zugelassen ist, können in ihm Algorithmen in Form sogenannter (primitiv) rekursiver Funktionen definiert werden, wie beispielsweise die Addition und Multiplikation. In einem solchen Kalkül sind Aussagen über beliebige in ihm selbst formulierbare Algorithmen möglich. Ein solcher Kalkül hat damit genug Ausdruckskraft um ihn in die Falle von Gödels Selbstbezug laufen zu lassen und damit seine Unvollständigkeit zu zeigen. Umgekehrt ist jeder Kalkül mit geringer Ausdruckskraft schon aus Schwachheit “unvollständig”. Folgerungen Q: Aren’t computability theory and computational complexity the keys to AI? A: No. These theories are relevant but don’t address the fundamental problems of AI. John MacCarthy in [12] Hilberts optimistisches “Alle Probleme sind lösbar, fangen wir an!” war wichtig. Es hat nicht zu dem Erwarteten geführt, sondern zu dem wesentlich interessanteren Ergebnis, dass es tatsächliche Grenzen der (mechanischen ?) Erkenntnis gibt. Zunächst von den Logikern wie Gödel in Form seiner Unvollständigkeitsergebnisse, dann in der Nachfolge Turings am Berechenbarkeits– und Komplexitätsbegriff. In der zweiten Variante, der von der Möglichkeit und der Komplexität von Berechnungen, könnte die Geschichte von den Grenzen genauso, wenn nicht noch reichhaltiger und spannender erzählt werden, mit dem Halteproblem als der moderneren Variante der Unvollständigkeit. Diese Hinweise auf die Grenzen des prinzipiell Erkenn– 23 und Berechenbaren werden noch weiter von aktuellen Arbeiten auf dem Gebiet der Komplexitätstheorie gestützt.6 Die ganz Geschichte würde damit noch interessanter, aber auch deutlich länger und komplexer. Die prinzipiellen Ergebnisse wären aber die gleichen. Es gibt Dinge, die von Maschinen nicht getan werden können. Ob diese Maschinen nun logische Kalküle, Turingmaschinen, aktuell verfügbare Computer oder sonstige Mechanismen sind. Die Definition von Mechanismus oder Kalkül ist dabei so robust, und die erzielten Ergenbnisse trotz unterschiedlicher und unabhängig von einander entwickelter Ansätze so äquivalent, dass von der Existenz einer prinzipiellen Grenze ausgegangen werden kann und auch einiges dafür spricht, dass auch wir uns innerhalb dieser Grenzen befinden. Was hat dies nun mit Intelligenz zu tun, sei sie nun künstlich oder natürlich? Intelligenz lässt sich, nicht völlig unstrittig, als Fähigkeit definieren, Phänomene und Objekte der äußeren Welt durch innere Modelle so zu repräsentieren, dass deren Analyse eine Steuerung des eigenen und fremden Verhaltens ermöglicht. Intelligenz konstruiert Modelle aus der Welt und rekonstruiert umgekehrt die Welt als Bedeutung der Modelle. Akzeptieren wir die These, dass unsere Abbilder der Welt mit den formalen Systemen der Logik und Mathematik zumindest verwandt sind, dann sind die Probleme der Logiker mit ihren formalen Systemen Probleme der Intelligenz. Das zweite Unvollständigkeitstheorem Gödels postuliert nicht mehr und nicht weniger, als dass die Fähigkeit formaler Systeme zur Introspektion beschränkt ist. Die moderne Logik hat aber noch mehr und eigentlich Interessanteres zu bieten, als dieses Ergebnis. Welche mathematischen Welten gibt es, in welcher Beziehungen stehen sie, wie genau können wir sie mit Axiomen und Kalkülen charakterisieren. Wie wirklich sind sie wirklich? Die Definition der Logiker von Syntax und Semantik ist recht einfach, manche würden sogar naiv sagen. Trotzdem hat sich daraus ein komplexes Szenario an Modellen ergeben, die ganz sicher aber nicht einfach als “reale Welten” angenommen und auf die Wirklichkeit übertragen werden können. Wir können alles Maschinelle als formales System im Sinne Gödels verstehen, unsere durchaus vorhandene Fähigkeit zur Introspektion dagegen setzen und dann schlussfolgern, dass wir, mit unserer natürlichen Intelligenz, “mehr” sind als die Maschinen. Wir sehen beispielsweise, dass die Gödelsche Aussage G wahr ist, aber die dummen Maschinen können es nicht sehen, damit ist scheinbar bewiesen, dass wir über einen nicht–algorithmischen Erkenntnisapparat verfügen. Das ist das alte Argument von Lucas.7 Aber erstens können reichhaltigere Kalküle die Dinge tatsächlich auch erkennen und zweitens ist die Natur des menschlichen Erkenntisprozesses unbekannt und möglicherweise (wahrscheinlich/sicher?) genauso unvollständig. Zumindest hat noch niemand die Vollständigkeit des menschlichen Erkenntnisprozesses erforscht. Penrose8 liefert in einem Berg von Gelehrsamkeit ein, im Vergleich zu Lucas, umgekehrtes “Gödel–Argument”, das ihn quasi zum Hilbert der natürlichen Intelligenz macht. Das Argument ist folgendes: Angenommen, der menschliche Geist wäre nicht über–algorithmisch. Dann gäbe es es einen Kalkül / Algorithmus A, der ihn codieren könnte. Nach Gödel gäbe es dann auch den entsprechenden Gödelsatz G für A, der wahr, aber, in A nicht beweisbar ist. In A nicht beweisbar bedeutet, dass seine Wahrheit für Menschen nicht erkennbar ist – wir glauben es einfach nicht. 6 siehe die Arbeiten über algorithmische Komplexität, [2] nach [8] 8 in [14], auf 3 von ca. 600 Seiten. 7 24 Anderseits wurde G ja genau mit dieser Eigenschaft konstruiert und wir sind darum natürlich der festen Überzeugung, dass es war ist. Ein Widerspruch! Die Hypothese, dass menschliches Denken algorithmisch bzw. ein formales System ist, hat zum Widerspruch geführt und ist darum falsch! Überzeugt? – Penrose selbst wohl auch nicht so ganz, denn er führt noch den nicht– algorithmischen Charakter des Bewußtseins und quantenmechanische Effekte im Gehirn ein. Das Bewußtsein wurde von der Evolution erschaffen und muss darum notwendiges Element natürlicher Intelligenz sein. Die Natur erschafft nichts Überflüssiges. Maschinen haben aber kein Bewußtsein. Die gesamte Argumentation ist sehr gebildet, ausserordentlich länglich und letztlich nicht überzeugend. Der einzige Grund, aus dem die Grenzen der Maschinen für Menschen nicht gelten sollten, wäre, dass unser Geist nicht–algorithmisch ist. Dies kann mit Rückgriff auf Gödel nicht schlüssig nachgewiesen werden. Aber ist es denn notwendig? Warum ist die Frage wichtig? Die Grenzen der Berechenbarkeit als die Grenzen des menschlichen Geistes anzuerkennen ist alles andere als ehrenrührig. Daran ändert auch die Tatsache nichts, dass Berechenbarkeit durch die primitiven Turing–Maschinen definiert werden kann. Das ist nur psychologisch problematisch: Wer sie nicht, oder nur als Zerrbild kennt, mag keine Turing–Maschine oder ein logischer Kalkül sein. Warum hat er aber kein Problem damit, aus Atomen zusammengesetzt zu sein? Ob die Grenzen, die mathematische Logik und theoretische Informatik dem Erkenntnis–Prozess prinzipiell gesetzt haben, auch für die natürliche Intelligenz gelten, ist letztlich ohne praktischen Belang. Die Grenzen haben offensichtlich fundamentalen Charakter, der Raum der Möglichkeiten innerhalb dieser Grenzen ist groß und die Argumente, dass wir uns ausserhalb befinden, sind schwach und viel zu kompliziert und konstruiert um eine so fundamentale Wahrheit ausdrücken zu können. Einen Beleg, dass die Grenzen für uns nicht gelten, kann keine Wissenschaft und kein Gödel– Mystizismus liefern, dazu werden andere – nicht–algorithmische – Quellen der menschlichen Erkenntnis benötigt. Aber gibt es die? – Hmm, ... hat nicht Gödel etwas in dieser Richtung bewiesen? Literatur [1] Gregory Chaitin Grenzen der Berechenbarkeit Spektrum der Wissenschaft, Februar 2004, Seite 86ff [2] Gregory Chaitin On the intelligibility of the universe and the notions of simplicity, complexity and irreducibility verfügbar auf Chaitins Homepage http://www.cs.auckland.ac.nz/CDMTCS/chaitin/ 25 [3] John Dawson Kurt Gödel: Leben und Werk Springer Verlag 1999 [4] Hans Magnus Enzensberger: Hommage an Gödel in Elexire des Teufels, Suhrkamp, 2002 [5] Glühbirnen–Witze übersetzt aus http://www.informatik.uos.de/elmar/Fun/light2.html [6] Freimut Hauk Lust an der Erkenntnis dtv, 2003 [7] Hans Hermes Einführung in die mathematische Logik Teubner, 1972 [8] Douglas Hofstadter Gödel Escher Bach: an Eternal Golden Braid Basic Books, 1979 [9] P. Hughes, G. Brecht Die Scheinwelt des Paradoxons Vieweg, 1978 [10] Eugène Ionescu Die Nashörner [11] Gottfried Wilhelm von Leibniz Discours de Metaphysique 1686, online verfügbar unter: http://www.ac-nice.fr/philo/textes/Leibniz-Discours.htm [12] John McCarthy What is Artifical Intelligence URL: http://www-formal.stanford.edu/jmc/whatisai [13] Robert Musil Die Verwirrungen des Zöglings Törleß Rowohlt 1959 [14] Roger Penrose The Emperors new Mind Oxford University Press, 1989 Nachdruck Vintage–Books, 1990