Ruprecht-Karls-Universität Heidelberg Philosophisches Seminar Wissenschaftliche Arbeit Vorgelegt von Christine Plicht Betreut durch Prof. Dr. Martin Gessmann Künstliche Intelligenz in der Diskussion zwischen Postmoderne und Pragmatismus Christine Plicht 25. August 2011 vorgelegt von: Christine Plicht Heinrich-Lanz-Str.3 69115 Heidelberg [email protected] Matrikelnr.: 2546008 Heidelberg, 25. August 2011 Inhaltsverzeichnis 1 Einleitung 2 2 Geschichte der KI 4 2.1 Turing-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Darthmouth Konferenz 1956 . . . . . . . . . . . . . . . . . . . . . . . . . . 6 3 Künstlichen Intelligenz im philosophischen Kontext 3.1 9 Körper-Geist-Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4 Drei philosophische Ansätze 20 4.1 Daniel C. Dennetts - Intentionale Systeme . . . . . . . . . . . . . . . . . . 20 4.2 John Searle - Das Chinesische Zimmer . . . . . . . . . . . . . . . . . . . . 25 4.3 Hubert Dreyfus - What Computers can’t do . . . . . . . . . . . . . . . . . 30 5 Robotik als Weg zu einer künstlichen Intelligenz 38 6 Fazit 47 7 Literatur 49 1 Christine Plicht 1 Einleitung Künstliche Intelligenz (KI) wurde im letzten Jahrhundert zu einem Thema mit dem sich einige Wissenschaftszweige beschäftigt haben, so auch die Philosophie. Überwiegend äußerten sich Philosophen aus den USA zu diesem Thema mit dem Höhepunkt der Diskussion in den 70er und 80er Jahre des letzten Jahrhunderts. Die Entwicklung selbst geht natürlich weiter zurück mit Hoch- und Tiefphasen. Künstliche Intelligenz ist ein sehr interdisziplinäres Thema, da verschiedene Aspeke aus unterschiedlichen Sichtweisen beleuchtet werden können. So ist es nicht nur die Seite der Informatik, bei der es um die Entwicklung der Programme geht, sondern auch die Neurowissenschaften, Psychologie oder auch Ingeneurswissenschaften sind an den Projekten beteiligt. Die Philosophie hat bei diesem Thema die Möglichkeit an konkreten Entwicklungen durch einen Diskurs begleitend und aktiv teilzunehmen und aus ihrer Sicht zu beleuchten. Die philosphischen Diskurse dazu sind verwurzelt mit der Philosophie des Geistes und der Sprachphilsophie. Das Thema ist für die Philosophie besonders spannend und geeignet, da hier ein Diskurs stattfindet, der an aktuelle Forschungsgebiete anknüpft und zusätzlich in einer gesellschaftliche Debatte verankert ist. Hier hat die Debatte einen starken realen Bezug zum aktuellen Geschehen und beschäftigt sich nicht mit spezifischen Themen einzelner Philosophen oder Epochen. Trotzdem kann das Thema auch sehr theoretisch betrachtet werden und praktische Fragen, wie der Ethik, können dabei am Rande diskutiert werden. Meine eigene Motivation zu diesem Thema ergibt sich aus meinem zweiten Studienfach, der Mathematik. Hierdurch habe ich einen leichteren Zugang zu Konzepten der Informatik erhalten, die in dieser Arbeit gelegentlich angesprochen, aber nicht vertieft behandelt, werde. Es ist, gerade als angehende Lehrerin, sehr spannend sich mit einem philosophischen Thema zu befassen, das sowohl einen aktuellen Bezug hat, als auch beiden Fächer verbindet. Ziel dieser Arbeit ist es also ein Thema, dessen Ursprung in einer anderen Disziplin liegt, philosophisch zu betrachten und aufkommende philosophische Fragen zu diskutieren. Dabei will ich untersuchen, ob und wieweit die Philosophie Fragen dieses Wissenschaftszweig, durch einen andern Zugang, verständlicher werden oder sogar beantworten werde könnte. Die Arbeit beginnt mit einem geschichtlichen Überblick des Themas, in dem ich die Grundlagen aus der Mathematik und Informatik anspreche und wichtige Ereignisse und Erfindungen beschreiben. Weiter möchte ich die philosophische Bedeutung der Künstliche Intelligenz genauer erläutern und damit zusammenhängende Probleme aus der Philosophie vorstellen. Hauptteil der Arbeit bildet die Auseinandersetzung mit drei zeit- 2 Christine Plicht genössigen amerikanischen Philosophen: Daniel C. Dennett, John Searle und Hubert Dreyfus. Ich werde Dennetts pragmatisches Konzept der intentionalen Systeme vorstellen, bei dem die Frage nach Intentionalität von Maschinen thematisiert wird. Weiter hebe ich Argumente von Searle und Dreyfus hervor, die gegen die Möglichkeit der Adaption von kognitiven Fähigkeiten bei Maschinen sprechen. Hierzu betrachte ich Searles berühmtes Gedankenexperiments, das Chinesische Zimmer, und gebe einige Kritiker wieder. Weiter stelle ich eine dritte Herangehensweise an das Thema vor, Dreyfus phänomenologische Kritik an der KI-Forschung. Beenden werde ich die Arbeit mit einem Ausblick auf die Robotik bezogen auf eine künstliche Intelligenz. Dabei werde ich die Probleme einer einheitlichen Vorstellung von künstlicher Intelligenz und ihrer Überprüfung beispielsweise durch Kriterien diskutieren. 3 Christine Plicht 2 Geschichte der KI Um die zeitliche Entwicklung des Forschungsgebiets der Künstlichen Intelligenz zu betrachten, sind für diese Arbeit neben der philosophischen, auch die mathematische Seite wichtig. Hier wurden grundlegenden Überlegungen getroffen, die zum heutigen Stand der Wissenschaft und Technik führten. Seit der Antike versuchen die Menschen Regeln zu finden, um die Welt zu beschreiben. Damals legte Aristoteles die ersten Grundsteine für eine Formalisierung, in dem er den Syllogismus begründete. Der Syllogismus ermöglicht es zum ersten Mal Argumente, die aus logischen Verknüpfungen bestehen, unabhängig von ihrem Inhalt, auf formale Folgerichtigkeit zu überprüfen . So konnten Argumente durch eine abstrakte allgemeingültige Methode überprüft oder eben auch widerlegt werden. Das war eine der ersten Voraussetzungen für die heutige formale und mathematische Logik und somit auch für das Forschungsgebiet Künstliche Intelligenz. Im weiteren Verlauf der Geschichte wurden Grundlagen für die heutigen Stand gelegt, die Rechenmaschinen. So wurde schon von Leonardo da Vinci (1452-1519) eine Rechenmaschine entworfen, aber nicht gebaut. Erst im 17. Jahrhundert gelang es Wilhelm Schickard (1592-1635) und auch Blaise Pascal (1623-1662) eine funktionstüchtige mechanische Rechenmaschine zu bauen, die addieren und subtrahieren konnte. Im Laufe der Zeit wurden Rechenmaschinen weiterentwickelt und konnten immer mehr Funktionen ausführen. Allerdings war die Division eine Operation, die von den damaligen Maschinen nicht durchgeführt werden konnte. Es entstand immer stärker der Eindruck, dass sich die Welt anhand von formalen Strukturen und Regeln erklären ließe. So wurde im 19. Jahrhundert von George Boole (1815-1849) die moderne mathematische Logik begründet. In seinem Werk The Mathematical Analysis of Logic schuf er mit dem ersten algebraischen Logikkalkül die Grundlage für die Bool’sche Algebra. In der Bool’schen Algebra werden die Grundoperationen der Logik (UND, ODER) mit den mengentheortischen Verknüpfungen, wie der Vereinigung und dem Durchschnitt, formal beschrieben. Auf diese Algebra baut die mathematische und philosophische Logik auf, denn damit werden die grundlegenden Gesetze beschrieben. Durch die zweiwertige Bool’sche Algebra werden auch Wahrheitstafeln beschrieben, mit 0 als falscher und 1 als wahrer Aussage, die in der Aussagenlogik fundamental sind. Bis ins 19. Jahrhundert versucht man formale Strukturen zu erfassen und erste kleinere mechanische Instrumente zu bauen, die dem Menschen Arbeit abnehmen sollten. Die Mechanisierung wurde im 19. Jahrhundert stark vertieft und erreichte weitere durchbrechende Errungenschaften. Darunter zählen u.a. der Zeigertelegraf, der von Werner 4 Christine Plicht von Siemens und Johann Georg Halske erfunden wurde und Vorläufer des heutigen Faxgerätes war. Die Rechenmaschinen und auch weitere Rechner wurden bis dahin auf einem analogen System betrieben, d. h. sie messen Größen, wie Spannungen, Zeitdauer und geben anhand dieser Messungen ein Ergebnis. Es konnte somit nur mit starren, festen Größen gearbeitet werden. Das änderte sich mit der Erfindung der Digitalrechner. Charles Babbage entwarf 1835 eine sogenannte analytische Maschine“, die allerdings ” nicht gebaut wurde. Digitalrechner können auch mit unstetigen Größen arbeiten und Zustände speichern. Alan M. Turing (1912-1954) beschreibt die Vorzüge des Digitalrechner: Die Existenz von Maschinen mit dieser Eigenschaft hat die wichtige Konsequenz, ” dass es, von der Geschwindigkeitserwägungen abgesehen, unnötig ist immer neue Maschinen für unterschiedliche Rechenprozesse zu entwickeln. Sie können allesamt mit einem Digitalrechner durchgeführt werden, der für jeden Fall geeignet zu programmieren ist.“(Dre85, S.22). Der erste funktionstüchtige programmierbare Digitalrechner wurden 1941 von Konrad Zuse (1920-1995) gebaut und 1943 während des Zweiten Weltkriegs wieder zerstört. Er war unter dem Namen Z3“ bekannt und basierte auf einem Binärsystem. In den wei” teren Jahrzehnten wurden weitere digital Großrechner gebaut und erste Visionen über spezielle Programme gemacht. Hierzu zählt die Entwicklung eines Schachcomputers: ein Programm, dass die Regeln des Schachspiel beherrscht und gegen einen menschlichen Gegner gewinnen könnte. Erste Erfolge damit hatten hatten Allen Newell, J.C. Shaw und H.A. Simon. Ihnen gelang, es ein Prgramm zu entwickeln, dass Schachanfänger schlagen konnte. Ein weiteres Gebiet der Programmierung, das in dieser Zeit eröffnet wurde, war die Entwicklung eines Sprachcomputers und so genannte heuristische Systeme, die sich auf das Lösen von Denksportaufgaben spezialisierten. 2.1 Turing-Test In dieser Zeitepoche, 1950, veröffentlichte Turing einen Artikel Computing Machinery ” and Intelligence“, in dem er ein Imitationsspiel, heute auch bekannt als Turing-Test. Turing wollte sich mit der Frage auseinandersetzen, ob eine Maschine denken kann. Um darüber eine Aussage treffen zu können, entwarf er folgendes Spiel: Es gibt insgesamt drei beteiligte Parteien, zwei, die befragt werden (A und B) und ein Fragesteller (C). Ziel des ursprünglichen Imitationsspiel war es, dass C das Geschlecht der Befragten herausfinde, wobei beide Geschlechter vorkommen. In der Abweichung und computerbezogenen Variante des Spiels wird ein Befragter durch einen Computer ersetzt. C soll nun heraus- 5 Christine Plicht finden, ob entweder A oder B ein Mensch ist. Hierbei kann C Fragen formulieren, auf die A und B antworten müssen. Selbstverständlich passiert dies in schriftlicher bzw. digitaler Form. Turing ersetzt dann auch die Frage, ob Maschinen denken können, durch Sind ” Digitalrechner denkbar, welche sich bei dem Imitationsspiel bewähren?“. Natürlich wird direkt deutlich, dass es sich hier um zwei verschiedene Fragestellungen handelt. Allerdings gibt Turing hier ein klar überprüfbares Kriterium. Turing sieht den Unterschied der beiden Fragestellungen nicht so relevant, wie es zur heutigen Zeit sein mag, denn er behauptet: Die ursprüngliche Fragestellungen Können Maschinen denken‘ halte ich für ” ’ zu belanglos, als dass sie ernsthaft diskutiert werden sollte. Nichtsdestoweniger glaube ich, dass am Ende unseres Jahrhunderts der Sprachgebrauch und die allgemeine Ansicht sich so stark gewandelt haben werden, dass man widerspruchslos von denkenden Maschinen reden kann.“(Tur94, S. 51) Demnach ist Turing so optimistisch, was die Entwicklung der Computer und Programme angeht, dass er davon ausgeht, dass niemand ihr Denkvermögen anzweifeln wird, wenn sie den Turing-Test bestehen. Seine Prognose war, dass 50 Jahre später, also zur Jahrtausendwende, Sprachcomputer den Test bestehen werden. Sogar nicht einmalig, sondern mit einer Wahrscheinlichkeit von 70 Prozent. Dabei soll es ein fünfminutiges Testgespräch geben, bevor sich C entscheidet. Nicht nur Turing hat zu Beginn der Entwicklung solcher Computer so eine optimistische These abgegeben, sondern auch andere Wissenschaftler waren von der rasanten Entwicklung mitgerissen. Simon prophezeite 1957 unter anderem: • In spätestens zehn Jahren wird ein Computer Schachweltmeister, sofern ihn die Regeln nicht von der Teilnahme ausschließen. • In spätestens zehn Jahren wird ein Computer ein neues, bedeutendes mathematisches Theorem entdecken und beweisen. • In spätestens zehn Jahren werden die meisten Theorien der Psychologie die Form von Computerprogrammen oder von qualitativen Aussagen oder die Merkmale von Computerprogrammen haben. 2.2 Darthmouth Konferenz 1956 Die Geburtstunde der Künstliche Intelligenz war 1956 in Darthmouth. Dort veranstaltete John McCarthy einen zwei Monate dauernde Sommer-Konferenz, zu der Forscher eingeladen wurden, die sich zu der Zeit mit diesem Thema beschäftigten. Der Work” shop in Darthmouth brachte keine neuen Durchbrüche, aber er sorgte dafür, dass sich 6 Christine Plicht die wichtigsten Personen kennen lernten.“(RN04, S.38); Marvin Minsky, Allen Newell, Herbert Simon, Claude Shannon und Nathaniel Rochester. Ab diesem Zeitpunkt wurde künstliche Intelligenz zu einem seperaten Forschungsgebiet. McCarthy definiert KI in seinem Artikel What is artificial intelligence: It is related to the similar task of using ” computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable.“(McCa). Man will versuchen menschliche mentale Konzepte, wie Kreativität oder Spracherkennung, mit dem Computer zu simulieren oder sogar zu konstruieren. Genau 50 Jahre später, im Jahr 2006 fand eine weitere Konferenz1 in Dartmouth statt, die sich mit den kommenden 50 Jahre der KI-Forschung beschäftigte. Auf dieser Konferenz waren auch einige ursprünglichen Teilnehmer präsent, wie McCarthy und Minsky. Die KI-Forschung war geprägt von Jahrzehnten, in denen neue Entwicklungen einen starken Enthusiasmus hervorriefen. Aber es gab auch Zeiten, in denen es ruhiger wurde und eine Weiterentwicklung nicht in Sicht war. Zu Beginn wurden Probleme formuliert und der Lösungsansatz war recht viel versprechend, dennoch stellte sich heraus, dass eine Entwicklung komplexer war, als zuerst gedacht. Nicht jedes Problem wurde damit gelöst, dass eine bessere Hardware und ein größerer Speicher zur Verfügung standen. Solange eine Problemlösung darauf basierte, Möglichkeiten zu berechnen, bis die richtige Lösung gefunden wurde, konnte bessere Hardware dazu verhelfen. Aber gerade in der Sprachübersetzung war dies nicht immer so einfach. Ein weiterer Meilenstein in der Entwicklung von Computerprogrammen, die kognitive Fähigkeiten zumindest simulieren, war das Programm ELIZA. Der Informatiker Joseph Weizenbaum(1923-2008) entwickelte das Programm und veröffentlichte es 1966. ELIZA ist ein interaktiver Chatbot, der ein Gespräch mit einem Menschen führen kann. Es basiert auf den Grundlagen eines psychotherapeutischen Gesprächs. Hierbei ist es vergleichsweise einfach auf den Gegenüber zu reagieren, da man in einem psychotherapeutischen Gespräch auf Aussagen mit wenigen Informationen mit einer Frage antworten kann. ELIZA greift hierzu auf eine Datenbank zurück, in der Antworten und Erkennungsmuster gespeichert sind und reagiert somit auf eine Frage oder Aussage der Gesprächsperson. Eine wichtige und bekannte Arbeit an künstlicher Intelligenz ist der Schachcomputer Deep Blue“, der 1997 unter Turnierbedingungen als erster Computer gegen den amtie” renden Schachweltmeister gewann. Kasparov sagte, er fühle, dass ihm am Brett eine ” 1 Die Konferenzhomepage befindet sich noch unter http://www.dartmouth.edu/~ai50/homepage.html. [Abgerufen im August 2011] 7 Christine Plicht neuartige Intelligenz‘ gegenüber sitze.“(RN04, S.50). Damit bestätigte sich Simons Pro’ phezeiung, wenn auch 30 Jahre zu spät. Dennoch war es in den ersten Jahrzehnten nicht möglich, einen Computer zu entwickeln, dessen Fähigkeiten über die eines Amateurschachspielers hinaus gingen. Der Erfolg des Schachcomputers hängt sowohl von seiner Hardwareleistung als auch der Software, dem Schachprogramm, ab. Das Programm berechnet die möglichen Züge und wählt hier mit einer Bewertungsfunktion aus. Heute ist die Entwicklung an Schachcomputer nicht mehr so interessant wie noch vor zwanzig Jahren. Die handelsüblichen Schachcomputer können den normalen Schachspieler mühelos schlagen, demnach hatte die Entwicklung Erfolg und das Problem ist gelöst. Interessanter sind mittlerweile Spiele wie Go, die auf eine komplexere Bewertungsfunktion aufbauen und zudem einfache Regen haben. Der Schachcomputer und Chatbots sind beides Programme, die interaktiv mit Menschen arbeiten und basieren auf kognitive Fähigkeiten des Menschen. Es findet ein Austausch zwischen Mensch und Maschine statt und wenn der Interaktionspartner nicht wüsste, dass er mit einem Programm interagiert, würde es ihm wahrscheinlich nicht direkt auffallen. 8 Christine Plicht 3 Künstlichen Intelligenz im philosophischen Kontext Im 20. Jahrhundert hat man versucht, einer Maschine oder einem Computer Dinge beizubringen, die sonst nur Organismen vollbracht haben. Es ging nicht mehr nur um eine Mechanisierung, die dem Menschen Arbeit abnehmen soll, sondern auch kognitive Leistungen sollten auf Hardware durch geeignete Programmierung übertragen werden. Eine wichtige Voraussetzung dafür war die Turing-Maschine. Eine Turing-Maschine ist ein simples Konzept einer Rechenmaschine. Sie kann für eine berechenbare Funktionen f ihren Wert f(n) an der Stelle n ausgeben. Für jede berechenbare Funktion gibt es eine Turing-Maschine. Das heißt, alles was, ein Mensch berechnen kann, kann auch eine Maschine erledigen. Nachdem es so große Erfolge und Prophezeiungen auf dem Gebiet der Informatik gegeben hat, war es möglich, dass ein Rechner menschliche kognitive Eigenschaften simulierte. Es gibt seitdem Computer, die Schach spielen oder eine Unterhaltung mit uns führen können. Dadurch erhielt die Maschine kognitive Fähigkeiten, die bisher nur dem Menschen zustanden. Außerdem waren das genau die Fähigkeiten, bei denen es nicht möglich war, von außen zu überblicken, wie ein Mensch das tut. Eine Maschine, die eine körperliche Arbeit des Menschen ersetzt, wie das Weben und Stricken von Stoffen, folgt klar einem Schema, das wir bei den Webern sehen und nachvollziehen konnten. Diese Handfertigkeit durch eine Maschine zu ersetzen, ist konzeptionell anders als einen Schachspieler zu ersetzen. Es wurden Fähigkeiten ersetzt, die von außen nicht einsehbar sind und somit von Dritten nicht durchschaubar. Was im Kopf“ ” eines Menschen vorgeht, wenn er ein wichtiges Schachturnier spielt, ist für die Außenstehenden verborgen, so nicht die Schritte, einen Pullover zu stricken. Aber auch bei dem Schachcomputer wurde das Schachspiel mit Hilfe von einer logischen Abfolge elementarer Schritte bzw. eines Flussdiagramms transparent gemacht, da es aus nachvollziehbaren Schritten besteht. Das Programm ist schließlich von einem Menschen programmiert, also ist es auch möglich zu verstehen, was dahinter steckt. Gerade die Frage, wie kognitive Eigenschaften des Menschen funktionieren ist sowohl für die Philosophie, aber auch für andere Wissenschaften, wie den Neurowissenschaften, von Bedeutung. Die Philosophie des Geistes versucht Probleme, welche die mentale Seite des Menschen mit den geistigen Eigenschaften betreffen, zu untersuchen und Begriffe, die damit zusammenhängen, zu definieren und zu erklären. Was geschieht in einem Menschen, wenn er an Dinge denkt, was bedeutet das und wie denkt er überhaupt? Geistige Eigenschaften sind für Außenstehende nicht zugänglich, wir können nicht erkennen, was in unserem Gegenüber vor sich geht. Warum er diesen Schachzug ausführt und nicht einen anderen. Es geht darum, 9 Christine Plicht die Introspektion zu betrachten und die innere subjektive Komponente des Verhaltens erklären zu können. Zu Beginn des 20. Jahrhundert versucht der Behaviorismus, das Individuum anhand seines Verhaltens zu untersuchen und dadurch Ergebnisse über innere Vorgänge zu erhalten. Im Gegensatz zur Introspektion, die auf die Beobachtung des eigenen Selbst zielt, erforscht der Behaviorist das Verhalten Dritter und lässt dabei auch die Physiologie unbeachtet. Das Innere wird als Black Box“ weitgehend ausgeblendet. Man ist zu einer ” Verhaltensforschung übergegangen, die dann in der allgemeinen Psychologie durch John B. Watson (1878-1958) und auch Frederic Skinner (1904-1990) Einzug gefunden hat. Zentraler Punkt hierbei ist das Reiz-Reaktions-Modell, das besagt, dass jedes Verhalten auf eine Reizstimulierung zurückzuführen ist und somit alle inneren mentalen Vorgänge durch äußeres Verhalten erklärt werden. Kritiker weisen darauf hin, dass sämtliche subjektive Erfahrungen dabei außer Acht gelassen werde und das Verhalten sich nicht nur aus der Perspektive der dritten Person erschließen lasse. Anders versucht die Kognitionswissenschaft Zugang zum Geist zu finden. Hier wird explizit versucht, Strukturen und Funktionenweisen des Geistes zu finden, um ein besseres Verständnis dieses zu erlangen. Ausgangspunkt ist, dass der Mensch offensichtlich unterschiedliche mentale Zustände besitzt, je nachdem, was er gerade macht, wie er sich gerade fühlt. Es ist naheliegend, dass es irgendwie beeinflussbar ist, in welchen Zustand wir uns befinden und dass es demnach eine Art Regelwerk gibt, dem eine kausale Struktur zugrunde liegt. Dieses Regelwerk und die Strukturen, die man aufdecken will, führen dazu, dass man die mentalen Zustände als funktionale Zustände identifizieren könnte, die sich durch ihre kausale Rolle charakterisieren lassen (Bec08, S.142). Funktionale Zustände können wir uns vorstellen, wie bei einem Automaten2 . Der Automat kann Ein-Euro-Münzen und Fünfzig-CentMünzen annehmen. Eine Coladose kostet einen Euro. Der Automat kann zwei Zustände annehmen, je nach Input (den Münzen). Zustand X1 ist der Anfangszustand. Wenn nun eine Ein-Euro-Münzen eingeworfen wird, gibt der Automat eine Coladose aus und bleibt im Zustand X1 . Wird ein Fünfzig-Cent-Münze eingeworfen, wechselt der Automat in Zustand X2 . Folgendes gilt für Zustand X2 : Bei einer Fünfzig-Cent-Münze gibt er eine Cola-Dose aus und geht in den Zusstand X1 über. Bei einer Ein-Euro-Münze gibt er Fünfzig-Cent zurück und eine Coladose. Wieder wechselt er in den Zustand X1 . Das bedeutet, der Automat kennt zwei Zustände, für diese Zustände gibt es bestimmten Input und gegebenenfalls Output (Coladose oder Fünfzig-Cent-Münze). Dieser Output wird durch Regeln oder auch Verhaltensgesetze bestimmt. Entscheidend dabei ist aber 2 Beckermann verweist in seiner Einführung auf das Beispiel eines Getränkeautomaten von Ned Block. 10 Christine Plicht auch, wie diese Zustände realisiert werden und nicht nur, dass es sie gibt. Es muss eine Beziehung zwischen den internen Strukturen und den externen Strukturen geben. Nach den Funktionalisten werden funktionale Zustände durch physische Zustände realisiert. Diese physischen Zustände sind das, was in dem Automaten dahinter steckt, sodass er den Output liefert. Dies kann durch einen Schaltplan dargestellt werden. Funktionalisten vertreten die Ansicht, dass sich der Mensch, ähnlich wie ein Getränkeautomat, in verschiedenen Zuständen befinden kann und dass es Inputs gibt, die veranlassen, welcher Zustand realisiert wird. Ich befinde mich also immer in irgendwelchen Zuständen, zum Beispiel dem funktionalen Zustand des Wartens. Funktional wird hier nicht verstanden als Aufgabe oder Zweck, den ein Zustand erfüllt, sondern eher im mathematischem Sinne als Abbildungsvorschrift. Durch den Input n befindet sich der Automat in Zustand f (n), dem Output. Input wird hier durch die kausale Rolle von n und f (n) charakterisiert. Wenn ich mich also im Zustand des Warten W befinde, kann sich etwas ändern, das eine kausale Rolle zu W hat und dann in den Zustand W’ übergeht. Allerdings ist diese Realisierung alles andere als eindeutig. Dieselben mentalen Zustände können durch unterschiedliche physikalische Zustände hervorgerufen werden, sowohl bei anderen Person als bei der selben. Der Zustand W kann morgen bei mir durch einen anderen physikalischen Zustand realisiert werden. Das System ist somit multirealisierbar. Die Beschreibung der mentalen Zustände als funktionale Zustände führt dazu, dass man sich den Geist wie ein Computerprogramm vorstellen könnte. Hieraus entstand die These, dass das Verhältnis des Geist zum Körper sich mit dem der Software zur Hardware vergleichen lasse. Starke Vertreter dieser These sind Anhänger des Funktionalismus3 , genauer des Computerfunktionalismus. Dieser besagt, dass sich in der Struktur des Geistes, die mentalen Zustände durch funktionale Zustände erklären lassen. Prinzipiell ist die Vorstellung, dass diese Zustände funktional sind, ontologisch erstmal neutral. Dass funktionale Zustände existieren sagt noch nicht darüber aus, wie diese realisiert werden. Erst die These, dass sie durch physikalische Zustände realisiert werden, macht den Funktionalismus zu einer materialistischen Richtung bzgl. des Körper-Geist-Problems der Philosophie des Geistes. Der Funktionalismus versucht nämlich mit seinen Thesen eine Antwort auf die Frage zu finden, wie der Körper und der Geist zusammenhängen, welche Beziehung es zwischen ihnen gibt. Wie steht das Mentale, die geistigen Eigenschaften oder sogar geistigen Dinge, zu den Physikalischen? Gibt es eine Beziehung zueinander, wie hängen sie zusammen, ist das eine auf das andere zurückzuführen bzw. reduzierbar? 3 Als Vertretet dieser These sind Hilary Putnam oder Jerry Fodor zu nennen. 11 Christine Plicht 3.1 Körper-Geist-Problem Eine Untersuchung des Körper-Geist-Problems spaltet die Philosophen grob in zwei Richtungen, die Dualisten und die Materialisten. Die Anhänger des Dualismus behaupten, dass es sowohl materielle als auch immaterielle Entitäten oder Substanzen gebe. Hierbei gibt es unterschiedliche Strömungen; die zeitlich erste wichtige war im 17. Jahrhundert der Substanzdualismus, der auf René Descartes (1596-1650) zurückzuführen ist. Dieser unterscheidet zwischen einer res cogitans und einer res extensa, die geistigen und die nicht-geistigen Substanzen. Substanzen sind Träger von Eigenschaften, die selbst keine Eigenschaft sind. Die Substanzdualisten glauben daran, dass der Mensch eine unsterbliche, immaterielle Seele hat, die unabhängig von seinem Körper ist. Dies entspricht der damaligen religiösen Ansicht einer unsterblichen Seele. Andere, wie die Eigenschaftsdualisten gehen nicht mehr von zwei verschiedenen Substanzen aus, sondern nur noch von mentalen und physischen Eigenschaften. Der Körper hat physische Eigenschaften, wie Masse und Ladung, aber auch mentale Eigenschaften, wie Vorstellungen, Denken usw. Ein zeitgenössischer Vertreter des Eigenschaftsdualismus ist David Chalmers, der behauptet, dass mentale Eigenschaften sich nicht reduktiv durch den Materialismus erklären lassen, also nicht auf physikalische Eigenschaften reduzierbar sind. Gegner des Dualismus bestreiten eine Aufteilung in zwei Arten von Eigenschaften oder Substanzen. Sie behaupten, dass mentale Zustände irgendwie auf physische Zustände reduzierbar seien und es nur eine materielle Welt gibt. Solch eine Vorstellung wird auch als Materialismus oder auch Physikalismus bezeichnet. Es handelt sich hierbei um einen materialistischen Monismus, der vom mentalen Monismus zu unterscheiden ist. Zweiteres bezeichnet einen Idealismus, der nur von einer geistigen Welt ausgeht. Dem Materialismus kann man verschiedene Gebiete zuordnen, die unterschiedliche Lösungsansätze für das Körper-Geist-Problem haben, aber immer von einer Welt ausgehen, die sich mit naturwissenschaftlichen Methoden erklären lässt und letztendlich auf physikalische Entitäten zurückzuführen ist. Hierzu zählt auch der Funktionalismus und Behaviourismus. In gewissen Sinne ist der Materialismus die Religion unserer Zeit, zumindest unter ” den meisten Experten auf den Gebieten der Philosophie, Psychologie, Kognitionswissenschaften und anderen Disziplinen, die sich mit dem Geist beschäftigen.“(Sea06, S.56), so Searle. Der Materialismus ist unserem heutigen Weltbild viel näher als es zu Descartes’ Zeit war, denn dort war der Einfluss der Religionen stärker, mit einem etablierten Glauben an ein Leben nach dem Tod, bei dem die Seele in den Himmel fährt und der Körper zurück auf der Erde bleibt. Heute wird versucht für alles handfeste und begreif- 12 Christine Plicht bare Erklärungen zu finden. Mystische Dinge, wie Geister oder wandelnde Seelen, sind mittlerweile sehr unplausibel geworden. Der Funktionalismus wird also erst mit der Annahme, dass die funktionalen Zustände durch physikalische Zustände realisiert werden, zu einem Materialismus. Ansonsten könnten die Zustände auch durch mentale oder immaterielle Zustände realisiert werden, das ist für die kausale Rolle durch die sie charakterisiert sind, formal irrelevant. Über die ” Art des Zustands ist damit nichts gesagt. Es kann sich um einen Gehirnzustand handeln, aber genauso gut auch um einen nicht-physischen Zustand dieser Person oder vielleicht sogar um einen Zustande einer immaterielle Seele.“(Bec08, S.155) Der Funktionalismus und seine Unterarten sind anschaulich durch die Arbeitsweise von Automaten und Computern darstellbar, er beschränkt sich prinzipiell aber nicht auf diese und will auch keineswegs aussagen, dass die Zustände mit denen eines Computers übereinstimmen. Eine Position, die hierauf stärker zielt, ist der Computerfunktionalismus. Aus ihm stammt auch die schon angedeutete These des Vergleiches Geist-Gehirn zu SoftwareHardware. Searle bezeichnet die Theorie eines Computermodell des Geistes auch als starke künstliche Intelligenz“(Sea06, S.75). Das Computermodell des Geistes besagt, ” dass das Gehirn wie ein digitaler Computer funktioniert oder sogar einer ist, also eine Turingmaschine, das Programme mit Algorithmen und Operationen ausführt und sich in funktionale Zustände einteilen lässt. Aus dieser These ergeben sich nun mehrere Möglichkeiten mit unterschiedlichen Konsequenzen, sowohl für die Philosophie als auch für die KI-Forschung: • Wenn das Gehirn, wie ein digitaler Computer funktioniert, können wir daraus folgern, dass ein Computer mit ausreichenden Funktionen programmiert werden kann, der dann auch einen Geist zu besitzen. Das heißt, es ist vorstellbar, dass wir Computer irgendwann soweit entwickeln, dass sie so menschenähnlich sind, dass wir ihnen Bewusstsein und Geist zuschreiben können. • Da das Gehirn mit Strukturen wie ein digitaler Computer ausgestattet ist, können wir versuchen, mit Hilfe des Computers Erklärungen für kognitive Eigenschaften zu finden. Wenn wir also ein Programm entwickeln, dass Schuhe bindet, dann wird im Gehirn der gleiche oder ein ähnlicher Ablauf passieren, wenn sich ein Mensch die Schuhe bindet. Diese beiden Punkte sind natürlich sehr stark formuliert und werden in dieser Form selten postuliert, aber letztendlich stellt sich die Frage: Wo sind die Grenzen der künstliche Intelligenz? 13 Christine Plicht Weiter ist es auch schwierig abzugrenzen, wo Geist anfängt. Wann und vor allem wie können wir einem System ein erschaffenes Bewusstsein oder sogar Geist zusprechen? Um diesen Fragen nachzugehen muss vorher erst einmal geklärt werden, ob es möglich ist eine Definition für Geist zu finden. Geist ist ein Begriff, den wir alltäglich benutzen und grob haben wir eine Vorstellung darüber, was wir darunter verstehen. Geist sehe ich umgangssprachlich als Oberbegriff für die Dinge, die wir physikalisch nicht erfassen können und Teil des Menschen sind. Sozusagen als Sammlung der immateriellen Seite mit seinen Fähigkeiten dazu. All das, was die Philosophie des Geistes betrifft, basiert darauf, dass wir intuitiv annehmen, dass wir einen Geist haben. Es ist schwierig, eine allgemeine Definition in diesem Bereich zu finden, deswegen möchte ich mich nicht genauer festlegen, was ich unter Geist verstehe, sondern finde es vorerst als Oberbegriff offen genug, um hier gegebenenfalls weitere Ansichten und Definitionen zu ergänzen. Genauso ergeht es mir mit dem Begriff Bewusstsein. Nach gründlicher Studie verschiedener Literatur, sowohl spezieller, als auch allgemeiner, bin ich zu dem Entschluss gekommen, dass es mir nicht möglich ist, und auch nicht mein Ziel, hier eine Definition von Bewusstsein zu geben, die entweder allen bzw. möglichst vielen Philosophen gerecht wird oder genau eine Ansicht eines bestimmten Denkers widerspiegelt. Es ist mir nur möglich, eine Definition von Bewusstsein zu geben, die meiner Vorstellung davon entspricht. Diese kommt dadurch zustande, dass ich mich damit beschäftigt habe, was andere unter Bewusstsein verstehen. So, wie diese Arbeit nach meinem Ermessen entstanden ist, so ist darin auch mein subjektives Verständnis von Bewusstsein enthalten, dass hoffentlich verschiedene Nenner mit anderen Bewusstseinsvorstellungen hat. Eine allgemeine Vorstellung oder sogar Definition kann ich allerdings nicht geben, da es diese, meiner Meinung nach, nicht gibt. Bewusstsein ist ein Teil der mentalen Seite des menschlichen Körpers und beinhaltet bewusste Zustände - demnach kann man Bewusstsein als Klasse der bewussten Zustände oder auch mentaler Eigenschaften zusammenfassen. Prinzipiell kann ich die bewussten Zustände wieder in zwei Klassen einteilen, solche mit phänomenalem Charakter und andere mit intentionalem Charakter. Phänomenale Zustände sind vor allem Empfindungen oder Wahrnehmungen. Es ist das, was man fühlt oder erlebt. Ich sehe eine rote Rose und habe dabei eine Empfindung, eben die, eine rote Rose zu sehen. Man kann hierfür keine genaue Definition geben, sondern phänomenales Bewusstsein nur mit Beispielen und Umschreibungen erklären. Es gibt einen passenden Ausdruck, der von Brian Farrell (1950) und später durch Thomas Nagel (1976) weiter thematisiert wurde: What ” 14 Christine Plicht it’s like to“ 4 . What it’s like to see a red rose“, wie fühlt es sich an, wie ist es, eine ” rote Rose zu sehen? Das ist ein Zustand, der nur individuell zugänglich ist. Ich empfinde dabei etwas anderes, als ein Blumenverkäufer oder auch nur eine andere Person. Zu diesen phänomenalen Zuständen können aber auch solche hinzukommen, die eher von kognitiver Art sind. Sich eine Meinung über etwas bilden, etwas bewerten oder sich wundern, kann sich auch auf eine bestimmte Art anfühlen, sodass es einen subjektiven Erlebnisgehalt hat. Allerdings ist es umstritten, ob solche Zustände auch zum phänomenalen Bewusstsein gehören. Liberale Phänomenaliberalisten zählen sie dazu. Neben dem phänomenalen Gehalt des Bewusstsein gibt es auch solche Zustände, die als intentional beschrieben werden. Hierbei bezeichnet Intentionalität nicht wie im deutschen Sprachgebrauch üblich, dass eine Absicht dahinter steht, sondern in diesem Kontext ist damit gemeint, dass das Bewusstsein auf etwas gerichtet ist. Intentionale Zustände sind Wünsche, Ängste, Erinnerungen, etc, all jene Zustände, die kognitiv funktionalen Charakter haben. Diese Zustände sind klar mit einem konkreten Inhalt gefüllt. Wohingegen bei den phänomenalen Zustand nicht die Rose im Zentrum steht, sondern der Zustand, wie es sich anfühlt, die Rose zu betrachten. Es ist ein Erlebnis und kein Zustand, in dem man sich etwas wünscht, etwas glaubt, befürchtet etc. Es geht nicht darum, wie es sich anfühlt, eine Rose zu sehen oder riechen, sondern, wenn ich mir eine Rose wünsche oder an sie denke. Nicht das Wie, sondern eher die Rose als Ziel meiner Gedanken ist hier der Punkt. Im Englischen werden die Begriffe Access Consciousness (A-Consciousness) und Phenomenal Consciousness (P-Consciousness) verwendet(McL09). Ein essentieller Teil des Geistes sind natürlich allgemein unsere kognitiven Fähigkeiten, unabhängig davon, ob sie zu den bewussten oder unbewussten Zuständen gehören. Hierzu zählen Eigenschaften wie Kreativität, Aufmerksamkeit, Erinnerung, Wille oder auch Glauben. Sie unterscheiden sich von physischen Fähigkeiten, wie die Funktionsweisen des Körpers, der atmet, verdaut usw. Diese Eigenschaften sind notwendig zum Leben. Aber genauso können wir den Menschen nicht von seiner mentalen Seite trennen. Ein Mensch ohne kognitive Fähigkeiten, der nichts wahrnimmt, nichts denkt und kein Bewusstsein hat, ist nicht eigenständig überlebensfähig. Bei den mentalen Eigenschaften stellt sich die Frage, ob sie auf physische Eigenschaften reduzierbar sind, also auf diese zurückzuführen sind oder Träger von ihnen. Das ist ein Aspekt des Körper-Geist-Problems. Wie unterscheiden sich physische von mentalen Eigenschaften? Zum durch ihre Privatheit. Ich sehe zwar auch nicht, wie der Körper meines Nachbarn atmet, aber hier wird 4 Farrell benutzt in seinem Paper Experience“ von 1950 und Nagel in dem bekannten Aufsatz What ” ” it’s like to be a bat“(1976). 15 Christine Plicht Privatheit eher als individueller Aspekt gesehen. Mentale Eigenschaften, die ich habe, treffen nur auf mich zu und ich habe einen besonderen Zugang zu ihnen. (Bec08, vgl. S.11) Ein weiterer Punkt, der zum Geist gehört ist die Fähigkeit der Sprache; hierzu zähle ich das Denken und auch Verstehen. Gerade das Problem des Sprachverstehens ist zentraler Teil der philosophischen KI-Debatte. Zur Sprache gehört für den Mensch unbedingt das Denken und natürlich auch ein Verständnis von dem, was er sagt und die außersprachliche Wirklichkeit. Sätze bestehen nicht nur aus einem reinen Inhalt, der wahr oder falsch sein soll, vielmehr ist Sprache ein Konstrukt aus Syntax und Semantik. Diese sind in einem Kontext zu betrachten, der Pragmatik (die Lehre von der Zeichenverwendung). Die Syntax sind formale Regeln, wie Wörter gebildet sind, um einen Satz zu formen. Sie bilden die Ordnung des Satzbaus. Das sollte für eine KI kein Problem darstellen, die Semantik hingegen kann nicht nach einem einfachen Schema überprüft werden. In der Semantik ist vielmehr die Bedeutung der Zeichen und der Wörter ausschlaggebend. So ist der Satz Caesar ist eine Primzahl “ syntaktisch korrekt, aber semantisch ergibt ” er keinen Sinn. Der Sprachphilosoph Rudolf Carnap(1891-1970) bezeichnet solche Sätze auch als sinnlos. (Car32). Allerdings, um diese Fehler zu erkennen, muss auf die Beziehung der Wörter geachtet werden, ob sie zur gleichen Kategorie gehören. Die wörtliche Bedeutung ist hier relevant, so wie sie in dem sprachlichen Konvention gebraucht werden. Bei der Semantik ist eine versteckte, hintergründige Bedeutung erstmal unbeachtet. Ich habe einem einfachen Chatbot5 im Internet die Frage gestellt Ist Caesar eine Prim” zahl“, als Antwort erhielt ich: Ein römischer Feldherr“. Das zeigt, dass die Verknüpfung ” zwischen Primzahl und Caesar bei ihm nicht korrekt gegeben ist und er die Frage somit nicht beantworten kann. Allerdings kann er die Frage, ob Barack Obama ein Einzelkind ist, auch nicht sinngemäß beantworten6 . Neben der Syntax und der Semantik gibt es, nach Charles W. Morris, noch eine dritte Lehre, die zur Sprache oder vielmehr einer Zeichentheorie gehört: die Pragmatik, die Lehre der Zeichenverwendung. Sprache steht immer in einem sprachlichen Zusammenhang in dem sich der Sprecher und der Empfänger befinden und hat demnach unterschiedliche Verwendungen. In der Pragmatik geht es um die Verwendung sinnvoller Sätze im kommunikativen Kontext. So hat ein Wort im Allgemeinen die gleiche Bedeutung, aber 5 Dieser ist unter http://thebot.de/ zu finden, dort kann man mit ihm sprechen. [Abgerufen im August 2011] 6 Der Gesprächsauszug hierzu: User : Ist Obama Einzelkind? Brain: Barack Obama ist der präsident der vereinigen staaten vom Amerika. User : Hat er Geschwister? Brain: Nein, ich bin Einzelkind 16 Christine Plicht durch den Sprecher kann das in einem anderen Kontext stehen und wird dann anders aufgefasst. So kann ein Pfarrer und ein Politiker dieselben Sätze sagen, aber ihre Bedeutung ändert sich durch den unterschiedlichen Kontext. Prinzipiell gibt es zwei verschiedene Ansätze der KI-Forschung, wie an solche Probleme herangegangen wird. Searle nennt sie starke“ und schwache“ KI. Die schwache ” ” KI-Forschung wird dazu benutzt, Instrumente zu finden, um konkrete Anwendungsprobleme zu lösen oder Hypothesen zu überprüfen. Meist geschieht das durch Simulation von intelligentem Verhalten und führt durch korrekte Anwendung zu der gewünschten Lösung. Es erleichtert den Alltag und übernimmt Aufgaben, die der Mensch sonst durch seine Fähigkeiten meistern könnte. Hierzu zählen Probleme der Schrifterkennung, automatische Übersetzungen oder auch Navigationsprogramme. Im Gegensatz dazu steht die starke KI, die nicht nur von einer Simulation kognitiven Eigenschaften ausgeht, sondern dem System, wenn es diese Fähigkeiten besitzt auch Geist zuschreibt, der vergleichbar ist mit dem eines Menschen. Ebenso geht sie davon aus, dass wir mit Hilfe der Fortschritte und Ergebnisse aus der KI-Forschung Schlüsse auf den Menschen ziehen können, um somit den Geist zu erklären. Hier werden die Visionen deutlich, die zu Beginn der KI in den meisten Köpfen schwebten und dem entsprechen, was uns die Science-Fiction Literatur vorspielt. Neben der Forschung gab es zu der Zeit auch viele Schriftsteller, die sich mit Robotik und künstlicher Intelligenz befassten und außergewöhnliche Geschichten dazu verfassten. Einer davon ist Isaac Asimov (1920-1992), der Robotik literarisch verarbeitete. In seinen Geschichten hat er die Asimovschen Gesetze, drei Robotergesetze eingeführt, die ein friedliches Zusammenleben von Menschen und Robotern garantieren sollen. Asimov erschafft in seinen Geschichten immer wieder Roboter, die menschenähnlich sind, dadurch dass sie nicht nur kognitive sondern auch emotionale Eigenschaften eines Menschen besitzen7 . Der Roboter ist hier eine Person, die mit den Menschen auf eine bestimmte Art zusammenlebt. Viele Science-Ficton-Romane erzeugen den Eindruck, es sei möglich ist, dass Roboter in naher Zukunft immer menschenähnlicher werden und durch ihre Fähigkeiten auch so etwas wie ein Bewusstsein besitzen. In den Geschichten existieren immer wieder Roboter, die Beziehungen zu Menschen haben und nicht nur zu Arbeitszwecken gebraucht werden. Roboter können sich unterhalten und zeigen Gefühle und sogar Kreativität. Es ist also zumindest vorstellbar, dass künstliche Intelligenz entstehen könnte. Die Science-FictionVorstellung und die der starken KI liegen insofern nahe beieinander, dass sie Visionen 7 Robbi“, Asimovs erste Robotergeschichte, handelt von einem Spielgefährten eines kleinen Mädchen ” und Der Zweihundertjährige“ behandelt die Thematik, dass ein Roboter sich danach sehnt ein ” Mensch zu sein. 17 Christine Plicht haben, die Computern existenzielle Eigenschaften des Menschen zuschreiben. Im Kontext der künstliche Intelligenz möchte ich noch auf den Begriff der Person eingehen und darstellen, um ihn später mit den Vorstellungen der künstlichen Intelligenz zu vergleichen. Der Begriff Person kommt aus dem lateinischen Wort Persona, das soviel bedeutet wie Maske, Rolle oder Charakter. In der Antike wurde damit die Rolle des Schauspielers oder Rolle eines Individuums in der Gesellschaft bezeichnet. Eine klassisch Definition stammt von dem antiken Philosophen Boethius: Persona est naturae ratio” nabilis individua substantia“, eine Person ist die individuelle Substanz einer rationalen Natur (Pre99, S.432). John Locke (1632-1704) äußert sich dazu: Person ist ein denken” des intelligentes Wesen, das Vernunft und Reflexionen besitzt und sich als Selbst denken kann, als dasselbe denkende Etwas in verschiedenen Zeiten an verschiedenen Orten.“ (Bie81, S.281) Wichtig ist, dass das Wesen Reflexionen haben muss, ein Selbstbewusstsein. Zudem muss es sich selbst als das gleiche Wesen in in verschiedenen Zeiten und Orten denken. Das bedeutet, dass trotz Änderungen des Auftretens, wie eine andere Haarfarbe oder ein Umzug und dadurch ein anderes soziales Umfeld, das Wesen bleibt erhalten. Eine Person kann sich demnach durch äußere Umstände nie so verändern, dass sie eine andere Identität hat. P. F. Strawson schließt in den Personenbegriff alle Entitäten ein, denen Prädikate mit Bewusstseinszuständen, also mentale Eigenschaften und auch körperliche Eigenschaften zugeschrieben werden. Also muss eine Person sowohl kognitive Eigenschaften, wie logisches Denken oder Wahrnehmungen haben, aber genauso muss man über ihre körperliche Substanz, Gewicht, Farbe etc. Aussagen treffen können. Dennett stellt in seinem Aufsatz Bedingungen der Personalität“ sechs Eigenschaften vor, die er notwendig, aber nicht ” hinreichend für die Charakteristik einer Person sieht. Einige dieser Bedingungen sind eng mit seinem Verständnis von intentionalen Systemen verknüpft, das ich in Kapitel 4 erläutere. Zu den Bedingungen zählen für Dennett folgende: 1. Vernunft 2. Bewusstseinszustände oder intentionale Prädikate 3. Haltung 4. Haltung erwidern 5. verbale Kommunikation 6. Selbstbewusstsein 18 Christine Plicht Es zeigt sich, dass es verschiedene, jedoch keine einheitlichen Kriterien für den Begriff der Person gibt und diese nicht hinreichend sind um eine Person zu klassifizieren. Dennett spricht sich auch explizit gegen hinreichende Kriterien aus, da diese normativ sind. Es ist eher das Gesamtbild zu betrachten und daran zu entscheiden, statt einzelne Kriterien abzuhaken. Ähnlich also wie bei der künstlichen Intelligenz ist es schwierig Kriterien zu finden; versuchte Definitionen sind nur bedingt praktisch anwendbar und vor allem nicht vollständig. Wie der Begriff der Person mit dem Begriff der künstlichen Intelligenz zusammenhängt, werde ich später zurück kommen. Es ist jedoch auch jetzt schon ersichtlich, dass sie nahe beieinander liegen und einige möglichen Kriterien sich überschneiden. So deutet Dennett auch an, dass sein Konzept von intentionalen Systemen zumindest die ersten drei Punkte seiner Bedingungen der Personalität überdecken. Es ist anzunehmen, dass der Begriff Personalität weiter geht als eine starke KI. Natürlich muss man unterscheiden, dass KI ein Konzept in der möglichen Entwicklung ist, wohingegen wir ein Vorverständnis des Personenbegriffs haben. Es ist allerdings auch anzunehmen, dass wir bei der Entwicklung eines Computersystems, implementiert in eine Roboter, die Debatte, ob oder wann dieser Roboter eine Person ist, nicht unbeachtet bleiben lassen können. 19 Christine Plicht 4 Drei philosophische Ansätze Gleichzeitig zu den rasanten Entwicklungen der Informatik auf dem Gebiet der künstlichen Intelligenz gab es eine Diskussion, die sich mit den im vorangegangen Kapitel angesprochenen philosophischen Fragen verbunden mit der künstlichen Intelligenz befasste. Hierzu zählten vor allem Wissenschaftler aus der USA, die teilweise in den selben Forschungseinrichtungen waren wie die Entwickler und namenhafte Größen der Informatik. Im folgenden Kapitel werde ich drei Philosophen und deren Theorien vorstellen sowie die Konsequenzen für die KI-Forschugen diskutieren. Dazu beginne ich mit Daniel C. Dennetts pragmatischen Ansatz. Weiter werde ich John Searles Gedankenexperiment Das Chinesische Zimmer und einige Kritiken dazu vorstelle. Als letzten Philosophen behandele ich Hubert Dreyfus und seine phänomenologische Kritik. 4.1 Daniel C. Dennetts - Intentionale Systeme Daniel C. Dennett ist Professor der Philosophie an der Tufts University in Massachusetts, seine Forschungsgebiete liegen in der Philosophie des Geistes und der Kognitionswissenschaft. Er war Schüler von Gilbert Ryle an der Oxford University. Durch den Einfluss von Ryle zeigt sich, dass Dennett ein ähnliches Verständnis und Herangehensweise an die Philosophie des Geistes hat wie Ryle, dies wird auch in der KI-Debatte deutlich. Im Gegensatz zu Searle vertritt Dennett eher einen pragmatischen Ansatz. Einige seiner wichtigsten Themengebiete sind u.a. intentionale Systeme und Bewusstsein8 , außerdem hat er Arbeiten zum freien Willen9 verfasst. Dennett ist ein Wissenschaftler, der die Grenzen der KI nicht so weit fasst, wie zum Beispiel Hubert L. Dreyfus, und ein Forschungsprojekt COG am Massachusetts Institute of Technology (MIT) mitbegründet hat, das aktiv einen Roboter erschaffen wollte, der so menschenähnlich ist, dass man ihm Bewusstsein zuschreiben könnte. In seinem Text COG: Schritte in Richtung Bewusstsein in Robotern“ erzählt er von dem Vor” haben und erörtert, ob es prinzipiell möglich sei, Robotern Bewusstsein zuzusprechen. Im Folgenden möchte ich mich genauer mit dem Begriff Intentionalität befassen und Dennetts Idee eines intentionalen Systems“ vorstellen und in einem späteren Kapitel ” die Ideen und Visionen des COG-Projekt erläutern. In der KI-Debatte, bedingt durch verschiedene Richtungen der Philosophie des Geistes, stellt sich prinzipiell immer die Frage: Wann kann ich einem Computer oder einem System Fähigkeiten zusprechen, die 8 9 Beispielsweise in: Daniel C. Dennett, Conciouscness Explained, Boston: Little Brown and Co, 1991. Diese sind zu finden in: Daniel C. Dennett, Brainstorms, Hassocks: Harvester Pr, 1979. 20 Christine Plicht ich sonst explizit mit einem Menschen verbinde? Speziell Eigenschaften wie Wünsche und Vorstellungen sind dem Menschen vorbehalten - so das allgemeine Verständnis. Diese Eigenschaften sind so stark mit der menschlichen Existenz verwurzelt, dass es uns sehr schwer fällt, sie anderen Objekten zuzuschreiben. Insbesondere dadurch, dass wir keine allgemeingültige und anerkannte Definition und Kriterien für Geist oder Bewusstsein haben, können wir auch keine allgemeine Validität geben, wenn diese Eigenschaften nun nicht mehr exklusiv in einem menschlichen Körper sein sollten. So hat Turing mit seinem Test vor einigen Jahrzehnten gesagt, dass ein System intelligent ist, wenn es eine mit dem Menschen vergleichbare Sprachkompetenz erreicht. Dann regt sich in uns aber das Bedürfnis zu sagen: Ja, aber, was ist mit ...“ und hier kommen immer wieder weitere ” mentale oder physische Phänomene, die wir dem Menschen zuschreiben. (Ja, aber der Computer versteht nicht, was er da sagt. Ja, aber der Computer befindet sich nicht in dem gleichen Kontext wie der Mensch. Ja, aber ... .) Wir können nicht in den Menschen hineinsehen, was veranlasst, dass er versteht und Dinge in einem Kontext wahrnimmt. Neben diesen klaren mentalen Eigenschaften spielt immer wieder das phänomenale Bewusstsein eine Rolle. Es ist unklar, ob der Computer die Fähigkeiten eines Menschen nur simuliert oder ob er sie wirklich besitzt. Genau an dieser Fragestellung setzt Dennett an. Er vertritt die Meinung, das sei irrelevant. Er will dort Verhalten erklären und Vorhersagen treffen, wenn man einem System Intentionalität zuschreibt. Er nimmt an, dass es so etwas hat, um weitere Aussagen treffen zu können und so den philosophischen Problemen näher zu kommen. Dennett versucht die Eigenschaften vom Menschen zu lösen und allgemein ein System zu beschreiben, das sich intentional verhält. Bestandteil dieses Systems sind drei Einstellungen: die funktionale, die physische und die intentionale Einstellung10 . Wenn ich das Verhalten eines Gegenübers voraussagen will und kann, dann kann der Gegenüber ein intentionales System sein, unabhängig ob Mensch oder Objekt. Es steht in einer Beziehung zu mir und ich nehme eine Beobachterperspektive ein oder betrachte es aus der dritten Person. Teil dieses beobachtende Systems ist die funktionale Einstellung. Die funktionale Einstellung eines Computers ist abhängig vom Programm, das ausgeführt wird. Hier stellt sich die Frage, was soll er tun, wenn Ereignis X1 eintritt. Im Falle des Getränkeautomats ist das ablesbar im Verlaufsdiagramm. Die Programmstruktur hinter einem digitalem Computer ist in den meisten Fällen jedoch viel komplexer, vergleiche einen Schachcomputer. Hier spielen mehrere Faktoren eine Rolle und der Schaltplan besteht aus vielen klei10 Im Orginal verwendet Dennett den Begriff stance“, er wird in der Literatur unterschiedlich übersetzt, ” sowohl mit Haltung“ als auch mit Einstellung“. ” ” 21 Christine Plicht nen funktionalen Elementen, die beispielsweise weitere Faktoren messen oder berechnen, bevor der Output bestimmt werden kann. Aufgrund der funktionalen Einstellung kann ich also Voraussagen treffen, was ein Computer tun könnte. Bei einem Schachcomputer sind die Züge jedoch zu kompliziert, um sie vorauszusagen, dennoch kann man wissen, was prinzipiell in dem Programm steckt. Ähnlich wie ein Schachcomputer und auch für den Laien verständlich und nachvollziehbar ist ein Programm, das Tic Tac Toe spielt. Hier sind die Züge auch für den Menschen leicht überschaubar und das Spiel ist an sich lösbar, also auch berechenbar11 und somit vorauszusehen, was passiert. Die funktionale Einstellung ist dann vorhersehbar, wenn das System störungsfrei arbeitet, also ohne Probleme, die durch andere Komponenten verursacht werden. Eine dieser Komponente ist die physikalische Voraussetzung. Daraus ergibt sich, dass es neben der funktionalen auch eine physikalische Einstellung gibt. Diese bezieht sich auf den tatsächlichen physikalischen Zustand. Hat ein Programm Störungen, die nicht auf Fehler der Software zurückzuführen sind, liegt es an der Hardware. Genauso kann ich Voraussagen über Gegebenheiten in der Natur treffen, die aufgrund von physikalischen Zuständen eintreffen. Der Kanal wird überlaufen, wenn es weiter so regnet oder die Bremse des Fahrrads wird versagen, wenn die Bremsbeläge abgefahren sind. Hierbei ist es also möglich, Funktionsstörungen vorauszusagen und die daraus resultierenden Folgen zu erwarten. Je nach Komplexität des Systems wird es aber schnell nicht mehr möglich, die funktionale Einstellung oder auch die physikalische zu überblicken und an diesen die Folgen zu erklären. Das System ist ab einem gewissen Punkt nicht mehr ohne Schwierigkeiten zu durchschauen. Aussagen über Funktionstörungen der physikalischen Gegebenheiten zu treffen wird unmöglich, da das System aus so vielen Einzelteilen besteht, deren mögliche Störungen nicht mehr zu überblicken sind. Bei der funktionalen Einstellung fließen so viel Komponenten des Jetzt-Zustandes ein, dass es nicht mehr möglich ist zu bestimmen, welche Voraussetzungen hineinfließen um den nächsten Zustand zu bestimmen. An dieser Stelle führt Dennett die intentionale Einstellung ein. Mit dieser dritten Einstellung ist das Ganze ein intentionales System, d.h. wir schreiben ihm Ziele und Wünsche zu, die verfolgt werden und dazu besitzt es Informationen. Hierbei nimmt Dennett ein weitgehend rationales Verhalten an, um diese Ziele zu verfolgen. Um also Voraussagen über das Verhalten zu treffen, gehen wir davon aus, dass ein Schachcomputer ein Spiel gewinnen will. Wir überlegen uns nicht, welchen Vorgang oder Berechnungen der Pro11 Im Idealfall geht das Spiel immer unentschieden aus. Wenn der erste Zug gemacht ist, ist das Spiel quasi schon entschieden. 22 Christine Plicht grammierer für den Zustand Xn vorgesehen hat, um dann Zustand Xn+1 zu berechnen, denn diese können wir nicht mehr überblicken. Wir fragen uns, was wäre rational sinnvoll und angemessen in diesem Zustand zu tun, um das Ziel zu verfolgen. Wir nehmen also an, dass der Computer selbst eine Meinung hat. Verbleibende Zweifel, ob der Schachcom” puter wirklich Meinungen und Wünsche hat, sind unangebracht.“(Den81, S.166) Genau hier zeigt sich die pragmatische Herangehensweise Dennetts. Es interessiert nicht, ob das System wirklich intentionale Zustände hat oder haben könnte, sondern Ziel ist es, Aussagen über das Verhalten zu treffen. Wenn wir dieses Verhalten mit Hilfe der intentionalen Einstellung erklären können, so ist das der praktikabelste Weg, unabhängig von den Problemen, die dahinter stecken könnten. Dennetts Herangehensweise gleicht der des Behaviorismus. Er betrachtet das Verhalten und versucht aufgrund des Verhaltens weitere Aussagen über dieses treffen zu können. Die genauen physikalischen oder funktionalen Einstellungen lässt er hierbei erst einmal weitgehend unbeachtet, da sie nicht mehr überschaut werden können, sondern schreibt dem System Intentionalität zu. Dennett versucht hiermit das Reiz-Reaktions-Modell von Skinner zu verbessern, indem er nicht die Reize betrachtet, sondern die Intentionalität. Er geht davon aus, dass das System gewissen Regeln folgt, aber nicht rein konditioniert ist. Skinner macht keine Aussagen über Intentionalität, jedoch sind in seinem ReizReaktions-Modell auch Wünsche und Ziele der Objekte vorhanden. Die Maus, die so auf einen Reiz reagiert, weil sie das Futter bekommen möchte, hat eben auch ein Ziel, also ist es eine intentionale Handlung. Mit der Annahme einer intentionalen Einstellung ist es nun möglich, das Verhalten wieder zu erklären, wenn die physikalischen oder funktionalen Einstellungen nicht mehr mit einfachen Methoden zu überblicken sind. Dennetts Konstrukt des intentionalen Systems ist deswegen sowohl für die Philosophie des Geistes als auch bei Fragestellungen der KI interessant, weil Unklarheiten, die mit einem intentionalen Bewusstsein des Menschen entstehen, pragmatisch gehandhabt werden. Seine Herangehensweise bezieht sich nicht direkt auf den Menschen, sondern er ersetzt ihn mit einem allgemeineren Begriff, dem intentionalen System. Somit abstrahiert er vom Menschen das, was für ihn Bestandteil des Verhaltens bezogen auf Intentionalität ist und gibt ihm das Label intentionale Systeme. Wichtig ist jetzt nur noch, wie das System sich verhält und nicht, was sonst noch dazu gehören könnte. So umgeht er Feinheiten und Probleme, die den phänomenalen Teil des Bewusstsein betreffen. Für das System ist es irrelevant, ob es wirklich Meinungen hat oder ob dazu noch weitere kognitive Eigen- 23 Christine Plicht schaften gehören müssten. Dennett versucht, Kriterien zu finden, die auf andere, nicht organische Systeme anwendbar sind und will Intentionalität über das Verhalten erklären. Bei der Abstraktion werden metaphysische Probleme, die darum kreisen, uninteressant. So ist es beispielsweise viel leichter zu entschieden, ob eine Maschine ein intentionales ” System sein kann, als zu entscheiden ist, ob eine Maschine wirklich denken, Bewusstsein haben oder moralisch verantwortlich sein kann.“(Den81, S.175). Dennetts Herangehensweise und Vorstellung der Begriffe, ähnelt der Gilbert Ryles. In seinem Buch Der Begriff des Geistes“(Ryl87) versucht Ryle die klassische Vorstellung ” des Geistes der Philosophie seit Descartes zu überwinden. Die Frage, ob und wie der Geist mit den physikalischen Eigenschaften des Menschen zusammenhängt, ob nun mit einer dualistischen oder materialistischen Position, sei falsch gestellt, weil hier ein Kategorienfehler vorliegt. Ryle vertritt stark einen philosophischen Behaviorismus und macht deutlich, dass sich der Geist im Verhalten zeigt. Somit ist die Fragestellung, ob und wie der Geist auf den Körper zurückzuführen sei, irrelevant oder sogar unsinnig. Der Geist und somit auch Intentionalität, Bewusstsein und was alles darunter zu verstehen ist, zeigt sich im bewussten oder auch intentionalen Verhalten. Alle weiteren Fragen, die damit zusammenhängen, basieren auf falschen Annahmen, die Teil des Kategorienfehler sind. Um die Verknüpfung zu Dennett deutlich zu machen, ist leicht einsehbar, dass dieser auch das Verhalten des Systems betrachtet und alle weiteren Fragen unbeachtet lässt (Kann die Maschine nun wirklich denken? Braucht sie zum wirklichen Denken Bewusstsein?) Dennett ist vorsichtiger als Ryle. Er stellt die Argumente, die Kritiker bezüglich des Verständnis von Geist vorbringen, nicht als obsolet dar, sondern sie sind für ihn einfach nicht weiter von Bedeutung, da seine Konzentration auf dem Output liegt. Er sagt nicht, weil Geist herauskommt, muss auch Geist in der Maschine sein. Nach Ryle würde er somit auch wieder einen Kategorienfehler begehen. Er trifft keine Aussage darüber, ob nun das System nach seinen Kriterien Bewusstsein hat oder nicht, er bezeichnet es lediglich als intentionales System, wenn es sich danach verhält. Ähnlich waren vermutlich die ursprünglichen Absichten von Alan Turing bezüglich des Turing-Tests. Seine Frage war nicht danach, ob Maschinen denken können oder ob sie eine künstliche Intelligenz besitzen, sondern ob sie den Turing-Test bestehen. Dennetts Frage lautet, ist ein System intentional? Mit Ryles Annahme vom Kategorienfehler sind diese Kriterien oder auch der Turing-Test vollkommen legitim, denn nur so kann überprüft werden, welche Eigenschaften ein Objekt hat. Was dahinter steckt, steht nicht zur Debatte und mögliche Antworten sind weder richtig noch falsch, da der Bezug ungültig ist. Das Konstrukt, das Dennett erbaut, scheint einige Probleme zu vereinfachen, auf der an- 24 Christine Plicht deren Seite stellen sich hier nun neue Fragen. Unklar ist, wie real intentionale Zustände sind (Bec08, vgl. S.349). Im Gegensatz zum Funktionalismus vertritt Dennett nicht die Ansicht, dass mentale Zustände funktionalen Zuständen entsprechen, erst recht nicht neuronalen Zustände. Sie werden also nicht physisch realisiert, wie real sind sie dann aber? Wie oben beschrieben, vertritt Dennett einen sehr pragmatischen oder auch instrumentalistischen Ansatz bezüglich der intentionalen Einstellung. Sie dient also nur dazu, erklären zu können, was wir nicht mit der physikalischen und funktionalen Einstellung erklären können, aber prinzipiell liegt in diesen beiden Einstellungen eine Erklärung, die für uns aber nicht immer oder nicht leicht zugänglich ist. Dennetts Theorie beruht auf einer Betrachtung einer dritten Person und versucht daraus Schlüsse auf das Objekt zu ziehen. Dadurch ist es möglich, einen pragmatischen Ansatz zu wählen und offen zu lassen, was das Objekt wirklich für interne Zustände hat oder ob es wirkliche Meinungen, Gefühle, Ziele hat. Einen anderen Ansatz vertritt der Philosoph John Searle. Seine Herangehensweise beruht darauf, zu fokussieren, was innerhalb des Objektes vorgeht. Er sieht eine Abstraktion, wie Dennett sie mit den intentionalen Systemen vornimmt, als falschen Ansatz. 4.2 John Searle - Das Chinesische Zimmer Ein sehr bekanntes und oft diskutiertes Gedankenexperiment ist das Chinesische Zimmer von John Searle. Es erschien 1980 in dem Artikel minds, brains, programms“ in ” der Zeitschrift Behavioral and Brain Sciences. John Searle ist Professor der Philosophie an der University of California in Berkeley mit Arbeitsgebieten in der Sprachphilosophie und der Philosophie des Geistes. Die Kritik Searles in dem Gedankenexperiment geht zurück auf den Turing-Test, dessen Kriterien er versucht zu widerlegen und damit zeigen will, dass programmierte Systeme immer nur Verhalten simulieren, nicht aber Fähigkeiten wie Sprachverständnis wirklich besitzen können. Die Idee des Experiment ist, es zu zeigen, dass ein Mensch, wenn er das ausführt, was ein Sprachcomputerprogramm tut, die Sprache dennoch nicht beherrscht, geschweige denn versteht. Ausgangssituation ist eine Testperson, nennen wir sie Arthur, die alleine in einem Zimmer sitzt. Ziel ist es, dass Arthur mit Hilfe einer Anleitung Fragen zu einer Geschichte, die in Chinesisch verfasst ist, auf Chinesisch beantwortet. Dazu erhält er verschiedene Stapel mit chinesischen Schriftzeichen und eine Anleitung. Diese Anleitung ist in einer ihm verständlichen Sprache verfasst und beinhaltet formale Operationen, die er ausführen soll. Er hantiert also irgendwie mit diesen Stapeln und den Schriftzeichen, setzt sie in 25 Christine Plicht Beziehung zueinander, ohne die Bedeutung der Schriftzeichen in seiner Sprache zu wissen. Ein Stapel stellt Fragen zu einer Geschichte dar, die er beantworten soll bzw. er soll Output liefern, die Antworten der Fragen zu der Geschichte. Außerhalb des Raumes sitzt ein Chinese, der nicht weiß, wer Arthur ist und ob er Chinesisch spricht oder nicht. Er erhält die Antworten, in chinesischen Schriftzeichen und hat dadurch guten Grund anzunehmen, dass Arthur Chinesisch spricht. Searle sagt nun, dass es offensichtlich ist, dass die Person in diesem Zimmer, kein Chinesisch versteht, sprechen oder schreiben kann. Auch dann nicht, wenn Arthur die Anleitung auswendig lernen würde und Fragen zu Geschichten in kürzerer Zeit beantworten kann. Arthur stellt einen personifizierten Computer dar. Er tut das, was ein Sprachcomputer auch tut. Speziell bezieht sich Searle auf ein Sprachprogramm von Roger Schank an der Yale Universität, der Fragen zu Geschichten beantwortet, aber ähnliches gilt auch für Programme wie ELIZA von Weizenbaum. Searle versucht zu verdeutlichen: Solange das ” Programm sich als eine Reihen von kalkulatorischen Operationen an rein formal definierten Elementen bestimmt, legt unser Beispiel den Schluss nahe, dass diese Operationen selbst keine interesseheischende Beziehung zum Verstehen haben.“(Sea94, S.237f) Das unterlegt er mit der Unterscheidung von Syntax und Semantik. Die Formale Syn” tax des Programm garantiert aus eigener Kraft nicht das Vorhandensein geistiger Inhalte.“(Sea93, S.221). Die formale Syntax wird durch formale Operationen durchgeführt. Rein formale Operationen ermöglichen es nach Searle also nie, kognitive Eigenschaften zu produzieren, solange der Mensch diese Operationen durchführen kann, ohne selbst diese kognitive Eigenschaft, wie Verstehen der Sprache Chinesisch, dadurch zu erlangen. Auch wenn der Computer uns glauben lässt, dass er Chinesisch versteht, dadurch, dass er, wie Arthur, einen Output gibt, den wir auch von einer Person erwarten, die Chinesisch spricht, handelt es sich hier nur um Handhabung mit logischen Operationen und formalen Symbolen. Searle erkennt somit den Turing-Test nicht an, denn ein so programmierter Computer könnte durchaus diesen Test bestehen. Das Kriterium ist für Searle unangebracht, da es sich um einen formal programmierten Computer handelt, der nur menschliches Verhalten simuliert. Searle macht deutlich, dass das, was der Computer tut, Hantieren mit syntaktischen Operatoren ist, aber die semantische Seite, bei der die Bedeutung der Wörter notwendig ist, nicht erreicht wird. Die Argumentation beruht ” auf der simplen logischen Wahrheit, dass Syntax weder dasselbe ist, wie Semantik noch für sich selbst genommen für Semantik hinreicht.“(Sea93, S.221) Da die Syntax nach formalen Regeln erfolgt, ist es möglich, diese einem System zu programmieren, sodass formal die Ausgabe korrekt sein kann. Wenn wir heutige Chatbots betrachten, so sind 26 Christine Plicht die formalen Operationen, die dieses System ausführt, überwiegend mit einer Datenbank verbunden, auf die es zugreift. Hier sind Antworten und Erkennungsmuster gespeichert, die der Bot benutzt, um eine Antwort zu generieren. Außerdem ist es möglich, dass Chatbots aus ihren Gesprächen lernen, um so ihre Datenbank zu erweitern und Bezüge zu Dialogteilen herzustellen. Es wird deutlich, dass die Herangehensweise von Searle in seinem Experiment einen andere ist als Dennetts oder Turings. Bei letzteren ist ein behavioristischer Ansatz zu erkennen, Searle hingegen fokussiert stärker den Prozess, wie das System zu dem Output kommt. So setzt der Turing-Test bei dem Endprodukt die Aufgabe an, die er betrachtet und bewertet. Das Objekt wird aus der dritten Person heraus betrachtet und ihm werden dann Fähigkeiten zugeschrieben. Da ich nicht wissen kann, ob die Person neben mir Bewusstsein besitzt, nehme ich es an, weil sie sich dementsprechend verhält. Das ist dasselbe Kriterium, das Turing anwendet. Er betrachtet, wie sich das Programm einer weiteren Person gegenüber verhält und wie die Person darauf reagiert. Wenn sie den Unterschied erkennt, besteht es den Test. Genauso nimmt Dennett eine intentionale Einstellung an, die er nur anhand des Verhaltens zuschreibt. Searle allerdings fragt sich, wodurch das System so agiert wie ein Mensch. Er analysiert die Voraussetzungen und das Programm, das implementiert wurde. Dabei stellt er fest, dass das Verhalten zwar ähnlich ist, aber nicht gleich. Er simuliert das Programm, indem er es aus der ersten Person betrachtet, sich hineinversetzt und fragt, wie der Output für einen Menschen wäre. Wenn er eben das ausführt, was ein Sprachprogramm tut, dann hat er alleine durch die formalen Schritten noch keine Sprache erlernt. Ein Programm ist immer etwas Diskretes, Berechenbares, das für sich alleine steht und nicht zu einem Verständnis der Sprache führt. Es zeigt sich also, dass unterschiedliche Kriterien angewendet wurden, um zu untersuchen, ob und welche kognitiven Fähigkeiten und damit verbundene Eigenschaften ein System hat. Diese Kriterien, Searles 1. Person-Kriterium und Turings behavioristisches 3. Person-Kriterium, sind offensichtlich nicht miteinander kompatibel und führen zu keiner Lösung, auf die sich die Diskussionsgemeinschaft einigen kann. Natürlich wurde Searles Gedankenexperiment in verschiedenen Repliken kritisiert und versucht zu modifizieren, sodass man mehr Zugeständnisse machen könnte, um das Experiment zu entwerten. Diese Repliken versuchen alle das Experiment so zu erweitern, dass entweder das Programm durch einem Roboter erweitert wird, um weitere menschliche Eigenschaften zu erreichen oder aber das gesamte System betrachtet wird, in dem Arthur nur ein Teil ist. 27 Christine Plicht Die Erweiterung des Programms zu einem Roboter führt soweit, dass es auch vorstellbar ist, das Gehirn nachzubauen und mit neuronalen Netzen ausstatten, sodass es wirklich so funktioniert wie ein Mensch. Bei diesen Repliken macht Searle deutlich, dass es ihm bei seinem Experiment ausschließlich um digitale Rechenmaschinen geht, die eben durch formale Regeln bestimmt werden und mit Symbolen hantieren. Seine Kritik richtet sich an eine starke KI, mit der These, dass geistige Prozesse am Modell des Rechners orien” tierte Prozesse sind, die an formal definierten Elementen ablaufen“(Sea94, S.254). Das heißt, dass ich mit Hilfe von Prozessen eines Rechners Aussagen über geistige Prozesse des Menschen treffen kann, ohne genaue Kenntnisse über die Funktionsweisen des Menschen und seines Gehirns zu haben. Allerdings unterstützt Searle weiter sein Argument, dass man mit formalen Operationen, auch wenn sie sich auf nonverbale Kommunikation beziehen, keine intentionale Handlung erwirkt. So wie Arthur im Chinesischen Zimmer das Programm selbst ausführt, könnte man sich auch vorstellen, dass er das gleiche in einem Roboter tut, mit Wahrnehmungs- und Bewegungshandlungen. Nach Searle ändert das nichts an dem Prinzip eines Digitalcomputer, der hinter den Aktionen steht. Dennett zeigt daraufhin in einem Kommentar zum Artikel minds, brains and programms konkreten Situationen, in denen ein so programmierter Roboter mit Menschen interagiert: Beispielsweise er reagiert bei einem Überfall darauf, dass der Räuber sagt: Hände ” hoch“ und hebt die Hände, genauso wie er das Salz seinem Tischnachbarn reicht. Er kritisiert, dass Searle nicht das ganze System betrachtet und zweifelt an, dass jemand, der mit solchen Symbolen hantiert und darauf authentisch reagiert nicht irgendwann fließend Chinesisch sprechen kann. Dennett findet es unplausibel, dass Searle weiter auf sein Gedankenexperiment beharrt und fordert eine überarbeitete Version. But that is ” because he is looking too deep“(Sea80, S.430) und weist auf die Systemreplik hin. Zehn Jahre später ändert Searle auch seine Argumentation, aber nicht seine Aussage, in der KI-Debatte und kritisiert in seinem Buch Die Wiederentdeckung des Geistes“ ” diesmal Annahmen, die Kognitionswissenschaftler treffen, die seiner Ansicht nach falsch sind. Im Kapitel 9 geht er ausführlich auf der Frage ein, ob das Hirn ein digitaler Computer sei12 . Die Kognitionswissenschaftler nehmen das an und versuchen Programme zu finden, die den geistigen Phänomenen entsprechen. Demnach müssen diese Programme prinzipiell so auch in unserer Hardware“ ablaufen. Searle betont, dass gerade bei die ” Frage, ob das Hirn tatsächlich ein digitaler Computer sei, die philosophische Relevanz oft vernachlässigt wird, auch von anderen Wissenschaftlern wie Penrose und Dreyfus(Sea93, 12 Im Gegensatz zum Argument des Chinesischen Zimmer; das zielte darauf, dass der Geist kein Computerprogramm sein kann. 28 Christine Plicht S.225). Das Gehirn als digitaler Computer wird oft fälschlicherweise als empirische Tatsache angenommen, ohne dabei grundlegende Probleme dieser These zu bewältigen. Wie auch in minds, brains and programms ist ein wichtiger Bestandteil der Argumentation die Syntax. Früher hat Searle dahingehend argumentiert, dass aus Syntax keine Semantik folgen kann, nun setzt er wieder an der Syntax an und verdeutlicht, dass die Syntax der ” Physik nicht intrinsisch ist“(Sea93, S.232). Um zu verdeutlichen, was er damit meint, muss man intrinsische und beobachter-relevante Merkmale unterscheiden. Intrinsische Merkmale sind solche, die unabhängig von einem Subjekt existieren, wie Masse, Schwerkraft oder Moleküle. Sie existieren auch dann, wenn sie nicht gemessen werden oder niemand mehr existiert, der sie beobachtet. Beobachter-relevante Merkmale hingegen werden erst durch einen Nutzer oder Beobachter, ein Subjekt, charakterisiert. So ist ein Stuhl erst ein Stuhl, wenn ihn jemand als solchen benutzt oder bezeichnet, genauso wie Ausdrücke hübscher Tag für ein Picknick“. Sie werden erst durch ihre Funktion im wei” teren Sinne zu einem Merkmal und sind somit relativ zu dem Benutzer zugeschrieben. Searle argumentiert nun, dass Syntax auch benutzer-relevant sei, weil die Charakte” risierung des Systems als ein digitaler Computer immer relativ zu einem Beobachter ist“(Sea93, S.232). Dabei ist das Programm nur eine syntaktische Interpretation des Systems und nicht intrinsisches Merkmal der Physik. Geistige Phänomene lassen sich mit einem digitalem Computer simulieren, indem man sie in formale Operationen, der Syntax, aufteilt und so ein Programm erstellt. Aber dieses Programm ist abhängig vom Beobachter und deswegen nicht intrinsische Eigenschaft des ursprünglichen Phänomens. Searle sieht es als möglich an, dass sich kognitive Eigenschaften auf einem Computer oder mit einem Roboter simulieren lassen. Das zeigt sich durch viele Beispiele, wie Deep Blue oder andere Programme, die menschliches Verhalten zumindest simulieren. Forschung der Vertreter der schwachen KI beschäftigen sich mit diesen Programmen und auch die meisten Gebiete der Informatik bleiben auf diesem Level und haben nicht den Anspruch, damit mehr zu erreichen als nur Simulationen. Stellt man allerdings die Frage, ob der Geist ein Computerprogramm (Software) oder das Hirn ein digitaler Computer (Hardware) ist, so verneint Searle beide Fragen sehr eindeutig. Ersteres bestritt der im Gedankenexperiment zum Chinesischen Zimmer und zweiteres in der Auseinandersetzung mit den Kognitivismus. In der Debatte um die Philosophie des Geistes und das damit verbundene Köper-GeistProblem sieht Searle die Diskussion sehr verfangen, dadurch, dass sie in sprachlichen ” Kategorien gefangen gehalten werden“(Sea93, S.47), die zu auf der Annahme eines Dua- 29 Christine Plicht lismus von Descartes zurück zu führen sind. Dazu suggeriert der Kognitivismus, dass die einzige Alternative zum Computermodell des Geistes der Dualismus sei. Das Ab” wegige an dieser ganzen Diskussion ist, dass der Materialismus die schlimmste Annahmen des Dualismus übernimmt. Wenn der Materialist die Behauptung der Dualisten bestreitet [...], dann akzeptiert er ungewollt die Kategorien und das Vokabular des Dualismus.“(Sea93, S.72), damit ist die Alternative zum Materialismus der Dualismus. Aber bevor die Probleme des Materialismus von ihren Vertretern anerkannt werden und sie damit zum Dualisten werden, geben sie ihren Schwierigkeiten, die durch das gleiche Vokabular auftreten, neue Definitionen und bestreiten das Bewusstsein als Subjektivität13 . Vertreter des Materialismus sind demnach in ihrer eigenen Argumentation gefangen, da Zugeständnisse sonst zu einem Dualismus führen könnten, den sie verhindern wollen. Ryle versuchte genau aus dieser Verfahrenheit zu entfliehen, indem er klar machte, dass die ganze Diskussion durch falsche Verwendung verschiedener Kategorien sinnlos ist und man eine Untersuchung des Geistes auf andere Weise angehen muss. Der Materialismus verfängt sich selbst wieder in den Kategorien, so auch Dennett, indem er sich klar gegen ein dualistisches System positioniert. In seiner pragmatischen Herangehensweise wird zwar deutlich, dass er in einer gewissen Weise in der Tradition von Ryle steht, aber es bleiben trotzdem die gleichen Probleme, die Searle kritisiert. Es ist schwer gegen den Dualismus und für die Möglichkeit einer künstlichen Intelligenz zu argumentieren, ohne das System des Dualismus mit seinem Vokabular und Kategorien zu verlassen. Um sich von anderen Theorien, auch anderen materialistische, abzugrenzen und diese zu verurteilen, ist es naheliegend, dass die Argumente gegen diese Thesen eben aus ihnen heraus entspringen. 4.3 Hubert Dreyfus - What Computers can’t do Ein Philosoph, der in der KI Debatte schon relativ früh, in den 60er Jahren des letzten Jahrhunderts, einstieg war Hubert L. Dreyfus. Sein Buch What Computers can’t do ” The Limits of Artificial Intelligence“ erschien 1972 und beinhaltet eine phänomenologische Kritik der Ziele und Herangehensweise der KI-Forschung. Dreyfus ist Professor an der University of California in Berkeley und ist, neben seiner Kritik an der KI, bekannt für seine Heidegger-Interpretation. In seinem Buch kritisiert Dreyfus stark die Visionen und den Optimismus der KI-Gemeinde und versucht darzulegen, warum es nicht möglich ist, eine künstliche Intelligenz über Symbolverarbeitung zu kreieren. Seine Kritik beruht stärker auf Argumenten, die sich mit dem situativen Kontext beschäftigen als auf die 13 Hierzu nennt Searle Armstrong und Dennett, die genau das täten. 30 Christine Plicht Funktionsweise des Geistes. Dreyfus war, wie auch Joseph Weizenbaum, in den 60er Jahren am MIT beschäftigt, zu der Zeit wurden viele Forschungsgelder in die KI bewilligt und einige Projekte liefen. ELIZA entstand und verstärkte die Euphorie am MIT. Dem versuchte Dreyfus zu entgegnen und verglich in Alchemy and Artificial Intelligence“ die Suche nach der künstlichen ” Intelligenz mit der erfolglosen und besessenen Art der Alchemie. To avoid the fate of al” chemists, it is time we asked where we stand. Now, before we invest more time and money in information-processing level, we should ask wheter the protocols of human subjects suggest that computer language is appropriate for analyzing human behavior.“(Dre65, S.84) Die aktuelle Forschung solle Abstand von ihrem Vorhaben nehmen, etwas zu entwickeln, ohne vorher grundlegende Fragen zu klären. Zuerst sollte beantwortet werden, ob es überhaupt möglich ist, intelligentes Verhalten mit diskreten formalen Operationen abzubilden. Die möglichen Folgen der Arbeiten wurden nicht abgeschätzt. Die Euphorie und die fehlgeleiteten Forschungsmethoden beruhen, nach Dreyfus, auf einer langen Tradition des wissenschaftlichen Arbeitens in den Naturwissenschaften. So war die Physik erfolgreich, das Universum mit atomaren Tatsachen zu beschreiben und durch Regeln zu formalisieren. Die Entwicklung des Digitalcomputer hat dazu geführt, diese Herangehensweise auch auf das menschliche Verhalten übertragen zu wollen. Forscher wollen durch elementare Verhaltensregeln den Menschen als Gegenstand bestimmen, aber das hält Dreyfus für ein irrtümliches Erklärungsmodell. Er hingegen will einen Alternativan” satz darlege[n], der sich ergibt, wenn man die drei Grundannahmen der Tradition mit einer phänomenologischen Beschreibung der Strukturen menschlichen Verhaltens vergleicht“(Dre85, S.181). Die drei traditionellen Grundannahmen erläutert er im zweiten Teil seines Buches, die biologische, die psychologische und die erkenntnistheoretische Annahme. Im Weiteren will ich auf seinen Alternativansatz eingehen, der das menschlichen Verhalten aus phänomenologischer Sicht beschreibt. Diese Herangehensweise basiert auf Ansichten von Heidegger, Wittgenstein und jüngeren Denkern wie Charles Taylor oder Samuel Todd. Diese ist zwar weniger exakt, aber dafür werden hierbei die wesentlichen Fragen nicht vergessen, so Dreyfus(Dre85, S.181). Hierzu untersucht Dreyfus, welche Rolle zum einen der Körper beim Verhalten spielt und zum andere den situativen Kontext, bezogen auf ein geregeltes Verhalten und die menschlichen Bedürfnisse. Der menschliche Körper ist ein Wahrnehmungsapparat, der auf unterschiedliche Weisen arbeitet und für die KI-Forschung ist es schwierig, oder war es zumindest zu dieser Zeit, diese Seite des Verhaltens sinnvoll nachzubilden. Auch stellt sich hier wieder die Frage, ob der Körper oder auch nur das Gehrin ein Digitalrechner ist und können wir ihn si- 31 Christine Plicht mulieren? Dreyfus will zeigen, dass ein Körper notwendig ist, um nicht-formalisierbare Formen zu verarbeiten. Dies geschieht über strukturelles Erkennen, das mit Erwartungen verknüpft ist. Strukturelles Erkennen geschieht u.a. bei Mustererkennung. Zwar kann man Mustererkennung leicht mit formalen Prozessen digital simulieren, aber Dreyfus argumentiert, dass gerade das nicht bei einem Menschen passiert. Wenn wir uns in einer Situation befinden, in der wir etwas erkennen wollen, dann gehen wir nicht im Kopf eine Liste durch und haken diese ab, bis das richtige Muster übrig bleibt, sondern überblicken das gesamte System. Genauso nehmen wir beim Musik hören nicht einzelne Töne wahr und verknüpfen sie zu einer Melodie, sondern wir erkennen die Ganzheit, die Melodie und können dadurch auf die einzelnen Töne schließen. Der Mensch erkennt somit das Ganze und nicht Details. So ist es ihm auch möglich, vom Ganzen auf ihm bisher unbekannte Details zu schließen, eine unbestimmte Wahrnehmung der Teile vom Ganzen. Husserl beschreibt das durch den inneren Horizont. Es ist die Fähigkeit, einen Gegenstand in seiner Ganzheit wahrzunehmen, wie ein Haus, ohne die Einzelteile, etwa seine Rückseite, zu kennen. Eine Maschine ohne einen entsprechenden inneren Horizont müsste die ” Information in umgekehrter Reihenfolge verarbeiten: Vom Detail zum Ganzen.“(Dre85, S.189f) Das bedeutet, der Mensch kann durch seine Erwartungen Informationen zu einem System hinzufügen, auch wenn er nicht alle Details kennt, aber eben eine Vorstellung durch eine bewusste Wahrnehmung einzelner Teile des Ganzen hat. Diese Vorstellung des Ganzen erlangt er durch den situativen Kontext und über die Wahrnehmungen seines Körpers. Dem Computer hingegen fehlt im Zweifelsfall die eigene Erwartung im Hinblick auf weitere Informationen. Es stellt sich also die Frage, wie er alle Details aus dem Kontext heraus erfahren kann, ohne sie explizit als Daten aufzunehmen. Der Mensch hat dem Computer die Flexibilität voraus, die er durch eigene Erwartungen erreicht. Ebenso wie das erfasste Ganze wird auch der Sinn aufgenommen. Hierzu hat Husserl eine Theorie, die von Merleau-Pony erweitert wird. Er behauptet, dass es der ” Körper ist, der den von Husserl entdeckten Sinn verleiht.“(Dre85, S.197) Der Körper reagiert auf das Ganze und nimmt somit auch seinen Sinn auf. So reagieren die Sinnesorgane auf Klänge und Rhythmus und nehmen die Gestalt der Musik auf. Ebenso ist es bei einer Fertigkeit, die wir erlernen. Zuerst besteht diese Fertigkeit aus Regeln, die wir bewusst und langsam befolgen und irgendwann verinnerlichen. Diese Verinnerlichung geschieht über den Körper, da die Bewegungen ins Unterbewusste aufgenommen und vom Körper weiter ausgeführt werden. Beim Stricken müssen wir zuerst ganz genau beobachten, was zu tun ist, wir erlernen mit Regeln, wie die Nadel und der Faden zu bewegen sind, um eine Masche zu stricken. Nach einiger Zeit und Übung, bei der der 32 Christine Plicht Körper aufmerksam ist, werden die Bewegungen immer gefestigter, bis sie vollkommen routiniert sind. Dann ist es auch nicht mehr nötig, alle Sinnesorgane auf das Stricken zu konzentrieren, denn die Finger bewegen sich fast selbständig, ohne das Strickzeug zu betrachten. Da dem Computer der lebendige Körper fehlt, kann er nicht als Ganzheit ” reagieren, sondern muss von festgelegten Einzelheiten ausgehen und darauf sein Erkennen aufbauen.“(Dre85, S.204f) Ein Körper ist also notwendig, um Gegebenheiten in ihren vollen Strukturen aufzunehmen und der Mensch nimmt seine Umwelt nicht über Details auf, sondern indem er die Ganzheit betrachtet. Ich schaue aus dem Fenster und sehe eine Landschaft und nicht nur einzelne Bäume und Häuser. Ein digitales System verknüpft erst Einzelheiten, um das komplette Bild zu betrachten. Nach Dreyfus formalisieren wir demnach nicht alles, was wir mit den Sinnen wahrnehmen, also ist es schwierig, das auf einen Computer zu übertragen. Neben der Programmierung von Sprachcomputern wie Chatbots gibt es vor allem in Japan viele Wissenschaftler, die sich mit der Entwicklung von Robotern, speziell Androiden, beschäftigen. Diese menschenähnlichen Roboter sind ausgestattet mit Sensoren, wie einer Kamera als Augen, sodass sie wie der Mensch ihre Umwelt aufnehmen und verarbeiten können. Aber selbst mit diesen simulierten Sinnesorganen ist es fragwürdig, wie der Roboter Kontext statt Einzeldinge erkennt. Einen Androiden zu erstellen und zu programmieren bedeutet davon auszugehen, dass das menschliche Verhalten durch formalisierbare Regeln beschrieben werden kann, da es eine geordnetes System ist. Nur so kann das Verhalten nicht vollkommen willkürlich sein. Das ist Minskys Auffassung, Dreyfus hingegen will zeigen, dass das menschliche Verhalten geordnet und regelmäßig, also nicht willkürlich, ist, aber ohne formalisierte Regeln ablaufen kann und sogar muss. Der Mensch befindet sich immer in einer Situation, in der er für gewöhnlich etwas tut. Die Handlung steht in einem Kontext und das Verhalten wird bestimmt durch Regeln, die wir im Alltag verfolgen und verinnerlicht haben. Wenn ich in die Bibliothek gehe, muss ich meinen Rucksack in ein Schließfach sperren. Um das Schließfach zu benutzen, brauche ich ein Zwei-Euro-Stück usw. Wenn ich aber in die Bibliothek gehe, nur um die Toiletten zu benutzen, muss ich meinen Rucksack nicht einschließen. Hier zeigt sich, dass die Regeln auch vom Kontext abhängig sind und nicht zu jeder Zeit und in jeder Situation gelten die gleichen Regeln. Der übergeordnete Kontext, in dem sich der Mensch befindet, ist die Welt. Heidegger beschreibt das als das In-der-Welt-sein, um ihn herum ist seine Lebenswelt, die auch in der Alltäglichkeit durch die menschlichen Absichten und Interessen vorstrukturiert“(Dre85, S.211) ” ist. Diese Absichten und Interessen beziehen sich auf die Situationen. Auch die Einzeldinge, die uns umgeben und die wir benutzen, stehen in einem Kontext. Sie sind Teil 33 Christine Plicht unserer Lebenswelt und haben eine Funktion für uns. Wir benutzen sie, um etwas zu tun. Heidegger verwendet hierfür den Begriff Zeug. Das Zeug hat eine Bewandtnis für den Menschen und der Kontext bezeichnet den Bewandtniszusammenhang. In diesem Bewandtniszusammenhang sind wir von Tatsachen und Dingen umgeben, die je nach Situation eine unterschiedliche Relevanz haben. Dementsprechend verändern sich auch die Regeln, die wir dann benutzen. Die Regeln sind abhängig vom Kontext und um diesen zu erkennen, müssen wir uns bewusst sein über die wesentlichen und unwesentlichen Aspekte um uns herum. Auch muss man unterscheiden zwischen Regeln, die in dieser Situation gelten, weil relevante Tatsachen dafür sprechen und allgemeingültigen Regeln, die uns in der Alltäglichkeit begegnen. Die Schwierigkeit besteht nun darin, die relevanten Tatsachen auszuwählen ohne jene Regeln, die allgemeingültig sind, zu verlieren. Der Mensch kann flexibel auf Situationen reagieren, so die relevanten von weniger relevanten Aspekten trennen. Außerdem wählen wir die Regeln mit Hilfe unserer Erfahrung aus. Ein Computer hingegen ist mit isolierten Daten gefüttert und der Programmierer versucht Methoden zu finden, um das Programm in einen Kontext einzubinden. Das Problem hierbei ist, dass beim menschlichen Verhalten die Regeln und ihre Wahl durch den Kontext bestimmt werden, den der Programmierer mit Hilfe von Regeln erschaffen will. Der Computer braucht also Regeln, um den Kontext zu erhalten, im Gegensatz zum Menschen, bei dem der Kontext durch das In-der-Welt-Sein gegeben ist. Der Kontext ist wichtig für die Interpretation der Regel und ihre Anwendung. Ohne die Flexibilität des Menschen muss der Programmierer in der Lage sein, all das explizit zu machen, was ” er als Mensch normalerweise für selbstverständlich hält“ 14 (Dre85). Selbstverständlich ist eben die Abschätzung von Relevanz und dsa Vorkommen in Situationen und damit verbundenen Kontexten, da der Mensch die Eigenschaft des In-der-Welt-Sein hat. Das geregelte Verhalten des Menschen auf ein digitales System zu übertragen ist demnach nicht umsetzbar, wenn man versucht es durch Regeln zu formalisieren. Die Entscheidungen, die der Mensch trifft, sind abhängig von der Situation; ein Programmierer muss hingegen durch eine überwältigende Datenmenge und Entscheidungsbäume versuchen das abzubilden. Das bedeutet, dass die Entscheidungen prinzipiell schon durch den Programmierer getroffen werden und nicht vom Computer selbst. Eine Methode, die Dreyfus auch immer wieder anspricht, ist ein heuristisches Verfahren, mit dem man bei einem Problem mit einer großen Datenmenge das Suchen nach der richtigen Entscheidung abkürzt. Angenommen, in einer Situation gibt es endlich viele Zustände, die berechnet werden können und um das Problem zu lösen, müssen wir einen 14 Hervorhebung von der Autorin. 34 Christine Plicht Zustand auswählen. Anschaulich ist es bei einem Schachspiel darzustellen. Die Spielfiguren befinden sich in einer bestimmten Konstellation und nun gibt es mehrere Möglichkeiten (einschließlich ihrer Folgen), wie der Computer reagieren könnte. Bei einfachen Spielen kann der Computer einfach alle Möglichkeiten und Folgezustände, einen sogenannten Entscheidungsbaum, ausrechnen und sich dafür entscheiden, welche die Beste ist. Aber beim Schachspielen ist die Berechnung dafür zu zeit- und ressourcenaufwendig, sodass der Computer eine Entscheidung trifft und weiter verfährt. Der Mensch trifft diese Entscheidung aus reinem Gefühl und der Erfahrung heraus, der Computer kann dazu Hilfsfunktionen oder Schätzungen benutzen und hofft, dass das weitere Verfahren annähernd optimal verläuft. Ein Schachcomputer wird mit heuristischen Verfahren programmiert, aber auch Lösungen für das Traveling Salesman Problem 15 verwenden diese Methode. Gerade bei dem Traveling Salesman Problem verlängert sich die Berechnung pro weiteren Punkt so stark, dass es schon bei einer kleinen Menge Punkte zu viele Lösungen gibt um eine angemessene Berechnungszeit zu erreichen. Dreyfus findet heuristische Verfahren für komplex-formale Systeme angemessen, wie Spiele, deren Möglichkeiten prinzipiell zwar alle berechnet werden können und somit vollständig formalisierbar sind, aber die wirkliche Ausführung an die Grenzen der technischen Möglichkeiten stößt und deswegen scheitert. Der Programmierer muss also abwägen, wie viel Zeit er für die Berechnung einer annähernd exakten, aber zulässigen Lösung aufwenden will. Je weniger Zeit, desto unexakter. Neben den Problemen, die mit komplexformalen Systemen gelöst werden (und einfacheren Problemen und ihre dazugehörigen Systeme) gibt es auch Probleme oder Verhalten, die sich nicht formalisieren lassen. Dieses ist situationsabhängig und umfasst beispielsweise alltägliche Handlungen, die ” regelmäßig, aber nicht regelgeleitet sind“(Dre85, S.248), wie Ratespiele, deren Regeln nicht eindeutig sind. Hierzu ist der Kontext und eine Gesamtübersicht notwendig, was das Verhalten nicht komplexer macht, aber eben nicht formalisierbar, weil stärker in der Lebenswelt verankert. Die Handlungen eines Systems sind geleitet durch Regeln, diese Regeln aber müssen auf einem System basieren, auf dessen Grundlage sie programmiert sind. Das System strebt nach einem Ziel oder mehreren Zielsetzungen. Im dritten Kapitel seines Buches untersucht Dreyfus genauer diese Zielsetzung und die Motivation des Menschen vergleichend mit der Zielsetzung eines Computers. Dabei handelt es sich um Entscheidungen in Situationen und nicht Handeln auf ein letztes Ziel für das gesamte Leben hin. Dreyfus zitiert 15 Hierbei wird wie die kürzeste Strecke zwischen n Punkten gesucht. Die Frage ist, in welcher Reihenfolge ich die n Punkte (Orte) wähle, sodass die Gesamtstrecke minimal ist. 35 Christine Plicht Satosi Watanabe und beschreibt seine Ideen zu den Zielsetzungen des Menschen, dass sie durch ein System von Werten geleitet sind, eine Maschine hingegen unterliegt programmierten Zielsetzungen. Dreyfus erweitert diesen Gedanken und behandelt verstärkt die Flexibilität dieser Werte und die Situationsabhängigkeit. Zentral hierbei ist die Erfahrung und auch die damit zusammenhängenden Interessen. Das begründet Dreyfus mit den Bedürfnissen des Menschen. Bedürfnisse sind allerdings recht unbestimmt und verkörpern eher ein Verlangen als ein konkretes Ziel. Zwar führt es Dreyfus nicht konkret aus, aber er erwähnt, dass der Mensch ein grundlegendes Ziel hat, auch wenn das nicht sonderlich konkret ist. Die Bedürfnisse werden durch unsere Interessen befriedigt. Ein Maler hat das Bedürfnis, etwas zu erschaffen oder sich kreativ zu verwirklichen. Dies tut er durch das Interesse am Malen und durch seine Erfahrung weiß er, dass Malen das ist, was sein Ziel erfüllt. Hier begegnen uns nun einige Begriffe, Werte, Bedürfnisse, Ziele die zusammenhängen und alle darauf gerichtet, sind in Situationen zu handeln. Aufgrund von Werten oder Bedürfnissen ist unser Handeln auf etwas gerichtet, das aufgrund unserer Erfahrung konzipiert ist. Wichtig dabei ist, dass Werte und Bedürfnis flexibel sind und nicht eindeutig. Das macht es schwierig auf den Computer zu übertragen. Die Auslegung der Werte ist immer auf eine Situation bezogen. Durch eine Veränderung der Lebenswelt eines Menschen kann sich sein Interesse auf einem bestimmten Feld vollkommen ändern. Beispielsweise kann einem Menschen erst bewusst werden, dass er sich nach etwas gesehnt hat, wenn er es auf einmal erhält und ihn erfüllt. Vorher war es ein unbestimmtes Bedürfnis, durch seine Erfüllung ändern sich seine Interessen. Sobald er sich wieder in der alten Situation befindet, seine Erfüllung verliert, wird er wissen, dass das seine Bedürfnis erfüllt. Dreyfus gibt dazu das Beispiel eines Mannes, der sich verliebt und erst dann realisiert, dass er überhaupt Interesse an eine Beziehung hat. Sein Bedürfnis wird also spezifischer und sein Interesse konzentriert sich darauf. Kierkegaard bezeichnet diese Veränderung, die die Persönlichkeit des Menschen neu definiert, eine Daseinserschütterng. Auch hier befindet der Mensch sich in Situationen, die sein Dasein bestimmen und eingebettet in seine Lebenswelt sind. In diesen Situationen verändert sich der Mensch und mit ihm seine Interessen und Bedürfnisse. Dadurch verhält er sich anders. Natürlich sind dabei auch wieder Regeln gegeben, die nun in einem anderen Kontext stehen, aber in diesem Aspekt will Dreyfus die Motivation erarbeiten, warum wir uns in einer Situation verhalten. Es zeigt sich, dass Dreyfus ein sehr negatives Bild der KI-Forschung hat und einen viel vorausschauenderen Blick, als Forscher, die ein Programm mit solchen Zielen entwickeln. Dreyfus betrachtet die Welt des Menschen, in der er eingebettet ist und fragt sich, wie 36 Christine Plicht eine Maschine dort leben kann wie ein Mensch. Er kommt zu dem Entschluss, dass sie es nicht könnte, weil das Leben des Menschen stark situationsabhängig ist, sowohl im Hinblick auf Regeln als auch auf Bedürfnisse, nach denen sich der Mensch verhält. Beides hält er für unmöglich in ein Programm zu implementieren. Er kritisiert den unermüdlichen Euphorismus der Forschungsgemeinde und auch Josef Weizenbaum erkennt, dass mit seinem Programm ELIZA diesem Durchbruch viel stärkere Bedeutung beimessen als er selbst es tat. Dreyfus hat mit seinem Buch nicht eine Welle an Diskussionen ausgelöst, wie Searle mit seinem Gedankenexperiment. Das liegt wahrscheinlich daran, dass Dreyfus’ Kritik nicht so zugänglich ist wie Searles Experiment. Er bleibt in vielen Aspekten relativ vage und die Argumente sind geprägt von der europäischen Philosophie Heideggers und Kierkegaard. Die phänomenologische Herangehensweise ist für Informatiker schwerer zugänglich. 37 Christine Plicht 5 Robotik als Weg zu einer künstlichen Intelligenz Parallel zur philosophischen Auseinandersetzung zum Thema finden immer weitere Entwicklungen in der Informatik statt. Anstatt sich mit Fragen auseinanderzusetzen ob es denn prinzipiell möglich ist, Bewusstsein zu entwickeln, zielt die Forschung stärker auf praktische Ergebnisse. So werden Roboter und weitere Systeme entwickelt und versucht, was möglich ist und an welche Grenzen die Wissenschaftler stoßen. In diversen Forschungsinstituten wird zur heutigen Zeit an Robotern gearbeitet, in denen eine künstliche Intelligenz entwickelt wird. Vor allem in Japan ist der Markt an Robotern sehr groß und dort sind die Visionen weiter optimistisch. Natürlich wird nicht jeder Roboter entwickelt, um künstliche Intelligenz zu erschaffen, aber wenn man Dreyfus’ Kritik ernst nimmt, so ist ein Roboter Voraussetzung für ein intelligentes System. So gibt es viele Forschungseinrichtungen, die daran arbeiten. Honda hat eine Androiden ASIMO entwicklt mit dem am CoR Lab16 der Universität Bielefeld gearbeitet wird. Sie versuchen durch Interaktionen und Lernen ASIMOs Sprachevermögen, Bewegungen und Seevermögen zu verbessern und dabei grundlegende Erkenntnisse über Lernen und Wahrnehmung zu erlangen. Auch an der Universität Heidelberg gibt es eine Arbeitsgruppe Optimiziation in Robotik and Biomechanics und ein Robotiklabor. Am MIT gab es ein Forschungsprojekt COG, an dem Dennett beteiligt war. Dort wollte man einen Roboter entwickeln und ihm Eigenschaften beibringen, beispielsweise Kunststück und Sprache. Neben den Forschungsprojekten gibt es auch konkrete weitere Herausforderungen, deren Fortschritte in Wettbewerben gezeigt werden. Nachdem Deep Blue den Schachweltmeister geschlagen hat und diese Aufgabe gelöst wurde, wird heutzutage daran gearbeitet, Robotern Fußball spielen beizubringen. Dazu gibt es Landes- und Weltmeisterschaften, den sogenannten Robocups. In unterschiedlichen Disziplinen, je nach Größe und Anforderung an autonomen Geräten, treten Roboter gegeneinander an und versuchen, Fußball zu spielen. Hier hat man sich zum Ziel gesetzt in 50 Jahre, also Mitte des 21. Jahrhunderts, gegen den dann amtierenden Fußballweltmeister anzutreten und zu gewinnen. Etwa so lange hat auch die Entwicklung der Schachcomputer gedauert, bis Deep Blue den Schachweltmeister Kasparov besiegen konnte. Das Problem des Fußballspielens ist für die KI interessanter als einen Schachcomputer zu entwickeln, weil hier die Strategie und Herangehensweise dem Menschen eher nachempfunden werden als beim Schachspielen. Der Schachcomputer besteht aus einer großen Datenbank und einem Programm, das eine andere Strategie verfolgt als ein menschlicher Schachspieler. Ein Mensch filtert 16 Weitere Informationen zu dem Projekt unter http://www.cor-lab.de/. [Abruf August 2011] 38 Christine Plicht zuerst, welche Figuren überhaupt in Frage kommen zu ziehen und berechnet auch nicht in jeder Konstellation möglichst viele Züge voraus. Hier zeigt sich wieder die situationsabhängige Relevanz, die der Computer schwerer abschätzen kann. Der Mensch handelt stärker aufgrund seiner Erfahrung und Intuition, weniger aufgrund der Berechnung des weiteren Spiels. Natürlich variiert das bei der Spielstärke der Spieler. Beim Fußballspielen sind es fast die gleichen Anforderungen, die nur mit den gleichen Mitteln bewältigt werden könnne. Es geht um Bewegung, Schnelligkeit, Treffsicherheit und Teamgeist. Momentan sind die Roboter aber noch sehr weit davon entfernt gegen eine menschliche Fußballmannschaft anzutreten. Die Spielgeschwindigkeit ist noch äußerst gering und die Passgenauigkeit recht vage. Dennoch sind hier die Probleme der künstlichen Intelligenz stärker vertreten. So geht es nicht nur darum einen Körper zu entwickeln, sondern auch Interaktion der Roboter untereinander herzustellen. An diesem Punkt stellt sich die Frage, was wir überhaupt von einer Maschine verlangen, um ihr Intelligenz zuzusprechen. Unabhängig von den philosophischen und technischen Schwierigkeiten, die sich ergeben, halte ich folgende Eigenschaften für notwendig um überhaupt von einer starken künstlichen Intelligenz zu sprechen. Ebenso wie Dreyfus sehe ich den Körper als zentralen Aspekt bei der Weiterentwicklung einer Maschine. Auch Dennett glaubt nicht, dass irgend jemand jemals einen Roboter bauen ” wird, der in ganz genau derselben Art und Weise bewusst ist wie menschliche Wesen es sind.“(Den96, S.691). Was entwickelt werden könnte ist ein Roboter, der zentrale Eigenschaften besitzt und mit dem wir kommunizieren können. Zur Kommunikation notwendig ist natürlich Sprache, hierbei gibt es auch schon einige Fortschritte, wenn man Chatbots betrachtet. Es zeigt sich, dass die Möglichkeit besteht, dass sich ein digitales System mit uns unterhält. Diese Unterhaltungen vielleicht nicht immer sinnvoll, aber zumindestens unterhaltsam. Sprache muss natürlich im System weiterentwickelt werden, sodass der Roboter lernfähig sein muss. Nicht nur in Bezug auf die Sprache. So kann er im Gespräch mit einem Gegenüber Reaktion erhalten und so seine Datenbank erweitern und lernen, welche Reaktionen seinerseits angemessen sind. An der Weiterentwicklung der Sprache zeigen sich die wesentlichen Merkmale. Sprache wird durch Interaktion gelernt. Das heißt, um Sprache überhaupt zu lernen, muss interaktiv agiert werden. Diese Interaktion findet meist durch kooperative Handlungen statt. George H. Mead (1863-1931) vertritt die Ansicht, dass geistige Eigenschaften überhaupt erst durch Sprache entstanden sind und Sprache sich durch kooperative Handlungen und gesellschaftliche Prozesse entwickelt hat. (Mea08) Es ist also notwendig, Aktionen mit Menschen oder anderen Robotern durchzuführen, damit Sprache sich verfestigen kann und überhaupt Bedeutung 39 Christine Plicht erreichen könnte. Das Problem, wie die Sprache in einen künstlichen System überhaupt Bedeutung erreichen kann und nicht nur reine Syntax darstellt, zeigt das Symbol grounding Problem (Har90). Searles Kritik, die er anhand des Gedankenexperiment äußert, zielt auf dieses Problem, wie wir im vorangegangen Kapitel gesehen haben. Wie ist es also möglich, dass ein System nicht nur mit reinen Symbolen hantiert, sondern intrinsisches Wissen erreicht? Die Symbole müssen einen Bezug zur Welt bekommen, eine Referenz erhalten und zusätzlich die Bedeutung des Symbols erlernen. Im Gegensatz zu einem reinen Chatprogramm könnte der Roboter einen Bezug zum dem Wort und dem dazugehörigen realen Gegenstand aufbauen. Er redet nicht nur von einem Apfel, sondern er hat auch schon einmal einen gesehen und kann diesen oder einen anderen Gegenstand als Apfel wiedererkennen. So kann er auch ASIMO an der Universität Bielefeld immer weitere Gegenstände erlernen und einen Hocker, den er zuvor noch nie gesehen hat, als Stuhl identifizieren17 . Es ist also scheinbar möglich, einem Roboter Konzepte beizubringen, sodass er diese auch in anderen Gegenständen erkennt und deren Funktionalität beurteilen kann. Dazu ist Interaktion mit den Gegenständen notwendig sowie Kommunikation über diese Gegenstände. Der Unterschied vom Schach- zum Fußballproblem ist, dass die Fußballmannschaft in Echtzeit spielen soll und der Schachcomputer relativ viel Zeit zum berechnen braucht. Momentan sind die Bewegungen allerdings noch so langsam, dass alleine deswegen eine Roboterfußballmannschaft gegen Menschen stark benachteiligt ist. Bei vielen Problemen benötigt der Computer viel Zeit, um Möglichkeiten zu berechnen und die Datenbank zu durchsuchen. Damit eine Interaktion mit dem Menschen möglich ist, müsste ein Roboter sich in einer ähnlichen Geschwindigkeit wie ein Mensch bewegen und verhalten können. Als wichtige Eigenschaft wird oft die eigene Weiterentwicklung angesehen. Neben der Lernfähigkeit, die u.a. von extern, von Interaktionspartner, gegeben wird, ist ein Roboter vorstellbar, der sich selbst verändern, reparieren oder bearbeiten kann. Ähnlich wie die meisten Wunden und Krankheiten des Menschen vom Körper selbst kurieren, sollte es möglich sein, dass der Roboter einfache Funktionsstörungen selbst erkennt und repariert. Damit ist der Roboter stärker autonom und nicht auf die Hilfe und Betreuung des Menschen angewiesen. Eine Steigerung des eigenen Wartung und Weiterentwicklung ist ein System, das selbst ein neues System entwickelt, das die eigenen Fähigkeiten und Möglichkeiten übersteigt. So wie wir Maschinen entwickeln, die Aufgaben lösen, zu denen wir aus unserer eigenen Kraft nicht in der Lage sind, könnte ein Computer ein anderes 17 Ein eindruckvolles Video dazu, kann man unter http://www.youtube.com/watch?v=P9ByGQGiVMg ansehen, leider war es nicht möglich die Originalquelle zu finden. [Abrufdatum: August 2011] 40 Christine Plicht System, das über es selbst hinaus geht, erschaffen. Damit der Roboter diese beschriebenen Eigenschaften lernt, halte ich es für notwendig, dass er eine Art Kindheit durchläuft und somit eine Entwicklung gegeben ist. Auch COG wurde so konstruiert, dass er in einer Kleinkindphase beginnt. Fraglich ist, wie lange ein kindlicher Zustand andauert und ab wann oder ob sich der Roboter zu einem Erwachsenen entwickeln kann. Dauert das so lange, wie bei einem Menschen und inwieweit ist das abhängig von der Technik? Es ist vorstellbar, dass es viel Zeit und Mühe kostet, die Fähigkeiten eines Roboters zu entwickeln, statt vorher einzuprogrammieren. COG sollte auch bestimmte Bezugspersonen haben, die als Mutterfigur fungieren. Eine Bezugsperson oder mehrere, die er erkennt und die sich maßgeblich um seine Entwicklung kümmern. Das zeigt sich auch dadurch, dass er das Gesicht seiner Mutter präferiert Aufmerksamkeit schenkt und versucht zu verhindern, dass seine Mutter sich von ihm abwendet. Ziel dieser Eigenschaften ist es, dass der Roboter eine Lebenswelt besitzt, auch wenn diese sich von der eines Menschen stark unterscheiden wird. Eine Lebenswelt ist notwendig, damit ein situativer Kontext gegeben sein könnte. Ob das mit all diesen Eigenschaften wirklich erreicht werden kann, ist jedoch fraglich. Nur in einer Lebenswelt kann der Roboter so interaktiv sein, dass die Welt um ihn herum auch eine subjektive Bedeutung hat und dadurch auch eine Individualität erreichen könnte. Stellen wir uns also vor, es gelänge einen Roboter zu entwickeln, der sich mit einem Menschen unterhalten kann, auch wenn es nur einen alltagsbasierte Gespräche sind. Weiter kann er in der Welt mit Gegenständen umgehen, wie einen Tisch von einem Stuhl zu unterscheiden, auch wenn er konkret diesen noch nie gesehen hat. Er ist sich dadurch der Funktion bewusst und kann sie mit anderen Gegenständen in Verbindung bringen. Dieses Verhalten entstand durch Lernen in Situationen, in denen der Sprache eine konkrete Referenz in seiner Umwelt geben konnte. Alleine mit diesen Eigenschaften können wir uns ein Verhalten vorstellen, bei dem der Roboter mit uns in unserer Lebenswelt interagiert. Darüber ob dieser Roboter nun wirklich Sprache versteht oder Dinge wahrnimmt, lässt sich dann natürlich weiter diskutieren. Die Frage nach der reinen Simulation kann immer weiter im Raum stehen. Die Frage ist nur, ist eine solche Diskussion dann immer noch sinnvoll? Sollte man sich dann nicht einer pragmatischen Vorgehen anschließen und den Roboter das zusprechen, was er tut? Wenn wir diesen Roboter betrachten, den ich oben beschrieben habe oder uns Androiden in Science-Ficton-Filmen anschauen, so wird schnell deutlich, dass es sich hier nicht nur um einen künstliche Intelligenz handelt, sondern versucht wird, einen künstlichen, wenn 41 Christine Plicht auch nicht organischen, Menschen zu erschaffen. Die Abgrenzung zwischen künstlicher Intelligenz und einer künstlichen Person wird selten getroffen. Der Weg zu einer künstlichen Intelligenz über die Robotik und alle Versuche einen Roboter zu erschaffen sind allerdings anspruchsvoller als nur eine künstliche Intelligenz. So ist Turings Kriterium nicht auf einen Körper angewiesen. Es gibt auch Ideen, den Turing-Test dahingehend zu erweitern, dass sich das System, ein Roboter, wie ein Mensch in der Umwelt verhalten muss - der Total Turing Test (TTT) (Har91). Hier will Steven Harnad sowohl die linguistischen Fähigkeiten, als auch die sensomotorischen testen. Allerdings gibt es auch Kritiker, die den TTT für unnötig halten. Wenn der gewöhnliche Turing-Test ausreicht, dann ist der TTT keine Erweiterung. Wenn nicht, ist der TTT genauso ungeeignet wie der Turing-Test, um mentale Eigenschaften zu bestätigen (Hau93). Der Begriff der Person ist weiter gefasst als eine künstliche Intelligenz. Hierzu haben ich in Kapitel 2 Kriterien beschrieben, die Dennett für notwendig hält, eine Person zu beschreiben. Er verdeutlicht, es gibt keine objektiv erfüllbaren hinreichenden Bedingungen dafür, dass ” ein Wesen wirklich Meinungen hat.“(Den81, S.320f). Von einem intentionales System verlangt Dennett keine verbale Kommunikation, Selbstbewusstsein oder das Erwidern einer Haltung. Umgekehrt ist ein intentionales System auch notwendig für eine Person. Zwar schreiben wir auch Tieren teilweise gewisse Eigenschaften zu, die wir mit einer Person identifizieren, allerdings benutzen wir den Personenbegriff weitgehend exklusiv für den Menschen. So ist auch das Vorhaben einen Roboter zu bauen, der den TTT bestehen könnte, ein Stoß in die Richtung, eine künstliche Person zu erzeugen und nicht nur ein künstliches System. Die Anforderungen an eine künstliche Intelligenz und die Visionen dazu sind in den letzten Jahrzehnten immer stärker gestiegen. Auch Dreyfus Forderung eine künstlichen Intelligenz in situative Kontexte einzubetten, ist nur dann notwendig, wenn sie sich verhalten soll wie ein Mensch, anstatt nur gewisse kognitive Eigenschaften zu übernehmen. Aber selbst dann, wenn sich der Roboter wie ein Mensch verhält, sodass wir ihn nicht unterscheiden können, bleibt er trotzdem eine Maschine. Auch dann gibt es existenzielle Unterschiede der Maschine zum Menschen. Auch wenn der Roboter den Kontext erfasst, in dem er sich verhält, ist es fraglich anzunehmen, ob er auch den Aspekt der Geschichtlichkeit des Menschen erhalten kann. Der Mensch ist kein diskretes Wesen, er ist eingebunden in die Zeit. Er steht in einer Tradition und ist in gewissen Sinne die Summe seiner Handlungen und Begegnungen in der Vergangenheit mit Blick auf die Zukunft. Nie kann ich sagen, dass der Mensch ein diskretes Objekt zum Zeitpunkt X ist. Das, was der Mensch zu diesem Zeitpunkt ist, ist aber mehr als nur das, was er gelernt oder erfahren hat. Er steht in einem geschichtlichen 42 Christine Plicht und nicht nur situativen Kontext. Einen Menschen zu einem Zeitpunkt X zu betrachten, erfasst nicht das Wesen des Menschen. Dahingegen ist der Computer eine klarer diskreter Zustand zum Zeitpunkt X. So klar, dass ich davon eine Systemwiederherstellung machen kann, wenn er zwei Stunden später nicht mehr funktioniert. So wie Dreyfus mit phänomenologischen Methoden eine KI in einen situativen Kontext genauer betrachtet, was auch in der Tradition von Heidegger steht, kann man dessen Konzept der Zeitlichkeit genauer betrachtet. Hier spielt der Tod eine zentrale Rolle: Der Tod ist eigenste Möglichkeit des Daseins. Das Sein zu ihr erschließt dem Dasein ” sein eigenstes Seinkönnen, darin es um das Sein des Daseins schlechthin geht.“(Hei06, S. 263) Der Mensch hat in seiner Existenz immer in irgendeiner Weise ein Verhältnis zum Tod, da sein Leben endlich ist. Die Existenz eines Roboters hingegen muss nicht zwangsläufig endlich sein. Natürlich kann der Roboter zerstört oder ausgeschaltet werden, aber zu seinem Sein gehört nicht der Tod. Das bedeutet, dass seine Möglichkeiten nicht davon geprägt sind, dass er sich seines eigenen Todes bewusst ist und dass sich da in seinem Verhalten wiederspiegelt. Empirisch wird es für ihn genauso ein Ende geben, wie für den Menschen, aber das Ende des natürlichen Menschen ist unvermeidbar. Ich denke dass ist ein zentraler Unterschied, der sich nicht ändern wird. Spekulationen darüber, den Menschen dahingehend zu erweitern, dass er durch künstliche Organe auch unsterblich werden könnte ist für diese Debatte meiner Meinung nach irrelevant. Stellen wir uns wieder diesen Roboter vor, der sich verhält wie ein Mensch. Ob ihm wirkliches Denken, Wünsche und damit bewusste Handlungen zugesprochen werden ist auch abhängig von der Akzeptanz dieser digitalem Systems seines Umfeldes. Vielleicht ist es auch einfach nur ein Prozess, der sich entwickelt und der Mensch muss sich an die Gegenwart von künstlichen System als Teil seiner aktiven Lebenswelt gewöhnen. So wie wir Haustiere anders wahrnehmen und mit ihnen umgehen als Nutztiere, könnte es genauso mit Robotern sein. Die wenigstens Menschen würden, außer in Notsituationen ihr Haustier essen und durch eine persönliche Beziehung zu dem Tier, nehmen wir es anders wahr als einen Vogel, der auf dem Baum singt. Erst durch den konstanten Bezug und die Erfahrungen mit ihm, nehmen wir das Tier zwar nicht als eine Person auf, dennoch verhalten wir uns ihm gegenüber ähnlich wie zu einem Menschen, indem wir uns um das Tier sorgen und uns kümmern. Natürlich ist die Voraussage, dass wir so mit Robotern umgehen nicht stark begründet und vielleicht auch nicht wahr. Dennoch möchte ich hier an den vorangegangen Aspekten die Möglichkeiten und Probleme aufzeigen, die sich ergeben, falls es gelänge Systeme zu entwickeln, die mit uns interagieren, als seien sie menschlich. Ob das eintrifft, wird kein Philosoph voraussagen können und auch 43 Christine Plicht nicht zuverlässig ein Visionär der KI, wie beispielsweise Ray Kurzweil. Mit der Zeit wird sich zeigen, ob und wie die Entwicklungen in der Informatik und Robotik weiter verlaufen. Auch die schlagenste philosophischen Argumente werden Entwickler nicht davon abhalten trotzdem zu versuchen immer weiter zu kommen und die Grenzen praktisch zu erfahren. Wenn die Anforderungen an eine künstliche Intelligenz getrennt von den Vorstellungen einer künstlichen Person betrachtet werden, sind wir dort, wo Turing 1950 war. Es ist unklar, welche Kriterien wir anwenden sollen und der Streitpunkt ob das System wirklich Wünsche hat oder Denken kann, wird aus unterschiedlichen Seiten diskutiert. Meiner Meinung nach ist es sinnvoll das System danach zu beurteilen, was es als Output liefert und wie es uns dadurch begegnet. Es wird sich zeigen, wie weit die Entwicklung voranschreitet und wozu Roboter wirklich fähig sein werden. So wie wir zur Bestimmung der Intelligenz des Menschen auch Tests haben, auf die man sich vorbereiten kann, ist ein Test á la Turing wahrscheinlich die sinnvollste Möglichkeit die Fähigkeiten eines digitalen Systems zu bestimmen. Dazu muss es kein Sprachtest sein und auch kein Total Turing Test, sondern vorstellbar wären bestimme Aufgaben, die das System bewältigen muss. Hierbei könnte man Robotern und anderen Systemen unterschiedliche Herausforderungen stellen. Allerdings ist es dann immer noch schwierig dem System kognitive Eigenschaften zuzuschreiben, sondern es hat Test XY bestanden und kann somit irgendwie klassifiziert werden. Weitere oder andere Kriterien zu finden, halte ich für schwer durchsetzbar, da man sich nicht darüber einig ist, was überhaupt möglich ist und wie das zu bewerten ist. Unter solchen Voraussetzungen ist es unklar wie man einheitliche Kriterien und deren Auswertung festlegen kann. Betrachtet man sich die philosophischen Probleme, die hinter der KI Forschung stehen bzw. mit deren Hilfe man philosophische Probleme lösen wollte, so hat man hier in den letzten 50 Jahren nicht besonders viel erreicht. Man ist sich vielleicht klarer, dass die Euphorie durch die große Schritte zu Beginn der Forschung, so nicht weiter gehen konnte und auch nicht werden wird. Es zeigte ich immer wieder, dass die Komplexität und Entwicklung einer Probleme schwer einzuschätzen war, auch wenn man zu Beginn einen guten Start hatte. Vergleichsweise einfach waren immer wieder Programm zu implementieren, die dem Menschen schwere bis unmögliche Arbeiten oder Berechnungen abnehmen, aber bei den einfachsten Dinge, die schon ein Kind beherrscht ist es sehr mühsam diese zu entwickeln. Das was Searle den Zielen der starken KI zuschrieb, über den Computer einen besseren Zugang und ein klares Verständnis des Geistes zu erreichen, hat sich bis heute nicht bewahrheitet. Allerdings bezweifle ich, dass das wirklich höchste Prio- 44 Christine Plicht rität der Forscher hatte. Natürlich versucht man auch heute noch, gerade über Roboter, bessere Vorstellungen der möglichen Arbeitsweise und Strukturen von kognitiven Eigenschaften zu erreichen. Inwieweit man darüber Schlüsse für das Körper-Geist-Problem ziehen kann, sehe ich als kontroversen Punkt. Sicherlich ist hier eine starke Zusammenarbeit mit den Neurowissenschaften notwendig, die zum Teil auch geschieht, aber deren genauere Betrachtung im Rahmen dieser Arbeit nicht möglich war. Die philosophischen und weniger technischen Einwände, haben allerdings schon Einzug in die KI-Forschung gefunden. Gerade Dreyfus Kritik, die sich auf die Situationsabhängigkeit bezieht und erklärt warum ein Körper notwendig ist, wird in der Robotik verwirklicht. Es ist wahrscheinlich, dass diese phänomenologische Kritik berechtigt ist und die Entwicklung eines künstlichen Systems deswegen schwer ohne Körper und Kontext zu verwirklichen ist. Es kann unmöglich sein dem System einen Kontext zu vermitteln, der dem des Menschen gleicht und sich deswegen sein Verhalten, der Output, nicht mit unserem vergleichbar ist. Allerdings ergeben sich die Probleme zumindest nicht mehr, aufgrund geringer Datenspeichermöglichkeiten. In dieser Hinsicht hat sich seit Dreyfus einiges geändert. Sowohl die Speicherkapazität ist größer geworden, als auch die Größe der Speichermedien geringer. Allerdings hält Dreyfus es nicht nur aufgrund dieser physikalischen Einstellung für unmöglich, dem System einen situativen Kontext zu vermitteln und dementsprechend zu agieren. Aber dann stelle ich mir die Frage: muss es das sein? Kann ich ein System nicht als intelligent bezeichnen ohne das es unbedingt die Eigenschaften des Menschen möglichst nahe oder besser simulieren kann. Es wird die zu starke Euphorie der Forschung kritisiert, gleichzeitig aber die Erwartungen so hoch geschraubt, dass beides nicht miteinander vereinbar ist. Dreyfus und Searle wollen beide die Unmöglichkeit starker Systeme aufzeigen und setzen die Anforderungen an diese so hoch, dass diese gar nicht erfüllt oder überprüft werden können. Die Ansprüche, die wir an einen Menschen haben, können nicht identisch auf ein künstliches System übertragen werden. Deswegen sollte man sich auf eindeutige Kriterien einigen und die Fortschritte dann beurteilen, wenn sie erreicht worden sind. Natürlich gibt es weiter sehr optimistische Visionäre bezüglich den Entwicklungen auf dem Markt. So hat Ray Kurzweil 1999 Homo S@piens veröffentlicht, in dem er für die Jahre 2009 bis 2099 Voraussagen trifft, die sehr der Sciencs-Fiction-Welt gleichen. Manche davon treffen für das Jahr 2009 zu, andere nicht. So ist die Beschreibung von Größe und Leistung der Computer und auch die Voraussage bezüglich Notebooks und TabletPCs zutreffend. Die Voraussage: Übersetzende Telefone (speech to speech language ” 45 Christine Plicht translation) sind allgemein im Gebrauch und für viele Sprachenpaare erhältlich.“(Kur99, S.449) trifft auch zwei Jahre später noch nicht zu und ich bezweifle, dass sie in nächster Zeit verwirklicht wird. Nach Kurzweil entwickeln sich im Laufe des Jahrhunderts immer mehr digitalen automatische Assistenten und eine virtuelle Realität entsteht zu der wirkliche. Für das Jahr 2099 schreibt er: Das menschliche Denken verschmilzt mit der ” ursprünglich von der menschlichen Spezies erschaffenen Maschinenintelligenz.“(Kur99, S.452). 46 Christine Plicht 6 Fazit In der vorliegenden Arbeit habe ich die wichtigsten Argumente in der philosophischen KI-Debatte erläutert und diskutiert. Dabei habe ich deutlich gemacht, dass es viele Anknüpfungspunkte innerhalb der KI-Forschung zur Philosophie gibt, einige davon beziehen sich auf die Philosophie des Geistes oder Probleme in der Sprachphilosophie. Hier habe ich die Relevanz und Berechtigung der Philosophie in dieser Debatte verdeutlich. Genauer habe ich die unterschiedlichen Argumentationsstrukturen der von mir ausgewählten Philosophen gezeigt. Dennett und Searle versuchen eher auf einer technischen Ebene zu argumentieren, wohingegen Dreyfus aus phänomenologische Ebene Probleme sieht. Hauptaspekte bezogen sich darauf, wann man einem System überhaupt kognitive Fähigkeiten, wie Intentionaliät zusprechen kann und unter welchen Kriterien. Außerdem ist der Sprung von einem syntaktischen zu einem semantischen System, nach Searle, nicht möglich. Als letzten Punkt habe ich Dreyfus Kritik basierend auf der Lebenswelt dargestellt: die Unmöglichkeit, dass ein System situativen Kontext erfassen kann und seine eigene Lebenswelt erhält. Es hat sich gezeigt, dass diese auf verschiedene Ebenen an das Problem herangehen und diese nicht immer auf Verständnis in der nicht philosophischen KI-Gemeinde getroffen haben. Nach dieser Diskussion wird deutlich, dass es kein einheitliches Kriterium für die Bewertung der jetzigen oder auch späteren Entwicklungen gibt, sodass die Frage nach den kognitiven Fähigkeiten nicht abschließend beantwortet werden kann. Schwierigkeiten dabei machen die unterschiedlichen Analysen, aus der 1. oder 3. Person heraus. Die pragmatische Betrachtung ermöglicht es Fähigkeiten anzuerkennen ohne den direkten tieferen Vergleich mit den entsprechenden menschlichen Fähigkeiten zu treffen. Turing hat ein dritte Person Kriterium vorgegeben, das aber weder anerkannt wird, noch eine Maschine wirklich erreicht hat. Hier hat die Philosophie gezeigt, dass es gerade durch die philosophische Diskussion schwierig ist, den Turing-Test anzuerkennen. Deswegen sollte weiter ein gesellschaftlichen Diskurs über Kriterien angeregt werden, um ein allgemein anerkanntes zu finden. Die Begleitung der KI von der Philosophie gibt ein besseres Verständnis in diesen Fragen und sensibilisiert für auftretende Probleme. Sie gibt nicht unbedingt eine Antwort, aber verdeutlicht die Relevanz der Probleme für die weitere Entwicklung. Es hat sich gezeigt, dass der Turing-Test nicht einfach zu bestehen ist, das haben Philosophen auch vor 30 Jahren schon begründet. Trotzdem sollte die Philosophie auch die weiteren Entwicklungen in dem Gebiet der KI und der Robotik begleiten und parallel dazu interdisziplinär 47 Christine Plicht Diskussionen anregen. Da dieses Themengebiet so umfassend ist, muss es auch von verschiedenen wissenschaftlichen Disziplinen betrachtet werden, dabei spielt die Philosophie keine geringe Rolle. Gerade dadurch, dass auch philosophische Themen betroffen sind und hier Anknüpfungspunkte an aktuelle Forschung gegeben ist, ist es notwendig diese zu betrachten um auch im eigenen Fach sich nach vorne zu entwickeln und nicht den Bezug zu anderen Wissenschaften zu verlieren. 48 Christine Plicht 7 Literatur [Bec08] Beckermann, Ansgar: Analytische Einführung in die Philosophie des Geistes. 3., aktualis. u. erw. Aufl. Berlin [u.a.] : de Gruyter, 2008 [Bie81] Bieri, Peter (Hrsg.): Analytische Philosophie des Geistes. Königstein/Ts. : Hain, 1981 [Car32] Carnap, Rudolf: Überwindung der Metaphysik durch die logische Analyse der Sprache. In: Erkenntnis 2 (1931/32) [Den81] Dennett, Daniel C.: Intentionale Systeme. In: Bieri, Peter (Hrsg.): Analytische Philosophie des Geistes. Königstein/Ts. : Hain, 1981 [Den96] Dennett, Daniel C.: COG: Schritte in Richtung auf Bewußtsein in Robotern. In: Metzinger, Thomas (Hrsg.): Bewußtsein. 3., erg. Aufl. Paderborn [u.a.], 1996 [Dre65] Dreyfus, Hubert: Alchemy and artificial Inelligence. (1965) [Dre85] Dreyfus, Hubert L.: Die Grenzen künstlicher Intelligenz. Dt. Erstausg. Königstein, Ts. : Athenäum, 1985 [Har90] Harnad, Stevan: The Symbol Grounding Problem. In: Physica D 42 (1990), S. 335–346 [Har91] Harnad, Stevan: Other bodies, Other minds: A machine incarnation of an old philosophical problem. In: Minds and Machines 1 (1991), S. 43–54 [Hau93] Hauser, L.: Reaping the Whirlwind: Reply to Harnad’s “Other Bodies, Other Minds“. In: Minds and Machines 3 (1993), S. 219–238 [Hei06] Heidegger, Martin: Sein und Zeit. 19. Aufl., unveränd. Nachdr. d. 15. Aufl. Tübingen : Niemeyer, 2006 [McCa] John McCarthy: What is artificial intelligence. http://www-formal. stanford.edu/jmc/whatisai/node1.html, . – [Online; Stand: 20-Aug-2011] [Kur99] Kurzweil, Raymond: Homo s@piens. 1. Aufl. Köln : Kiepenheuer and Witsch, 1999 [McL09] McLaughlin, Brian P. (Hrsg.): The Oxford handbook of philosophy of mind. 1. publ. Oxford : Clarendon Press, 2009 49 Christine Plicht [Mea08] Mead, George H. ; Morris, Charles W. (Hrsg.): Geist, Identität und Gesellschaft aus der Sicht des Sozialbehaviorismus. 1. Aufl., [Nachdr.]. Frankfurt am Main : Suhrkamp, 2008 [Pre99] Prechtl, Peter (Hrsg.): Metzler-Philosophie-Lexikon. 2., erw. und aktual. Aufl. Stuttgart [u.a.] : Metzler, 1999 [RN04] Russell, Stuart J. ; Norvig, Peter: Künstliche Intelligenz. 2. Aufl. München [u.a.] : Pearson Studium, 2004 [Ryl87] Ryle, Gilbert: Der Begriff des Geistes. Stuttgart : Reclam, 1987 [Sea80] Searle, John: mind, brains, and programms. In: The Bahavioral and Brain Sciences 3 (1980), S. 417–457 [Sea93] Searle, John R.: Die Wiederentdeckung des Geistes. München : Artemis und Winkler, 1993 [Sea94] Searle, John: Geist, Gehirn,Programm. In: Zimmerli, Walter Ch. (Hrsg.): Künstliche Intelligenz. Reclam, 1994 [Sea06] Searle, John R.: Geist. 1. Aufl. Frankfurt am Main : Suhrkamp, 2006 [Tur94] Turing, Alan M.: Kann eine Maschine denken? Ch. (Hrsg.): Künstliche Intelligenz. Reclam, 1994 50 In: Zimmerli, Walter