Wissenschaftliche Arbeit

Werbung
Ruprecht-Karls-Universität Heidelberg
Philosophisches Seminar
Wissenschaftliche Arbeit
Vorgelegt von Christine Plicht
Betreut durch Prof. Dr. Martin Gessmann
Künstliche Intelligenz in der Diskussion
zwischen Postmoderne und Pragmatismus
Christine Plicht
25. August 2011
vorgelegt von:
Christine Plicht
Heinrich-Lanz-Str.3
69115 Heidelberg
[email protected]
Matrikelnr.: 2546008
Heidelberg, 25. August 2011
Inhaltsverzeichnis
1 Einleitung
2
2 Geschichte der KI
4
2.1
Turing-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
2.2
Darthmouth Konferenz 1956 . . . . . . . . . . . . . . . . . . . . . . . . . .
6
3 Künstlichen Intelligenz im philosophischen Kontext
3.1
9
Körper-Geist-Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4 Drei philosophische Ansätze
20
4.1
Daniel C. Dennetts - Intentionale Systeme . . . . . . . . . . . . . . . . . . 20
4.2
John Searle - Das Chinesische Zimmer . . . . . . . . . . . . . . . . . . . . 25
4.3
Hubert Dreyfus - What Computers can’t do . . . . . . . . . . . . . . . . . 30
5 Robotik als Weg zu einer künstlichen Intelligenz
38
6 Fazit
47
7 Literatur
49
1
Christine Plicht
1 Einleitung
Künstliche Intelligenz (KI) wurde im letzten Jahrhundert zu einem Thema mit dem
sich einige Wissenschaftszweige beschäftigt haben, so auch die Philosophie. Überwiegend äußerten sich Philosophen aus den USA zu diesem Thema mit dem Höhepunkt der
Diskussion in den 70er und 80er Jahre des letzten Jahrhunderts. Die Entwicklung selbst
geht natürlich weiter zurück mit Hoch- und Tiefphasen. Künstliche Intelligenz ist ein
sehr interdisziplinäres Thema, da verschiedene Aspeke aus unterschiedlichen Sichtweisen
beleuchtet werden können. So ist es nicht nur die Seite der Informatik, bei der es um die
Entwicklung der Programme geht, sondern auch die Neurowissenschaften, Psychologie
oder auch Ingeneurswissenschaften sind an den Projekten beteiligt. Die Philosophie hat
bei diesem Thema die Möglichkeit an konkreten Entwicklungen durch einen Diskurs begleitend und aktiv teilzunehmen und aus ihrer Sicht zu beleuchten. Die philosphischen
Diskurse dazu sind verwurzelt mit der Philosophie des Geistes und der Sprachphilsophie. Das Thema ist für die Philosophie besonders spannend und geeignet, da hier ein
Diskurs stattfindet, der an aktuelle Forschungsgebiete anknüpft und zusätzlich in einer
gesellschaftliche Debatte verankert ist. Hier hat die Debatte einen starken realen Bezug
zum aktuellen Geschehen und beschäftigt sich nicht mit spezifischen Themen einzelner
Philosophen oder Epochen. Trotzdem kann das Thema auch sehr theoretisch betrachtet
werden und praktische Fragen, wie der Ethik, können dabei am Rande diskutiert werden.
Meine eigene Motivation zu diesem Thema ergibt sich aus meinem zweiten Studienfach,
der Mathematik. Hierdurch habe ich einen leichteren Zugang zu Konzepten der Informatik erhalten, die in dieser Arbeit gelegentlich angesprochen, aber nicht vertieft behandelt,
werde. Es ist, gerade als angehende Lehrerin, sehr spannend sich mit einem philosophischen Thema zu befassen, das sowohl einen aktuellen Bezug hat, als auch beiden Fächer
verbindet. Ziel dieser Arbeit ist es also ein Thema, dessen Ursprung in einer anderen
Disziplin liegt, philosophisch zu betrachten und aufkommende philosophische Fragen zu
diskutieren. Dabei will ich untersuchen, ob und wieweit die Philosophie Fragen dieses
Wissenschaftszweig, durch einen andern Zugang, verständlicher werden oder sogar beantworten werde könnte.
Die Arbeit beginnt mit einem geschichtlichen Überblick des Themas, in dem ich die
Grundlagen aus der Mathematik und Informatik anspreche und wichtige Ereignisse und
Erfindungen beschreiben. Weiter möchte ich die philosophische Bedeutung der Künstliche Intelligenz genauer erläutern und damit zusammenhängende Probleme aus der Philosophie vorstellen. Hauptteil der Arbeit bildet die Auseinandersetzung mit drei zeit-
2
Christine Plicht
genössigen amerikanischen Philosophen: Daniel C. Dennett, John Searle und Hubert
Dreyfus. Ich werde Dennetts pragmatisches Konzept der intentionalen Systeme vorstellen, bei dem die Frage nach Intentionalität von Maschinen thematisiert wird. Weiter
hebe ich Argumente von Searle und Dreyfus hervor, die gegen die Möglichkeit der Adaption von kognitiven Fähigkeiten bei Maschinen sprechen. Hierzu betrachte ich Searles
berühmtes Gedankenexperiments, das Chinesische Zimmer, und gebe einige Kritiker
wieder. Weiter stelle ich eine dritte Herangehensweise an das Thema vor, Dreyfus phänomenologische Kritik an der KI-Forschung.
Beenden werde ich die Arbeit mit einem Ausblick auf die Robotik bezogen auf eine
künstliche Intelligenz. Dabei werde ich die Probleme einer einheitlichen Vorstellung von
künstlicher Intelligenz und ihrer Überprüfung beispielsweise durch Kriterien diskutieren.
3
Christine Plicht
2 Geschichte der KI
Um die zeitliche Entwicklung des Forschungsgebiets der Künstlichen Intelligenz zu betrachten, sind für diese Arbeit neben der philosophischen, auch die mathematische Seite
wichtig. Hier wurden grundlegenden Überlegungen getroffen, die zum heutigen Stand der
Wissenschaft und Technik führten. Seit der Antike versuchen die Menschen Regeln zu
finden, um die Welt zu beschreiben. Damals legte Aristoteles die ersten Grundsteine für
eine Formalisierung, in dem er den Syllogismus begründete. Der Syllogismus ermöglicht
es zum ersten Mal Argumente, die aus logischen Verknüpfungen bestehen, unabhängig
von ihrem Inhalt, auf formale Folgerichtigkeit zu überprüfen . So konnten Argumente
durch eine abstrakte allgemeingültige Methode überprüft oder eben auch widerlegt werden. Das war eine der ersten Voraussetzungen für die heutige formale und mathematische
Logik und somit auch für das Forschungsgebiet Künstliche Intelligenz.
Im weiteren Verlauf der Geschichte wurden Grundlagen für die heutigen Stand gelegt,
die Rechenmaschinen. So wurde schon von Leonardo da Vinci (1452-1519) eine Rechenmaschine entworfen, aber nicht gebaut. Erst im 17. Jahrhundert gelang es Wilhelm
Schickard (1592-1635) und auch Blaise Pascal (1623-1662) eine funktionstüchtige mechanische Rechenmaschine zu bauen, die addieren und subtrahieren konnte. Im Laufe der
Zeit wurden Rechenmaschinen weiterentwickelt und konnten immer mehr Funktionen
ausführen. Allerdings war die Division eine Operation, die von den damaligen Maschinen nicht durchgeführt werden konnte. Es entstand immer stärker der Eindruck, dass
sich die Welt anhand von formalen Strukturen und Regeln erklären ließe. So wurde im
19. Jahrhundert von George Boole (1815-1849) die moderne mathematische Logik begründet. In seinem Werk The Mathematical Analysis of Logic schuf er mit dem ersten
algebraischen Logikkalkül die Grundlage für die Bool’sche Algebra. In der Bool’schen
Algebra werden die Grundoperationen der Logik (UND, ODER) mit den mengentheortischen Verknüpfungen, wie der Vereinigung und dem Durchschnitt, formal beschrieben.
Auf diese Algebra baut die mathematische und philosophische Logik auf, denn damit
werden die grundlegenden Gesetze beschrieben. Durch die zweiwertige Bool’sche Algebra
werden auch Wahrheitstafeln beschrieben, mit 0 als falscher und 1 als wahrer Aussage,
die in der Aussagenlogik fundamental sind.
Bis ins 19. Jahrhundert versucht man formale Strukturen zu erfassen und erste kleinere
mechanische Instrumente zu bauen, die dem Menschen Arbeit abnehmen sollten. Die
Mechanisierung wurde im 19. Jahrhundert stark vertieft und erreichte weitere durchbrechende Errungenschaften. Darunter zählen u.a. der Zeigertelegraf, der von Werner
4
Christine Plicht
von Siemens und Johann Georg Halske erfunden wurde und Vorläufer des heutigen Faxgerätes war. Die Rechenmaschinen und auch weitere Rechner wurden bis dahin auf
einem analogen System betrieben, d. h. sie messen Größen, wie Spannungen, Zeitdauer
und geben anhand dieser Messungen ein Ergebnis. Es konnte somit nur mit starren,
festen Größen gearbeitet werden. Das änderte sich mit der Erfindung der Digitalrechner.
Charles Babbage entwarf 1835 eine sogenannte analytische Maschine“, die allerdings
”
nicht gebaut wurde. Digitalrechner können auch mit unstetigen Größen arbeiten und
Zustände speichern. Alan M. Turing (1912-1954) beschreibt die Vorzüge des Digitalrechner: Die Existenz von Maschinen mit dieser Eigenschaft hat die wichtige Konsequenz,
”
dass es, von der Geschwindigkeitserwägungen abgesehen, unnötig ist immer neue Maschinen für unterschiedliche Rechenprozesse zu entwickeln. Sie können allesamt mit einem Digitalrechner durchgeführt werden, der für jeden Fall geeignet zu programmieren
ist.“(Dre85, S.22).
Der erste funktionstüchtige programmierbare Digitalrechner wurden 1941 von Konrad
Zuse (1920-1995) gebaut und 1943 während des Zweiten Weltkriegs wieder zerstört. Er
war unter dem Namen Z3“ bekannt und basierte auf einem Binärsystem. In den wei”
teren Jahrzehnten wurden weitere digital Großrechner gebaut und erste Visionen über
spezielle Programme gemacht. Hierzu zählt die Entwicklung eines Schachcomputers: ein
Programm, dass die Regeln des Schachspiel beherrscht und gegen einen menschlichen
Gegner gewinnen könnte. Erste Erfolge damit hatten hatten Allen Newell, J.C. Shaw
und H.A. Simon. Ihnen gelang, es ein Prgramm zu entwickeln, dass Schachanfänger
schlagen konnte. Ein weiteres Gebiet der Programmierung, das in dieser Zeit eröffnet
wurde, war die Entwicklung eines Sprachcomputers und so genannte heuristische Systeme, die sich auf das Lösen von Denksportaufgaben spezialisierten.
2.1 Turing-Test
In dieser Zeitepoche, 1950, veröffentlichte Turing einen Artikel Computing Machinery
”
and Intelligence“, in dem er ein Imitationsspiel, heute auch bekannt als Turing-Test.
Turing wollte sich mit der Frage auseinandersetzen, ob eine Maschine denken kann. Um
darüber eine Aussage treffen zu können, entwarf er folgendes Spiel: Es gibt insgesamt
drei beteiligte Parteien, zwei, die befragt werden (A und B) und ein Fragesteller (C). Ziel
des ursprünglichen Imitationsspiel war es, dass C das Geschlecht der Befragten herausfinde, wobei beide Geschlechter vorkommen. In der Abweichung und computerbezogenen
Variante des Spiels wird ein Befragter durch einen Computer ersetzt. C soll nun heraus-
5
Christine Plicht
finden, ob entweder A oder B ein Mensch ist. Hierbei kann C Fragen formulieren, auf die
A und B antworten müssen. Selbstverständlich passiert dies in schriftlicher bzw. digitaler
Form. Turing ersetzt dann auch die Frage, ob Maschinen denken können, durch Sind
”
Digitalrechner denkbar, welche sich bei dem Imitationsspiel bewähren?“. Natürlich wird
direkt deutlich, dass es sich hier um zwei verschiedene Fragestellungen handelt. Allerdings gibt Turing hier ein klar überprüfbares Kriterium. Turing sieht den Unterschied
der beiden Fragestellungen nicht so relevant, wie es zur heutigen Zeit sein mag, denn er
behauptet: Die ursprüngliche Fragestellungen Können Maschinen denken‘ halte ich für
”
’
zu belanglos, als dass sie ernsthaft diskutiert werden sollte. Nichtsdestoweniger glaube
ich, dass am Ende unseres Jahrhunderts der Sprachgebrauch und die allgemeine Ansicht
sich so stark gewandelt haben werden, dass man widerspruchslos von denkenden Maschinen reden kann.“(Tur94, S. 51) Demnach ist Turing so optimistisch, was die Entwicklung
der Computer und Programme angeht, dass er davon ausgeht, dass niemand ihr Denkvermögen anzweifeln wird, wenn sie den Turing-Test bestehen. Seine Prognose war, dass
50 Jahre später, also zur Jahrtausendwende, Sprachcomputer den Test bestehen werden.
Sogar nicht einmalig, sondern mit einer Wahrscheinlichkeit von 70 Prozent. Dabei soll
es ein fünfminutiges Testgespräch geben, bevor sich C entscheidet.
Nicht nur Turing hat zu Beginn der Entwicklung solcher Computer so eine optimistische These abgegeben, sondern auch andere Wissenschaftler waren von der rasanten
Entwicklung mitgerissen. Simon prophezeite 1957 unter anderem:
• In spätestens zehn Jahren wird ein Computer Schachweltmeister, sofern ihn die
Regeln nicht von der Teilnahme ausschließen.
• In spätestens zehn Jahren wird ein Computer ein neues, bedeutendes mathematisches Theorem entdecken und beweisen.
• In spätestens zehn Jahren werden die meisten Theorien der Psychologie die Form
von Computerprogrammen oder von qualitativen Aussagen oder die Merkmale von
Computerprogrammen haben.
2.2 Darthmouth Konferenz 1956
Die Geburtstunde der Künstliche Intelligenz war 1956 in Darthmouth. Dort veranstaltete John McCarthy einen zwei Monate dauernde Sommer-Konferenz, zu der Forscher
eingeladen wurden, die sich zu der Zeit mit diesem Thema beschäftigten. Der Work”
shop in Darthmouth brachte keine neuen Durchbrüche, aber er sorgte dafür, dass sich
6
Christine Plicht
die wichtigsten Personen kennen lernten.“(RN04, S.38); Marvin Minsky, Allen Newell,
Herbert Simon, Claude Shannon und Nathaniel Rochester. Ab diesem Zeitpunkt wurde
künstliche Intelligenz zu einem seperaten Forschungsgebiet. McCarthy definiert KI in
seinem Artikel What is artificial intelligence: It is related to the similar task of using
”
computers to understand human intelligence, but AI does not have to confine itself to
methods that are biologically observable.“(McCa). Man will versuchen menschliche mentale Konzepte, wie Kreativität oder Spracherkennung, mit dem Computer zu simulieren
oder sogar zu konstruieren.
Genau 50 Jahre später, im Jahr 2006 fand eine weitere Konferenz1 in Dartmouth statt,
die sich mit den kommenden 50 Jahre der KI-Forschung beschäftigte. Auf dieser Konferenz waren auch einige ursprünglichen Teilnehmer präsent, wie McCarthy und Minsky.
Die KI-Forschung war geprägt von Jahrzehnten, in denen neue Entwicklungen einen
starken Enthusiasmus hervorriefen. Aber es gab auch Zeiten, in denen es ruhiger wurde
und eine Weiterentwicklung nicht in Sicht war. Zu Beginn wurden Probleme formuliert
und der Lösungsansatz war recht viel versprechend, dennoch stellte sich heraus, dass
eine Entwicklung komplexer war, als zuerst gedacht. Nicht jedes Problem wurde damit
gelöst, dass eine bessere Hardware und ein größerer Speicher zur Verfügung standen. Solange eine Problemlösung darauf basierte, Möglichkeiten zu berechnen, bis die richtige
Lösung gefunden wurde, konnte bessere Hardware dazu verhelfen. Aber gerade in der
Sprachübersetzung war dies nicht immer so einfach.
Ein weiterer Meilenstein in der Entwicklung von Computerprogrammen, die kognitive
Fähigkeiten zumindest simulieren, war das Programm ELIZA. Der Informatiker Joseph
Weizenbaum(1923-2008) entwickelte das Programm und veröffentlichte es 1966. ELIZA ist ein interaktiver Chatbot, der ein Gespräch mit einem Menschen führen kann.
Es basiert auf den Grundlagen eines psychotherapeutischen Gesprächs. Hierbei ist es
vergleichsweise einfach auf den Gegenüber zu reagieren, da man in einem psychotherapeutischen Gespräch auf Aussagen mit wenigen Informationen mit einer Frage antworten kann. ELIZA greift hierzu auf eine Datenbank zurück, in der Antworten und
Erkennungsmuster gespeichert sind und reagiert somit auf eine Frage oder Aussage der
Gesprächsperson.
Eine wichtige und bekannte Arbeit an künstlicher Intelligenz ist der Schachcomputer
Deep Blue“, der 1997 unter Turnierbedingungen als erster Computer gegen den amtie”
renden Schachweltmeister gewann. Kasparov sagte, er fühle, dass ihm am Brett eine
”
1
Die Konferenzhomepage befindet sich noch unter http://www.dartmouth.edu/~ai50/homepage.html.
[Abgerufen im August 2011]
7
Christine Plicht
neuartige Intelligenz‘ gegenüber sitze.“(RN04, S.50). Damit bestätigte sich Simons Pro’
phezeiung, wenn auch 30 Jahre zu spät. Dennoch war es in den ersten Jahrzehnten nicht
möglich, einen Computer zu entwickeln, dessen Fähigkeiten über die eines Amateurschachspielers hinaus gingen. Der Erfolg des Schachcomputers hängt sowohl von seiner
Hardwareleistung als auch der Software, dem Schachprogramm, ab. Das Programm berechnet die möglichen Züge und wählt hier mit einer Bewertungsfunktion aus. Heute
ist die Entwicklung an Schachcomputer nicht mehr so interessant wie noch vor zwanzig Jahren. Die handelsüblichen Schachcomputer können den normalen Schachspieler
mühelos schlagen, demnach hatte die Entwicklung Erfolg und das Problem ist gelöst.
Interessanter sind mittlerweile Spiele wie Go, die auf eine komplexere Bewertungsfunktion aufbauen und zudem einfache Regen haben.
Der Schachcomputer und Chatbots sind beides Programme, die interaktiv mit Menschen
arbeiten und basieren auf kognitive Fähigkeiten des Menschen. Es findet ein Austausch
zwischen Mensch und Maschine statt und wenn der Interaktionspartner nicht wüsste,
dass er mit einem Programm interagiert, würde es ihm wahrscheinlich nicht direkt auffallen.
8
Christine Plicht
3 Künstlichen Intelligenz im philosophischen Kontext
Im 20. Jahrhundert hat man versucht, einer Maschine oder einem Computer Dinge beizubringen, die sonst nur Organismen vollbracht haben. Es ging nicht mehr nur um eine
Mechanisierung, die dem Menschen Arbeit abnehmen soll, sondern auch kognitive Leistungen sollten auf Hardware durch geeignete Programmierung übertragen werden. Eine
wichtige Voraussetzung dafür war die Turing-Maschine. Eine Turing-Maschine ist ein
simples Konzept einer Rechenmaschine. Sie kann für eine berechenbare Funktionen f
ihren Wert f(n) an der Stelle n ausgeben. Für jede berechenbare Funktion gibt es eine Turing-Maschine. Das heißt, alles was, ein Mensch berechnen kann, kann auch eine
Maschine erledigen. Nachdem es so große Erfolge und Prophezeiungen auf dem Gebiet
der Informatik gegeben hat, war es möglich, dass ein Rechner menschliche kognitive
Eigenschaften simulierte. Es gibt seitdem Computer, die Schach spielen oder eine Unterhaltung mit uns führen können. Dadurch erhielt die Maschine kognitive Fähigkeiten,
die bisher nur dem Menschen zustanden. Außerdem waren das genau die Fähigkeiten,
bei denen es nicht möglich war, von außen zu überblicken, wie ein Mensch das tut. Eine
Maschine, die eine körperliche Arbeit des Menschen ersetzt, wie das Weben und Stricken
von Stoffen, folgt klar einem Schema, das wir bei den Webern sehen und nachvollziehen konnten. Diese Handfertigkeit durch eine Maschine zu ersetzen, ist konzeptionell
anders als einen Schachspieler zu ersetzen. Es wurden Fähigkeiten ersetzt, die von außen nicht einsehbar sind und somit von Dritten nicht durchschaubar. Was im Kopf“
”
eines Menschen vorgeht, wenn er ein wichtiges Schachturnier spielt, ist für die Außenstehenden verborgen, so nicht die Schritte, einen Pullover zu stricken. Aber auch bei dem
Schachcomputer wurde das Schachspiel mit Hilfe von einer logischen Abfolge elementarer
Schritte bzw. eines Flussdiagramms transparent gemacht, da es aus nachvollziehbaren
Schritten besteht. Das Programm ist schließlich von einem Menschen programmiert, also
ist es auch möglich zu verstehen, was dahinter steckt. Gerade die Frage, wie kognitive
Eigenschaften des Menschen funktionieren ist sowohl für die Philosophie, aber auch für
andere Wissenschaften, wie den Neurowissenschaften, von Bedeutung. Die Philosophie
des Geistes versucht Probleme, welche die mentale Seite des Menschen mit den geistigen
Eigenschaften betreffen, zu untersuchen und Begriffe, die damit zusammenhängen, zu
definieren und zu erklären. Was geschieht in einem Menschen, wenn er an Dinge denkt,
was bedeutet das und wie denkt er überhaupt? Geistige Eigenschaften sind für Außenstehende nicht zugänglich, wir können nicht erkennen, was in unserem Gegenüber vor
sich geht. Warum er diesen Schachzug ausführt und nicht einen anderen. Es geht darum,
9
Christine Plicht
die Introspektion zu betrachten und die innere subjektive Komponente des Verhaltens
erklären zu können.
Zu Beginn des 20. Jahrhundert versucht der Behaviorismus, das Individuum anhand
seines Verhaltens zu untersuchen und dadurch Ergebnisse über innere Vorgänge zu erhalten. Im Gegensatz zur Introspektion, die auf die Beobachtung des eigenen Selbst zielt,
erforscht der Behaviorist das Verhalten Dritter und lässt dabei auch die Physiologie unbeachtet. Das Innere wird als Black Box“ weitgehend ausgeblendet. Man ist zu einer
”
Verhaltensforschung übergegangen, die dann in der allgemeinen Psychologie durch John
B. Watson (1878-1958) und auch Frederic Skinner (1904-1990) Einzug gefunden hat.
Zentraler Punkt hierbei ist das Reiz-Reaktions-Modell, das besagt, dass jedes Verhalten
auf eine Reizstimulierung zurückzuführen ist und somit alle inneren mentalen Vorgänge
durch äußeres Verhalten erklärt werden. Kritiker weisen darauf hin, dass sämtliche subjektive Erfahrungen dabei außer Acht gelassen werde und das Verhalten sich nicht nur
aus der Perspektive der dritten Person erschließen lasse. Anders versucht die Kognitionswissenschaft Zugang zum Geist zu finden. Hier wird explizit versucht, Strukturen und
Funktionenweisen des Geistes zu finden, um ein besseres Verständnis dieses zu erlangen.
Ausgangspunkt ist, dass der Mensch offensichtlich unterschiedliche mentale Zustände
besitzt, je nachdem, was er gerade macht, wie er sich gerade fühlt. Es ist naheliegend,
dass es irgendwie beeinflussbar ist, in welchen Zustand wir uns befinden und dass es
demnach eine Art Regelwerk gibt, dem eine kausale Struktur zugrunde liegt. Dieses Regelwerk und die Strukturen, die man aufdecken will, führen dazu, dass man die mentalen
Zustände als funktionale Zustände identifizieren könnte, die sich durch ihre kausale Rolle
charakterisieren lassen (Bec08, S.142). Funktionale Zustände können wir uns vorstellen,
wie bei einem Automaten2 . Der Automat kann Ein-Euro-Münzen und Fünfzig-CentMünzen annehmen. Eine Coladose kostet einen Euro. Der Automat kann zwei Zustände
annehmen, je nach Input (den Münzen). Zustand X1 ist der Anfangszustand. Wenn
nun eine Ein-Euro-Münzen eingeworfen wird, gibt der Automat eine Coladose aus und
bleibt im Zustand X1 . Wird ein Fünfzig-Cent-Münze eingeworfen, wechselt der Automat in Zustand X2 . Folgendes gilt für Zustand X2 : Bei einer Fünfzig-Cent-Münze gibt
er eine Cola-Dose aus und geht in den Zusstand X1 über. Bei einer Ein-Euro-Münze
gibt er Fünfzig-Cent zurück und eine Coladose. Wieder wechselt er in den Zustand X1 .
Das bedeutet, der Automat kennt zwei Zustände, für diese Zustände gibt es bestimmten
Input und gegebenenfalls Output (Coladose oder Fünfzig-Cent-Münze). Dieser Output
wird durch Regeln oder auch Verhaltensgesetze bestimmt. Entscheidend dabei ist aber
2
Beckermann verweist in seiner Einführung auf das Beispiel eines Getränkeautomaten von Ned Block.
10
Christine Plicht
auch, wie diese Zustände realisiert werden und nicht nur, dass es sie gibt. Es muss eine
Beziehung zwischen den internen Strukturen und den externen Strukturen geben. Nach
den Funktionalisten werden funktionale Zustände durch physische Zustände realisiert.
Diese physischen Zustände sind das, was in dem Automaten dahinter steckt, sodass er
den Output liefert. Dies kann durch einen Schaltplan dargestellt werden. Funktionalisten vertreten die Ansicht, dass sich der Mensch, ähnlich wie ein Getränkeautomat, in
verschiedenen Zuständen befinden kann und dass es Inputs gibt, die veranlassen, welcher
Zustand realisiert wird. Ich befinde mich also immer in irgendwelchen Zuständen, zum
Beispiel dem funktionalen Zustand des Wartens. Funktional wird hier nicht verstanden
als Aufgabe oder Zweck, den ein Zustand erfüllt, sondern eher im mathematischem Sinne
als Abbildungsvorschrift. Durch den Input n befindet sich der Automat in Zustand f (n),
dem Output. Input wird hier durch die kausale Rolle von n und f (n) charakterisiert.
Wenn ich mich also im Zustand des Warten W befinde, kann sich etwas ändern, das eine
kausale Rolle zu W hat und dann in den Zustand W’ übergeht. Allerdings ist diese Realisierung alles andere als eindeutig. Dieselben mentalen Zustände können durch unterschiedliche physikalische Zustände hervorgerufen werden, sowohl bei anderen Person als
bei der selben. Der Zustand W kann morgen bei mir durch einen anderen physikalischen
Zustand realisiert werden. Das System ist somit multirealisierbar. Die Beschreibung der
mentalen Zustände als funktionale Zustände führt dazu, dass man sich den Geist wie ein
Computerprogramm vorstellen könnte. Hieraus entstand die These, dass das Verhältnis des Geist zum Körper sich mit dem der Software zur Hardware vergleichen lasse.
Starke Vertreter dieser These sind Anhänger des Funktionalismus3 , genauer des Computerfunktionalismus. Dieser besagt, dass sich in der Struktur des Geistes, die mentalen
Zustände durch funktionale Zustände erklären lassen. Prinzipiell ist die Vorstellung, dass
diese Zustände funktional sind, ontologisch erstmal neutral. Dass funktionale Zustände
existieren sagt noch nicht darüber aus, wie diese realisiert werden. Erst die These, dass
sie durch physikalische Zustände realisiert werden, macht den Funktionalismus zu einer
materialistischen Richtung bzgl. des Körper-Geist-Problems der Philosophie des Geistes.
Der Funktionalismus versucht nämlich mit seinen Thesen eine Antwort auf die Frage zu
finden, wie der Körper und der Geist zusammenhängen, welche Beziehung es zwischen
ihnen gibt. Wie steht das Mentale, die geistigen Eigenschaften oder sogar geistigen Dinge, zu den Physikalischen? Gibt es eine Beziehung zueinander, wie hängen sie zusammen,
ist das eine auf das andere zurückzuführen bzw. reduzierbar?
3
Als Vertretet dieser These sind Hilary Putnam oder Jerry Fodor zu nennen.
11
Christine Plicht
3.1 Körper-Geist-Problem
Eine Untersuchung des Körper-Geist-Problems spaltet die Philosophen grob in zwei Richtungen, die Dualisten und die Materialisten. Die Anhänger des Dualismus behaupten,
dass es sowohl materielle als auch immaterielle Entitäten oder Substanzen gebe. Hierbei
gibt es unterschiedliche Strömungen; die zeitlich erste wichtige war im 17. Jahrhundert
der Substanzdualismus, der auf René Descartes (1596-1650) zurückzuführen ist. Dieser
unterscheidet zwischen einer res cogitans und einer res extensa, die geistigen und die
nicht-geistigen Substanzen. Substanzen sind Träger von Eigenschaften, die selbst keine
Eigenschaft sind. Die Substanzdualisten glauben daran, dass der Mensch eine unsterbliche, immaterielle Seele hat, die unabhängig von seinem Körper ist. Dies entspricht der
damaligen religiösen Ansicht einer unsterblichen Seele. Andere, wie die Eigenschaftsdualisten gehen nicht mehr von zwei verschiedenen Substanzen aus, sondern nur noch
von mentalen und physischen Eigenschaften. Der Körper hat physische Eigenschaften,
wie Masse und Ladung, aber auch mentale Eigenschaften, wie Vorstellungen, Denken
usw. Ein zeitgenössischer Vertreter des Eigenschaftsdualismus ist David Chalmers, der
behauptet, dass mentale Eigenschaften sich nicht reduktiv durch den Materialismus erklären lassen, also nicht auf physikalische Eigenschaften reduzierbar sind.
Gegner des Dualismus bestreiten eine Aufteilung in zwei Arten von Eigenschaften oder
Substanzen. Sie behaupten, dass mentale Zustände irgendwie auf physische Zustände
reduzierbar seien und es nur eine materielle Welt gibt. Solch eine Vorstellung wird auch
als Materialismus oder auch Physikalismus bezeichnet. Es handelt sich hierbei um einen
materialistischen Monismus, der vom mentalen Monismus zu unterscheiden ist. Zweiteres
bezeichnet einen Idealismus, der nur von einer geistigen Welt ausgeht. Dem Materialismus kann man verschiedene Gebiete zuordnen, die unterschiedliche Lösungsansätze für
das Körper-Geist-Problem haben, aber immer von einer Welt ausgehen, die sich mit
naturwissenschaftlichen Methoden erklären lässt und letztendlich auf physikalische Entitäten zurückzuführen ist. Hierzu zählt auch der Funktionalismus und Behaviourismus.
In gewissen Sinne ist der Materialismus die Religion unserer Zeit, zumindest unter
”
den meisten Experten auf den Gebieten der Philosophie, Psychologie, Kognitionswissenschaften und anderen Disziplinen, die sich mit dem Geist beschäftigen.“(Sea06, S.56),
so Searle. Der Materialismus ist unserem heutigen Weltbild viel näher als es zu Descartes’ Zeit war, denn dort war der Einfluss der Religionen stärker, mit einem etablierten
Glauben an ein Leben nach dem Tod, bei dem die Seele in den Himmel fährt und der
Körper zurück auf der Erde bleibt. Heute wird versucht für alles handfeste und begreif-
12
Christine Plicht
bare Erklärungen zu finden. Mystische Dinge, wie Geister oder wandelnde Seelen, sind
mittlerweile sehr unplausibel geworden.
Der Funktionalismus wird also erst mit der Annahme, dass die funktionalen Zustände
durch physikalische Zustände realisiert werden, zu einem Materialismus. Ansonsten könnten die Zustände auch durch mentale oder immaterielle Zustände realisiert werden, das
ist für die kausale Rolle durch die sie charakterisiert sind, formal irrelevant. Über die
”
Art des Zustands ist damit nichts gesagt. Es kann sich um einen Gehirnzustand handeln, aber genauso gut auch um einen nicht-physischen Zustand dieser Person oder
vielleicht sogar um einen Zustande einer immaterielle Seele.“(Bec08, S.155) Der Funktionalismus und seine Unterarten sind anschaulich durch die Arbeitsweise von Automaten
und Computern darstellbar, er beschränkt sich prinzipiell aber nicht auf diese und will
auch keineswegs aussagen, dass die Zustände mit denen eines Computers übereinstimmen. Eine Position, die hierauf stärker zielt, ist der Computerfunktionalismus. Aus ihm
stammt auch die schon angedeutete These des Vergleiches Geist-Gehirn zu SoftwareHardware. Searle bezeichnet die Theorie eines Computermodell des Geistes auch als
starke künstliche Intelligenz“(Sea06, S.75). Das Computermodell des Geistes besagt,
”
dass das Gehirn wie ein digitaler Computer funktioniert oder sogar einer ist, also eine Turingmaschine, das Programme mit Algorithmen und Operationen ausführt und
sich in funktionale Zustände einteilen lässt. Aus dieser These ergeben sich nun mehrere
Möglichkeiten mit unterschiedlichen Konsequenzen, sowohl für die Philosophie als auch
für die KI-Forschung:
• Wenn das Gehirn, wie ein digitaler Computer funktioniert, können wir daraus
folgern, dass ein Computer mit ausreichenden Funktionen programmiert werden
kann, der dann auch einen Geist zu besitzen. Das heißt, es ist vorstellbar, dass wir
Computer irgendwann soweit entwickeln, dass sie so menschenähnlich sind, dass
wir ihnen Bewusstsein und Geist zuschreiben können.
• Da das Gehirn mit Strukturen wie ein digitaler Computer ausgestattet ist, können
wir versuchen, mit Hilfe des Computers Erklärungen für kognitive Eigenschaften
zu finden. Wenn wir also ein Programm entwickeln, dass Schuhe bindet, dann wird
im Gehirn der gleiche oder ein ähnlicher Ablauf passieren, wenn sich ein Mensch
die Schuhe bindet.
Diese beiden Punkte sind natürlich sehr stark formuliert und werden in dieser Form selten postuliert, aber letztendlich stellt sich die Frage: Wo sind die Grenzen der künstliche
Intelligenz?
13
Christine Plicht
Weiter ist es auch schwierig abzugrenzen, wo Geist anfängt. Wann und vor allem wie
können wir einem System ein erschaffenes Bewusstsein oder sogar Geist zusprechen? Um
diesen Fragen nachzugehen muss vorher erst einmal geklärt werden, ob es möglich ist
eine Definition für Geist zu finden. Geist ist ein Begriff, den wir alltäglich benutzen und
grob haben wir eine Vorstellung darüber, was wir darunter verstehen. Geist sehe ich umgangssprachlich als Oberbegriff für die Dinge, die wir physikalisch nicht erfassen können
und Teil des Menschen sind. Sozusagen als Sammlung der immateriellen Seite mit seinen Fähigkeiten dazu. All das, was die Philosophie des Geistes betrifft, basiert darauf,
dass wir intuitiv annehmen, dass wir einen Geist haben. Es ist schwierig, eine allgemeine
Definition in diesem Bereich zu finden, deswegen möchte ich mich nicht genauer festlegen, was ich unter Geist verstehe, sondern finde es vorerst als Oberbegriff offen genug,
um hier gegebenenfalls weitere Ansichten und Definitionen zu ergänzen. Genauso ergeht
es mir mit dem Begriff Bewusstsein. Nach gründlicher Studie verschiedener Literatur,
sowohl spezieller, als auch allgemeiner, bin ich zu dem Entschluss gekommen, dass es
mir nicht möglich ist, und auch nicht mein Ziel, hier eine Definition von Bewusstsein
zu geben, die entweder allen bzw. möglichst vielen Philosophen gerecht wird oder genau
eine Ansicht eines bestimmten Denkers widerspiegelt. Es ist mir nur möglich, eine Definition von Bewusstsein zu geben, die meiner Vorstellung davon entspricht. Diese kommt
dadurch zustande, dass ich mich damit beschäftigt habe, was andere unter Bewusstsein
verstehen. So, wie diese Arbeit nach meinem Ermessen entstanden ist, so ist darin auch
mein subjektives Verständnis von Bewusstsein enthalten, dass hoffentlich verschiedene
Nenner mit anderen Bewusstseinsvorstellungen hat. Eine allgemeine Vorstellung oder
sogar Definition kann ich allerdings nicht geben, da es diese, meiner Meinung nach, nicht
gibt.
Bewusstsein ist ein Teil der mentalen Seite des menschlichen Körpers und beinhaltet bewusste Zustände - demnach kann man Bewusstsein als Klasse der bewussten Zustände
oder auch mentaler Eigenschaften zusammenfassen. Prinzipiell kann ich die bewussten
Zustände wieder in zwei Klassen einteilen, solche mit phänomenalem Charakter und andere mit intentionalem Charakter. Phänomenale Zustände sind vor allem Empfindungen
oder Wahrnehmungen. Es ist das, was man fühlt oder erlebt. Ich sehe eine rote Rose
und habe dabei eine Empfindung, eben die, eine rote Rose zu sehen. Man kann hierfür
keine genaue Definition geben, sondern phänomenales Bewusstsein nur mit Beispielen
und Umschreibungen erklären. Es gibt einen passenden Ausdruck, der von Brian Farrell (1950) und später durch Thomas Nagel (1976) weiter thematisiert wurde: What
”
14
Christine Plicht
it’s like to“ 4 . What it’s like to see a red rose“, wie fühlt es sich an, wie ist es, eine
”
rote Rose zu sehen? Das ist ein Zustand, der nur individuell zugänglich ist. Ich empfinde dabei etwas anderes, als ein Blumenverkäufer oder auch nur eine andere Person.
Zu diesen phänomenalen Zuständen können aber auch solche hinzukommen, die eher
von kognitiver Art sind. Sich eine Meinung über etwas bilden, etwas bewerten oder sich
wundern, kann sich auch auf eine bestimmte Art anfühlen, sodass es einen subjektiven
Erlebnisgehalt hat. Allerdings ist es umstritten, ob solche Zustände auch zum phänomenalen Bewusstsein gehören. Liberale Phänomenaliberalisten zählen sie dazu. Neben
dem phänomenalen Gehalt des Bewusstsein gibt es auch solche Zustände, die als intentional beschrieben werden. Hierbei bezeichnet Intentionalität nicht wie im deutschen
Sprachgebrauch üblich, dass eine Absicht dahinter steht, sondern in diesem Kontext ist
damit gemeint, dass das Bewusstsein auf etwas gerichtet ist. Intentionale Zustände sind
Wünsche, Ängste, Erinnerungen, etc, all jene Zustände, die kognitiv funktionalen Charakter haben. Diese Zustände sind klar mit einem konkreten Inhalt gefüllt. Wohingegen
bei den phänomenalen Zustand nicht die Rose im Zentrum steht, sondern der Zustand,
wie es sich anfühlt, die Rose zu betrachten. Es ist ein Erlebnis und kein Zustand, in dem
man sich etwas wünscht, etwas glaubt, befürchtet etc. Es geht nicht darum, wie es sich
anfühlt, eine Rose zu sehen oder riechen, sondern, wenn ich mir eine Rose wünsche oder
an sie denke. Nicht das Wie, sondern eher die Rose als Ziel meiner Gedanken ist hier der
Punkt. Im Englischen werden die Begriffe Access Consciousness (A-Consciousness) und
Phenomenal Consciousness (P-Consciousness) verwendet(McL09).
Ein essentieller Teil des Geistes sind natürlich allgemein unsere kognitiven Fähigkeiten,
unabhängig davon, ob sie zu den bewussten oder unbewussten Zuständen gehören. Hierzu zählen Eigenschaften wie Kreativität, Aufmerksamkeit, Erinnerung, Wille oder auch
Glauben. Sie unterscheiden sich von physischen Fähigkeiten, wie die Funktionsweisen des
Körpers, der atmet, verdaut usw. Diese Eigenschaften sind notwendig zum Leben. Aber
genauso können wir den Menschen nicht von seiner mentalen Seite trennen. Ein Mensch
ohne kognitive Fähigkeiten, der nichts wahrnimmt, nichts denkt und kein Bewusstsein
hat, ist nicht eigenständig überlebensfähig. Bei den mentalen Eigenschaften stellt sich
die Frage, ob sie auf physische Eigenschaften reduzierbar sind, also auf diese zurückzuführen sind oder Träger von ihnen. Das ist ein Aspekt des Körper-Geist-Problems.
Wie unterscheiden sich physische von mentalen Eigenschaften? Zum durch ihre Privatheit. Ich sehe zwar auch nicht, wie der Körper meines Nachbarn atmet, aber hier wird
4
Farrell benutzt in seinem Paper Experience“ von 1950 und Nagel in dem bekannten Aufsatz What
”
”
it’s like to be a bat“(1976).
15
Christine Plicht
Privatheit eher als individueller Aspekt gesehen. Mentale Eigenschaften, die ich habe,
treffen nur auf mich zu und ich habe einen besonderen Zugang zu ihnen. (Bec08, vgl.
S.11)
Ein weiterer Punkt, der zum Geist gehört ist die Fähigkeit der Sprache; hierzu zähle ich
das Denken und auch Verstehen. Gerade das Problem des Sprachverstehens ist zentraler
Teil der philosophischen KI-Debatte. Zur Sprache gehört für den Mensch unbedingt das
Denken und natürlich auch ein Verständnis von dem, was er sagt und die außersprachliche Wirklichkeit. Sätze bestehen nicht nur aus einem reinen Inhalt, der wahr oder falsch
sein soll, vielmehr ist Sprache ein Konstrukt aus Syntax und Semantik. Diese sind in
einem Kontext zu betrachten, der Pragmatik (die Lehre von der Zeichenverwendung).
Die Syntax sind formale Regeln, wie Wörter gebildet sind, um einen Satz zu formen.
Sie bilden die Ordnung des Satzbaus. Das sollte für eine KI kein Problem darstellen,
die Semantik hingegen kann nicht nach einem einfachen Schema überprüft werden. In
der Semantik ist vielmehr die Bedeutung der Zeichen und der Wörter ausschlaggebend.
So ist der Satz Caesar ist eine Primzahl “ syntaktisch korrekt, aber semantisch ergibt
”
er keinen Sinn. Der Sprachphilosoph Rudolf Carnap(1891-1970) bezeichnet solche Sätze
auch als sinnlos. (Car32). Allerdings, um diese Fehler zu erkennen, muss auf die Beziehung der Wörter geachtet werden, ob sie zur gleichen Kategorie gehören. Die wörtliche
Bedeutung ist hier relevant, so wie sie in dem sprachlichen Konvention gebraucht werden. Bei der Semantik ist eine versteckte, hintergründige Bedeutung erstmal unbeachtet.
Ich habe einem einfachen Chatbot5 im Internet die Frage gestellt Ist Caesar eine Prim”
zahl“, als Antwort erhielt ich: Ein römischer Feldherr“. Das zeigt, dass die Verknüpfung
”
zwischen Primzahl und Caesar bei ihm nicht korrekt gegeben ist und er die Frage somit
nicht beantworten kann. Allerdings kann er die Frage, ob Barack Obama ein Einzelkind
ist, auch nicht sinngemäß beantworten6
. Neben der Syntax und der Semantik gibt es, nach Charles W. Morris, noch eine dritte
Lehre, die zur Sprache oder vielmehr einer Zeichentheorie gehört: die Pragmatik, die Lehre der Zeichenverwendung. Sprache steht immer in einem sprachlichen Zusammenhang
in dem sich der Sprecher und der Empfänger befinden und hat demnach unterschiedliche Verwendungen. In der Pragmatik geht es um die Verwendung sinnvoller Sätze im
kommunikativen Kontext. So hat ein Wort im Allgemeinen die gleiche Bedeutung, aber
5
Dieser ist unter http://thebot.de/ zu finden, dort kann man mit ihm sprechen. [Abgerufen im August
2011]
6
Der Gesprächsauszug hierzu:
User : Ist Obama Einzelkind?
Brain: Barack Obama ist der präsident der vereinigen staaten vom Amerika.
User : Hat er Geschwister?
Brain: Nein, ich bin Einzelkind
16
Christine Plicht
durch den Sprecher kann das in einem anderen Kontext stehen und wird dann anders
aufgefasst. So kann ein Pfarrer und ein Politiker dieselben Sätze sagen, aber ihre Bedeutung ändert sich durch den unterschiedlichen Kontext.
Prinzipiell gibt es zwei verschiedene Ansätze der KI-Forschung, wie an solche Probleme herangegangen wird. Searle nennt sie starke“ und schwache“ KI. Die schwache
”
”
KI-Forschung wird dazu benutzt, Instrumente zu finden, um konkrete Anwendungsprobleme zu lösen oder Hypothesen zu überprüfen. Meist geschieht das durch Simulation
von intelligentem Verhalten und führt durch korrekte Anwendung zu der gewünschten
Lösung. Es erleichtert den Alltag und übernimmt Aufgaben, die der Mensch sonst durch
seine Fähigkeiten meistern könnte. Hierzu zählen Probleme der Schrifterkennung, automatische Übersetzungen oder auch Navigationsprogramme.
Im Gegensatz dazu steht die starke KI, die nicht nur von einer Simulation kognitiven
Eigenschaften ausgeht, sondern dem System, wenn es diese Fähigkeiten besitzt auch
Geist zuschreibt, der vergleichbar ist mit dem eines Menschen. Ebenso geht sie davon
aus, dass wir mit Hilfe der Fortschritte und Ergebnisse aus der KI-Forschung Schlüsse
auf den Menschen ziehen können, um somit den Geist zu erklären. Hier werden die
Visionen deutlich, die zu Beginn der KI in den meisten Köpfen schwebten und dem
entsprechen, was uns die Science-Fiction Literatur vorspielt. Neben der Forschung gab
es zu der Zeit auch viele Schriftsteller, die sich mit Robotik und künstlicher Intelligenz
befassten und außergewöhnliche Geschichten dazu verfassten. Einer davon ist Isaac Asimov (1920-1992), der Robotik literarisch verarbeitete. In seinen Geschichten hat er die
Asimovschen Gesetze, drei Robotergesetze eingeführt, die ein friedliches Zusammenleben
von Menschen und Robotern garantieren sollen. Asimov erschafft in seinen Geschichten
immer wieder Roboter, die menschenähnlich sind, dadurch dass sie nicht nur kognitive sondern auch emotionale Eigenschaften eines Menschen besitzen7 . Der Roboter ist
hier eine Person, die mit den Menschen auf eine bestimmte Art zusammenlebt. Viele
Science-Ficton-Romane erzeugen den Eindruck, es sei möglich ist, dass Roboter in naher
Zukunft immer menschenähnlicher werden und durch ihre Fähigkeiten auch so etwas
wie ein Bewusstsein besitzen. In den Geschichten existieren immer wieder Roboter, die
Beziehungen zu Menschen haben und nicht nur zu Arbeitszwecken gebraucht werden.
Roboter können sich unterhalten und zeigen Gefühle und sogar Kreativität. Es ist also
zumindest vorstellbar, dass künstliche Intelligenz entstehen könnte. Die Science-FictionVorstellung und die der starken KI liegen insofern nahe beieinander, dass sie Visionen
7
Robbi“, Asimovs erste Robotergeschichte, handelt von einem Spielgefährten eines kleinen Mädchen
”
und Der Zweihundertjährige“ behandelt die Thematik, dass ein Roboter sich danach sehnt ein
”
Mensch zu sein.
17
Christine Plicht
haben, die Computern existenzielle Eigenschaften des Menschen zuschreiben.
Im Kontext der künstliche Intelligenz möchte ich noch auf den Begriff der Person eingehen und darstellen, um ihn später mit den Vorstellungen der künstlichen Intelligenz
zu vergleichen. Der Begriff Person kommt aus dem lateinischen Wort Persona, das soviel bedeutet wie Maske, Rolle oder Charakter. In der Antike wurde damit die Rolle des
Schauspielers oder Rolle eines Individuums in der Gesellschaft bezeichnet. Eine klassisch
Definition stammt von dem antiken Philosophen Boethius: Persona est naturae ratio”
nabilis individua substantia“, eine Person ist die individuelle Substanz einer rationalen
Natur (Pre99, S.432). John Locke (1632-1704) äußert sich dazu: Person ist ein denken”
des intelligentes Wesen, das Vernunft und Reflexionen besitzt und sich als Selbst denken
kann, als dasselbe denkende Etwas in verschiedenen Zeiten an verschiedenen Orten.“
(Bie81, S.281) Wichtig ist, dass das Wesen Reflexionen haben muss, ein Selbstbewusstsein. Zudem muss es sich selbst als das gleiche Wesen in in verschiedenen Zeiten und
Orten denken. Das bedeutet, dass trotz Änderungen des Auftretens, wie eine andere
Haarfarbe oder ein Umzug und dadurch ein anderes soziales Umfeld, das Wesen bleibt
erhalten. Eine Person kann sich demnach durch äußere Umstände nie so verändern, dass
sie eine andere Identität hat.
P. F. Strawson schließt in den Personenbegriff alle Entitäten ein, denen Prädikate mit
Bewusstseinszuständen, also mentale Eigenschaften und auch körperliche Eigenschaften
zugeschrieben werden. Also muss eine Person sowohl kognitive Eigenschaften, wie logisches Denken oder Wahrnehmungen haben, aber genauso muss man über ihre körperliche
Substanz, Gewicht, Farbe etc. Aussagen treffen können. Dennett stellt in seinem Aufsatz
Bedingungen der Personalität“ sechs Eigenschaften vor, die er notwendig, aber nicht
”
hinreichend für die Charakteristik einer Person sieht. Einige dieser Bedingungen sind
eng mit seinem Verständnis von intentionalen Systemen verknüpft, das ich in Kapitel 4
erläutere. Zu den Bedingungen zählen für Dennett folgende:
1. Vernunft
2. Bewusstseinszustände oder intentionale Prädikate
3. Haltung
4. Haltung erwidern
5. verbale Kommunikation
6. Selbstbewusstsein
18
Christine Plicht
Es zeigt sich, dass es verschiedene, jedoch keine einheitlichen Kriterien für den Begriff der
Person gibt und diese nicht hinreichend sind um eine Person zu klassifizieren. Dennett
spricht sich auch explizit gegen hinreichende Kriterien aus, da diese normativ sind. Es ist
eher das Gesamtbild zu betrachten und daran zu entscheiden, statt einzelne Kriterien
abzuhaken. Ähnlich also wie bei der künstlichen Intelligenz ist es schwierig Kriterien
zu finden; versuchte Definitionen sind nur bedingt praktisch anwendbar und vor allem
nicht vollständig. Wie der Begriff der Person mit dem Begriff der künstlichen Intelligenz zusammenhängt, werde ich später zurück kommen. Es ist jedoch auch jetzt schon
ersichtlich, dass sie nahe beieinander liegen und einige möglichen Kriterien sich überschneiden. So deutet Dennett auch an, dass sein Konzept von intentionalen Systemen
zumindest die ersten drei Punkte seiner Bedingungen der Personalität überdecken. Es ist
anzunehmen, dass der Begriff Personalität weiter geht als eine starke KI. Natürlich muss
man unterscheiden, dass KI ein Konzept in der möglichen Entwicklung ist, wohingegen
wir ein Vorverständnis des Personenbegriffs haben. Es ist allerdings auch anzunehmen,
dass wir bei der Entwicklung eines Computersystems, implementiert in eine Roboter, die
Debatte, ob oder wann dieser Roboter eine Person ist, nicht unbeachtet bleiben lassen
können.
19
Christine Plicht
4 Drei philosophische Ansätze
Gleichzeitig zu den rasanten Entwicklungen der Informatik auf dem Gebiet der künstlichen Intelligenz gab es eine Diskussion, die sich mit den im vorangegangen Kapitel
angesprochenen philosophischen Fragen verbunden mit der künstlichen Intelligenz befasste. Hierzu zählten vor allem Wissenschaftler aus der USA, die teilweise in den selben
Forschungseinrichtungen waren wie die Entwickler und namenhafte Größen der Informatik. Im folgenden Kapitel werde ich drei Philosophen und deren Theorien vorstellen
sowie die Konsequenzen für die KI-Forschugen diskutieren.
Dazu beginne ich mit Daniel C. Dennetts pragmatischen Ansatz. Weiter werde ich John
Searles Gedankenexperiment Das Chinesische Zimmer und einige Kritiken dazu vorstelle. Als letzten Philosophen behandele ich Hubert Dreyfus und seine phänomenologische
Kritik.
4.1 Daniel C. Dennetts - Intentionale Systeme
Daniel C. Dennett ist Professor der Philosophie an der Tufts University in Massachusetts,
seine Forschungsgebiete liegen in der Philosophie des Geistes und der Kognitionswissenschaft. Er war Schüler von Gilbert Ryle an der Oxford University. Durch den Einfluss
von Ryle zeigt sich, dass Dennett ein ähnliches Verständnis und Herangehensweise an
die Philosophie des Geistes hat wie Ryle, dies wird auch in der KI-Debatte deutlich.
Im Gegensatz zu Searle vertritt Dennett eher einen pragmatischen Ansatz. Einige seiner
wichtigsten Themengebiete sind u.a. intentionale Systeme und Bewusstsein8 , außerdem
hat er Arbeiten zum freien Willen9 verfasst.
Dennett ist ein Wissenschaftler, der die Grenzen der KI nicht so weit fasst, wie zum
Beispiel Hubert L. Dreyfus, und ein Forschungsprojekt COG am Massachusetts Institute of Technology (MIT) mitbegründet hat, das aktiv einen Roboter erschaffen wollte,
der so menschenähnlich ist, dass man ihm Bewusstsein zuschreiben könnte. In seinem
Text COG: Schritte in Richtung Bewusstsein in Robotern“ erzählt er von dem Vor”
haben und erörtert, ob es prinzipiell möglich sei, Robotern Bewusstsein zuzusprechen.
Im Folgenden möchte ich mich genauer mit dem Begriff Intentionalität befassen und
Dennetts Idee eines intentionalen Systems“ vorstellen und in einem späteren Kapitel
”
die Ideen und Visionen des COG-Projekt erläutern. In der KI-Debatte, bedingt durch
verschiedene Richtungen der Philosophie des Geistes, stellt sich prinzipiell immer die
Frage: Wann kann ich einem Computer oder einem System Fähigkeiten zusprechen, die
8
9
Beispielsweise in: Daniel C. Dennett, Conciouscness Explained, Boston: Little Brown and Co, 1991.
Diese sind zu finden in: Daniel C. Dennett, Brainstorms, Hassocks: Harvester Pr, 1979.
20
Christine Plicht
ich sonst explizit mit einem Menschen verbinde? Speziell Eigenschaften wie Wünsche
und Vorstellungen sind dem Menschen vorbehalten - so das allgemeine Verständnis. Diese Eigenschaften sind so stark mit der menschlichen Existenz verwurzelt, dass es uns sehr
schwer fällt, sie anderen Objekten zuzuschreiben. Insbesondere dadurch, dass wir keine
allgemeingültige und anerkannte Definition und Kriterien für Geist oder Bewusstsein
haben, können wir auch keine allgemeine Validität geben, wenn diese Eigenschaften nun
nicht mehr exklusiv in einem menschlichen Körper sein sollten. So hat Turing mit seinem
Test vor einigen Jahrzehnten gesagt, dass ein System intelligent ist, wenn es eine mit
dem Menschen vergleichbare Sprachkompetenz erreicht. Dann regt sich in uns aber das
Bedürfnis zu sagen: Ja, aber, was ist mit ...“ und hier kommen immer wieder weitere
”
mentale oder physische Phänomene, die wir dem Menschen zuschreiben. (Ja, aber der
Computer versteht nicht, was er da sagt. Ja, aber der Computer befindet sich nicht in
dem gleichen Kontext wie der Mensch. Ja, aber ... .)
Wir können nicht in den Menschen hineinsehen, was veranlasst, dass er versteht und
Dinge in einem Kontext wahrnimmt. Neben diesen klaren mentalen Eigenschaften spielt
immer wieder das phänomenale Bewusstsein eine Rolle. Es ist unklar, ob der Computer
die Fähigkeiten eines Menschen nur simuliert oder ob er sie wirklich besitzt. Genau an
dieser Fragestellung setzt Dennett an. Er vertritt die Meinung, das sei irrelevant. Er
will dort Verhalten erklären und Vorhersagen treffen, wenn man einem System Intentionalität zuschreibt. Er nimmt an, dass es so etwas hat, um weitere Aussagen treffen
zu können und so den philosophischen Problemen näher zu kommen. Dennett versucht
die Eigenschaften vom Menschen zu lösen und allgemein ein System zu beschreiben, das
sich intentional verhält. Bestandteil dieses Systems sind drei Einstellungen: die funktionale, die physische und die intentionale Einstellung10 . Wenn ich das Verhalten eines
Gegenübers voraussagen will und kann, dann kann der Gegenüber ein intentionales System sein, unabhängig ob Mensch oder Objekt. Es steht in einer Beziehung zu mir und
ich nehme eine Beobachterperspektive ein oder betrachte es aus der dritten Person. Teil
dieses beobachtende Systems ist die funktionale Einstellung. Die funktionale Einstellung eines Computers ist abhängig vom Programm, das ausgeführt wird. Hier stellt sich
die Frage, was soll er tun, wenn Ereignis X1 eintritt. Im Falle des Getränkeautomats ist
das ablesbar im Verlaufsdiagramm. Die Programmstruktur hinter einem digitalem Computer ist in den meisten Fällen jedoch viel komplexer, vergleiche einen Schachcomputer.
Hier spielen mehrere Faktoren eine Rolle und der Schaltplan besteht aus vielen klei10
Im Orginal verwendet Dennett den Begriff stance“, er wird in der Literatur unterschiedlich übersetzt,
”
sowohl mit Haltung“ als auch mit Einstellung“.
”
”
21
Christine Plicht
nen funktionalen Elementen, die beispielsweise weitere Faktoren messen oder berechnen,
bevor der Output bestimmt werden kann. Aufgrund der funktionalen Einstellung kann
ich also Voraussagen treffen, was ein Computer tun könnte. Bei einem Schachcomputer
sind die Züge jedoch zu kompliziert, um sie vorauszusagen, dennoch kann man wissen,
was prinzipiell in dem Programm steckt. Ähnlich wie ein Schachcomputer und auch für
den Laien verständlich und nachvollziehbar ist ein Programm, das Tic Tac Toe spielt.
Hier sind die Züge auch für den Menschen leicht überschaubar und das Spiel ist an sich
lösbar, also auch berechenbar11 und somit vorauszusehen, was passiert. Die funktionale Einstellung ist dann vorhersehbar, wenn das System störungsfrei arbeitet, also ohne
Probleme, die durch andere Komponenten verursacht werden. Eine dieser Komponente
ist die physikalische Voraussetzung.
Daraus ergibt sich, dass es neben der funktionalen auch eine physikalische Einstellung
gibt. Diese bezieht sich auf den tatsächlichen physikalischen Zustand. Hat ein Programm
Störungen, die nicht auf Fehler der Software zurückzuführen sind, liegt es an der Hardware. Genauso kann ich Voraussagen über Gegebenheiten in der Natur treffen, die aufgrund
von physikalischen Zuständen eintreffen. Der Kanal wird überlaufen, wenn es weiter so
regnet oder die Bremse des Fahrrads wird versagen, wenn die Bremsbeläge abgefahren
sind. Hierbei ist es also möglich, Funktionsstörungen vorauszusagen und die daraus resultierenden Folgen zu erwarten. Je nach Komplexität des Systems wird es aber schnell
nicht mehr möglich, die funktionale Einstellung oder auch die physikalische zu überblicken und an diesen die Folgen zu erklären. Das System ist ab einem gewissen Punkt
nicht mehr ohne Schwierigkeiten zu durchschauen. Aussagen über Funktionstörungen
der physikalischen Gegebenheiten zu treffen wird unmöglich, da das System aus so vielen Einzelteilen besteht, deren mögliche Störungen nicht mehr zu überblicken sind. Bei
der funktionalen Einstellung fließen so viel Komponenten des Jetzt-Zustandes ein, dass
es nicht mehr möglich ist zu bestimmen, welche Voraussetzungen hineinfließen um den
nächsten Zustand zu bestimmen.
An dieser Stelle führt Dennett die intentionale Einstellung ein. Mit dieser dritten Einstellung ist das Ganze ein intentionales System, d.h. wir schreiben ihm Ziele und Wünsche
zu, die verfolgt werden und dazu besitzt es Informationen. Hierbei nimmt Dennett ein
weitgehend rationales Verhalten an, um diese Ziele zu verfolgen. Um also Voraussagen
über das Verhalten zu treffen, gehen wir davon aus, dass ein Schachcomputer ein Spiel
gewinnen will. Wir überlegen uns nicht, welchen Vorgang oder Berechnungen der Pro11
Im Idealfall geht das Spiel immer unentschieden aus. Wenn der erste Zug gemacht ist, ist das Spiel
quasi schon entschieden.
22
Christine Plicht
grammierer für den Zustand Xn vorgesehen hat, um dann Zustand Xn+1 zu berechnen,
denn diese können wir nicht mehr überblicken. Wir fragen uns, was wäre rational sinnvoll
und angemessen in diesem Zustand zu tun, um das Ziel zu verfolgen. Wir nehmen also an,
dass der Computer selbst eine Meinung hat. Verbleibende Zweifel, ob der Schachcom”
puter wirklich Meinungen und Wünsche hat, sind unangebracht.“(Den81, S.166) Genau
hier zeigt sich die pragmatische Herangehensweise Dennetts. Es interessiert nicht, ob
das System wirklich intentionale Zustände hat oder haben könnte, sondern Ziel ist es,
Aussagen über das Verhalten zu treffen. Wenn wir dieses Verhalten mit Hilfe der intentionalen Einstellung erklären können, so ist das der praktikabelste Weg, unabhängig von
den Problemen, die dahinter stecken könnten.
Dennetts Herangehensweise gleicht der des Behaviorismus. Er betrachtet das Verhalten
und versucht aufgrund des Verhaltens weitere Aussagen über dieses treffen zu können.
Die genauen physikalischen oder funktionalen Einstellungen lässt er hierbei erst einmal
weitgehend unbeachtet, da sie nicht mehr überschaut werden können, sondern schreibt
dem System Intentionalität zu. Dennett versucht hiermit das Reiz-Reaktions-Modell von
Skinner zu verbessern, indem er nicht die Reize betrachtet, sondern die Intentionalität.
Er geht davon aus, dass das System gewissen Regeln folgt, aber nicht rein konditioniert
ist. Skinner macht keine Aussagen über Intentionalität, jedoch sind in seinem ReizReaktions-Modell auch Wünsche und Ziele der Objekte vorhanden. Die Maus, die so auf
einen Reiz reagiert, weil sie das Futter bekommen möchte, hat eben auch ein Ziel, also
ist es eine intentionale Handlung.
Mit der Annahme einer intentionalen Einstellung ist es nun möglich, das Verhalten wieder zu erklären, wenn die physikalischen oder funktionalen Einstellungen nicht mehr mit
einfachen Methoden zu überblicken sind.
Dennetts Konstrukt des intentionalen Systems ist deswegen sowohl für die Philosophie
des Geistes als auch bei Fragestellungen der KI interessant, weil Unklarheiten, die mit
einem intentionalen Bewusstsein des Menschen entstehen, pragmatisch gehandhabt werden. Seine Herangehensweise bezieht sich nicht direkt auf den Menschen, sondern er ersetzt ihn mit einem allgemeineren Begriff, dem intentionalen System. Somit abstrahiert
er vom Menschen das, was für ihn Bestandteil des Verhaltens bezogen auf Intentionalität
ist und gibt ihm das Label intentionale Systeme. Wichtig ist jetzt nur noch, wie das System sich verhält und nicht, was sonst noch dazu gehören könnte. So umgeht er Feinheiten
und Probleme, die den phänomenalen Teil des Bewusstsein betreffen. Für das System ist
es irrelevant, ob es wirklich Meinungen hat oder ob dazu noch weitere kognitive Eigen-
23
Christine Plicht
schaften gehören müssten. Dennett versucht, Kriterien zu finden, die auf andere, nicht
organische Systeme anwendbar sind und will Intentionalität über das Verhalten erklären.
Bei der Abstraktion werden metaphysische Probleme, die darum kreisen, uninteressant.
So ist es beispielsweise viel leichter zu entschieden, ob eine Maschine ein intentionales
”
System sein kann, als zu entscheiden ist, ob eine Maschine wirklich denken, Bewusstsein
haben oder moralisch verantwortlich sein kann.“(Den81, S.175).
Dennetts Herangehensweise und Vorstellung der Begriffe, ähnelt der Gilbert Ryles. In
seinem Buch Der Begriff des Geistes“(Ryl87) versucht Ryle die klassische Vorstellung
”
des Geistes der Philosophie seit Descartes zu überwinden. Die Frage, ob und wie der
Geist mit den physikalischen Eigenschaften des Menschen zusammenhängt, ob nun mit
einer dualistischen oder materialistischen Position, sei falsch gestellt, weil hier ein Kategorienfehler vorliegt. Ryle vertritt stark einen philosophischen Behaviorismus und macht
deutlich, dass sich der Geist im Verhalten zeigt. Somit ist die Fragestellung, ob und wie
der Geist auf den Körper zurückzuführen sei, irrelevant oder sogar unsinnig. Der Geist
und somit auch Intentionalität, Bewusstsein und was alles darunter zu verstehen ist,
zeigt sich im bewussten oder auch intentionalen Verhalten. Alle weiteren Fragen, die
damit zusammenhängen, basieren auf falschen Annahmen, die Teil des Kategorienfehler
sind. Um die Verknüpfung zu Dennett deutlich zu machen, ist leicht einsehbar, dass dieser auch das Verhalten des Systems betrachtet und alle weiteren Fragen unbeachtet lässt
(Kann die Maschine nun wirklich denken? Braucht sie zum wirklichen Denken Bewusstsein?) Dennett ist vorsichtiger als Ryle. Er stellt die Argumente, die Kritiker bezüglich
des Verständnis von Geist vorbringen, nicht als obsolet dar, sondern sie sind für ihn einfach nicht weiter von Bedeutung, da seine Konzentration auf dem Output liegt. Er sagt
nicht, weil Geist herauskommt, muss auch Geist in der Maschine sein. Nach Ryle würde
er somit auch wieder einen Kategorienfehler begehen. Er trifft keine Aussage darüber,
ob nun das System nach seinen Kriterien Bewusstsein hat oder nicht, er bezeichnet es
lediglich als intentionales System, wenn es sich danach verhält. Ähnlich waren vermutlich
die ursprünglichen Absichten von Alan Turing bezüglich des Turing-Tests. Seine Frage
war nicht danach, ob Maschinen denken können oder ob sie eine künstliche Intelligenz
besitzen, sondern ob sie den Turing-Test bestehen. Dennetts Frage lautet, ist ein System
intentional? Mit Ryles Annahme vom Kategorienfehler sind diese Kriterien oder auch
der Turing-Test vollkommen legitim, denn nur so kann überprüft werden, welche Eigenschaften ein Objekt hat. Was dahinter steckt, steht nicht zur Debatte und mögliche
Antworten sind weder richtig noch falsch, da der Bezug ungültig ist.
Das Konstrukt, das Dennett erbaut, scheint einige Probleme zu vereinfachen, auf der an-
24
Christine Plicht
deren Seite stellen sich hier nun neue Fragen. Unklar ist, wie real intentionale Zustände
sind (Bec08, vgl. S.349). Im Gegensatz zum Funktionalismus vertritt Dennett nicht die
Ansicht, dass mentale Zustände funktionalen Zuständen entsprechen, erst recht nicht
neuronalen Zustände. Sie werden also nicht physisch realisiert, wie real sind sie dann
aber? Wie oben beschrieben, vertritt Dennett einen sehr pragmatischen oder auch instrumentalistischen Ansatz bezüglich der intentionalen Einstellung. Sie dient also nur dazu,
erklären zu können, was wir nicht mit der physikalischen und funktionalen Einstellung
erklären können, aber prinzipiell liegt in diesen beiden Einstellungen eine Erklärung,
die für uns aber nicht immer oder nicht leicht zugänglich ist. Dennetts Theorie beruht
auf einer Betrachtung einer dritten Person und versucht daraus Schlüsse auf das Objekt
zu ziehen. Dadurch ist es möglich, einen pragmatischen Ansatz zu wählen und offen zu
lassen, was das Objekt wirklich für interne Zustände hat oder ob es wirkliche Meinungen, Gefühle, Ziele hat. Einen anderen Ansatz vertritt der Philosoph John Searle. Seine
Herangehensweise beruht darauf, zu fokussieren, was innerhalb des Objektes vorgeht. Er
sieht eine Abstraktion, wie Dennett sie mit den intentionalen Systemen vornimmt, als
falschen Ansatz.
4.2 John Searle - Das Chinesische Zimmer
Ein sehr bekanntes und oft diskutiertes Gedankenexperiment ist das Chinesische Zimmer von John Searle. Es erschien 1980 in dem Artikel minds, brains, programms“ in
”
der Zeitschrift Behavioral and Brain Sciences. John Searle ist Professor der Philosophie
an der University of California in Berkeley mit Arbeitsgebieten in der Sprachphilosophie
und der Philosophie des Geistes. Die Kritik Searles in dem Gedankenexperiment geht
zurück auf den Turing-Test, dessen Kriterien er versucht zu widerlegen und damit zeigen
will, dass programmierte Systeme immer nur Verhalten simulieren, nicht aber Fähigkeiten wie Sprachverständnis wirklich besitzen können. Die Idee des Experiment ist, es zu
zeigen, dass ein Mensch, wenn er das ausführt, was ein Sprachcomputerprogramm tut,
die Sprache dennoch nicht beherrscht, geschweige denn versteht.
Ausgangssituation ist eine Testperson, nennen wir sie Arthur, die alleine in einem Zimmer sitzt. Ziel ist es, dass Arthur mit Hilfe einer Anleitung Fragen zu einer Geschichte, die
in Chinesisch verfasst ist, auf Chinesisch beantwortet. Dazu erhält er verschiedene Stapel mit chinesischen Schriftzeichen und eine Anleitung. Diese Anleitung ist in einer ihm
verständlichen Sprache verfasst und beinhaltet formale Operationen, die er ausführen
soll. Er hantiert also irgendwie mit diesen Stapeln und den Schriftzeichen, setzt sie in
25
Christine Plicht
Beziehung zueinander, ohne die Bedeutung der Schriftzeichen in seiner Sprache zu wissen. Ein Stapel stellt Fragen zu einer Geschichte dar, die er beantworten soll bzw. er
soll Output liefern, die Antworten der Fragen zu der Geschichte. Außerhalb des Raumes
sitzt ein Chinese, der nicht weiß, wer Arthur ist und ob er Chinesisch spricht oder nicht.
Er erhält die Antworten, in chinesischen Schriftzeichen und hat dadurch guten Grund
anzunehmen, dass Arthur Chinesisch spricht. Searle sagt nun, dass es offensichtlich ist,
dass die Person in diesem Zimmer, kein Chinesisch versteht, sprechen oder schreiben
kann. Auch dann nicht, wenn Arthur die Anleitung auswendig lernen würde und Fragen
zu Geschichten in kürzerer Zeit beantworten kann.
Arthur stellt einen personifizierten Computer dar. Er tut das, was ein Sprachcomputer
auch tut. Speziell bezieht sich Searle auf ein Sprachprogramm von Roger Schank an der
Yale Universität, der Fragen zu Geschichten beantwortet, aber ähnliches gilt auch für
Programme wie ELIZA von Weizenbaum. Searle versucht zu verdeutlichen: Solange das
”
Programm sich als eine Reihen von kalkulatorischen Operationen an rein formal definierten Elementen bestimmt, legt unser Beispiel den Schluss nahe, dass diese Operationen
selbst keine interesseheischende Beziehung zum Verstehen haben.“(Sea94, S.237f)
Das unterlegt er mit der Unterscheidung von Syntax und Semantik. Die Formale Syn”
tax des Programm garantiert aus eigener Kraft nicht das Vorhandensein geistiger Inhalte.“(Sea93, S.221). Die formale Syntax wird durch formale Operationen durchgeführt.
Rein formale Operationen ermöglichen es nach Searle also nie, kognitive Eigenschaften
zu produzieren, solange der Mensch diese Operationen durchführen kann, ohne selbst
diese kognitive Eigenschaft, wie Verstehen der Sprache Chinesisch, dadurch zu erlangen.
Auch wenn der Computer uns glauben lässt, dass er Chinesisch versteht, dadurch, dass
er, wie Arthur, einen Output gibt, den wir auch von einer Person erwarten, die Chinesisch spricht, handelt es sich hier nur um Handhabung mit logischen Operationen und
formalen Symbolen. Searle erkennt somit den Turing-Test nicht an, denn ein so programmierter Computer könnte durchaus diesen Test bestehen. Das Kriterium ist für Searle
unangebracht, da es sich um einen formal programmierten Computer handelt, der nur
menschliches Verhalten simuliert. Searle macht deutlich, dass das, was der Computer
tut, Hantieren mit syntaktischen Operatoren ist, aber die semantische Seite, bei der die
Bedeutung der Wörter notwendig ist, nicht erreicht wird. Die Argumentation beruht
”
auf der simplen logischen Wahrheit, dass Syntax weder dasselbe ist, wie Semantik noch
für sich selbst genommen für Semantik hinreicht.“(Sea93, S.221) Da die Syntax nach
formalen Regeln erfolgt, ist es möglich, diese einem System zu programmieren, sodass
formal die Ausgabe korrekt sein kann. Wenn wir heutige Chatbots betrachten, so sind
26
Christine Plicht
die formalen Operationen, die dieses System ausführt, überwiegend mit einer Datenbank
verbunden, auf die es zugreift. Hier sind Antworten und Erkennungsmuster gespeichert,
die der Bot benutzt, um eine Antwort zu generieren. Außerdem ist es möglich, dass
Chatbots aus ihren Gesprächen lernen, um so ihre Datenbank zu erweitern und Bezüge
zu Dialogteilen herzustellen.
Es wird deutlich, dass die Herangehensweise von Searle in seinem Experiment einen
andere ist als Dennetts oder Turings. Bei letzteren ist ein behavioristischer Ansatz zu
erkennen, Searle hingegen fokussiert stärker den Prozess, wie das System zu dem Output
kommt. So setzt der Turing-Test bei dem Endprodukt die Aufgabe an, die er betrachtet und bewertet. Das Objekt wird aus der dritten Person heraus betrachtet und ihm
werden dann Fähigkeiten zugeschrieben. Da ich nicht wissen kann, ob die Person neben mir Bewusstsein besitzt, nehme ich es an, weil sie sich dementsprechend verhält.
Das ist dasselbe Kriterium, das Turing anwendet. Er betrachtet, wie sich das Programm
einer weiteren Person gegenüber verhält und wie die Person darauf reagiert. Wenn sie
den Unterschied erkennt, besteht es den Test. Genauso nimmt Dennett eine intentionale
Einstellung an, die er nur anhand des Verhaltens zuschreibt. Searle allerdings fragt sich,
wodurch das System so agiert wie ein Mensch. Er analysiert die Voraussetzungen und
das Programm, das implementiert wurde. Dabei stellt er fest, dass das Verhalten zwar
ähnlich ist, aber nicht gleich. Er simuliert das Programm, indem er es aus der ersten
Person betrachtet, sich hineinversetzt und fragt, wie der Output für einen Menschen
wäre. Wenn er eben das ausführt, was ein Sprachprogramm tut, dann hat er alleine
durch die formalen Schritten noch keine Sprache erlernt. Ein Programm ist immer etwas
Diskretes, Berechenbares, das für sich alleine steht und nicht zu einem Verständnis der
Sprache führt.
Es zeigt sich also, dass unterschiedliche Kriterien angewendet wurden, um zu untersuchen, ob und welche kognitiven Fähigkeiten und damit verbundene Eigenschaften ein
System hat. Diese Kriterien, Searles 1. Person-Kriterium und Turings behavioristisches 3.
Person-Kriterium, sind offensichtlich nicht miteinander kompatibel und führen zu keiner
Lösung, auf die sich die Diskussionsgemeinschaft einigen kann. Natürlich wurde Searles
Gedankenexperiment in verschiedenen Repliken kritisiert und versucht zu modifizieren,
sodass man mehr Zugeständnisse machen könnte, um das Experiment zu entwerten.
Diese Repliken versuchen alle das Experiment so zu erweitern, dass entweder das Programm durch einem Roboter erweitert wird, um weitere menschliche Eigenschaften zu
erreichen oder aber das gesamte System betrachtet wird, in dem Arthur nur ein Teil ist.
27
Christine Plicht
Die Erweiterung des Programms zu einem Roboter führt soweit, dass es auch vorstellbar
ist, das Gehirn nachzubauen und mit neuronalen Netzen ausstatten, sodass es wirklich
so funktioniert wie ein Mensch. Bei diesen Repliken macht Searle deutlich, dass es ihm
bei seinem Experiment ausschließlich um digitale Rechenmaschinen geht, die eben durch
formale Regeln bestimmt werden und mit Symbolen hantieren. Seine Kritik richtet sich
an eine starke KI, mit der These, dass geistige Prozesse am Modell des Rechners orien”
tierte Prozesse sind, die an formal definierten Elementen ablaufen“(Sea94, S.254). Das
heißt, dass ich mit Hilfe von Prozessen eines Rechners Aussagen über geistige Prozesse
des Menschen treffen kann, ohne genaue Kenntnisse über die Funktionsweisen des Menschen und seines Gehirns zu haben. Allerdings unterstützt Searle weiter sein Argument,
dass man mit formalen Operationen, auch wenn sie sich auf nonverbale Kommunikation
beziehen, keine intentionale Handlung erwirkt. So wie Arthur im Chinesischen Zimmer
das Programm selbst ausführt, könnte man sich auch vorstellen, dass er das gleiche in
einem Roboter tut, mit Wahrnehmungs- und Bewegungshandlungen. Nach Searle ändert
das nichts an dem Prinzip eines Digitalcomputer, der hinter den Aktionen steht. Dennett zeigt daraufhin in einem Kommentar zum Artikel minds, brains and programms
konkreten Situationen, in denen ein so programmierter Roboter mit Menschen interagiert: Beispielsweise er reagiert bei einem Überfall darauf, dass der Räuber sagt: Hände
”
hoch“ und hebt die Hände, genauso wie er das Salz seinem Tischnachbarn reicht. Er
kritisiert, dass Searle nicht das ganze System betrachtet und zweifelt an, dass jemand,
der mit solchen Symbolen hantiert und darauf authentisch reagiert nicht irgendwann
fließend Chinesisch sprechen kann. Dennett findet es unplausibel, dass Searle weiter auf
sein Gedankenexperiment beharrt und fordert eine überarbeitete Version. But that is
”
because he is looking too deep“(Sea80, S.430) und weist auf die Systemreplik hin.
Zehn Jahre später ändert Searle auch seine Argumentation, aber nicht seine Aussage,
in der KI-Debatte und kritisiert in seinem Buch Die Wiederentdeckung des Geistes“
”
diesmal Annahmen, die Kognitionswissenschaftler treffen, die seiner Ansicht nach falsch
sind. Im Kapitel 9 geht er ausführlich auf der Frage ein, ob das Hirn ein digitaler Computer sei12 . Die Kognitionswissenschaftler nehmen das an und versuchen Programme zu
finden, die den geistigen Phänomenen entsprechen. Demnach müssen diese Programme
prinzipiell so auch in unserer Hardware“ ablaufen. Searle betont, dass gerade bei die
”
Frage, ob das Hirn tatsächlich ein digitaler Computer sei, die philosophische Relevanz oft
vernachlässigt wird, auch von anderen Wissenschaftlern wie Penrose und Dreyfus(Sea93,
12
Im Gegensatz zum Argument des Chinesischen Zimmer; das zielte darauf, dass der Geist kein Computerprogramm sein kann.
28
Christine Plicht
S.225). Das Gehirn als digitaler Computer wird oft fälschlicherweise als empirische Tatsache angenommen, ohne dabei grundlegende Probleme dieser These zu bewältigen. Wie
auch in minds, brains and programms ist ein wichtiger Bestandteil der Argumentation
die Syntax. Früher hat Searle dahingehend argumentiert, dass aus Syntax keine Semantik
folgen kann, nun setzt er wieder an der Syntax an und verdeutlicht, dass die Syntax der
”
Physik nicht intrinsisch ist“(Sea93, S.232). Um zu verdeutlichen, was er damit meint,
muss man intrinsische und beobachter-relevante Merkmale unterscheiden. Intrinsische
Merkmale sind solche, die unabhängig von einem Subjekt existieren, wie Masse, Schwerkraft oder Moleküle. Sie existieren auch dann, wenn sie nicht gemessen werden oder
niemand mehr existiert, der sie beobachtet. Beobachter-relevante Merkmale hingegen
werden erst durch einen Nutzer oder Beobachter, ein Subjekt, charakterisiert. So ist ein
Stuhl erst ein Stuhl, wenn ihn jemand als solchen benutzt oder bezeichnet, genauso wie
Ausdrücke hübscher Tag für ein Picknick“. Sie werden erst durch ihre Funktion im wei”
teren Sinne zu einem Merkmal und sind somit relativ zu dem Benutzer zugeschrieben.
Searle argumentiert nun, dass Syntax auch benutzer-relevant sei, weil die Charakte”
risierung des Systems als ein digitaler Computer immer relativ zu einem Beobachter
ist“(Sea93, S.232). Dabei ist das Programm nur eine syntaktische Interpretation des
Systems und nicht intrinsisches Merkmal der Physik. Geistige Phänomene lassen sich
mit einem digitalem Computer simulieren, indem man sie in formale Operationen, der
Syntax, aufteilt und so ein Programm erstellt. Aber dieses Programm ist abhängig vom
Beobachter und deswegen nicht intrinsische Eigenschaft des ursprünglichen Phänomens.
Searle sieht es als möglich an, dass sich kognitive Eigenschaften auf einem Computer
oder mit einem Roboter simulieren lassen. Das zeigt sich durch viele Beispiele, wie Deep
Blue oder andere Programme, die menschliches Verhalten zumindest simulieren. Forschung der Vertreter der schwachen KI beschäftigen sich mit diesen Programmen und
auch die meisten Gebiete der Informatik bleiben auf diesem Level und haben nicht den
Anspruch, damit mehr zu erreichen als nur Simulationen.
Stellt man allerdings die Frage, ob der Geist ein Computerprogramm (Software) oder
das Hirn ein digitaler Computer (Hardware) ist, so verneint Searle beide Fragen sehr
eindeutig. Ersteres bestritt der im Gedankenexperiment zum Chinesischen Zimmer und
zweiteres in der Auseinandersetzung mit den Kognitivismus.
In der Debatte um die Philosophie des Geistes und das damit verbundene Köper-GeistProblem sieht Searle die Diskussion sehr verfangen, dadurch, dass sie in sprachlichen
”
Kategorien gefangen gehalten werden“(Sea93, S.47), die zu auf der Annahme eines Dua-
29
Christine Plicht
lismus von Descartes zurück zu führen sind. Dazu suggeriert der Kognitivismus, dass
die einzige Alternative zum Computermodell des Geistes der Dualismus sei. Das Ab”
wegige an dieser ganzen Diskussion ist, dass der Materialismus die schlimmste Annahmen des Dualismus übernimmt. Wenn der Materialist die Behauptung der Dualisten
bestreitet [...], dann akzeptiert er ungewollt die Kategorien und das Vokabular des Dualismus.“(Sea93, S.72), damit ist die Alternative zum Materialismus der Dualismus. Aber
bevor die Probleme des Materialismus von ihren Vertretern anerkannt werden und sie
damit zum Dualisten werden, geben sie ihren Schwierigkeiten, die durch das gleiche Vokabular auftreten, neue Definitionen und bestreiten das Bewusstsein als Subjektivität13 .
Vertreter des Materialismus sind demnach in ihrer eigenen Argumentation gefangen, da
Zugeständnisse sonst zu einem Dualismus führen könnten, den sie verhindern wollen.
Ryle versuchte genau aus dieser Verfahrenheit zu entfliehen, indem er klar machte, dass
die ganze Diskussion durch falsche Verwendung verschiedener Kategorien sinnlos ist und
man eine Untersuchung des Geistes auf andere Weise angehen muss. Der Materialismus
verfängt sich selbst wieder in den Kategorien, so auch Dennett, indem er sich klar gegen
ein dualistisches System positioniert. In seiner pragmatischen Herangehensweise wird
zwar deutlich, dass er in einer gewissen Weise in der Tradition von Ryle steht, aber es
bleiben trotzdem die gleichen Probleme, die Searle kritisiert. Es ist schwer gegen den
Dualismus und für die Möglichkeit einer künstlichen Intelligenz zu argumentieren, ohne
das System des Dualismus mit seinem Vokabular und Kategorien zu verlassen. Um sich
von anderen Theorien, auch anderen materialistische, abzugrenzen und diese zu verurteilen, ist es naheliegend, dass die Argumente gegen diese Thesen eben aus ihnen heraus
entspringen.
4.3 Hubert Dreyfus - What Computers can’t do
Ein Philosoph, der in der KI Debatte schon relativ früh, in den 60er Jahren des letzten
Jahrhunderts, einstieg war Hubert L. Dreyfus. Sein Buch What Computers can’t do ”
The Limits of Artificial Intelligence“ erschien 1972 und beinhaltet eine phänomenologische Kritik der Ziele und Herangehensweise der KI-Forschung. Dreyfus ist Professor an
der University of California in Berkeley und ist, neben seiner Kritik an der KI, bekannt
für seine Heidegger-Interpretation. In seinem Buch kritisiert Dreyfus stark die Visionen
und den Optimismus der KI-Gemeinde und versucht darzulegen, warum es nicht möglich
ist, eine künstliche Intelligenz über Symbolverarbeitung zu kreieren. Seine Kritik beruht
stärker auf Argumenten, die sich mit dem situativen Kontext beschäftigen als auf die
13
Hierzu nennt Searle Armstrong und Dennett, die genau das täten.
30
Christine Plicht
Funktionsweise des Geistes.
Dreyfus war, wie auch Joseph Weizenbaum, in den 60er Jahren am MIT beschäftigt, zu
der Zeit wurden viele Forschungsgelder in die KI bewilligt und einige Projekte liefen.
ELIZA entstand und verstärkte die Euphorie am MIT. Dem versuchte Dreyfus zu entgegnen und verglich in Alchemy and Artificial Intelligence“ die Suche nach der künstlichen
”
Intelligenz mit der erfolglosen und besessenen Art der Alchemie. To avoid the fate of al”
chemists, it is time we asked where we stand. Now, before we invest more time and money
in information-processing level, we should ask wheter the protocols of human subjects
suggest that computer language is appropriate for analyzing human behavior.“(Dre65,
S.84) Die aktuelle Forschung solle Abstand von ihrem Vorhaben nehmen, etwas zu entwickeln, ohne vorher grundlegende Fragen zu klären. Zuerst sollte beantwortet werden,
ob es überhaupt möglich ist, intelligentes Verhalten mit diskreten formalen Operationen
abzubilden. Die möglichen Folgen der Arbeiten wurden nicht abgeschätzt. Die Euphorie
und die fehlgeleiteten Forschungsmethoden beruhen, nach Dreyfus, auf einer langen Tradition des wissenschaftlichen Arbeitens in den Naturwissenschaften. So war die Physik
erfolgreich, das Universum mit atomaren Tatsachen zu beschreiben und durch Regeln
zu formalisieren. Die Entwicklung des Digitalcomputer hat dazu geführt, diese Herangehensweise auch auf das menschliche Verhalten übertragen zu wollen. Forscher wollen
durch elementare Verhaltensregeln den Menschen als Gegenstand bestimmen, aber das
hält Dreyfus für ein irrtümliches Erklärungsmodell. Er hingegen will einen Alternativan”
satz darlege[n], der sich ergibt, wenn man die drei Grundannahmen der Tradition mit
einer phänomenologischen Beschreibung der Strukturen menschlichen Verhaltens vergleicht“(Dre85, S.181). Die drei traditionellen Grundannahmen erläutert er im zweiten
Teil seines Buches, die biologische, die psychologische und die erkenntnistheoretische Annahme. Im Weiteren will ich auf seinen Alternativansatz eingehen, der das menschlichen
Verhalten aus phänomenologischer Sicht beschreibt. Diese Herangehensweise basiert auf
Ansichten von Heidegger, Wittgenstein und jüngeren Denkern wie Charles Taylor oder
Samuel Todd. Diese ist zwar weniger exakt, aber dafür werden hierbei die wesentlichen
Fragen nicht vergessen, so Dreyfus(Dre85, S.181). Hierzu untersucht Dreyfus, welche
Rolle zum einen der Körper beim Verhalten spielt und zum andere den situativen Kontext, bezogen auf ein geregeltes Verhalten und die menschlichen Bedürfnisse.
Der menschliche Körper ist ein Wahrnehmungsapparat, der auf unterschiedliche Weisen
arbeitet und für die KI-Forschung ist es schwierig, oder war es zumindest zu dieser Zeit,
diese Seite des Verhaltens sinnvoll nachzubilden. Auch stellt sich hier wieder die Frage,
ob der Körper oder auch nur das Gehrin ein Digitalrechner ist und können wir ihn si-
31
Christine Plicht
mulieren? Dreyfus will zeigen, dass ein Körper notwendig ist, um nicht-formalisierbare
Formen zu verarbeiten. Dies geschieht über strukturelles Erkennen, das mit Erwartungen verknüpft ist. Strukturelles Erkennen geschieht u.a. bei Mustererkennung. Zwar kann
man Mustererkennung leicht mit formalen Prozessen digital simulieren, aber Dreyfus argumentiert, dass gerade das nicht bei einem Menschen passiert. Wenn wir uns in einer
Situation befinden, in der wir etwas erkennen wollen, dann gehen wir nicht im Kopf eine
Liste durch und haken diese ab, bis das richtige Muster übrig bleibt, sondern überblicken
das gesamte System. Genauso nehmen wir beim Musik hören nicht einzelne Töne wahr
und verknüpfen sie zu einer Melodie, sondern wir erkennen die Ganzheit, die Melodie und
können dadurch auf die einzelnen Töne schließen. Der Mensch erkennt somit das Ganze
und nicht Details. So ist es ihm auch möglich, vom Ganzen auf ihm bisher unbekannte
Details zu schließen, eine unbestimmte Wahrnehmung der Teile vom Ganzen. Husserl
beschreibt das durch den inneren Horizont. Es ist die Fähigkeit, einen Gegenstand in
seiner Ganzheit wahrzunehmen, wie ein Haus, ohne die Einzelteile, etwa seine Rückseite, zu kennen. Eine Maschine ohne einen entsprechenden inneren Horizont müsste die
”
Information in umgekehrter Reihenfolge verarbeiten: Vom Detail zum Ganzen.“(Dre85,
S.189f) Das bedeutet, der Mensch kann durch seine Erwartungen Informationen zu einem
System hinzufügen, auch wenn er nicht alle Details kennt, aber eben eine Vorstellung
durch eine bewusste Wahrnehmung einzelner Teile des Ganzen hat. Diese Vorstellung des
Ganzen erlangt er durch den situativen Kontext und über die Wahrnehmungen seines
Körpers. Dem Computer hingegen fehlt im Zweifelsfall die eigene Erwartung im Hinblick auf weitere Informationen. Es stellt sich also die Frage, wie er alle Details aus dem
Kontext heraus erfahren kann, ohne sie explizit als Daten aufzunehmen.
Der Mensch hat dem Computer die Flexibilität voraus, die er durch eigene Erwartungen
erreicht. Ebenso wie das erfasste Ganze wird auch der Sinn aufgenommen. Hierzu hat
Husserl eine Theorie, die von Merleau-Pony erweitert wird. Er behauptet, dass es der
”
Körper ist, der den von Husserl entdeckten Sinn verleiht.“(Dre85, S.197) Der Körper
reagiert auf das Ganze und nimmt somit auch seinen Sinn auf. So reagieren die Sinnesorgane auf Klänge und Rhythmus und nehmen die Gestalt der Musik auf. Ebenso
ist es bei einer Fertigkeit, die wir erlernen. Zuerst besteht diese Fertigkeit aus Regeln,
die wir bewusst und langsam befolgen und irgendwann verinnerlichen. Diese Verinnerlichung geschieht über den Körper, da die Bewegungen ins Unterbewusste aufgenommen
und vom Körper weiter ausgeführt werden. Beim Stricken müssen wir zuerst ganz genau
beobachten, was zu tun ist, wir erlernen mit Regeln, wie die Nadel und der Faden zu
bewegen sind, um eine Masche zu stricken. Nach einiger Zeit und Übung, bei der der
32
Christine Plicht
Körper aufmerksam ist, werden die Bewegungen immer gefestigter, bis sie vollkommen
routiniert sind. Dann ist es auch nicht mehr nötig, alle Sinnesorgane auf das Stricken
zu konzentrieren, denn die Finger bewegen sich fast selbständig, ohne das Strickzeug zu
betrachten. Da dem Computer der lebendige Körper fehlt, kann er nicht als Ganzheit
”
reagieren, sondern muss von festgelegten Einzelheiten ausgehen und darauf sein Erkennen aufbauen.“(Dre85, S.204f) Ein Körper ist also notwendig, um Gegebenheiten in ihren
vollen Strukturen aufzunehmen und der Mensch nimmt seine Umwelt nicht über Details
auf, sondern indem er die Ganzheit betrachtet. Ich schaue aus dem Fenster und sehe eine
Landschaft und nicht nur einzelne Bäume und Häuser. Ein digitales System verknüpft
erst Einzelheiten, um das komplette Bild zu betrachten. Nach Dreyfus formalisieren wir
demnach nicht alles, was wir mit den Sinnen wahrnehmen, also ist es schwierig, das auf
einen Computer zu übertragen. Neben der Programmierung von Sprachcomputern wie
Chatbots gibt es vor allem in Japan viele Wissenschaftler, die sich mit der Entwicklung
von Robotern, speziell Androiden, beschäftigen. Diese menschenähnlichen Roboter sind
ausgestattet mit Sensoren, wie einer Kamera als Augen, sodass sie wie der Mensch ihre
Umwelt aufnehmen und verarbeiten können. Aber selbst mit diesen simulierten Sinnesorganen ist es fragwürdig, wie der Roboter Kontext statt Einzeldinge erkennt.
Einen Androiden zu erstellen und zu programmieren bedeutet davon auszugehen, dass
das menschliche Verhalten durch formalisierbare Regeln beschrieben werden kann, da es
eine geordnetes System ist. Nur so kann das Verhalten nicht vollkommen willkürlich sein.
Das ist Minskys Auffassung, Dreyfus hingegen will zeigen, dass das menschliche Verhalten geordnet und regelmäßig, also nicht willkürlich, ist, aber ohne formalisierte Regeln
ablaufen kann und sogar muss. Der Mensch befindet sich immer in einer Situation, in
der er für gewöhnlich etwas tut. Die Handlung steht in einem Kontext und das Verhalten wird bestimmt durch Regeln, die wir im Alltag verfolgen und verinnerlicht haben.
Wenn ich in die Bibliothek gehe, muss ich meinen Rucksack in ein Schließfach sperren.
Um das Schließfach zu benutzen, brauche ich ein Zwei-Euro-Stück usw. Wenn ich aber
in die Bibliothek gehe, nur um die Toiletten zu benutzen, muss ich meinen Rucksack
nicht einschließen. Hier zeigt sich, dass die Regeln auch vom Kontext abhängig sind und
nicht zu jeder Zeit und in jeder Situation gelten die gleichen Regeln. Der übergeordnete
Kontext, in dem sich der Mensch befindet, ist die Welt. Heidegger beschreibt das als
das In-der-Welt-sein, um ihn herum ist seine Lebenswelt, die auch in der Alltäglichkeit durch die menschlichen Absichten und Interessen vorstrukturiert“(Dre85, S.211)
”
ist. Diese Absichten und Interessen beziehen sich auf die Situationen. Auch die Einzeldinge, die uns umgeben und die wir benutzen, stehen in einem Kontext. Sie sind Teil
33
Christine Plicht
unserer Lebenswelt und haben eine Funktion für uns. Wir benutzen sie, um etwas zu
tun. Heidegger verwendet hierfür den Begriff Zeug. Das Zeug hat eine Bewandtnis für
den Menschen und der Kontext bezeichnet den Bewandtniszusammenhang. In diesem
Bewandtniszusammenhang sind wir von Tatsachen und Dingen umgeben, die je nach
Situation eine unterschiedliche Relevanz haben. Dementsprechend verändern sich auch
die Regeln, die wir dann benutzen. Die Regeln sind abhängig vom Kontext und um diesen zu erkennen, müssen wir uns bewusst sein über die wesentlichen und unwesentlichen
Aspekte um uns herum. Auch muss man unterscheiden zwischen Regeln, die in dieser
Situation gelten, weil relevante Tatsachen dafür sprechen und allgemeingültigen Regeln,
die uns in der Alltäglichkeit begegnen. Die Schwierigkeit besteht nun darin, die relevanten Tatsachen auszuwählen ohne jene Regeln, die allgemeingültig sind, zu verlieren. Der
Mensch kann flexibel auf Situationen reagieren, so die relevanten von weniger relevanten Aspekten trennen. Außerdem wählen wir die Regeln mit Hilfe unserer Erfahrung
aus. Ein Computer hingegen ist mit isolierten Daten gefüttert und der Programmierer
versucht Methoden zu finden, um das Programm in einen Kontext einzubinden. Das
Problem hierbei ist, dass beim menschlichen Verhalten die Regeln und ihre Wahl durch
den Kontext bestimmt werden, den der Programmierer mit Hilfe von Regeln erschaffen
will. Der Computer braucht also Regeln, um den Kontext zu erhalten, im Gegensatz zum
Menschen, bei dem der Kontext durch das In-der-Welt-Sein gegeben ist. Der Kontext ist
wichtig für die Interpretation der Regel und ihre Anwendung. Ohne die Flexibilität des
Menschen muss der Programmierer in der Lage sein, all das explizit zu machen, was
”
er als Mensch normalerweise für selbstverständlich hält“ 14 (Dre85). Selbstverständlich
ist eben die Abschätzung von Relevanz und dsa Vorkommen in Situationen und damit
verbundenen Kontexten, da der Mensch die Eigenschaft des In-der-Welt-Sein hat. Das
geregelte Verhalten des Menschen auf ein digitales System zu übertragen ist demnach
nicht umsetzbar, wenn man versucht es durch Regeln zu formalisieren. Die Entscheidungen, die der Mensch trifft, sind abhängig von der Situation; ein Programmierer muss
hingegen durch eine überwältigende Datenmenge und Entscheidungsbäume versuchen
das abzubilden. Das bedeutet, dass die Entscheidungen prinzipiell schon durch den Programmierer getroffen werden und nicht vom Computer selbst.
Eine Methode, die Dreyfus auch immer wieder anspricht, ist ein heuristisches Verfahren,
mit dem man bei einem Problem mit einer großen Datenmenge das Suchen nach der
richtigen Entscheidung abkürzt. Angenommen, in einer Situation gibt es endlich viele
Zustände, die berechnet werden können und um das Problem zu lösen, müssen wir einen
14
Hervorhebung von der Autorin.
34
Christine Plicht
Zustand auswählen. Anschaulich ist es bei einem Schachspiel darzustellen. Die Spielfiguren befinden sich in einer bestimmten Konstellation und nun gibt es mehrere Möglichkeiten (einschließlich ihrer Folgen), wie der Computer reagieren könnte. Bei einfachen
Spielen kann der Computer einfach alle Möglichkeiten und Folgezustände, einen sogenannten Entscheidungsbaum, ausrechnen und sich dafür entscheiden, welche die Beste
ist. Aber beim Schachspielen ist die Berechnung dafür zu zeit- und ressourcenaufwendig, sodass der Computer eine Entscheidung trifft und weiter verfährt. Der Mensch trifft
diese Entscheidung aus reinem Gefühl und der Erfahrung heraus, der Computer kann
dazu Hilfsfunktionen oder Schätzungen benutzen und hofft, dass das weitere Verfahren
annähernd optimal verläuft. Ein Schachcomputer wird mit heuristischen Verfahren programmiert, aber auch Lösungen für das Traveling Salesman Problem 15 verwenden diese
Methode. Gerade bei dem Traveling Salesman Problem verlängert sich die Berechnung
pro weiteren Punkt so stark, dass es schon bei einer kleinen Menge Punkte zu viele
Lösungen gibt um eine angemessene Berechnungszeit zu erreichen.
Dreyfus findet heuristische Verfahren für komplex-formale Systeme angemessen, wie
Spiele, deren Möglichkeiten prinzipiell zwar alle berechnet werden können und somit
vollständig formalisierbar sind, aber die wirkliche Ausführung an die Grenzen der technischen Möglichkeiten stößt und deswegen scheitert. Der Programmierer muss also abwägen,
wie viel Zeit er für die Berechnung einer annähernd exakten, aber zulässigen Lösung aufwenden will. Je weniger Zeit, desto unexakter. Neben den Problemen, die mit komplexformalen Systemen gelöst werden (und einfacheren Problemen und ihre dazugehörigen
Systeme) gibt es auch Probleme oder Verhalten, die sich nicht formalisieren lassen.
Dieses ist situationsabhängig und umfasst beispielsweise alltägliche Handlungen, die
”
regelmäßig, aber nicht regelgeleitet sind“(Dre85, S.248), wie Ratespiele, deren Regeln
nicht eindeutig sind. Hierzu ist der Kontext und eine Gesamtübersicht notwendig, was
das Verhalten nicht komplexer macht, aber eben nicht formalisierbar, weil stärker in der
Lebenswelt verankert.
Die Handlungen eines Systems sind geleitet durch Regeln, diese Regeln aber müssen auf
einem System basieren, auf dessen Grundlage sie programmiert sind. Das System strebt
nach einem Ziel oder mehreren Zielsetzungen. Im dritten Kapitel seines Buches untersucht Dreyfus genauer diese Zielsetzung und die Motivation des Menschen vergleichend
mit der Zielsetzung eines Computers. Dabei handelt es sich um Entscheidungen in Situationen und nicht Handeln auf ein letztes Ziel für das gesamte Leben hin. Dreyfus zitiert
15
Hierbei wird wie die kürzeste Strecke zwischen n Punkten gesucht. Die Frage ist, in welcher Reihenfolge
ich die n Punkte (Orte) wähle, sodass die Gesamtstrecke minimal ist.
35
Christine Plicht
Satosi Watanabe und beschreibt seine Ideen zu den Zielsetzungen des Menschen, dass
sie durch ein System von Werten geleitet sind, eine Maschine hingegen unterliegt programmierten Zielsetzungen. Dreyfus erweitert diesen Gedanken und behandelt verstärkt
die Flexibilität dieser Werte und die Situationsabhängigkeit. Zentral hierbei ist die Erfahrung und auch die damit zusammenhängenden Interessen. Das begründet Dreyfus
mit den Bedürfnissen des Menschen. Bedürfnisse sind allerdings recht unbestimmt und
verkörpern eher ein Verlangen als ein konkretes Ziel. Zwar führt es Dreyfus nicht konkret
aus, aber er erwähnt, dass der Mensch ein grundlegendes Ziel hat, auch wenn das nicht
sonderlich konkret ist. Die Bedürfnisse werden durch unsere Interessen befriedigt. Ein
Maler hat das Bedürfnis, etwas zu erschaffen oder sich kreativ zu verwirklichen. Dies tut
er durch das Interesse am Malen und durch seine Erfahrung weiß er, dass Malen das ist,
was sein Ziel erfüllt. Hier begegnen uns nun einige Begriffe, Werte, Bedürfnisse, Ziele die
zusammenhängen und alle darauf gerichtet, sind in Situationen zu handeln. Aufgrund
von Werten oder Bedürfnissen ist unser Handeln auf etwas gerichtet, das aufgrund unserer Erfahrung konzipiert ist. Wichtig dabei ist, dass Werte und Bedürfnis flexibel sind
und nicht eindeutig. Das macht es schwierig auf den Computer zu übertragen. Die Auslegung der Werte ist immer auf eine Situation bezogen. Durch eine Veränderung der
Lebenswelt eines Menschen kann sich sein Interesse auf einem bestimmten Feld vollkommen ändern. Beispielsweise kann einem Menschen erst bewusst werden, dass er sich
nach etwas gesehnt hat, wenn er es auf einmal erhält und ihn erfüllt. Vorher war es
ein unbestimmtes Bedürfnis, durch seine Erfüllung ändern sich seine Interessen. Sobald
er sich wieder in der alten Situation befindet, seine Erfüllung verliert, wird er wissen,
dass das seine Bedürfnis erfüllt. Dreyfus gibt dazu das Beispiel eines Mannes, der sich
verliebt und erst dann realisiert, dass er überhaupt Interesse an eine Beziehung hat. Sein
Bedürfnis wird also spezifischer und sein Interesse konzentriert sich darauf. Kierkegaard
bezeichnet diese Veränderung, die die Persönlichkeit des Menschen neu definiert, eine
Daseinserschütterng. Auch hier befindet der Mensch sich in Situationen, die sein Dasein
bestimmen und eingebettet in seine Lebenswelt sind. In diesen Situationen verändert
sich der Mensch und mit ihm seine Interessen und Bedürfnisse. Dadurch verhält er sich
anders. Natürlich sind dabei auch wieder Regeln gegeben, die nun in einem anderen
Kontext stehen, aber in diesem Aspekt will Dreyfus die Motivation erarbeiten, warum
wir uns in einer Situation verhalten.
Es zeigt sich, dass Dreyfus ein sehr negatives Bild der KI-Forschung hat und einen viel
vorausschauenderen Blick, als Forscher, die ein Programm mit solchen Zielen entwickeln.
Dreyfus betrachtet die Welt des Menschen, in der er eingebettet ist und fragt sich, wie
36
Christine Plicht
eine Maschine dort leben kann wie ein Mensch. Er kommt zu dem Entschluss, dass sie
es nicht könnte, weil das Leben des Menschen stark situationsabhängig ist, sowohl im
Hinblick auf Regeln als auch auf Bedürfnisse, nach denen sich der Mensch verhält. Beides
hält er für unmöglich in ein Programm zu implementieren. Er kritisiert den unermüdlichen Euphorismus der Forschungsgemeinde und auch Josef Weizenbaum erkennt, dass
mit seinem Programm ELIZA diesem Durchbruch viel stärkere Bedeutung beimessen als
er selbst es tat. Dreyfus hat mit seinem Buch nicht eine Welle an Diskussionen ausgelöst,
wie Searle mit seinem Gedankenexperiment. Das liegt wahrscheinlich daran, dass Dreyfus’ Kritik nicht so zugänglich ist wie Searles Experiment. Er bleibt in vielen Aspekten
relativ vage und die Argumente sind geprägt von der europäischen Philosophie Heideggers und Kierkegaard. Die phänomenologische Herangehensweise ist für Informatiker
schwerer zugänglich.
37
Christine Plicht
5 Robotik als Weg zu einer künstlichen Intelligenz
Parallel zur philosophischen Auseinandersetzung zum Thema finden immer weitere Entwicklungen in der Informatik statt. Anstatt sich mit Fragen auseinanderzusetzen ob
es denn prinzipiell möglich ist, Bewusstsein zu entwickeln, zielt die Forschung stärker
auf praktische Ergebnisse. So werden Roboter und weitere Systeme entwickelt und versucht, was möglich ist und an welche Grenzen die Wissenschaftler stoßen. In diversen
Forschungsinstituten wird zur heutigen Zeit an Robotern gearbeitet, in denen eine künstliche Intelligenz entwickelt wird. Vor allem in Japan ist der Markt an Robotern sehr groß
und dort sind die Visionen weiter optimistisch. Natürlich wird nicht jeder Roboter entwickelt, um künstliche Intelligenz zu erschaffen, aber wenn man Dreyfus’ Kritik ernst
nimmt, so ist ein Roboter Voraussetzung für ein intelligentes System. So gibt es viele Forschungseinrichtungen, die daran arbeiten. Honda hat eine Androiden ASIMO entwicklt
mit dem am CoR Lab16 der Universität Bielefeld gearbeitet wird. Sie versuchen durch
Interaktionen und Lernen ASIMOs Sprachevermögen, Bewegungen und Seevermögen zu
verbessern und dabei grundlegende Erkenntnisse über Lernen und Wahrnehmung zu erlangen. Auch an der Universität Heidelberg gibt es eine Arbeitsgruppe Optimiziation in
Robotik and Biomechanics und ein Robotiklabor. Am MIT gab es ein Forschungsprojekt
COG, an dem Dennett beteiligt war. Dort wollte man einen Roboter entwickeln und
ihm Eigenschaften beibringen, beispielsweise Kunststück und Sprache. Neben den Forschungsprojekten gibt es auch konkrete weitere Herausforderungen, deren Fortschritte
in Wettbewerben gezeigt werden. Nachdem Deep Blue den Schachweltmeister geschlagen hat und diese Aufgabe gelöst wurde, wird heutzutage daran gearbeitet, Robotern
Fußball spielen beizubringen. Dazu gibt es Landes- und Weltmeisterschaften, den sogenannten Robocups. In unterschiedlichen Disziplinen, je nach Größe und Anforderung
an autonomen Geräten, treten Roboter gegeneinander an und versuchen, Fußball zu
spielen. Hier hat man sich zum Ziel gesetzt in 50 Jahre, also Mitte des 21. Jahrhunderts, gegen den dann amtierenden Fußballweltmeister anzutreten und zu gewinnen.
Etwa so lange hat auch die Entwicklung der Schachcomputer gedauert, bis Deep Blue
den Schachweltmeister Kasparov besiegen konnte. Das Problem des Fußballspielens ist
für die KI interessanter als einen Schachcomputer zu entwickeln, weil hier die Strategie
und Herangehensweise dem Menschen eher nachempfunden werden als beim Schachspielen. Der Schachcomputer besteht aus einer großen Datenbank und einem Programm,
das eine andere Strategie verfolgt als ein menschlicher Schachspieler. Ein Mensch filtert
16
Weitere Informationen zu dem Projekt unter http://www.cor-lab.de/. [Abruf August 2011]
38
Christine Plicht
zuerst, welche Figuren überhaupt in Frage kommen zu ziehen und berechnet auch nicht
in jeder Konstellation möglichst viele Züge voraus. Hier zeigt sich wieder die situationsabhängige Relevanz, die der Computer schwerer abschätzen kann. Der Mensch handelt
stärker aufgrund seiner Erfahrung und Intuition, weniger aufgrund der Berechnung des
weiteren Spiels. Natürlich variiert das bei der Spielstärke der Spieler. Beim Fußballspielen sind es fast die gleichen Anforderungen, die nur mit den gleichen Mitteln bewältigt
werden könnne. Es geht um Bewegung, Schnelligkeit, Treffsicherheit und Teamgeist.
Momentan sind die Roboter aber noch sehr weit davon entfernt gegen eine menschliche
Fußballmannschaft anzutreten. Die Spielgeschwindigkeit ist noch äußerst gering und die
Passgenauigkeit recht vage. Dennoch sind hier die Probleme der künstlichen Intelligenz
stärker vertreten. So geht es nicht nur darum einen Körper zu entwickeln, sondern auch
Interaktion der Roboter untereinander herzustellen.
An diesem Punkt stellt sich die Frage, was wir überhaupt von einer Maschine verlangen, um ihr Intelligenz zuzusprechen. Unabhängig von den philosophischen und technischen Schwierigkeiten, die sich ergeben, halte ich folgende Eigenschaften für notwendig um überhaupt von einer starken künstlichen Intelligenz zu sprechen. Ebenso wie
Dreyfus sehe ich den Körper als zentralen Aspekt bei der Weiterentwicklung einer Maschine. Auch Dennett glaubt nicht, dass irgend jemand jemals einen Roboter bauen
”
wird, der in ganz genau derselben Art und Weise bewusst ist wie menschliche Wesen es
sind.“(Den96, S.691). Was entwickelt werden könnte ist ein Roboter, der zentrale Eigenschaften besitzt und mit dem wir kommunizieren können. Zur Kommunikation notwendig
ist natürlich Sprache, hierbei gibt es auch schon einige Fortschritte, wenn man Chatbots
betrachtet. Es zeigt sich, dass die Möglichkeit besteht, dass sich ein digitales System mit
uns unterhält. Diese Unterhaltungen vielleicht nicht immer sinnvoll, aber zumindestens
unterhaltsam. Sprache muss natürlich im System weiterentwickelt werden, sodass der
Roboter lernfähig sein muss. Nicht nur in Bezug auf die Sprache. So kann er im Gespräch mit einem Gegenüber Reaktion erhalten und so seine Datenbank erweitern und
lernen, welche Reaktionen seinerseits angemessen sind. An der Weiterentwicklung der
Sprache zeigen sich die wesentlichen Merkmale. Sprache wird durch Interaktion gelernt.
Das heißt, um Sprache überhaupt zu lernen, muss interaktiv agiert werden. Diese Interaktion findet meist durch kooperative Handlungen statt. George H. Mead (1863-1931)
vertritt die Ansicht, dass geistige Eigenschaften überhaupt erst durch Sprache entstanden sind und Sprache sich durch kooperative Handlungen und gesellschaftliche Prozesse
entwickelt hat. (Mea08) Es ist also notwendig, Aktionen mit Menschen oder anderen Robotern durchzuführen, damit Sprache sich verfestigen kann und überhaupt Bedeutung
39
Christine Plicht
erreichen könnte. Das Problem, wie die Sprache in einen künstlichen System überhaupt
Bedeutung erreichen kann und nicht nur reine Syntax darstellt, zeigt das Symbol grounding Problem (Har90). Searles Kritik, die er anhand des Gedankenexperiment äußert,
zielt auf dieses Problem, wie wir im vorangegangen Kapitel gesehen haben. Wie ist es
also möglich, dass ein System nicht nur mit reinen Symbolen hantiert, sondern intrinsisches Wissen erreicht? Die Symbole müssen einen Bezug zur Welt bekommen, eine
Referenz erhalten und zusätzlich die Bedeutung des Symbols erlernen. Im Gegensatz zu
einem reinen Chatprogramm könnte der Roboter einen Bezug zum dem Wort und dem
dazugehörigen realen Gegenstand aufbauen. Er redet nicht nur von einem Apfel, sondern
er hat auch schon einmal einen gesehen und kann diesen oder einen anderen Gegenstand
als Apfel wiedererkennen. So kann er auch ASIMO an der Universität Bielefeld immer
weitere Gegenstände erlernen und einen Hocker, den er zuvor noch nie gesehen hat, als
Stuhl identifizieren17 . Es ist also scheinbar möglich, einem Roboter Konzepte beizubringen, sodass er diese auch in anderen Gegenständen erkennt und deren Funktionalität
beurteilen kann. Dazu ist Interaktion mit den Gegenständen notwendig sowie Kommunikation über diese Gegenstände.
Der Unterschied vom Schach- zum Fußballproblem ist, dass die Fußballmannschaft in
Echtzeit spielen soll und der Schachcomputer relativ viel Zeit zum berechnen braucht.
Momentan sind die Bewegungen allerdings noch so langsam, dass alleine deswegen eine
Roboterfußballmannschaft gegen Menschen stark benachteiligt ist. Bei vielen Problemen
benötigt der Computer viel Zeit, um Möglichkeiten zu berechnen und die Datenbank zu
durchsuchen. Damit eine Interaktion mit dem Menschen möglich ist, müsste ein Roboter
sich in einer ähnlichen Geschwindigkeit wie ein Mensch bewegen und verhalten können.
Als wichtige Eigenschaft wird oft die eigene Weiterentwicklung angesehen. Neben der
Lernfähigkeit, die u.a. von extern, von Interaktionspartner, gegeben wird, ist ein Roboter vorstellbar, der sich selbst verändern, reparieren oder bearbeiten kann. Ähnlich
wie die meisten Wunden und Krankheiten des Menschen vom Körper selbst kurieren,
sollte es möglich sein, dass der Roboter einfache Funktionsstörungen selbst erkennt und
repariert. Damit ist der Roboter stärker autonom und nicht auf die Hilfe und Betreuung
des Menschen angewiesen. Eine Steigerung des eigenen Wartung und Weiterentwicklung
ist ein System, das selbst ein neues System entwickelt, das die eigenen Fähigkeiten und
Möglichkeiten übersteigt. So wie wir Maschinen entwickeln, die Aufgaben lösen, zu denen
wir aus unserer eigenen Kraft nicht in der Lage sind, könnte ein Computer ein anderes
17
Ein eindruckvolles Video dazu, kann man unter http://www.youtube.com/watch?v=P9ByGQGiVMg
ansehen, leider war es nicht möglich die Originalquelle zu finden. [Abrufdatum: August 2011]
40
Christine Plicht
System, das über es selbst hinaus geht, erschaffen.
Damit der Roboter diese beschriebenen Eigenschaften lernt, halte ich es für notwendig,
dass er eine Art Kindheit durchläuft und somit eine Entwicklung gegeben ist. Auch
COG wurde so konstruiert, dass er in einer Kleinkindphase beginnt. Fraglich ist, wie
lange ein kindlicher Zustand andauert und ab wann oder ob sich der Roboter zu einem
Erwachsenen entwickeln kann. Dauert das so lange, wie bei einem Menschen und inwieweit ist das abhängig von der Technik? Es ist vorstellbar, dass es viel Zeit und Mühe
kostet, die Fähigkeiten eines Roboters zu entwickeln, statt vorher einzuprogrammieren.
COG sollte auch bestimmte Bezugspersonen haben, die als Mutterfigur fungieren. Eine
Bezugsperson oder mehrere, die er erkennt und die sich maßgeblich um seine Entwicklung kümmern. Das zeigt sich auch dadurch, dass er das Gesicht seiner Mutter präferiert
Aufmerksamkeit schenkt und versucht zu verhindern, dass seine Mutter sich von ihm
abwendet.
Ziel dieser Eigenschaften ist es, dass der Roboter eine Lebenswelt besitzt, auch wenn diese sich von der eines Menschen stark unterscheiden wird. Eine Lebenswelt ist notwendig,
damit ein situativer Kontext gegeben sein könnte. Ob das mit all diesen Eigenschaften
wirklich erreicht werden kann, ist jedoch fraglich. Nur in einer Lebenswelt kann der Roboter so interaktiv sein, dass die Welt um ihn herum auch eine subjektive Bedeutung
hat und dadurch auch eine Individualität erreichen könnte. Stellen wir uns also vor, es
gelänge einen Roboter zu entwickeln, der sich mit einem Menschen unterhalten kann,
auch wenn es nur einen alltagsbasierte Gespräche sind. Weiter kann er in der Welt mit
Gegenständen umgehen, wie einen Tisch von einem Stuhl zu unterscheiden, auch wenn er
konkret diesen noch nie gesehen hat. Er ist sich dadurch der Funktion bewusst und kann
sie mit anderen Gegenständen in Verbindung bringen. Dieses Verhalten entstand durch
Lernen in Situationen, in denen der Sprache eine konkrete Referenz in seiner Umwelt
geben konnte. Alleine mit diesen Eigenschaften können wir uns ein Verhalten vorstellen,
bei dem der Roboter mit uns in unserer Lebenswelt interagiert. Darüber ob dieser Roboter nun wirklich Sprache versteht oder Dinge wahrnimmt, lässt sich dann natürlich
weiter diskutieren. Die Frage nach der reinen Simulation kann immer weiter im Raum
stehen. Die Frage ist nur, ist eine solche Diskussion dann immer noch sinnvoll? Sollte
man sich dann nicht einer pragmatischen Vorgehen anschließen und den Roboter das
zusprechen, was er tut?
Wenn wir diesen Roboter betrachten, den ich oben beschrieben habe oder uns Androiden
in Science-Ficton-Filmen anschauen, so wird schnell deutlich, dass es sich hier nicht nur
um einen künstliche Intelligenz handelt, sondern versucht wird, einen künstlichen, wenn
41
Christine Plicht
auch nicht organischen, Menschen zu erschaffen. Die Abgrenzung zwischen künstlicher
Intelligenz und einer künstlichen Person wird selten getroffen. Der Weg zu einer künstlichen Intelligenz über die Robotik und alle Versuche einen Roboter zu erschaffen sind
allerdings anspruchsvoller als nur eine künstliche Intelligenz. So ist Turings Kriterium
nicht auf einen Körper angewiesen. Es gibt auch Ideen, den Turing-Test dahingehend
zu erweitern, dass sich das System, ein Roboter, wie ein Mensch in der Umwelt verhalten muss - der Total Turing Test (TTT) (Har91). Hier will Steven Harnad sowohl
die linguistischen Fähigkeiten, als auch die sensomotorischen testen. Allerdings gibt es
auch Kritiker, die den TTT für unnötig halten. Wenn der gewöhnliche Turing-Test ausreicht, dann ist der TTT keine Erweiterung. Wenn nicht, ist der TTT genauso ungeeignet
wie der Turing-Test, um mentale Eigenschaften zu bestätigen (Hau93). Der Begriff der
Person ist weiter gefasst als eine künstliche Intelligenz. Hierzu haben ich in Kapitel 2
Kriterien beschrieben, die Dennett für notwendig hält, eine Person zu beschreiben. Er
verdeutlicht, es gibt keine objektiv erfüllbaren hinreichenden Bedingungen dafür, dass
”
ein Wesen wirklich Meinungen hat.“(Den81, S.320f). Von einem intentionales System
verlangt Dennett keine verbale Kommunikation, Selbstbewusstsein oder das Erwidern
einer Haltung. Umgekehrt ist ein intentionales System auch notwendig für eine Person.
Zwar schreiben wir auch Tieren teilweise gewisse Eigenschaften zu, die wir mit einer
Person identifizieren, allerdings benutzen wir den Personenbegriff weitgehend exklusiv
für den Menschen. So ist auch das Vorhaben einen Roboter zu bauen, der den TTT
bestehen könnte, ein Stoß in die Richtung, eine künstliche Person zu erzeugen und nicht
nur ein künstliches System. Die Anforderungen an eine künstliche Intelligenz und die
Visionen dazu sind in den letzten Jahrzehnten immer stärker gestiegen.
Auch Dreyfus Forderung eine künstlichen Intelligenz in situative Kontexte einzubetten,
ist nur dann notwendig, wenn sie sich verhalten soll wie ein Mensch, anstatt nur gewisse
kognitive Eigenschaften zu übernehmen. Aber selbst dann, wenn sich der Roboter wie
ein Mensch verhält, sodass wir ihn nicht unterscheiden können, bleibt er trotzdem eine
Maschine. Auch dann gibt es existenzielle Unterschiede der Maschine zum Menschen.
Auch wenn der Roboter den Kontext erfasst, in dem er sich verhält, ist es fraglich anzunehmen, ob er auch den Aspekt der Geschichtlichkeit des Menschen erhalten kann.
Der Mensch ist kein diskretes Wesen, er ist eingebunden in die Zeit. Er steht in einer
Tradition und ist in gewissen Sinne die Summe seiner Handlungen und Begegnungen in
der Vergangenheit mit Blick auf die Zukunft. Nie kann ich sagen, dass der Mensch ein
diskretes Objekt zum Zeitpunkt X ist. Das, was der Mensch zu diesem Zeitpunkt ist, ist
aber mehr als nur das, was er gelernt oder erfahren hat. Er steht in einem geschichtlichen
42
Christine Plicht
und nicht nur situativen Kontext. Einen Menschen zu einem Zeitpunkt X zu betrachten,
erfasst nicht das Wesen des Menschen. Dahingegen ist der Computer eine klarer diskreter
Zustand zum Zeitpunkt X. So klar, dass ich davon eine Systemwiederherstellung machen
kann, wenn er zwei Stunden später nicht mehr funktioniert.
So wie Dreyfus mit phänomenologischen Methoden eine KI in einen situativen Kontext
genauer betrachtet, was auch in der Tradition von Heidegger steht, kann man dessen
Konzept der Zeitlichkeit genauer betrachtet. Hier spielt der Tod eine zentrale Rolle:
Der Tod ist eigenste Möglichkeit des Daseins. Das Sein zu ihr erschließt dem Dasein
”
sein eigenstes Seinkönnen, darin es um das Sein des Daseins schlechthin geht.“(Hei06,
S. 263) Der Mensch hat in seiner Existenz immer in irgendeiner Weise ein Verhältnis
zum Tod, da sein Leben endlich ist. Die Existenz eines Roboters hingegen muss nicht
zwangsläufig endlich sein. Natürlich kann der Roboter zerstört oder ausgeschaltet werden, aber zu seinem Sein gehört nicht der Tod. Das bedeutet, dass seine Möglichkeiten
nicht davon geprägt sind, dass er sich seines eigenen Todes bewusst ist und dass sich
da in seinem Verhalten wiederspiegelt. Empirisch wird es für ihn genauso ein Ende geben, wie für den Menschen, aber das Ende des natürlichen Menschen ist unvermeidbar.
Ich denke dass ist ein zentraler Unterschied, der sich nicht ändern wird. Spekulationen
darüber, den Menschen dahingehend zu erweitern, dass er durch künstliche Organe auch
unsterblich werden könnte ist für diese Debatte meiner Meinung nach irrelevant.
Stellen wir uns wieder diesen Roboter vor, der sich verhält wie ein Mensch. Ob ihm
wirkliches Denken, Wünsche und damit bewusste Handlungen zugesprochen werden ist
auch abhängig von der Akzeptanz dieser digitalem Systems seines Umfeldes. Vielleicht
ist es auch einfach nur ein Prozess, der sich entwickelt und der Mensch muss sich an
die Gegenwart von künstlichen System als Teil seiner aktiven Lebenswelt gewöhnen. So
wie wir Haustiere anders wahrnehmen und mit ihnen umgehen als Nutztiere, könnte es
genauso mit Robotern sein. Die wenigstens Menschen würden, außer in Notsituationen
ihr Haustier essen und durch eine persönliche Beziehung zu dem Tier, nehmen wir es
anders wahr als einen Vogel, der auf dem Baum singt. Erst durch den konstanten Bezug und die Erfahrungen mit ihm, nehmen wir das Tier zwar nicht als eine Person auf,
dennoch verhalten wir uns ihm gegenüber ähnlich wie zu einem Menschen, indem wir
uns um das Tier sorgen und uns kümmern. Natürlich ist die Voraussage, dass wir so
mit Robotern umgehen nicht stark begründet und vielleicht auch nicht wahr. Dennoch
möchte ich hier an den vorangegangen Aspekten die Möglichkeiten und Probleme aufzeigen, die sich ergeben, falls es gelänge Systeme zu entwickeln, die mit uns interagieren, als
seien sie menschlich. Ob das eintrifft, wird kein Philosoph voraussagen können und auch
43
Christine Plicht
nicht zuverlässig ein Visionär der KI, wie beispielsweise Ray Kurzweil. Mit der Zeit wird
sich zeigen, ob und wie die Entwicklungen in der Informatik und Robotik weiter verlaufen. Auch die schlagenste philosophischen Argumente werden Entwickler nicht davon
abhalten trotzdem zu versuchen immer weiter zu kommen und die Grenzen praktisch zu
erfahren.
Wenn die Anforderungen an eine künstliche Intelligenz getrennt von den Vorstellungen
einer künstlichen Person betrachtet werden, sind wir dort, wo Turing 1950 war. Es ist unklar, welche Kriterien wir anwenden sollen und der Streitpunkt ob das System wirklich
Wünsche hat oder Denken kann, wird aus unterschiedlichen Seiten diskutiert. Meiner
Meinung nach ist es sinnvoll das System danach zu beurteilen, was es als Output liefert
und wie es uns dadurch begegnet. Es wird sich zeigen, wie weit die Entwicklung voranschreitet und wozu Roboter wirklich fähig sein werden. So wie wir zur Bestimmung
der Intelligenz des Menschen auch Tests haben, auf die man sich vorbereiten kann, ist
ein Test á la Turing wahrscheinlich die sinnvollste Möglichkeit die Fähigkeiten eines digitalen Systems zu bestimmen. Dazu muss es kein Sprachtest sein und auch kein Total
Turing Test, sondern vorstellbar wären bestimme Aufgaben, die das System bewältigen
muss. Hierbei könnte man Robotern und anderen Systemen unterschiedliche Herausforderungen stellen. Allerdings ist es dann immer noch schwierig dem System kognitive
Eigenschaften zuzuschreiben, sondern es hat Test XY bestanden und kann somit irgendwie klassifiziert werden. Weitere oder andere Kriterien zu finden, halte ich für schwer
durchsetzbar, da man sich nicht darüber einig ist, was überhaupt möglich ist und wie
das zu bewerten ist. Unter solchen Voraussetzungen ist es unklar wie man einheitliche
Kriterien und deren Auswertung festlegen kann.
Betrachtet man sich die philosophischen Probleme, die hinter der KI Forschung stehen
bzw. mit deren Hilfe man philosophische Probleme lösen wollte, so hat man hier in den
letzten 50 Jahren nicht besonders viel erreicht. Man ist sich vielleicht klarer, dass die
Euphorie durch die große Schritte zu Beginn der Forschung, so nicht weiter gehen konnte und auch nicht werden wird. Es zeigte ich immer wieder, dass die Komplexität und
Entwicklung einer Probleme schwer einzuschätzen war, auch wenn man zu Beginn einen
guten Start hatte. Vergleichsweise einfach waren immer wieder Programm zu implementieren, die dem Menschen schwere bis unmögliche Arbeiten oder Berechnungen abnehmen, aber bei den einfachsten Dinge, die schon ein Kind beherrscht ist es sehr mühsam
diese zu entwickeln. Das was Searle den Zielen der starken KI zuschrieb, über den Computer einen besseren Zugang und ein klares Verständnis des Geistes zu erreichen, hat sich
bis heute nicht bewahrheitet. Allerdings bezweifle ich, dass das wirklich höchste Prio-
44
Christine Plicht
rität der Forscher hatte. Natürlich versucht man auch heute noch, gerade über Roboter,
bessere Vorstellungen der möglichen Arbeitsweise und Strukturen von kognitiven Eigenschaften zu erreichen. Inwieweit man darüber Schlüsse für das Körper-Geist-Problem
ziehen kann, sehe ich als kontroversen Punkt. Sicherlich ist hier eine starke Zusammenarbeit mit den Neurowissenschaften notwendig, die zum Teil auch geschieht, aber deren
genauere Betrachtung im Rahmen dieser Arbeit nicht möglich war. Die philosophischen
und weniger technischen Einwände, haben allerdings schon Einzug in die KI-Forschung
gefunden. Gerade Dreyfus Kritik, die sich auf die Situationsabhängigkeit bezieht und
erklärt warum ein Körper notwendig ist, wird in der Robotik verwirklicht. Es ist wahrscheinlich, dass diese phänomenologische Kritik berechtigt ist und die Entwicklung eines
künstlichen Systems deswegen schwer ohne Körper und Kontext zu verwirklichen ist. Es
kann unmöglich sein dem System einen Kontext zu vermitteln, der dem des Menschen
gleicht und sich deswegen sein Verhalten, der Output, nicht mit unserem vergleichbar ist.
Allerdings ergeben sich die Probleme zumindest nicht mehr, aufgrund geringer Datenspeichermöglichkeiten. In dieser Hinsicht hat sich seit Dreyfus einiges geändert. Sowohl
die Speicherkapazität ist größer geworden, als auch die Größe der Speichermedien geringer. Allerdings hält Dreyfus es nicht nur aufgrund dieser physikalischen Einstellung
für unmöglich, dem System einen situativen Kontext zu vermitteln und dementsprechend zu agieren. Aber dann stelle ich mir die Frage: muss es das sein? Kann ich ein
System nicht als intelligent bezeichnen ohne das es unbedingt die Eigenschaften des
Menschen möglichst nahe oder besser simulieren kann. Es wird die zu starke Euphorie
der Forschung kritisiert, gleichzeitig aber die Erwartungen so hoch geschraubt, dass beides nicht miteinander vereinbar ist. Dreyfus und Searle wollen beide die Unmöglichkeit
starker Systeme aufzeigen und setzen die Anforderungen an diese so hoch, dass diese gar
nicht erfüllt oder überprüft werden können. Die Ansprüche, die wir an einen Menschen
haben, können nicht identisch auf ein künstliches System übertragen werden. Deswegen
sollte man sich auf eindeutige Kriterien einigen und die Fortschritte dann beurteilen,
wenn sie erreicht worden sind.
Natürlich gibt es weiter sehr optimistische Visionäre bezüglich den Entwicklungen auf
dem Markt. So hat Ray Kurzweil 1999 Homo S@piens veröffentlicht, in dem er für die
Jahre 2009 bis 2099 Voraussagen trifft, die sehr der Sciencs-Fiction-Welt gleichen. Manche davon treffen für das Jahr 2009 zu, andere nicht. So ist die Beschreibung von Größe
und Leistung der Computer und auch die Voraussage bezüglich Notebooks und TabletPCs zutreffend. Die Voraussage: Übersetzende Telefone (speech to speech language
”
45
Christine Plicht
translation) sind allgemein im Gebrauch und für viele Sprachenpaare erhältlich.“(Kur99,
S.449) trifft auch zwei Jahre später noch nicht zu und ich bezweifle, dass sie in nächster
Zeit verwirklicht wird. Nach Kurzweil entwickeln sich im Laufe des Jahrhunderts immer mehr digitalen automatische Assistenten und eine virtuelle Realität entsteht zu der
wirkliche. Für das Jahr 2099 schreibt er: Das menschliche Denken verschmilzt mit der
”
ursprünglich von der menschlichen Spezies erschaffenen Maschinenintelligenz.“(Kur99,
S.452).
46
Christine Plicht
6 Fazit
In der vorliegenden Arbeit habe ich die wichtigsten Argumente in der philosophischen
KI-Debatte erläutert und diskutiert. Dabei habe ich deutlich gemacht, dass es viele Anknüpfungspunkte innerhalb der KI-Forschung zur Philosophie gibt, einige davon beziehen
sich auf die Philosophie des Geistes oder Probleme in der Sprachphilosophie. Hier habe
ich die Relevanz und Berechtigung der Philosophie in dieser Debatte verdeutlich. Genauer habe ich die unterschiedlichen Argumentationsstrukturen der von mir ausgewählten
Philosophen gezeigt. Dennett und Searle versuchen eher auf einer technischen Ebene
zu argumentieren, wohingegen Dreyfus aus phänomenologische Ebene Probleme sieht.
Hauptaspekte bezogen sich darauf, wann man einem System überhaupt kognitive Fähigkeiten, wie Intentionaliät zusprechen kann und unter welchen Kriterien. Außerdem ist
der Sprung von einem syntaktischen zu einem semantischen System, nach Searle, nicht
möglich. Als letzten Punkt habe ich Dreyfus Kritik basierend auf der Lebenswelt dargestellt: die Unmöglichkeit, dass ein System situativen Kontext erfassen kann und seine
eigene Lebenswelt erhält. Es hat sich gezeigt, dass diese auf verschiedene Ebenen an das
Problem herangehen und diese nicht immer auf Verständnis in der nicht philosophischen
KI-Gemeinde getroffen haben.
Nach dieser Diskussion wird deutlich, dass es kein einheitliches Kriterium für die Bewertung der jetzigen oder auch späteren Entwicklungen gibt, sodass die Frage nach
den kognitiven Fähigkeiten nicht abschließend beantwortet werden kann. Schwierigkeiten dabei machen die unterschiedlichen Analysen, aus der 1. oder 3. Person heraus. Die
pragmatische Betrachtung ermöglicht es Fähigkeiten anzuerkennen ohne den direkten
tieferen Vergleich mit den entsprechenden menschlichen Fähigkeiten zu treffen. Turing
hat ein dritte Person Kriterium vorgegeben, das aber weder anerkannt wird, noch eine
Maschine wirklich erreicht hat.
Hier hat die Philosophie gezeigt, dass es gerade durch die philosophische Diskussion
schwierig ist, den Turing-Test anzuerkennen. Deswegen sollte weiter ein gesellschaftlichen Diskurs über Kriterien angeregt werden, um ein allgemein anerkanntes zu finden.
Die Begleitung der KI von der Philosophie gibt ein besseres Verständnis in diesen Fragen
und sensibilisiert für auftretende Probleme. Sie gibt nicht unbedingt eine Antwort, aber
verdeutlicht die Relevanz der Probleme für die weitere Entwicklung. Es hat sich gezeigt,
dass der Turing-Test nicht einfach zu bestehen ist, das haben Philosophen auch vor 30
Jahren schon begründet. Trotzdem sollte die Philosophie auch die weiteren Entwicklungen in dem Gebiet der KI und der Robotik begleiten und parallel dazu interdisziplinär
47
Christine Plicht
Diskussionen anregen. Da dieses Themengebiet so umfassend ist, muss es auch von verschiedenen wissenschaftlichen Disziplinen betrachtet werden, dabei spielt die Philosophie
keine geringe Rolle. Gerade dadurch, dass auch philosophische Themen betroffen sind
und hier Anknüpfungspunkte an aktuelle Forschung gegeben ist, ist es notwendig diese
zu betrachten um auch im eigenen Fach sich nach vorne zu entwickeln und nicht den
Bezug zu anderen Wissenschaften zu verlieren.
48
Christine Plicht
7 Literatur
[Bec08] Beckermann, Ansgar: Analytische Einführung in die Philosophie des Geistes.
3., aktualis. u. erw. Aufl. Berlin [u.a.] : de Gruyter, 2008
[Bie81] Bieri, Peter (Hrsg.): Analytische Philosophie des Geistes. Königstein/Ts. :
Hain, 1981
[Car32] Carnap, Rudolf: Überwindung der Metaphysik durch die logische Analyse der
Sprache. In: Erkenntnis 2 (1931/32)
[Den81] Dennett, Daniel C.: Intentionale Systeme. In: Bieri, Peter (Hrsg.): Analytische Philosophie des Geistes. Königstein/Ts. : Hain, 1981
[Den96] Dennett, Daniel C.: COG: Schritte in Richtung auf Bewußtsein in Robotern.
In: Metzinger, Thomas (Hrsg.): Bewußtsein. 3., erg. Aufl. Paderborn [u.a.],
1996
[Dre65] Dreyfus, Hubert: Alchemy and artificial Inelligence. (1965)
[Dre85] Dreyfus, Hubert L.: Die Grenzen künstlicher Intelligenz. Dt. Erstausg. Königstein, Ts. : Athenäum, 1985
[Har90] Harnad, Stevan: The Symbol Grounding Problem. In: Physica D 42 (1990),
S. 335–346
[Har91] Harnad, Stevan: Other bodies, Other minds: A machine incarnation of an old
philosophical problem. In: Minds and Machines 1 (1991), S. 43–54
[Hau93] Hauser, L.: Reaping the Whirlwind: Reply to Harnad’s “Other Bodies, Other
Minds“. In: Minds and Machines 3 (1993), S. 219–238
[Hei06] Heidegger, Martin: Sein und Zeit. 19. Aufl., unveränd. Nachdr. d. 15. Aufl.
Tübingen : Niemeyer, 2006
[McCa] John McCarthy:
What is artificial intelligence.
http://www-formal.
stanford.edu/jmc/whatisai/node1.html, . – [Online; Stand: 20-Aug-2011]
[Kur99] Kurzweil, Raymond: Homo s@piens. 1. Aufl. Köln : Kiepenheuer and Witsch,
1999
[McL09] McLaughlin, Brian P. (Hrsg.): The Oxford handbook of philosophy of mind.
1. publ. Oxford : Clarendon Press, 2009
49
Christine Plicht
[Mea08] Mead, George H. ; Morris, Charles W. (Hrsg.): Geist, Identität und Gesellschaft aus der Sicht des Sozialbehaviorismus. 1. Aufl., [Nachdr.]. Frankfurt am
Main : Suhrkamp, 2008
[Pre99] Prechtl, Peter (Hrsg.): Metzler-Philosophie-Lexikon. 2., erw. und aktual.
Aufl. Stuttgart [u.a.] : Metzler, 1999
[RN04] Russell, Stuart J. ; Norvig, Peter: Künstliche Intelligenz. 2. Aufl. München
[u.a.] : Pearson Studium, 2004
[Ryl87] Ryle, Gilbert: Der Begriff des Geistes. Stuttgart : Reclam, 1987
[Sea80] Searle, John: mind, brains, and programms. In: The Bahavioral and Brain
Sciences 3 (1980), S. 417–457
[Sea93] Searle, John R.: Die Wiederentdeckung des Geistes. München : Artemis und
Winkler, 1993
[Sea94] Searle, John: Geist, Gehirn,Programm. In: Zimmerli, Walter Ch. (Hrsg.):
Künstliche Intelligenz. Reclam, 1994
[Sea06] Searle, John R.: Geist. 1. Aufl. Frankfurt am Main : Suhrkamp, 2006
[Tur94] Turing, Alan M.:
Kann eine Maschine denken?
Ch. (Hrsg.): Künstliche Intelligenz. Reclam, 1994
50
In: Zimmerli, Walter
Herunterladen