Vertiefungen mit Literaturvereichnis in einer Datei

Werbung
Weitere Vertiefungen zu:
KÜNSTLICHE INTELLIGENZ
Günther Görz und Bernhard Nebel
3. November 2003
1
Kognition
Mit Kognition werden die geistigen Leistungen des Wahrnehmens, Denkens und
Vorstellens bezeichnet, in Abgrenzung von anderen mentalen Bereichen — etwa
des Fühlens, der Affekte oder des Wollens. Diese psychischen Prozesse entsprechen der ersten der drei geistigen Vermögen (Erkenntnis, Gefühl und Wille) der
traditionellen Psychologie. Aufgrund ihrer Orientierung an der naturwissenschaftlichen Methodik wird in der kognitiven Psychologie die Frage des Bewußtseins i.d.R.
nicht thematisiert.
In der zweiten Hälfte des 20. Jahrhunderts hat sich die Kognitionswissenschaft
als eine neue interdisziplinäre Disziplin etabliert, in der Philosophen, Psychologen, Sprachwissenschaftler, Neurowissenschaftler und Informatiker zusammenarbeit; eine interdisziplinäre Vorgehensweise wird als unumgänglich für eine adäquate Beschreibung und Erklärung mentaler Prozesse angesehen. In Anlehnung an
die Konzeption kognitiver Theorien in der Psychologie versteht sich die Kognitionswissenschaft als nicht behavioristisch. Kognitive Theorien betonen die Bedeutung der nicht ausschließlich auf rein physiologische dem behavioristischen
Reiz-Reaktions–Schema entsprechende Mechanismen zurückführbaren sprachlich symbolischen Vermittlung beim Erkennen und Verstehen einer Situation und
bei der Bildung der auf sie gerichteten Intentionen, d.h. Erwartungen und Zwecksetzungen.
Voraussetzung für eine fruchtbare interdisziplinäre Zusammenarbeit ist eine
gemeinsame methodische Basis und Übereinstimmung in gewissen Grundannahmen. Eine zentrale Arbeitshypothese ist die von Newell sogenannte Physical Symbol Systems Hypothesis. Sie postuliert einen Typ von formalen Verarbeitungsmodellen, die physisch als kognitive Systeme realisiert sind und die ihrerseits aus
zwei Komponenten bestehen: symbolischen Strukturen, die untereinander in Beziehung stehen, und Methoden, die auf ‘symbolischen Ausdrücken“ operieren.
”
Letztere dienen zur Generierung neuer und zur Modifikation, Reproduktion und
Löschung vorhandener Strukturen. Solche Systeme, so Newell, besitzen notwendige und hinreichende Mittel für intelligente Aktion. Hierdurch hat die Kognitionswissenschaft eine gemeinsame Basis mit der klassischen KI und deshalb sind die
beiden Disziplinen auch besonders eng und intensiv aufeinander bezogen.
Aufbauend auf der Konzeption des abstrakten Universalrechners ( Computer”
paradigma“) wird in der Kognitionswissenschaft eine eigene Repräsentationsebene postuliert (vgl. Wissensrepräsentation), auf der kognitive Prozesse operieren.
Damit ist der Rahmen abgesteckt, innerhalb dessen die methodischen Prinzipien
der Kognitionswissenschaft entwickelt wurden. Von besonderer Bedeutung sind
hier Explizitheit und empirische Fundierung. Erstere verlangt eine vollständige
Operationalisierung bei der Modellbildung, die ihrerseits eine unverzichtbare Voraussetzung für die empirische Überprüfung kognitionswissenschaftlicher Theorien
ist. Neben die lebensweltlich beobachtende“ und durch Laborbedingungen be”
stimmte experimentelle Datenerhebung tritt die durch computergestützte Simulation, welche sich gegenseitig ergänzen.
Die wichtigsten Bereiche der kognitiven Modellierung und damit Untersuchungsgegenstand der Kognitionswissenschaft sind Prozesse
• der visuellen und akustischen Wahrnehmung und des Erkennens,
• der Kodierung, Speicherung und des Erinnerns, also der Gedächtnisorgani-
2
sation
• des Lernens und des Wissens,
• des Problemlösens und des Schließens,
• des Sprachverstehens und
• der motorischen Steuerung.
Dabei kommt der Wechselwirkung dieser Prozesse untereinander und mit der Umwelt im Sinne einer Gesamtschau besondere Bedeutung zu.
Kognitive Prozesse entwickeln und ereignen sich im sozialen Kontext und stehen mit ihm in unmittelbarer Wechselwirkung. So lag es nahe, Entscheidungsprozesse in komplexen Organisationen als Schlußfolgerungsprozesse zu verstehen,
so dass die Analyse der von Personen an unterschiedlichen Positionen innerhalb
einer Organisation zugrundegelegten Prämissensysteme Prognosen über die anstehenden Entscheidungen erlaubt (Administrative Behavior von H.A. Simon, Nobelpreis für Wirtschaftswissenschaften 1978). Damit ist die Kognitionswissenschaft
auch unmittelbar relevant für den Entwurf und Einsatz entscheidungsunterstützender sowie kommunikations- und handlungsunterstützender Systeme der Informationsverarbeitung.
3
Das Leib-Seele-Problem
Das Leib-Seele-Problem ist ein Beispiel für ein klassisches philosophisches Problem, das im Zusammenhang mit dem Computermodell des Geistes in der KI und
der Kognitionswissenschaft aufgegriffen und intensiv diskutiert wurde. Es geht dabei um die Frage nach der Wechselwirkung zwischen leiblichen und seelischen
Vorgängen, weshalb man auch vom psychophysischen Problem spricht. Während
man in Antike und Mittelalter Leib und Seele als eine Einheit verstand, hatte Descartes eine Tennung in zwei Substanzen, die körperliche (res extensa) und die
seelische (res cogitans) vorgenommen. Wenn wir übrigens im Folgenden vom
Körper-Geist-Problem“ sprechen, wie es heutzutage üblich ist, müssen wir uns
”
vor Augen halten, dass damit eine Verengung erfolgt, denn weder bezeichnen Leib
und Körper dasselbe, noch Seele und Geist.
Descartes’ Dualismus wirft in verschärfter Form die Frage nach der Interaktion
des ausgedehnten Körpers mit dem nicht ausgedehnten Geist auf, die er als Kausalbeziehung postuliert, jedoch in keiner Weise befriedigend erklären konnte. Als
Schnittstelle“ sah er die Zirbeldrüse im Gehirn an: Der Geist wird nur von diesem
”
Teil des Körpers unmittelbar beeinflußt. Für ihn bestehen alle Empfindungen aus
Bewegungen im Körper, die über die Nerven in die Zirbeldrüse gelangen und dort
dem Geist ein Signal geben, das ein bestimmtes Ereignis hervorruft.
Wie auch immer man den dualistischen Ansatz weiterzudenken versucht, landet man entweder bei Widersprüchen oder bei einem unendlichen Regress — was
wir hier jedoch nicht weiter vertiefen können —, dennoch hat er unser alltagspsychologisches Reden und Erklären zutieft beeinflußt.
In unserem Zusammenhang ist interessant, inwieweit der kognitionswissenschaftliche Diskurs neues Licht auf das psychophysische Problem werfen konnte.
Der am ehesten einschlägige unter den neuen Ansätzen ist der Funktionalismus
von Hilary Putnam u.a. Für ihn sind mentale Zustände die funktionalen Zustände
eines Systems. Sie werden durch ihre kausale Rolle bestimmt, durch ihre Vernetzung mit anderen Zuständen und mit den Ein- und Ausgaben des Systems.
Beispielsweise bedeutet Schmerzen zu haben nicht, ein bestimmtes Verhalten zu
zeigen oder in einem bestimmten organischen Zustand zu sein, sondern einen
funktionalen Zustand, mit dem das Ziel verbunden ist, ihn loszuwerden. Was auch
immer diese kausale Rolle spielt, gilt als Schmerz (vgl. [1]).
Mentale Zustände können wie die Zustände einer Turing-Maschine in verschiedenen Organismen auf unterschiedliche Weise realisiert sein. Insofern ist
der Funktionalismus kompatibel mit dem Computermodell des Geistes. Andere
Autoren gehen noch weiter, indem sie mentale Zustände als solche funktionalen
Zustände definieren, denen eine bestimmte, z.B. biologische, Funktion für das System zugeschrieben werden kann. Da in diesem Zusammenhang der Körper zumeist auf das Gehirn reduziert wird (!), ergibt sich ein Verhältnis von Gehirn zu
Geist wie das von Hardware zu Software, und geistige Eigenschaften werden zu
abstrakten Informationsverarbeitungs-Eigenschaften des Gehirns. Verknüpft man
diese Position mit der These des sog. reduktiven Materialismus, nämlich dass geistige Zustände Hirnzustände und nichts anderes sind, hat man lediglich eine Variante der starken KI-Hypothese formuliert. Eine Erklärung, wie Wahrnehmungen,
Gefühle, Überzeugungen, Wünsche, Absichten unser Verhalten lenken können,
wenn zugleich wahr ist, daß dieses Verhalten lückenlos physisch verursacht ist, ist
damit nicht gewonnen.
4
Nun mag man einwenden, das Computermodell des Geistes solle gar nicht
eine solche Erklärung liefern, sondern es ginge im Hinblick auf die MenschMaschine-Interaktion um eine Analogie: Maschinen mentale Zustände zuzuschreiben hieße dann nicht, zu behaupten, sie hätten mentale Zustände. Die Maschinen
verhielten sich aber so, als ob sie sich in entsprechenden mentalen Zuständen
befänden; tatsächlich haben sie aber keine mentalen Zustände, weil sie nichts
bewußt erleben oder nicht das bewußt erleben, was ein Mensch dabei bewußt
erlebt. In diesem Sinne verhielte sich die KI als empirisches Forschungsprojekt
neutral. Sie machte keine Aussagen darüber, wie ähnlich uns ein anderes Lebewesen oder ein künstliches System in seinem Verhalten, in seinen physikalischen
und chemischen Eigenschaften sein muss, damit wir von ihm sagen, es habe mentale Zustände.
Mit einer derart abgeschwächten Position geben sich aber zumindest einige
Hirnforscher nicht zufrieden — doch ist gegenüber vorschnellen Schlüssen Vorsicht geboten. Inzwischen kann als unbestritten gelten, dass kognitive Prozesse
der Wahrnehmung und des Denkens stets mit messbaren Gehirnaktivitäten korreliert sind, was Messungen mit bildgebenden Verfahren wie z.B. der PositronenEmissions-Tomographie (PET) belegen. Die Feststellung einer Korrelation ist allerdings etwas ganz anderes als die einer Kausalbeziehung. Zur Aufstellung eines
Kausalgesetzes bedarf es einer theoretischen Begründung, die bestenfalls durch
eine beobachtete Korrelation gestützt werden kann. Und es ist keineswegs klar,
ob dies mit endlichen Mitteln erreichbar ist. So hat der Hirnforscher Gerhard Roth
in einem Artikel (Die Zeit Nr. 14 vom 29.3.1996, s.a. [2]) ausgeführt: Die Hirn”
forschung steckt, sofern sie sich auf das Geist-Gehirn-Problem einläßt, in einem
tiefen Dilemma: Sie muss in einer mentalistischen“ Sprache reden, sonst entge”
hen ihr genau die Phänomene, die es zu erklären gilt. Gleichzeitig muss sie sich
in naturwissenschaftlichen Begriffen ausdrücken, denn im Gehirn geht es nun einmal physikalisch-physiologisch zu. . . . In der Psychologie . . . glaubt man, kognitive
Prozesse ohne Ansehen des materiellen Substrats beschreiben zu können. Dies
ist jedoch ein schwerwiegender Irrtum. Jeder geistigen Aktivität entspricht genau
ein neuronaler Prozess . . . , und jeder Veränderung des Gedankens entsprechen
strukturelle und funktionelle Veränderungen im Verschaltungsmuster von Nervenzellen. Die Architektur des Gehirns bestimmt seine kognitiven Leistungen, und kognitive Leistungen — durch das limbische System bewertet — verändern die Architektur des Gehirns. Für diese Nichtabtrennbarkeit von Geist eine gemeinsame
psychoneuronale Begriffs- und Erklärungssprache zu finden ist die größte Herausforderung an beide Disziplinen. Sie würde den eigentlichen Schritt über Decartes
hinaus darstellen. . .“
5
Zur Entwicklung der Logik
Traditionell umfasst die Logik die Lehre vom Begriff (wie wird korrekt definiert?),
die Lehre vom Urteil (wie werden Aussagen gebildet?) und die Lehre vom Schluss
(was ist eine korrekte Folgerung?); die moderne formale Logik hat i.W. den dritten
Aspekt in den Fokus genommen, während, wie wir noch sehen werden, für die KI
die beiden anderen ebenso wichtig sind. Aristoteles, der Vater der Logik“, geht von
”
Schlüssen folgender Art aus: Alle Griechen sind Menschen“ und Alle Menschen
”
”
sind sterblich“, folglich Alle Griechen sind sterblich“ und nennt einen derartigen
”
Schluss einen logischen Schluss, weil es bei ihm nicht auf den Inhalt der Wörter
Grieche“, Mensch“ und sterblich“ ankommt, sondern nur auf die Form der Aussa”
”
”
gen. Wenn wir die Wörter Grieche“ durch die Aussagenvariable P, Mensch“ durch
”
”
Q und sterblich“ durch R ersetzen, erhalten wir das Schema des Schlusses:
”
Alle P sind Q und Alle Q sind R
folglich Alle P sind R
Aristoteles fragt dann allgemein nach solchen Aussageformen und nach den
Möglichkeiten, von (wahren) Aussagen auf andere (wahre) Aussagen allein aufgrund der Form zu schliessen. Insgesamt kann er für die gültigen Schlüsse vier
Formen identifizieren, die sog. Syllogismen. Uneingedenk der historisch überragenden Bedeutung der aristotelischen Syllogistik knüpft die moderne Logik sachlich aber eher an die der Stoiker an. Diese hatten die Möglichkeiten der Zusammensetzung beliebiger Aussagen und die Beziehungen zwischen solcherart zusammengesetzten Aussagen untersucht. Aus gegebenen Aussagen können mit
den Junktoren nicht“, und“, oder“ und wenn–dann“ zusammengesetzte Aussa”
”
”
”
gen gebildet werden. Die Logik dieser Junktoren (heute auch Aussagenlogik“ ge”
nannt) befasst sich mit der Frage, wann aus so gebildeten komplexen Aussagen
auf Grund der Form allein auf andere Zusammensetzungen geschlossen werden
kann. Die aristotelische Logik bzw. zunächst nur der von Boethius (um 500 n.Chr.)
überlieferte Teil führte dann zu einer selbständigen und sehr reichhaltigen Weiterentwicklung der Logik ab ca. 1150. Erst im 20. Jahrhundert hatte man erkannt,
dass sehr viele in der modernen Logik und Sprachphilosophie untersuchten Fragen bereits in der Scholastik intensiv diskutiert worden waren; hierzu gehören u.a.
Erweiterungen der Logik um modale und temporale Aussagen und logische Paradoxien.
Dies war aber mit dem Verfall der Scholastik in Vergessenheit geraten. An die
Stelle der Logik trat in der Neuzeit die Mathematik — und diese kümmerte sich
nicht um die ihr selbst zugrundeliegende Logik, bis erst im 19.Jh. ein Wechsel
einsetzte. Die neuzeitliche Mathematik ist vor allem Analysis; der Analytiker deduziert nicht nach logischen Regeln, sondern er operiert mit seinen Formeln nach
den Regeln der Analysis selbst. Das war jedenfalls die Auffassung des 17. und
18.Jahrhunderts. Dass ein Mathematiker bemerkt, dass die Logik für sein eigenes
Denken entscheidend ist, ist die Ausnahme, z.B. bei Leibniz.
Das sog. Leibnizprogramm zur Schaffung neuen Wissens hat folgende Bestandteile: In dem von einer universellen Wissenschaftssprache aufgespannten
Rahmen soll es mit Hilfe einer characteristica universalis, einer universellen Zeichenlehre, möglich werden, einfache Begriffe eineindeutig auf Zeichen abzubilden.
Dadurch sollen Denkstrukturen in einem Zeichensystem repräsentiert und Denkprozesse durch Veränderung von Zeichenreihen ausgedrückt werden. Die logica
6
inventiva oder Erfindungslogik soll ausgehend von einfachen Relationsaussagen
Schritt für Schritt alle Wahrheiten liefern. Der calculus ratiocinator ist ein Kalkül, in
dem alle Folgerungsschritte durch syntaktische Umformungen von Zeichenreihen
erfolgen. In der Wissenschaft werden diese Mittel für die ars iudicandi und die ars
inveniendi eingesetzt. Die ars iudicandi oder Beurteilungskunst erlaubt, sachliche
Meinungsverschiedenheiten durch Ableitungen im Kalkül beizulegen. Schließlich
dient die ars inveniendi dazu, neue Wahrheiten auf rechnerischem Wege zu ermitteln, eine Kunst, die mit der auf den mittelalterlichen Gelehrten Raymundus Lullus
zurückgeführten Kombinatorik verbunden ist. Mit Leibnizens Konzeption der cogi”
tatio symbolica“ wird die Rechenprozedur zu einem erkenntnistheoretischen Ideal
und führt zu einem Forschungsprogramm, das auch heute noch eine Leitlinie in
der KI und darüberhinaus ist.
Erst Mitte des 19.Jh. beschäftigten sich englische Mathematiker wie De Morgan und Boole aus Interesse an formalen Gesetzen der Algebra mit der tradierten
Syllogistik. Boole entwickelte zum dritten Mal in der Geschichte (er wusste weder
von der stoischen noch der scholastischen Logik etwas) die Logik der Junktoren —
diesmal in algebraischer Form, die uns als Boolesche Algebra“ bekannt ist ( An In”
”
vestigation of the Laws of Thought...“, London, 1854). Den entscheidenden Schritt
zur modernen Logik machte dann Gottlob Frege mit seiner Begriffsschrift, eine der
”
arithmetischen nachgebildete Formelsprache des reinen Denkens“ (1879), in der
er neben den Junktoren erstmalig die Quantoren ( für alle“, für einige“) als logi”
”
sche Partikeln zur Zusammensetzung von Aussagen in Betracht zieht. Diese neue
Quantorenlogik — oft auch etwas missverständlich als Prädikatenlogik“ bezeich”
net — enthält die Junktorenlogik und die aristotelische Syllogistik als Teilgebiete.
Sie kennt nicht nur Variablen für Aussagen, sondern auch Formeln, in denen Variablen für beliebige Individuen“ vorkommen, also parametrisierte Aussagen (Aussa”
geformen). Allerdings ist die Frage nach der logischen Äquivalenz solcher Formeln
— im Unterschied zur Junktorenlogik und der Syllogistik — nicht mehr allgemein
entscheidbar.
Der Mathematiker David Hilbert hatte 1900 in seiner berühmten Rede vor dem
Mathematikerkongress in Paris ein Forschungsprogramm der reinen Mathematik entwickelt, das auf eine vollständige Axiomatisierung und damit einen abgeschlossenen Kalkül für alle mathematischen Sätze zielte. Dieses formalistische“
”
Programm, das das Leibniz-Programm zumindest innerhalb der Mathematik realisieren wollte, stieß auf heftige Kritik der Konstruktivisten“ und Intuitionisten“ un”
”
ter den Logikern, die von aussermathematischen Grundbegriffen wie Konstruktion
oder Berechenbarkeit ausgingen. Die Formalisten hingegegen suchten nach einer
innermathematischen formalen Definition des Zahl- und Funktionsbegriffs, so beispielsweise in den berühmten Principia Mathematica“ (1910–13) von Russell und
”
Whitehead. Ein Ergebnis dieses heftig geführten Grundlagenstreits war das Scheitern des formalistischen Programms einer umfassenden Axiomatisierung der Mathematik, was Kurt Gödel in zwei bahnbrechenden Arbeiten aufzeigte. In der ersten
Arbeit ( Die Vollständigkeit der Axiome des logischen Funktionenkalküls“, 1930)
”
hatte Gödel einen wesentlichen Baustein zum Hilbert-Programm geleistet, indem
er bewies, dass die Quantorenlogik (Prädikatenlogik erster Stufe) vollständig und
widerspruchsfrei ist. Jeder logisch wahre Satz ist auch im Kalkül ableitbar, also
formal beweisbar, und jede ableitbare Formel ist auch semantisch wahr. Bedauerlicherweise sind die damit erfaßten Kalkülsprachen nicht ausdruckskräftig genug,
um etwa die Zahlentheorie zu formalisieren, was aber eine Voraussetzung zur For-
7
malisierung großer Teile der Mathematik wäre. In der zweiten Arbeit ( Über for”
mal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme
I“, 1931) zeigte Gödel, dass ein vollständiger und widerspruchsfreier Abschluss
solcher Kalküle im Hilbertschen Sinn prinzipiell nicht möglich ist. Jede derartige
Kalkülsprache lässt stets Aussagen zu, die in dem vom Kalkül modellierten Zahlenbereich inhaltlich wahr sind, aber nicht im Kalkül abgeleitet und damit in ihm
nicht formal bewiesen werden können. Wahrheit und Beweisbarkeit sind also zwei
verschiedene Begriffe, die sich zwar überschneiden, aber nicht zusammenfallen.
8
Turing-Maschine
Alan Turing entwarf einen abstrakten Computer“, der jede Operation ausführen
”
kann, die ein Mensch mit Bleistift und Papier bewerkstelligen kann: Die TuringMaschine. Sie hatte — statt eines Schreibblockes — ein unbegrenzt langes Papierband, das in Schreibfelder unterteilt war, die je ein Zeichen (einschließlich des
Leerzeichens) aufnehmen können. Die Maschine kann immer nur ein Feld des
Bandes bearbeiten, aber zum Bearbeiten der anderen Felder kann sie das Band
nach links oder nach rechts verschieben. Das gerade zur Bearbeitung anstehende Feld kann entweder mit einem Zeichen beschrieben werden, oder sein Inhalt
kann gelöscht werden, oder die Maschine geht zur Bearbeitung eines des Nachbarfelder über. Die Maschine selbst hat eine sehr einfache Struktur. Sie hat nur
ein Speicherfeld, das eine von endlich vielen, verschiedenen Zustandsnummern
speichern kann, und einem Programm, das aus einer Folge von elementaren Operationen besteht. Diese Operationen sind: Wenn im Zustand i das Zeichen x auf
”
dem betrachteten Feld steht, dann gehe zum Nachbarfeld nach links und speichere den Zustand j“ oder . . . gehe zum Nachbarfeld nach rechts . . .“ oder . . . lösche
”
”
das Zeichen x und schreibe y . . . .“. Turing hat gezeigt, dass seine Maschine ein
mathematisches Modell einer universellen Rechenmaschine ist, die bei geeignetem Programm jede auch mit Bleistift und Papier durchzuführende Berechnung
ausführen kann. Wir sprechen hier von Berechnung“ zunächst in einem sehr all”
gemeinen intuitiven Sinn, der alle Tätigkeiten einschließt, die sich als schriftliche
Arbeit, also als Handlungen mit Zeichensystemen, ausführen lassen. In der Folgezeit wurde bewiesen, dass das mathematische Modell der Turing-Maschine zu
allen bekannten Kalkülen der Berechenbarkeit äquivalent ist.
9
Der Turing-Test und das chinesische Zimmer
Turing hat mit seinem Imitationsspiel [4, 5] versucht, eine operationale Bestimmung der Intelligenz vorzulegen. In einem rein behavioristischen Versuchsaufbau
werden nur die Eingaben in eine Black Box“ und die Ausgaben aus ihr betrachtet.
”
Kann aufgrund der (für den Beobachter sinnvollen) Ausgaben nicht entschieden
werden, ob es sich um Resultate menschlicher oder maschineller Aktion handelt,
so soll der Black Box Intelligenz zugeschrieben werden, ganz gleich, ob hinter
ihr ein menschlicher Dialogpartner oder ein geeignet programmierter Computer
steckt. Dass dies nicht unbestritten bleiben würde, hat Turing bereits vorausgeahnt,
da er einige mögliche Einwände bereits selbst vorwegnahm und diskutierte. Doch
besteht bis heute keine Einigkeit über Sinn und Angemessenheit dieses Tests,
m.a.W., was denn gezeigt wäre, wenn er mit einer Maschine erfolgreich verliefe
— wie eine umfangreiche Literatur belegt. Häufig wird gesagt, dass das Turingsche Imitationsspiel ein geeignetes empirisches Verfahren sei, um die funktionale
Äquivalenz eines Simulationsprogramms mit dem Original“´, dem menschlichen
”
Dialogpartner, zu zeigen. Dabei heißen zwei Systeme funktional äquivalent, wenn
sie wenn sie im mathematischen Sinn dieselbe Funktion realisieren, d.h. dieselbe
Abbildung von Eingaben auf Ausgaben zeigen. Als Verfahren zur Beurteilung von
Simulationsmodellen ist der Turing-Test zweifelsohne geeignet. Tests können kein
Modell verifizeren, es aber auf seine Stärken und Schwächen prüfen. Ist der Test
erfolgreich, spricht dies bestenfalls für die Simulationsmethode, kann aber keinesfalls die zugrundgelegte Theorie begründen. Dies ist aber etwas ganz anderes als
eine operationale Definition maschineller Intelligenz.
Eine naheliegende Frage wäre, ob es denn nur darauf ankommt, dass plausible Ausgaben vorliegen und nicht auch, wie sie zustande kommen. An dieser
Stelle hakt u.a. der Philosoph John Searle mit seiner Geschichte vom Chinesischen Zimmer ein, das eine Variante des Turingschen Szenarios ist. Gegeben ist
ein Zimmer, in das Blätter hineingereicht werden, die Nachrichten in chinesischer
Sprache enthalten, und aus dem Zimmer werden werden wiederum Blätter mit Antworten in chinesischer Sprache herausgereicht. Sind die Antworten bezüglich der
hineingegebenen Nachrichten für einen Sprecher der chinesischen Sprache plausibel, kann man dann sagen, es liege ein System vor, das Chinesisch versteht?
Searle meint nein, denn es könnte in dem Zimmer ein Mensch sitzen, der ohne
jede Kenntnis der chinesischen Sprache einfach anhand einer Tabelle, die für jede
mögliche Eingabe eine passende Ausgabe angibt, ohne weiteres korrekte Antworten erzeugen. Diese Aufgabe kann auch von einem entsprechend programmierten
Computer wahrgenommen werden, denn es handelt sich um eine rein syntaktische Interaktion: Die Eingabezeichen müssen nur ihrer Form nach richtig erkannt
werden, um passende Ausgabezeichen zu wählen — auf ihren Sinn muss hierbei
keinerlei Bezug genommen werden. Selbst wenn es also gelänge, so Searle, ein
Programm zu schreiben, das sprachliche Interaktion perfekt simuliert, kann noch
lange nicht daraus geschlossen werden, dass damit inhaltliches Verstehen konstituiert wird. Liegt nicht mit der Tabelle, die im Zentrum des chinesischen Zimmers
steht, das in Regeln geronnene Chinesisch-Verstehen ihres Autors vor? Wohl ja,
aber die Ausführung der Regeln ist nur eine notwendige Bedingung für das Erbringen der Verstehensleistung. Nun wurde eingewandt, dass Searle stillschweigend
voraussetzt, dass ein System, das aus Teilen aufgebaut ist, deren jedes kein Chinesisch versteht, auch im Ganzen nicht Chinesisch verstehen kann. Zwar ist dieser
10
Einwand formal berechtigt, aber inhaltlich unbegründet: Die negative Behauptung,
nämlich einer Regel die Eigenschaft des Verstehens abzusprechen, ist unproblematisch — im Unterschied zur positiven Behauptung. Denn für das Zusprechen
einer solchen Eigenschaft wäre ein begründetes Verfahren anzugeben, und dasselbe gilt für Systeme von Regeln. Hinter der Behauptung der Emergenz einer
Eigenschaft für ein System von Objekten, deren Teilen diese Eigenschaft nicht zukommt, steht eine Analogie aus der Systemtheorie. Es müssten in unserem Fall
aber gute Gründe — notwendige und hinreichende Bedinungen — namhaft gemacht werden, inwiefern dies für die Eigenschaft des Verstehens gilt, und die sind
bis heute ungenannt geblieben.
Die Sache ist also nicht einfacher geworden: Sowohl Searle als auch die meisten seiner Kritiker haben sich in den Fallstricken der Sprache — in der wir über
das Gedankenexperiment sprechen — verfangen. Das Problem der verschiedenen
Sprachebenen, der rein syntaktischen im Regelsystem und der semantischen, in
der wir über das bewußte Verstehen sprechen, wird nicht gelöst. Searle hat einen
Ausweg versucht durch die empirische Behauptung, dass nur das Gehirn, das neuronale Medium, in der Lage ist, Bewußtsein als emergente Systemeigenschaft zu
erzeugen. Damit tappt er aber in dieselbe Falle: Mit einer Verschiebung des Problems in einen naturalistischen Erklärungsversuch, der seinerseits noch komplexer
ist und viele neue ungeklärte Fragen aufwirft, könnte er erst überzeugen, wenn er
seine Behauptung durch ein nachvollziehbares Verfahren stützt.
Gibt es Alternativen? Wir meinen ja: Gerade der Vorschlag einer pragmatischen
Verankerung des Verstehensproblems, also im lebensweltlichen Handeln (s. Kapitel Sprachverarbeitung), erlaubt uns eine kritische Sichtweise auf den Turing-Test
und schließt den Kreis zur These am Ende des Einleitungskapitels. Es geht nicht
darum, einer Black Box Intelligenz zu- oder abzusprechen, sondern Intelligenz konstituiert sich — wenn überhaupt — in der Interaktion.
11
Sprechakttheorie
Die Sprechakttheorie postuliert eine kommunikative Kompetenz, die die Fähigkeit
zur Verwendung von Äußerungen in Sprechhandlungen zum Gegenstand hat und
fragt nach einem fundamentalen System von Prinzipien und Regeln, über das
Sprecher und Hörer verfügen, soweit sie die Bedingungen für eine erfolgreiche Verwendung von Äußerungen in Sprechhandlungen erfüllen. So unterscheidet Austin konstative Äußerungen (Behauptungsäußerungen), die wahr oder falsch sein
können, und performative Äußerungen, welche gelingen können oder auch nicht,
wobei die Frage der Wahrheit bei ihnen keine Rolle spielt. Diese Unterscheidung
rekonstruiert er als verschiedene Aspekte ein und derselben Sprechhandlung:
• lokutionäre Akte: das Äußern von Wörtern und Sätzen;
• propositionale Akte: Bezugnahme (Referenz) auf Objekte und Beziehungen
zwischen Objekten (Prädikation);
• illokutionäre Akte: z.B. Behaupten, Fragen, Versprechen, Informieren etc. als
Intention oder Redeabsicht;
• perlokutionäre Akte: Konsequenzen des illokutionären Aktes beim Hörer, die
Wirkungen auf ihn haben, d.h. das, was er versteht und im Ergebnis tut.
In der Betrachtung des Sprechakts als Grundeinheit der Kommunikation versucht Searle, analytische Beziehungen herzustellen zwischen dem Sinn von
”
Sprechakten, dem was der Sprecher meint, dem, was der geäußerte Satz bedeutet, dem, was der Sprecher intendiert, dem, was der Zuhörer versteht, und
den Regeln, die für die sprachlichen Elemente bestimmend sind“ [3]. Er formuliert
notwendige und hinreichende Bedingungen für das Äußern bestimmter Sätze als
regelgeleitete Ausführung illokutionärer Akte und betont dabei besonders den intentionalen Charakter der Sprache. Indem man spricht, verfolgt man die Intention,
sich anderen verständlich zu machen. Solches Sprechen ist ohne vorgängig ihm
zugehörende — normative — Konventionen und Institutionen nicht möglich. Die
Sprachtheorie ist damit Teil einer allgemeinen Handlungstheorie.
Dies steht im Einklang mit Erkenntnissen der Soziolinguistik, dass sich der
Gebrauch der Sprache mit der Situation, den Beziehungen und Absichten der
Kommunikationspartner verändert. Die Redepartner sind in der Lage, die Intentionen und die spezifischen Fähigkeiten ihres Gegenüber einzuschätzen und danach
ihr kommunikatives Handeln zu differenzieren. Wenn auch unterschiedlich ausgeprägt, so besitzt doch jeder Teilnehmer an der Sprachgemeinschaft über ein Repertoire an Ausdrucksmöglichkeiten, sich an die jeweilige Situation anzupassen.
Damit wird aber auch eine Grenze für die maschinelle Sprachverarbeitung deutlich, denn sie sieht sich vor die Aufgabe gestellt, die Erfahrungen der Mitglieder
der menschlichen Sprachgemeinschaft mit formalen Mitteln zu approximieren.
12
Syntaxanalyse
Bisher ist noch offen geblieben, wie die grammatische Zerlegung sprachlicher
Äußerungen algorithmisch durchgeführt werden kann. Die Grundlagen hierfür liefert die Theorie der formalen Sprachen, in der Bildungsgesetze für Zeichenketten untersucht werden. Der Linguist Noam Chomsky hat, ausgehend von unbeschränkten Regelsystemen, durch immer stärkere Einschränkung der Form der
Regeln eine Hierarchie von Klassen formaler Sprachen definiert: als mächtigste
Turing-äquivalente (mit Turing-Maschinen berechenbare), dann kontextsensitive,
kontextfreie und reguläre Sprachen. Von besonderer Bedeutung für die Anwendung auf natürliche Sprachen ist die kontextfreie Familie, da der überwiegende Teil
der Strukturen natürlicher Sprachen mit kontextfreien Mitteln elegant und hinreichend effizient beschrieben werden kann. Dies hat einen offensichtlichen Grund:
Die einfachste uniforme Möglichkeit zur Beschreibung von Konstituentenstrukturen besteht darin, zuzulassen, dass die Muster, welche die Aufeinanderfolge von
Elementen beschreiben, selbst rekursiv sind — genau dadurch ist aber die Klasse der kontextfreien formalen Sprachen konstituiert. Die Elemente derartiger Muster sind also nicht auf Wörter oder Wortkategorien beschränkt, sondern können
selbst Namen anderer Muster, d.h. Kategoriennamen, sein. Das System der Kategorien selbst beruht ausschließlich auf der Form immer wiederkehrender Muster;
als Randbedingung für seine Festlegung wird lediglich das Ökonomieprinzip der
Minimalität und Redundanzfreiheit gefordert.
Jedes Verfahren, das zu einer Zeichenkette mindestens einen korrespondierenden Strukturbaum bestimmt, muss die Regeln in einer vorgegebenen Reihenfolge
anwenden. Die Folge dieser Schritte wird Ableitung der Zeichenkette genannt. Beginnt man die Ableitung mit dem sog. Startsymbol der Grammatik — in unserem
Fall S für Satz“ — und wendet dann die entsprechenden Regeln für die davon
”
abhängigen Kategoriensymbole an, bis man bei den terminalen“ Symbolen, den
”
Wörtern, angelangt ist, so bezeichnet man eine solche Ableitung als top-down“.
”
Beginnt man die Ableitung bei den terminalen Symbolen, also ganz unten“ im
”
Baum bei den Wörtern und wendet die Regeln von rechts nach links an, so spricht
man von einer bottom-up“-Ableitung. Orthogonal dazu unterscheidet man Tiefe”
”
zuerst- (depth first)“ und Breite-zuerst- (breadth first)“ Ableitungen, je nachdem,
”
ob die Expansion (Ableitung) in Teilbäume in die Tiefe — jeweils ein Pfad im Baum
über mehrere Niveaus — oder in die Breite — zuerst alle Knoten auf einem Niveau
— erfolgt. Durch Kombination dieser Dimensionen sind auch andere Ordnungen
der Ableitungsschritte möglich; im Strukturbaum selbst wird über die Reihenfolge
abstrahiert.
Beispiel: In der folgenden einfachen kontextfreien Grammatik bedeuten die Zeichen S: Satz, NP: Nominalphrase, VP: Verbalphrase, V: Verb, Art: Artikel, N: Nomen.
S
VP
NP
→
→
→
NP VP
V NP
Art N
Die Lexikoneinträge seien der Einfachkeit halber auch in Regelform notiert; der
senkrechte Strich steht für oder“:
”
N
→ Katze | Maus
V
→ fängt
Det → die | eine
13
Für den Satz Die Katze fängt eine Maus wird der folgende Konstituentenstrukturbaum abgeleitet:
S
b
b
bb
NP
VP
@
@
@
@
Art
N
V
NP
@
@
Art
die
Katze
fängteine
N
Maus
Mit kontextfreien Grammatiken tritt jedoch das Problem auf, dass für jede Kombination von Merkmalen linguistischer Objekte im Prinzip jeweils eigene Kategoriensymbole und mit diesen entsprechende Regeln definiert werden müßten,
was die Übersichtlichkeit und Handhabbarkeit von Grammatiken sehr schnell begrenzt. Unter dem Begriff des Merkmals werden linguistisch relevante Eigenschaften von phonologischen, morphologischen, syntaktischen oder semantischen Einheiten verstanden; in unserem Beispiel wären das z.B. für das Nomen Katze“,
”
dass es das Genus Feminin hat, und den Artikel die“, dass er (im vorliegenden
”
Fall) das Genus Feminin, den Numerus Singular, den Kasus Nominativ hat und in
der dritten Person steht. Erst dann kann unterschieden werden, dass die Katze“
”
eine zulässige NP ist, das Katze“ aber nicht. Im Falle der Übereinstimmung ( die
”
”
Katze“) kann man diese Eigenschaften an die ganze NP vererben. Wir bräuchten
dann aber statt eines NP-Symbols mehrere, in unserem Fall also ein Symbol für
NP-feminin-singular, etc., wodurch auch die Anzahl der Regeln drastisch erhöht
würde.
Eine elegante Lösung dieses Problems bieten die sog. constraint-basierten
oder Unifikations-Grammatikformalismen. In diesen treten an die Stelle atomarer
Kategoriensymbole komplexe Merkmalsstrukturen. Merkmalsstrukturen sind endliche Mengen von Merkmalen, deren jedes aus einem Merkmalsnamen und einem
Merkmalswert besteht, wobei letzterer entweder ein atomares Symbol oder selbst
wieder eine Merkmalsstruktur ist. Darauf können wir an dieser Stelle nicht weiter
eingehen, wollen aber festhalten, dass in nahezu allen modernen Sprachverarbeitungssystemen mit constraint-basierten Grammatikformalismen gearbeitet wird.
14
Entwicklung der Neuronalen Netze
McCulloch und Pitts hatten mit ihren bahnbrechenden Vorarbeiten die Grundlage
für ein wichtiges Teilgebiet der KI gelegt. Zunächst sei aber an dieser Stelle eine
grundsätzliche Bemerkung zur Idee der formalen Neuronen angebracht. Die neurophysiologische Forschung der jüngsten Vergangenheit konnte immer mehr Klarheit über die ausserordentliche Komplexität der Struktur und Funktionsweise biologischer Neuronen herausfinden, doch selbst gegen den Kenntnisstand der 1940er
Jahre nehmen McCulloch und Pitts eine extreme Vereinfachung durch die Reduktion auf Wahrheitsfunktionen vor. Auch die späteren Erweiterungen der Funktionalität formaler Neuronen sind noch weit von der biologischen Realität entfernt.
Zu solchen Erweiterungen gehören statistische Regeln zur Aktivierung in Netzwerken lokal interagierender Einheiten lernfähige Netzwerke mit kontinuierlichen
Veränderungen der Aktivierungs-Schwellwerte der Einheiten und mit anregenden
oder hemmenden Gewichten“ ihrer Verbindungen. Dies besagt selbstverständlich
”
nicht, dass unter gewissen Fragestellungen Vereinfachungen unzulässig sind. Man
muss sich nur dessen bewusst sein, was damit noch erfasst werden kann und was
nicht, und man sollte eine nüchterne Skepsis gegenüber Behauptungen der Art
bewahren, neuronale Netze realisierten Computer, die wie das Gehirn“ funktio”
nieren.
Dennoch gingen die theoretischen Ambitionen von McCulloch und Pitts sehr
weit: Wahrnehmung, Schlußfolgerung, Lernen, Introspektion, Motivation, Psychopathologie und Werturteile im Allgemeinen sollten im Prinzip mit ihrem Ansatz
erklärbar sein. Die ganze Psychologie würde künftig auf die Definition bestimmter Netzwerke hinauslaufen, die alle Funktionen des Geistes realisieren. Dies ist
eine der Wurzeln der sog. Rechnertheorie des Geistes ( computational theory of
”
mind“): Die Arbeitsweise des Computers wird auf den Geist übertragen. Diese Auffassung war nicht unumstritten; so neigte etwa der Mathematiker John von Neumann, dem u.a. grundlegende Beiträge zum klassischen Universalrechnerkonzept
zu verdanken sind, zu einer gewissen Skepsis, mit einem Computer die Aktivitäten
des menschlichen Gehirns zu duplizieren.
Auch wenn ihr Anspruch überzogenen war, hatte die Arbeit von McCulloch
und Pitts wegen der Rückführung aller Berechnungen auf elementare logische
Operationen auch auf die Entwicklung der konventionellen, auf dem Dualsystem
basierenden digitalen Universalrechner Einfluss. Zudem zeigte sie auf, dass auf
diese Weise auch symbolische — im Unterschied zu numerischen — Berechnungen, wie z.B. das junktorenlogische Schließen, modelliert werden können. Und sie
gab einen entscheidenden Impuls zu weitergehenden Forschungen an neuronalen
Netzwerken bis hinein in die Neurologie. In einem weiteren Aufsatz von 1947 wiesen sie auf den grundsätzlich parallelverarbeitenden Charakter neuronaler Netzwerke hin, was sie vom sequentiell arbeitenden Universalrechner unterscheidet.
Darüberhinaus zeigten sie, dass neuronalen Netzen eine gewisse Robustheit eigen ist, denn sie können auch dann noch akzeptable Ergebnisse liefern, wenn einige formale Neuronen fehlerhaft arbeiten oder ausfallen oder das Eingabesignal
verrauscht ist. Sie benutzten dazu ein statistisches Verfahren auf der Basis von
Differentialgleichungen in Analogie zur Thermodynamik. Mit diesen Erweiterungen
konnte die in ihrer ersten Arbeit vorausgesetzte, aber biologisch unrealistische Annahme der perfekten Daten aufgegeben werden.
Vor einigen Jahren wurden übrigens im Nachlass Alan Turings Aufzeichnungen
15
gefunden, aus denen hervorgeht, dass er schon vor McCulloch und Pitts an der
Idee der neuronalen Netzwerke arbeitete, so dass eigentlich ihm der Primat dieser
Erfindung zukommt — nur hatte er sie leider nicht veröffentlicht.
16
Künstliche und Biologische Neuronale Netze
Forschungen zur Architektur Künstlicher Neuronaler Netze haben entscheidende
Anregungen von Ergebnissen der Neurophysiologie erfahren. So hat sich gezeigt,
dass über 90% der menschlichen Großhrinrinde sehr homogen aus sechs Schichten aufgebaut sind, innerhalb derer die Neuronen säulenförmig gekoppelt sind. Im
Großen ergibt sich folgendes Bild: Neuronen in einer Säule erregen sich gegenseitig, erregen schwächer diejenigen in Nachbarsäulen und hemmen die Neuronen in weiter entfernten Säulen. Diese Eigenschaften werden in sog. KohonenNetzwerken simuliert, die in der Lage sind, Eingabemuster wie auf einer Karte
zu repräsentieren. Die Struktur der Karten bildet sich dabei nach Ähnlichkeit und
Häufigkeit der Eigabemuster selbsttätig aus; die selbstorganisierenden Kohonenkarten sind also ein Beispiel für das unüberwachte Lernen. Beim Menschen sind
solche Karten im Kortex bekannt, die u.a. die Körperoberfläche des Menschen abbilden, wobei sensorisch sensibleren Teilen wie z.B. Händen und Lippen eine entsprechend größere Fläche korrespondiert. Die Informationsverarbeitung mit diesen
Karten erfolgt in modularer Weise: Eine Karte bildet ein Modul in einer Gruppe von
Modulen, die miteinander zusammenarbeiten. Dies hat offensichtlich Effizienzvorteile.
In diesem Zusammenhang sei noch eine weitere Besonderheit des menschlichen Kortex erwähnt: Was ihn auszeichnet, ist seine Plastizität. Anhand der Unteruchung behinderter Menschen konnte bei verschiedenen Behinderungen nachgewiesen werden, dass offensichtlich erhebliche Reorganisationsprozesse im Kortex
stattfinden. So etwa im Gefolge der Amputation von Gliedmassen oder bei Blinden,
bei denen sich die Kortexfläche für den lesenden Zeigefinger mit dem Erlernen
der Blindenschrift nachweisbar vergößert. Es wird vermutet, dass aufgrund der
gleichförmigen Organsiation des Kortex dies nicht nur für sensorische Kortexareale gilt, sondern auch für höhere“, die für weitere kognitive Prozesse massgeblich
”
sind.
Künstliche Neuronale Netzwerke, in denen jedes Neuron mit allen anderen
Neuronen verbunden ist, wurden 1982 zuerst von dem Physiker John Hopfield
entworfen. Diese autoassoziativen Netzwerke werden deshalb auch als HopfieldNetzwerke bezeichnet. Sie haben in Verbindung mit der Hebbschen Lernregel die
folgenden Eigenschaften: (1) Ein Eingangssignal in Form eines räumlich verteilten
Musters von Aktivierung und Nicht-Aktivierung kann als Aktivierungsmuster aktivierter und inaktivierter Neuronen gespeichert werden. Werden einige Neuronen
angeregt, geben sie diese Anregung weiter und empfangen ihrerseits Anregungen
von anderen Neuronen. Mit der korrespondierenden Veränderung der Synapsengewichte kann sich ein solches Netzwerk in einen stabilen Zustand entwickeln,
der als assoziatives Speicherabbild interpretierbar ist. In der Sprache der dynamischen Systeme wird ein solcher Zustand auch Attraktor genannt. (2) HopfieldNetze können mehr als einen Attraktor ausbilden. Es wurde gezeigt, dass die maximale Anzahl speicherbarer Muster bei ca. 13% der Gesamtzahl der Neuronen
liegt. (3) Der Zugriff auf die gespeicherten Muster kann über die die Vorlage eines Teils des gspeicherten Musters erfolgen. Sind etwa Bilder von menschlichen
Gesichtern gespeichert, so genügt ein Teilbild oder ein verrauschtes Bild eines
Gesichts, um es anhand der gespeicherten Muster zu vervollständigen. (4) Entspricht das vorgelegte Muster nicht exakt einem der gespeicherten, sondern ist
es einem solchen nur hinsichtlich bestimmter Merkmalsausprägungen ähnlich, so
17
konvergiert der Aktivierungszustand des Netzwerks in Richtung dieses Musters.
Man spricht in diesem Zusammenhang auch von der Generalisierungsfähigkeit von
Hopfield-Netzen. Mit ihnen kann also die Ausbildung neuronaler Verbindungsstrukturen in biologischen Neuronennetzen simuliert werden. Versucht man, rückgekoppelte Netzwerke im Schema von Reiz und Rekation zu charakterisieren, so kann
man sagen, dass ihr Verhalten“, dargestellt durch den Wechsel ihrer Aktivierungs”
zustände in der Zeit, nicht nur von den Eingabemustern abhängt, sondern auch
von den unmittelbar vorangegangenen Aktivierungen — die ja auch ein Teil der
Eingabe sind. Damit können solche Netzwerke grundsätzlich zeitliche Muster, d.h.
Regelmäßigkeiten in Folgen verarbeiten. Nicht mehr einzelne Muster, sondern ihre
Abfolge ist für die Verarbeitung entscheidend. Damit ist eine neue Qualitätsstufe
erreicht: Es wurde der Übergang von der statischen, isolierten Musterklassifikation
zur Musterklassifikation im zeitlichen Kontext vollzogen.
Sofern die Gehirnanalogie“ Künstlicher Neuronaler Netze nicht nur auf ei”
ne oberflächliche Ähnlichkeit rekurriert, sondern trotz ihres hohen Abstraktionsgrads und damit einhergehender erheblicher Vereinfachungen — wenn man an die
physikalisch-chemischen Detailprozesse biologischer Neuronen denkt — als Paradigma der Netzwerkforschung gesehen wird, ergeben sich für die Zukunft enorm
spannende, aber auch höchst komplizierte Herausforderungen.
Wir hatten gesehen, dass jede Synapse zwei Arten der Verarbeitung leistet. In
einfacher Weise gesehen, verarbeitet sie Signale, indem sie diese über die Zeit
summiert. Das heißt, sie ist fähig, erst dann eine Ausgabe zu erzeugen, wenn
mehrere Impulse kurz aufeinander folgend eintreffen. Synapsen können aber auch
räumlich summieren: Eine Eingabe an einer Synapse muss noch keine Ausgabe
bewirken, sondern diese erfolgt erst dann, wenn mehrere Signale zu etwa der gleichen Zeit bei verschiedenen Synapsen desselben Neurons eintreffen. Die zweite
Art der Verarbeitung — neben der zeitlichen und räumlichen Summation — besteht
darin, dass eine Synapse ihre Verarbeitungskapazität, also Qualität, als Ergebnis
ihrer Erfahrungen“ verändern kann, wodurch sie die Verschaltung“ und damit das
”
”
Verhalten des Gehirns verändert. Darin, so glaubt man, liegt die Voraussetzung für
adaptives Lernen.
Weiterhin hat man detaillierte Kenntnisse über die Zuordnung bestimmter Regionen der Großhirnrinde zu bestimmten kognitiven Leistungen wie Sehen, Hören
und Sprechen sowie über die hauptsächlichen Charakteristika der linken und
rechten Gehirnhälfte. Seit den Untersuchungen von Broca und Wernicke im 19.
Jahrhundert weiss man, dass die menschliche Sprachfähigkeit von der Funktionstüchtigkeit bestimmter Regionen der Großhirnrinde der linken Gehirnhälfte
abhängt. Detaillierten Aufschluss gaben Versuche mit elektrischen Reizungen bestimmter Partien durch Penfield u.a. um 1959. Auch über die Aufgabenteilung“ bei
”
der kognitiven Verarbeitung hat man detailliertes Wissen aufgrund der Erkenntnis, dass das Zentralnervensystem hierarchisch organisiert ist, ableiten können,
z.B., dass ein bestimmtes Muster der kortikalen Organisation allgemein zu sein
scheint: Interpretierende Regionen der Gehirnrinde liegen in unmittelbarer Nähe
zu den Zonen, die Sinnesreize empfangen, und dieses Organisationsprinzip gilt
für alle Formen der Wahrnehmung. Jede der beiden Gehirnhälften ist hochgradig
parallel organisiert, doch ist jede in anderer Weise — was durchaus ökonomisch
erscheint — spezialisiert“: Offenbar weisen sie unterschiedliche Modalitäten des
”
Denkens auf. Der linken Hemisphäre ist primär das analytische, systematische
Denken eigen, während die rechte eher ganzheitlich“, holistisch arbeitet. So ge”
18
schieht die Sprachverarbeitung überwiegend im Zentrum der linken, die räumliche Orientierung und die Produktion und Aufnahme von Musik überwiegend in
der rechten Hemisphäre. Beide Hälften sind durch eine Brücke, das sog. corpus
callosum verbunden, das aus ca. 200 Millionen Nervenfasern besteht und über
das beide Hemisphären mit ca. vier Milliarden Impulsen pro Sekunde kommunizieren. Da die Reize körperlicher Empfindungen jeder Körperseite in die jeweils
gegenüberliegende Gehirnhälfte geleitet werden, ist diese Verbindung auch für die
menschliche Sprachverarbeitung von außerordentlicher Bedeutung, denn die rechte Hemisphäre hat nicht dasselbe Potential für Sprachverarbeitung wie die linke.
Was schon für normale Rechner gilt, muss erst recht auf die kognitive Verarbeitung zutreffen: Aus einer Untersuchung des Verlaufs der Signale in einer Schaltung
kann nicht auf Sinn und Bedeutung des ablaufenden Programms geschlossen werden. Ob es je gelingen wird, diese Lücke zu schliessen, ist sicher nicht nur eine
empirische Frage der Neurophysiologie, sondern ebenso auch eine methodische.
19
LITERATUR
Literatur
[1] Lenzen, M.: Natürliche und Künstliche Intelligenz: Einführung in die Kognitionswissenschaft, Einführungen, Campus, Frankfurt/Main, New York, 2002.
[2] Roth, G.: Das Gehirn und seine Wirklichkeit,
2. Ausg., 1995.
Suhrkamp, Frankfurt/Main,
[3] Searle, J.: Sprechakte, Suhrkamp, Frankfurt/M., 1971.
[4] Turing, A.: Computing Machinery and Intelligence, Mind, Bd. 59, 1950, S.
433–460.
[5] Turing, A.: Kann eine Maschine denken? (dt.: Computing Machinery and Intelligence), in Zimmerli, W. C.; Wolf, S. (Hrsgb.): Künstliche Intelligenz: Philosophische Probleme, Reclam, Stuttgart, 1997, S. 39–78.
Herunterladen