In: Widerspruch Nr. 29 Geist und Gehirn (1996), S. 104

Werbung
In: Widerspruch Nr. 29 Geist und Gehirn (1996), S. 104-153
Bücher zum Thema
Rezensionen
Besprechungen
Bücher zum Thema
William H. Calvin/George A. Ojemann
Einsicht ins Gehirn. Wie Denken
und Sprache entstehen
Aus dem Englischen von Hartmut
Schickert, München/Wien 1995
(Hanser), 392 S., geb., 58.- DM.
In ihrem gemeinsam verfaßten Buch
geben der Neurobiologe W.H. Calvin
und der Neurochirurg G.A. Ojemann
anhand des Leitfadens einer Gehirnoperation einen aktuellen Überblick
über den Stand der praktischen Neurochirurgie und der Erforschung der
neuronalen Grundlage von Denken
und Sprache. Ungewöhnlich ist dabei
die Art und Weise der Darstellung: In
einer locker gereihten, episodischen
Erzählfolge wechseln kurze Dialogpartien mit längeren fachlichen Ausführungen eines Erzählers, sodaß der
Leser Schritt für Schritt tiefer in den
Aufbau und die Funktion des Gehirns eingeführt wird. Der Patient, an
dem die Gehirnoperation durchgeführt wird - von den Autoren Neil
genannt - repräsentiert dabei laut
Nachwort keinen realen Patienten,
sondern ist eine künstliche Figur.
Auch in früheren Veröffentlichungen
der Autoren war der dargestellte Patient ebenfalls Neil genannt worden.
Dort wie hier vereinigt die Figur die
typischen Elemente mehrerer Fallgeschichten. Weggelassen wurden zufällige Komplikationen, hinzugefügt
hingegen typische Merkmale, so daß
der Patient Neil „alle dem klassischen
Lehrbuch-Fall
entsprechenden
Merkmale komplex-partieller epileptischer Anfälle personifizieren konnte“
(344). Durch diesen Kunstgriff einer
Zusammenziehung aller typischen
Merkmale in eine exemplarische Figur bei gleichzeitiger Verwendung eines dialogischen Erzählstils erreichen
die Autoren angesichts der hochkomplexen Materie ein hohes Maß an
Allgemeinverständlichkeit ohne auf
den wissenschaftlichen Standard eines Fachbuchs verzichten zu müssen.
Der didaktisch geschickte Aufbau des
Buchs zeigt sich auch darin, daß die
Figur des Patienten Neil einen zwar
betroffenen, aber in die fachliche Ma-
terie nicht eingearbeiteten Laien repräsentiert. Der Patient Neil steht damit stellvertretend auch für den Leser, der keine oder nur wenig fachliche Vorkenntnisse besitzt. Neil stellt
in den arrangierten Dialogen des
Buchs die 'naiven' Fragen, die dem
Leser den Einstieg in die hochkomplexe Materie erleichtern. Der ganze
Aufbau des Buches ist darauf angelegt, hochspezialisiertes Fachwissen
in alltägliche Dimensionen zurückzuführen und einem allgemein interessierten Nicht-Fachmann einen anschaulichen und unterhaltsamen Zugang
zur
praktischen
Gehirnforschung, ihren Ergebnissen
und systematischen Fragestellungen
zu ermöglichen. Die Autoren bedienen sich dabei vieler veranschaulichender Beispiele und Analogien
(meistens aus der Geschäftswelt und
der Computerbranche) und geben
trotz unsicherer Wissenslage des öfteren 'vorläufige Gesamteinschätzungen' (die als Orientierungspunkte für
interessierte Laien sehr hilfreich sind,
weil in der streng wissenschaftlichen
Fachliteratur eher selten anzutreffen).
Genauer handelt es sich bei der geschilderten Gehirnoperation um die
teilweise Entfernung des rechten
Temporallappens, eines Teils der Großhirnrinde. Durchgeführt werden soll
sie, da man in diesem Bereich den
Auslöser für die epileptischen Anfälle
des Patienten vermutet. Im Falle
Neils führte eine Gehirnquetschung
infolge eines Autounfalls zur Bildung
von vernarbtem Gehirngewebe, das
man für die Auslösung epileptischer
Anfälle verantwortlich macht. Allge-
mein werden solche Operationen nur
durchgeführt, wenn Häufigkeit und
Intensität epileptischer Anfälle zunehmen, ohne daß die zur Verfügung
stehenden Medikamente anschlagen
(was aufgrund der Übererregung der
Nervenzellen bei einem Anfall zu
bleibenden Schädigungen führt). Um
Persönlichkeitsveränderungen
und
bleibende Einbußen der Gehirnfunktion des Patienten auszuschließen, ist
es für den Neurochirurgen dabei nötig, die an die vernarbten Bereiche
des Temporallappens angrenzenden
Hirnareale exakt zu lokalisieren und
ihre oft hochspezialisierte Funktion
festzustellen. Dies geschieht nach der
Öffnung des Schädels bei vollem
Bewußtsein des Patienten. Meist
werden dem Patienten auf einem
Bildschirm verschiedene Bilder gezeigt, die er mit einem kurzen Satz
benennen soll, während der Neurochirurg gleichzeitig kleine Bereiche
des Gehirns mit einem schwachen elektrischen Strom reizt. Der elektrische Strom stört dabei die normale
neuronale Funktion. Ist der Patient
zur Bildung eines korrekten Satzes
nicht in der Lage, kann man je nach
Versuchsanordnung die gereizten Bereiche der Benennung, Artikulation
oder semantischen Verknüpfung der
visuell aufgenommenen Information
zuordnen. So gelangt man nach und
nach zu einer exakten Kartierung der
Gehirnfunktionen. Erst wenn die
Kartierung der angrenzenden Hirnareale vollständig erfolgt ist, entfernt
der Chirurg die Teile des Temporallappens, in denen er vernarbtes Gewebe festgestellt hat.
Daß sich Calvin und Ojemann gerade
der Erforschung der neuronalen
Denk- und Sprachfunktion und dabei
besonders des semantischen Aspekts
von Sprache verschrieben haben, liegt
vor allem darin begründet, daß die
Vernarbungen, wie sie aufgrund von
Gehirnquetschungen entstehen, aus
anatomischen Gründen oft in der
Nähe der Sprachzentren liegen, sodaß
diese bei einer Öffnung des Schädels
zum Zweck der Entfernung eines
epileptischen Herdes frei zugänglich
sind. In diesen Fällen bietet eine Operation die seltene Möglichkeit, direkte Untersuchungen am offenen
Hirn durchführen zu können und zudem den speziellen Zweck einer Entfernung von vernarbtem Hirngewebe
mit dem allgemeinen Zweck der Erforschung der Organisation des
Sprachkortex zu verbinden. Die verschiedenen Gehirnareale, die mit der
Spracherzeugung in Verbindung gebracht werden, können - wenn sich
der Patient zuvor schriftlich einverstanden erklärt hat - gezielt untersucht und einzelne Neuronenverbände oder Areale verschiedenen Funktionen
des
menschlichen
Sprachvermögens zugeordnet werden. Dabei schließen sich die Autoren der Theorie Noam Chomskys an,
daß es „eine biologische Grundlage
für Syntax und Grammatik geben
müsse“ (226), und zwar im Sinne einer „biologisch festgelegte Tendenz“
(230) oder 'Prädisposition' des kindlichen Gehirns zur Entwicklung von
Syntax und Sprache, wobei die genauen Regeln der Satzkonstruktion
jedoch von den Kindern „allein
durch Beobachtung“ (229) erlernt
würden.
Implizit gehen Calvin und Ojemann
in ihren Ausführungen von der Auffassung aus, daß das Denken und die
Sprache der Vermittlung des menschlichen Organismus mit seiner Umwelt
dient, und daß in den dabei erzeugten
semantischen Verknüpfungen Informationen über die Umwelt repräsentiert sind (die gespeichert werden und
selbst wiederum das Handeln des
Organismus in seiner Umwelt beeinflussen). Im Gehirn ereigne sich ein
ständiger Kampf „zwischen Stabilität
und Flexibilität“ und die Außenwelt
sei dabei „der oberste Schiedsrichter“
(315). Explizit und wiederholt dagegen sprechen die Autoren vom
„Darwinschen Prozeß“, den sie als
„Standardprozeß der Natur“ (342)
bezeichnen. Dessen sechs Hauptmerkmale „Muster, Kopien, Variationen, Wettbewerb“, „eine vielgestaltige Umwelt“ und die „vielen Wiederholungen der Variations- und
Ausleseschritte“ (334) sehen Calvin
und Ojemann nicht nur auf der Ebene der evolutionären Entstehung der
Arten oder innerhalb des Immunsystems bezüglich der Bildung „immer
besserer Antikörper“ (164) am Werk,
sondern sehen in ihnen auch die
Hauptmerkmale für Prozesse im Gehirn. Entscheidend ist für die Autoren - die in diesem Zusammenhang
vom „neuronalen Darwinismus“
(334) sprechen -, daß die Bildung von
Sätzen sich nicht einzelnen „Stellen“
zuordnen, sondern sich nur als ein parallel prozessierendes, evolutionäres Zusammenspiel verschiedener Hirnareale fas-
sen läßt. „In deinem Geist“, schreiben die Autoren, „läuft vermutlich
derselbe Darwinsche Prozeß ab,
wenn du einen neuen Satz aussprichst
oder dich entscheidest, was du heute
zum Abendessen kaufen sollst. Anders gesagt, in einem Wettstreit zwischen mehreren möglichen Kandidaten wird in einem Zeitraum von Millisekunden bis zu Minuten ein immer
besserer Satz geformt. In der Regel
sind binnen ein bis zwei Sekunden
genügend viele Generationen durchgespielt worden, so daß dir der Satz
hinreichend gut erscheint, um ihn
über die Zunge kommen zu lassen. ...
Es muß ein Prozeß sein, wenn innerhalb von ein oder zwei Sekunden etwas Sinnvolles dabei herauskommen
soll.“ (165).
Die Grundelemente jedes Sprachprozesses und damit auch der Gehirntheorie sind nach Calvin und Ojemann die räumliche Codierung von
Gegenständen der Umwelt in neuronalen Zellverbänden (den sog.
„Hebbschen Zellverbänden“), ihre
Wiedererschaffung als „vollausgebildete raumzeitliche Muster“ (341)
während des Erinnerns und die Verknüpfung dieser neuronalen Muster
zu Kategorien und Metaphern. Als
Hauptorganisationsprinzip
des
Sprachkortex bestimmen die Autoren
jedoch „nicht das Erkennen oder Erinnern von Einzelheiten“ (339), sondern die mittels eines neuronalen
Darwinismus erzeugte, sequenzierende, syntaktische und logische Verknüpfung von (erkannten und in
raumzeitlichen Mustern gespeicherten) Gegenständen.
Daß das Buch aufgrund seiner Darstellungsweise kein Fachbuch sein
will, das nur vom kleinen Kreis der
Fachleute zur Kenntnis genommen
wird, mag auch einer pragmatischen
Absicht der Autoren geschuldet sein.
Den Hintergrund dazu bildet die angespannte Finanzlage im Bereich der
Grundlagenforschung. Da die Forschung am menschlichen Gehirn aufgrund der hochtechnischen Einrichtungen eine äußerst kostspielige Angelegenheit ist und private Firmen
nur Interesse zeigen, wenn sich mittel- oder langfristig pekuniäre Gewinnchancen abzeichnen, ist sie eine
Sache des Staates. Dessen Zuwendungen aber sind knapp, und so werden zwischen den 'unproduktiven'
Sparten der Grundlagenforschung
harte Konkurrenzkämpfe um die Finanzierung ausgetragen. Mit ihrer
breitenwirksamen Aufbereitung des
fachlichen Wissens und seiner möglichen Bedeutung - vor allem für eine
Kostensenkung im Gesundheitsbereich infolge genauerer Kenntnisse
und Prophylaxemöglichkeiten bei
Gehirnerkrankungen - betreiben die
Autoren in diesem Verteilungskampf
mit ihrem Buch auch Werbung in eigener Sache. Den Autoren, die ihrem
Anspruch zufolge „eine für allgemein
interessierte Leser verständliche Geschichte erzählen wollten“ (343), ist
dies ohne Einschränkung gelungen.
Wolfgang Thorwart
Francis Crick
Was die Seele wirklich ist
München 1994 (Artemis & Winkler),
392 S., 64.- DM.
1962 hat Francis Crick (zusammen
mit James D. Watson) den MedizinNobelpreis für die Entdeckung der
DNA-Doppelhelix bekommen. Was
aber veranlaßt einen erfolgreichen
Naturwissenschaftler, auf eine philosophische bzw. religiöse Frage eine
Antwort geben zu wollen. „Was die
Seele wirklich ist“ - ein vielversprechender Titel. Doch schon auf den
ersten Seiten zeichnet sich ab, daß die
Antwort in diesem Buch nicht zu finden ist. Die Einleitung macht klar, wo
Cricks Interessensschwerpunkt liegt:
das menschliche Bewußtsein, und die
vielfältigen Weisen, mit denen die
Wissenschaft ihm zu Leibe rückt. Er
macht auch gleich klar, für welche
Richtungen er bei der Erforschung
des Bewußtseins „zur Zeit“ keine Begeisterung aufbringt: die Funktionalisten, die Behavioristen, einige Physiker und Mathematiker und natürlich
die Philosophen, denen er in seinem
Buch mehrere Seitenhiebe erteilt.
Was bleibt, ist die experimentelle Untersuchung des Bewußtseins. Diese in
Angriff zu nehmen ist sein Ziel. Dazu
ruft er auf.
Das Buch ist in drei Teile gegliedert:
Teil I enthält die Beschreibung des
status quo der psychologischen Ansätze zum Bewußtsein, Teil II beschäftigt sich mit neurobiologischen
und neuronalen Grundlagen und Teil
III fügt schließlich die Ergebnisse zu-
sammen und führt den Leser zu
Cricks Bewußtseinsmodell.
Ausgangspunkt des Buches ist Cricks
„erstaunliche Hypothese“: „Sie, Ihre
Freuden und Leiden, Ihre Erinnerungen, Ihre Ziele, Ihr Sinn für Ihre eigene Identität und Willensfreiheit bei alledem handelt es sich in Wirklichkeit nur um das Verhalten einer
riesigen Ansammlung von Nervenzellen und dazugehörigen Molekülen.“
Und schon hat er die Antwort auf
den Titel des Buches gegeben: die
Seele? Nichts als Nervenzellen; ein
antiquierter Begriff aus metaphysischen Zeiten, in denen der unwissende Mensch sich in seiner Hilflosigkeit
auf die Religion gestützt hat. Über
2500 Jahre, so Crick, hatten Philosophen und Theologen Zeit, uns eine
Antwort auf die Fragen unseres Bewußtseins zu geben, und haben dabei
kläglich versagt. Ein moderner Neurobiologe könne sich solche mystisch-metaphysischen Überlegungen
sparen und sollte sich auf die Erforschung der Zusammenhänge zwischen Neuronen und Bewußtsein
konzentrieren. Crick geht dabei davon aus, daß die Außenwelt real ist auch wenn wir niemals vollständiges
Wissen über sie erhalten können -,
daß das Leib-Seele Problem mangels
Seele nicht mehr vorhanden ist und
daß die Frage nach den „Qualia“ und
der Wirklichkeit der Außenwelt den
Philosophen zu überlassen ist, die
sich in „scharf geschliffenen Zänkereien“ darüber auseinandersetzen
können.
Wer nach dieser Erledigung der Frage, „was die Seele wirklich ist“, das
Buch nicht enttäuscht zur Seite legt,
kommt nun zu den eigentlichen Ansätzen Cricks. Ausgehend von der
oben
erwähnten
„erstaunlichen
Hypothese“ expliziert Crick die ihr
zugrunde liegenden einzelnen Ausgangspunkte und Grundannahmen.
Zuerst einmal ist das Gehirn für
Crick eine außergewöhnliche, neuronale Maschine, die sich im Laufe der
Evolution entwickelt hat. Das
menschliche Bewußtsein sei daher bei
der Geburt auch keine tabula rasa,
sondern bereits mit einer „Voreinstellung“ versehen. Im Laufe des Lebens
paßt sich diese Maschine dann immer
mehr den Notwendigkeiten von
Körper und Umwelt an - es erfolgt
sozusagen die „Feineinstellung“. Das
ganze System Gehirn verhält sich
emergent, was nach Crick nicht nur
mehr als die Summe aller Teile bedeutet, sondern auch das Verhalten
und die Interaktionsweisen seiner
Einzelteile umfaßt. Genau hier setzt
Crick nun an, wenn er behauptet, daß
sich im Prinzip alle verschiedenen
Aspekte des Bewußtseins auf einen
Mechanismus (oder wenige) zurückführen lassen. Weiterhin glaubt er,
daß der Unterschied zwischen bewußten und unbewußten Vorgängen
sich auf neuronaler Ebene wiederfinden läßt.
Interessant ist nun, daß Crick einer
Definition von Bewußtsein aus dem
Wege geht - mit der Begründung, daß
Definitionen nur irreführend sein
können. Ebenso sei die Frage nach
dem Sinn des Bewußtseins verfrüht.
Für ihn steht schlicht fest, daß wir
„es“ (das nicht Definierte) brauchen,
um in unserer Umwelt zurechtzukommen. Dabei ist für Crick die
Sprache eine kaum bedeutende Bereicherung des Bewußtseins, und
auch das Selbstbewußtsein nur ein
Sonderfall. Zudem meint er, daß es
sich nicht lohne, über die Existenz
von Bewußtsein bei anderen Lebensformen zu streiten.
Cricks wissenschaftlicher Ansatz
konzentriert sich im weiteren nur auf
das visuelle Bewußtsein. Er begründet
dies mit dem bereits vorhandenen,
umfangreichen Wissen über das Sehen, mit den Möglichkeiten, (behavioristische) Versuche mit Menschen
und „ethisch vertretbare“ Tierversuche durchzuführen. Als den bedeutendsten Grund für seine Konzentration auf das visuelle Bewußtsein
nennt Crick jedoch die Vielfältigkeit
der Verarbeitungsschritte und ebenen. In verschiedenen kortikalen
Arealen werden die visuellen Informationen rezipiert und konstruiert,
und vermitteln so dem Menschen,
ausgehend von dem zweidimensionalen Netzhautbild des Auges, „in
Echtzeit“ einen dreidimensionalen
Eindruck. Dabei arbeitet das Gehirn
scheinbar mit Symbolisierungen,
Scheinwerfereffekten und anderen
Mechanismen, um eine innere Repräsentation der Umwelt zu ermöglichen.
Crick stellt im folgenden die verschiedenen psychologischen Ansätze
der visuellen Wahrnehmung vor. Er
warnt hier vor der Verführung durch
den Homunculus-Fehlschluß, vor
dem „Mann im Kopf“, der die Aufgaben des Geistes erledige, wie vor
den Ansätzen eines Materie-GeistDualismus. Für ihn spielen vielmehr
Aufmerksamkeit und Gedächtnis als
neuronale Funktionen die entscheidende
Rolle beim Bewußtsein.
Im zweiten Teil geht Crick auf die
Funktionsweise des Neurons, des
Nervensystems und des Gehirns ein,
bevor er anhand von experimentellen
Erkenntnissen über das Gehirn Verbindungen zu den psychologischen
Ergebnissen knüpft. Obwohl Crick
den Vergleich des menschlichen Gehirns mit einem Computer für nicht
angemessen hält, sind Neuronale
Netzwerke seiner Meinung nach jedoch eine gute Möglichkeit, die
Funktionsweise von Neuronen besser
zu verstehen. Sie seien einer der möglichen Ansatzpunkte für den Zugang
zum Bewußtsein. Die grundlegenden
Fragen sind für ihn die, nach der Art,
der Qualität, des Verhaltens und des
Ortes der für Bewußtsein relevanten
Neuronen.
Zusammenfassend läßt sich Cricks
Bewußtseinsmodell folgendermaßen
darstellen: Bewußtsein ist gleichzusetzen mit neuronaler Aktivität, die
sich weitgehend im Kortex abspielt.
Es handelt sich sozusagen um das
Ergebnis „kortikaler Berechnungen“,
an denen wahrscheinlich in erster Linie Pyramidenzellen beteiligt sind.
Eine notwendige Bedingung für Bewußtsein ist die Beteiligung des Ultrakurzzeitgedächtnisses, das wahrscheinlich durch rückgekoppelte
Schleifen zwischen Kortex und Thalamus funktioniert. Daraus folgt, daß
nur die Areale des Kortex, die eine
Rückverbindung zum Thalamus ha-
ben, auch Bewußtsein haben können.
Der Thalamus ist ebenfalls wesentlich
an der Steuerung der Aufmerksamkeit beteiligt. Aufmerksamkeit hat die
Aufgabe, das herauszufiltern, was in
unsere höheren kortikalen Areale, also in unser Bewußtsein vordringt.
Crick ist sich durchaus der Schwächen und der Angreifbarkeit seines
Ansatzes bewußt. Er erhebt aber
auch nicht den Anspruch, grundlegende Wahrheiten erkannt, sondern
einen - wenn auch zum Teil „über
den Daumen gepeilten“ - Denk- und
Forschungsanstoß gegeben zu haben.
Er ist davon überzeugt, daß sich die
neuronale Sprache des Gehirns analysieren und verstehen läßt, wenn vielleicht auch niemals vollständig. Würden wir allerdings erst einmal die
grundlegenden Funktionsweisen verstanden haben, dann sei es wahrscheinlich möglich, weitere Schlüsse
zu ziehen und komplexere Vorgänge
wie Wahrnehmung, Denken oder
Verhalten zu erklären. Sollten wir
soweit kommen, könnten wir eventuell sogar Qualitäten wie Gefühle oder
Ästhetik erklären. Dann hätten die
Crickianer erreicht, was die Philosophen und Theologen in 2500 Jahren
nicht geschafft haben.
André Panné
Antonio R. Damasio
Descartes' Irrtum. Fühlen, Denken und das menschliche Gehirn
München\Leipzig 1995 (List-Verlag),
384 S., 44.- DM.
Daß Antonio R. Damasio, einer der
renommiertesten Neurologen der
Welt, sich schon im Titel seines Buches so weit in Bereiche des Geistes
vorwagt, mag für streng akademisch
orientierte Philosophen unannehmbar sein. Zu der Überzeugung, daß
Themen wie Geist, Bewußtsein und
Identität traditionell im Bereich der
Philosophie angesiedelt sind, kommt
die für Philosophen typische arrogante Meinung hinzu, Naturwissenschaftler hätten außer für Materie, in
welcher Form auch immer, keinen
Blick. Dabei vergessen sie, daß nicht
nur die philosophische Tradition des
Abendlandes mit der Vertreibung des
Körpers aus dem Reich des Geistes
und der negativen Bewertung des
Sinnlichen verantwortlich für die beharrliche Trennung zwischen Leib
und Seele ist. Auch die moderne Wissenschaft und Technik mit ihrem Anspruch auf Objektivität haben einen
großen Beitrag zur Spaltung zwischen
der rationalen Erkenntnis und den irrationalen, weil oft unerklärbaren,
Gefühlen und Empfindungen geleistet.
Wer sich darauf einläßt, das Buch
von Damasio ohne Vorurteile zu lesen und sich bei einem interessanten,
auch für interessierte Laien verständlichen Spaziergang durch die Aktivitäten unseres Gehirns führen läßt, wird
bald bemerken, welche Vorteile sich
aus diesem Perspektivwechsel auch
für die philosophische Reflexion gewinnen lassen. Entgegen der weit
verbreiteten Idee, daß Denken und
vernünftiges Handeln durch Gefühle
und Empfindung nur gestört werden,
fragt sich Damasio, ob es eine Rationalität ohne Beteiligung von Gefüh-
len überhaupt geben könne. Historischer Ausgangspunkt dieser Fragestellung ist die Rekonstruktion eines
der spektakulärsten Fälle von erworbener Hirnschädigung, der Fall von
Phineas Gage.
Der amerikanische Bahnarbeiter Phineas Gage wurde im Sommer 1848
bei einer Sprengung Opfer eines tragischen Unfalls. Mit der vollen Kraft
der Explosion drang eine zentimeterdicke und meterlange Eisenstange
durch seine linke Wange, durchbohrte die Schädelbasis, und durchquerte
den vorderen Teil des Gehirns, um
dann wieder aus dem Schädeldach
auszutreten. Die Folgen der brutalen
Verletzung waren erstaunlich. Gage
verlor zwar das linke Augenlicht,
doch seine intellektuellen Fähigkeiten
und die Sinnesvermögen blieben intakt. Unmittelbar nach dem Unfall
konnte er gehen, reden und sich
normal verhalten. Was aber einigen
Wochen danach mit Gage passierte,
konnte man sich kaum erklären. Er
hatte den schweren Unfall und die
anschließende Wundinfektion überlebt und schien geheilt. Aber Gage
war nicht mehr derselbe Mensch, der
er bis dahin gewesen war. Sein Charakter und seine Persönlichkeit hatten
sich absolut verändert mit der tragischen Konsequenz, daß er nicht
mehr in der Lage war, sich vernünftig
und sozial angemessen zu verhalten.
Warum Gage nicht mehr Gage war,
läßt sich heute mit Hilfe neuer Untersuchungsverfahren des menschlichen
Gehirns rekonstruieren. Durch die
Gehirnverletzung wurden Gages emotionale Fähigkeiten schwer beein-
trächtigt. so daß er unfähig war, sein
Denken mit Inhalten aus realen Lebenssituationen zu verbinden. Bedeutet der Fall Gage etwa, daß es einen
genau benennbaren Ort in unserem
Gehirn gibt, wo unsere Gefühle entstehen und zu Hause sind? Eine Lektüre in dieser Richtung würde sowohl
der Arbeit Damasios als auch der
Komplexität des Themas nicht gerecht.
Keine Rationalität ohne Gefühle bedeutet zunächst, daß unser Denken
und vernünftiges Handeln kontextabhängig sind. Dies mag sich banal
anhören und wird erst interessanter,
wenn man genauer überlegt, an welche Art von Kontext gedacht wird.
Kontext meint hier nicht so sehr soziale und geschichtlich-kulturelle Umstände, sondern die Tatsache, daß
Menschen mit einem Körper geboren
werden, und daß nur in diesem Körper unser Gehirn sich entwickeln
kann. Genauso wie alle normalen
Menschen ein Gesicht mit zwei Augen, einer Nase und einem Mund besitzen, das dann durch individuelle
Erlebnisse ganz persönliche Zügen
bekommt, könnte man sich die Entwicklung unseres Gehirns vorstellen.
Bei allen Menschen gleich, bei allen
Individuen verschieden. Von daher
ist Damasios Buch auch ein Buch über die „Priorität des Körpers“, der
ein ständiger „Orientierungsrahmen“
(18-19) für die Aktivität unseres Geistes ist. Nur, weil es einen Körper
gibt, gibt es auch ein Gehirn (132);
und nur, weil beide „einen unauflöslichen Organismus“ bilden (18), in
dem eine ständige Interaktion bio-
chemischer und neuronaler Natur
stattfindet, kann so etwas wie Geist
überhaupt entstehen.
In letzter Konsequenz wird damit die
Frage, ob Denken und Geist sich im
Gehirn lokalisieren läßt, belanglos.
Die Aktivität unseres Geistes, egal ob
es sich um Erinnerungsbilder oder ob
um zukunftsorientierte Vorstellungsbilder handelt, ist auf die unaufhörliche Grundreferenz unseres Körpers
angewiesen. Ohne diese Grundreferenz scheint so etwas wie Bewußtsein, ja sogar Identität, schwer beeinträchtigt. Unser Körper ist Geist und
unser Geist ist ebenso Körper. Und
unsere Gefühle? Wir könnten sie als
fleißige Berichterstatter verstehen. Sie
signalisieren jede Veränderung in unserer organischen Landschaft und
sorgen damit für die Erhaltung der
individuellen Einheit, die jeder
Mensch darstellt.
Vor nicht allzu langer Zeit fragte ein
berühmter Philosoph, ob man ohne
Körper denken könne, und antwortete: „Das Denken läßt sich nicht vom
phänomenologischen Körper absetzen“.1 Nach der Lektüre von Damasios Buch fällt es schwer, das Denken
je wieder ohne den biologischen
Körper zu verstehen.María Isabel Peña
Aguado
John C. Eccles
Wie das Selbst sein Gehirn steuert
Cf. Jean-François Lyotard, Ob man ohne Körper denken kann. In: Das Inhumane. Plaudereien über die Zeit, Wien
1989, S.48.
1
München 1994 (Piper). Aus dem
Englischen von Malte Heim, 281 S.,
geb., 42.- DM.
In der Diskussion, wie das allgemein
als 'eng' konstatierte Verhältnis von
neuronalen und mentalen Prozessen
genauer zu bestimmen sei, bezieht
der Medizin-Nobelpreisträger und
Gehirnforscher John C. Eccles mit
seinem neuesten Buch eine extreme
Position. Denn der Titel - im Original
„How the Self controls his Brain“-,
der die Enthüllung der Art und Weise
der Steuerung des Gehirns durch das
Selbst ankündigt, unterstellt, daß es
das „Selbst“ sei, das sein Gehirn steuere. Mit dieser These, die Eccles seit
den 50er Jahren in zunehmend radikaler Form reformuliert (und die ihn
in der wissenschaftlichen Gemeinschaft nach wie vor zum Außenseiter
macht), setzt er seinen lebenslangen
Kampf gegen die „religionsfeindliche
Philosophie des monistischen Materialismus“ (31) fort. Gegen den Monismus der modernen Naturwissenschaft, der als Erklärungsmodell nur
zuläßt, was sich auch wissenschaftlich
beschreiben und ableiten läßt, setzt
Eccles seine Position eines „dualistischen Interaktionismus“. Das heißt,
er führt hinsichtlich des Verhältnisses
von neuronalen und mentalen Prozessen ein zweites Erklärungsprinzip
in die Debatte ein, das den naturwissenschaftlichen Monismus nicht nur
durchbricht, sondern das gar das dominierende Prinzip sei: Nach Eccles
sind es mentale Ereignisse, die, selbst autonom und ursächlich, die neuronalen
Ereignisse steuern.
Die Mehrzahl der Theorien erklärt
die mentalen Prozesse als eine neue
Qualitätsstufe der hochkomplexen
Organisation neuronaler Hirnareale.
Ihr zufolge sind mentale Prozesse
Funktionen neuronaler Prozesse. Sie
kommen ohne neuronale Grundlage
nicht zustande, sind aber nicht auf
neuronale Einzelaktivität reduzierbar.
Mentale Prozesse werden als etwas
qualitativ Neues und offensichtlich
'anderes' als neuronale Vorgänge verstanden. Sie entstehen erst durch das
äußerst komplexe Zusammenspiel
höchst spezifizierter neuronaler Hirnareale. Dabei ist das Phänomen des
Auftauchens neuer Qualitätsstufen,
die nicht auf die Summe ihrer Einzelteile reduzierbar sind, sogenannte
„Emergenzen“, auch außerhalb neuronaler Organisation bekannt und, so
argumentieren die Vertreter des wissenschaftlichen Monismus, in der Natur etwas 'ganz Gewöhnliches'. So
führe etwa die Verbindung bestimmter Quanta chemischer Stoffe zur
Bildung neuer Stoffe mit völlig veränderten Eigenschaften. Beispielsweise reagieren zwei Gase, Wasserstoff
und Sauerstoff, zu einer Flüssigkeit,
Wasser. Das Auftauchen neuer Qualitätsstufen sei in monistische Erklärungsmodelle sehr wohl integrierbar
und hätte die Wissenschaft auch bisher nicht dazu veranlaßt, ein zweites
Erklärungsprinzip einzuführen. Ein
solches Prinzip nun gerade bei neuronalen Organisationsformen einzuführen - und nicht etwa schon beim
qualitativen Sprung der Entstehung
organischen Lebens - sei daher will-
kürlich und unwissenschaftlich. (so
z.B. der Gehirnforscher G. Roth).
Demgegenüber hatte Eccles schon in
seinem vorangehenden Buch „Die
Evolution des Gehirns - die Erschaffung des Selbst“ darauf beharrt, monistische Erklärungsansätze, wie der
Evolutionsgedanke, gälten nicht universell, sondern nur bis zur Ausbildung des Gehirns als Organ und zur
Erklärung niederer Bewußtseinsfunktionen. Beim Auftreten des „Selbst“ Eccles sagt auch: Geist, Seele - müsse
man jedoch ein völlig neues Prinzip annehmen, das den Erklärungsmonismus überwindet. Mentale Phänomene, wie der 'freie Wille' und vor allem
die Moralität, die für das „Selbst“
konstitutiv sind, können Eccles zufolge aus der Evolution prinzipiell
nicht abgeleitet werden. Eccles verwirft damit den Evolutionsgedanken
nicht vollständig, sondern beschränkt
ihn auf die Entwicklung dessen, was
dann, bei genügender Komplexität,
vom „Selbst“ in Besitz genommen
werden kann. Dies aber bedeutet, daß
das von der Evolution unabhängige
Prinzip des „Selbst“ mit dem Prinzip
der Evolution und dem wissenschaftlichen Monismus kompatibel sein muß.
Bisher aber widersprachen die Erhaltungsgesetze der Physik der Annahme, nicht-materielle Ereignisse könnten auf materielle Ereignisse, wie sie
neuronale
Prozesse
darstellen,
ursächlich einwirken. Demzufolge
sieht Eccles die Leistung seines
neuesten Buches auch gerade darin
begründet, „daß zum ersten Mal in
Detailliertheit eine Hypothese zum
Geist-Gehirn-Problem
entwickelt
wurde,
und
daß
sie
den
sie den Erhaltungsgesetzen der Physik nicht widerspricht“ (11).
Eccles' Problem bei der Durchführung seiner Hypothese besteht demnach erstens darin, den 'Mechanismus' anzugeben, der das „Wie“ einer
ursächlichen Einflußnahme mentaler
Prozesse auf neuronale Prozesse erklärt, ohne daß dabei Energie übertragen
wird; und zweitens muß im Gehirn
ein eindeutiger Ort angegeben werden, an dem diese Einflußnahme erfolgen soll. Eccles' hypothetischer
Lösungsversuch liegt in der Annahme
quantenphysikalischer Prozesse auf
der molekularen Ebene spezieller
Nervenzellen der Großhirnrinde. Er
nimmt an, „daß alle mentalen Erfahrungen einen einheitlichen Aufbau
besitzen und ihre Einheiten - die Psychonen - für jede Art von Erfahrung
typisch sind“ (209). Jedem dieser als
mentale Grundeinheit postulierten
und ursächlich wirkenden „Psychonen“ ordnet er eine Rezeptoreinheit
zu, von ihm „Dendron“ genannt.
Diese Dendronen bestünden aus
Bündeln in die erste der sechs Schichten des Neokortex aufsteigender
Dendriten von Pyramidenzellen und
stellten jeweils eine „funktionelle
Einheit“ (273) dar. Eccles nimmt nun
einen quantenmechanischen Auslösemechanismus für die Exozytose
(die Freisetzung von Transmittersubstanz) an den Synapsen der zu
„Dendronen“ gebündelten Dendriten
an. „Psychon“ und „Dendron“ verhalten sich dann analog den Wahrscheinlichkeitsfeldern der Quantenphysik. Da diese weder Materie noch
Energie aufwiesen, sei die Einhaltung
des
Materie/EnergieErhaltungsgesetzes gewährleistet, und
eine ursächliche Beeinflussung neuronaler Prozesse - die demnach immer in der Auslösung eines Aktionspotentials besteht - sowie „die vollständige Herrschaft des Selbst über
das Gehirn“ (244) anzunehmen.
Daß Eccles der Aufstellung dieser
spekulativen Hypothese einen so
großen Stellenwert beimißt, liegt an
der - von Karl R. Popper in seinem
Buch „Logik der Forschung“ entwickelten und von Eccles zustimmend
angeführten - eigentümlichen Auffassung von Wissenschaft. Wissenschaftliches Vorgehen besteht demnach im wesentlichen in einem
„Hypothetico-Deduktivismus:
Zu
Beginn steht die Entwicklung einer
Hypothese anhand einer Problemsituation, dann folgt ihre Überprüfung
anhand der Summe des relevanten
Wissens, und am Schluß wird ihre
Fähigkeit geprüft, etwas zu erklären“
(11).
Zwar ist die spekulative Hypothesenbildung eine durchaus legitime Vorgehensweise in der Wissenschaft, so
wie auch irrationale Elemente wie Intuitionen in ihr eine Rolle spielen
können. Entscheidend ist aber, daß
die Hypothesenbildungen nach Popper dem Kriterium der Falsifizierbarkeit unterliegen. Theorien, die prinzipiell nicht empirisch falsifizierbar sind,
gelten als unwissenschaftlich. Damit
stellt sich an Eccles' Hypothese hinsichtlich ihrer eigenen wissenschaftstheoretischen Voraussetzungen die
grundsätzliche Frage: Ist eine Hypothese, die sich eines autonomen, wis-
senschaftlich oder evolutionär nicht
ableitbaren Prinzips, der „Psychonen“,
bedient, überhaupt falsifizierbar?
Wissenschaftlich zugänglich und überprüfbar sind allein die Rezeptoren
der behaupteten Einflußnahme, die
„Dendronen“. Ob die Bündel der
aufsteigenden Dendriten und die
Prozesse an ihren Synapsen Rezeptoreinheiten darstellen, die die Quantenmechanik zulassen, ist in der Forschungsliteratur umstritten. Hier
können weitere Forschungen die Verifikation oder Falsifikation erbringen. Eccles' Prinzip der „Psychonen“
dagegen besitzt einen prekären Status: Es ist, weil lediglich hypothetisch
eingeführt, weder wissenschaftlich bewiesen, noch überhaupt falsifizierbar.
„Psychonen“ sind als prinzipiell „eigenständige Entität“ (27) aufgrund
eben dieser unterstellten Eigenständigkeit immun gegen alle weitere Forschungsresultate. Es läßt sich daher
vermuten, daß Eccles - sollte der von
ihm behauptete Einflußort falsifiziert
werden - seinem seit Jugendzeiten
vertretenen „natürlichen dualistischen
Glauben“ (244) treu bleiben und seine aktuelle Hypothese durch eine
entsprechend modifizierte neue
Hypothese ersetzen wird. Die wissenschaftlich problematische Konstante
all seiner Hypothesenbildung ist und
bleibt aber die wissenschaftliche Unableitbarkeit des von ihm neu eingeführten Prinzips eigenständiger „Psychonen“.
Wenn Eccles im Vorwort die Vertreter monistischer Erklärungstheorien
dazu auffordert, ihm das Gegenteil
seiner Hypothese zu beweisen, dann
begeht er zudem eine in der Wissenschaft unzulässige Umdrehung der
Beweislast: „Somit stellt dieses Buch
eine Herausforderung dar, der sich
die Materialisten stellen müssen.
Können sie behaupten, daß das
Selbst nicht das Gehirn steuert, und
können sie diese Behauptung durch
wissenschaftliche
Untersuchungen
des menschlichen Neokortex in seiner ganzen Komplexität stützen?“
(13f.). Solange der Anspruch auf Wissenschaftlichkeit noch erhoben wird,
hat die Beweislast immer noch derjenige zu tragen, der eine Behauptung
aufstellt. Eccles selbst müßte also erst
einmal einen Beweis für die Existenz
der von ihm behaupteten „Psychonen“ liefern (wozu er aufgrund der
angenommenen Autonomie nicht in
der Lage ist). Gälte dies nicht, dann
ließe sich mit wissenschaftlichem
Ernst auch behaupten, auf der Rückseite des Plutomondes „Charon“ warte ein Fährmann auf die Seelen der
Verstorbenen, um sie ins Jenseits überzusetzen. Beweist erst mal das
Gegenteil!
Wolfgang Thorwart
Gerald M. Edelman
Göttliche Luft, vernichtendes Feuer. Wie der Geist im Gehirn entsteht
München 1995 (Piper), geb., 396 S.,
48.- DM.
Edelman legt eine komplexe und differenzierte Theorie der Entwicklung
von Bewußtsein vor, die vor allem
neurobiologische und psychologischen Erkenntnisse mit der Selektionstheorie Darwins zu verbinden
sucht. Dabei geht er davon aus, daß
es eine wirkliche Welt gibt, die durch
allgemeine physikalische Gesetze beschrieben wird, daß wir uns in dieser
realen Welt aus früheren Ursprüngen
entwickelt haben, und daß sich der
mit uns entstandene Geist naturwissenschaftlich fassen läßt, indem seine
Verkörperung, unser Gehirn, als Organ der natürlichen Auslese verstanden wird (228).
Seine Theorie der Selektion neuronaler Prozesse (TSNG) umfaßt drei
Grundprinzipien: 1. Die Selektion neuronaler Gruppen, die während der embryonalen Entwicklung stattfindet und
den topobiologischen Aufbau des
Gehirns bildet, das primäre Repertoire; 2. Die Erfahrungsselektion, die
dazu führt, daß bestimmte synaptische Verbindungen aufgrund des
Verhaltens des Organismus in seiner
Umwelt selektiv verstärkt oder geschwächt werden, und die das sekundäre Repertoire bildet; und 3. die reziproke Koppelung, die die im primären
und sekundären Repertoire entstandenen Karten, die für bestimmte sensorische und motorische Aktivitäten
zuständig sind, miteinander über parallele und wechselseitige Leitungen
verbindet. Werden Neuronengruppen
aus einer bestimmten Karte gereizt,
so können gleichzeitig Neuronengruppen in anderen, mit dieser Karte
reziprok gekoppelten Karten gereizt
werden. Im Laufe der Zeit werden
die Wechselbeziehungen, die am häufigsten auftreten, immer mehr verstärkt. So entstehen Gruppen von
neuronalen Verbindungen, die aus
mehreren Karten stammen. Die
Koppelung dieser Mehrfachkarten
mit der Sensomotorik des Lebewesens führt in Verbindung mit internen Wertkriterien, die im Laufe der
Evolution entstanden sind, zur
Wahrnehmung von Objekten und
Ereignissen, zur „Kategorisierung“
von Wahrnehmung. Erneute Verschaltung mit anderen Gehirnregionen führt zu Gedächtnis, Lernen und
zur Begriffsbildung. Diese geschieht
unabhängig von Sprache, erfolgt in
einem eigens dafür entwickelten Bereich in der Großhirnrinde, im Vorderhirn, und benötigt keinerlei Außenreize. Begriffe werden gebildet,
indem das Gehirn die globalen Karten, die aufgrund der Interaktion zwischen Organismus und Umwelt bereits angelegt wurden, kategorisiert,
vergleicht und neu zusammensetzt.
„Durch seine Verbindung zu den Basalganglien, dem limbischen System
einschließlich des Hippokampus kann
das Vorderhirn auch Beziehungen
herstellen, die der Kategorisierung
von Werten und Sinneserfahrungen
selbst dienen“ (160). Damit wird das
Begriffsgedächtnis sowohl von Werten als auch von aktuellen Sinnesdaten beeinflußt.
In den drei Tätigkeiten, Wahrnehmungskategorisierung, Gedächtnis und Begriffsbildung, sowie einer weiteren Veränderung des Systems der reziproken
Koppelungen auf einer höheren Verschaltungsebene liegt für Edelman
der Schlüssel zum Verständnis von
Bewußtsein. Bewußtsein selbst unterteilt er in primäres Bewußtsein, das auf
einen kurzen zeitlichen Ausschnitt
beschränkt ist und über einfache
Empfindungen und Wahrnehmungserfahrungen verfügt, und das Bewußtsein höherer Ordnung, das
Selbstbewußtsein und Sprache umfaßt.
Führt uns Edelman in diesen ersten
Teilen seines Buches in die faszinierende Welt der Architektur und Arbeitsweise des Gehirns ein und stellt
Hypothesen für die Entwicklung
kognitiver Vorgänge auf, die letztlich
zu Bewußtsein und Selbstbewußtsein
führen sollen, so legt er im zweiten
Teil dar, welche Konsequenzen seine
Theorie des Gehirns für menschliche
Belange möglicherweise haben mag.
So glaubt er, daß die Neurowissenschaften sowohl für die wissenschaftliche Erkenntnis an sich wie auch für
philosophische Überlegungen wertvolle Anregungen bieten könne. Er
plädiert für eine genaue Erforschung
der Grundlagen des menschlichen
Geistes, die seiner Ansicht nach zu
einer Verbesserung menschlichen
Handelns führen könnte. Als ebenso
wichtig sieht er die Erforschung von
Geisteskrankheiten an, die für ihn auf
Veränderungen in den reziprok gekoppelten Bahnen und in der Kategorisierung beruhen. „Die Erforschung von Geisteskrankheiten auf
allen Ebenen ist offensichtlich ebenso wichtig für ein Verständnis der
Wirkungsweise des Gehirns wie für
das Verständnis dessen was es bedeutet, ein Einzelwesen in einer Gesellschaft zu sein“ (269).
Um die Wirkungsweise unseres Gehirns besser verstehen zu lernen,
müssen wir auch die Computertechnologie nutzen. So sei es möglich,
Maschinen zu bauen, deren neurale
Schaltungen so programmiert sind,
daß sie auf Wertigkeit reagieren (z.B.
ist Licht besser als Dunkelheit), und
die ein Verhalten entwickeln, das
„sehr an Wahrnehmungskategorisierung erinnert“ (274). Computer sind
zwar für Edelman keine besonders
guten Modelle für unser Gehirn, „aber sie sind die mächtigsten heuristischen Hilfsmittel, mit denen wir versuchen können, die Materie des Geistes zu verstehen“ (278).
In „einem kritischen Nachwort“ setzt
sich Edelman mit verschiedenen
Theorien auseinander, die den „Geist
ohne Biologie“ fassen wollen. Er
weist darauf hin, daß die physikalischen Gesetze allgemeingültig sind,
daß Lebewesen jedoch aufgrund ihrer
biologischen Beschaffenheit noch
weiteren Gesetze unterliegen. Besonders unter Beschuß nimmt er die
Auffassung, unser Gehirn funktioniere wie ein Computer, die längere Zeit
das vorherrschende Paradigma in den
Kognitionswisenschaften war. Sehr
interessant ist seine Darstellung linguistischer Theorien, die Semantik und
Syntax unserer Sprache mit dem
Körper in Beziehung setzen.
Das Buch will kein wissenschaftliches
Werk sein. Es liest sich trotz der
komplexen Materie recht locker. Übersichtliche Grafiken erleichtern da-
rüberhinaus den Zugang zu manch
verwickelten Gedankengängen. Eine
umfangreiche aktuelle Literaturliste
bietet die Möglichkeit zur Vertiefung
und Erweiterung. Insgesamt liegt mit
diesem Buch eine Darstellung über
Geist und Gehirn vor, die begreiflich
macht, warum sich so viele Forscher
dieser Thematik zuwenden.
Sibylle Weicker
Hans Rudi Fischer (Hg)
Die Wirklichkeit des Konstruktivismus. Zur Auseinandersetzung
um ein neues Paradigma
Carl Auer Verlag 1995, 406 S., 59.DM.
Erkennen wir die Welt so, wie sie
wirklich ist oder konstruieren wir die
Wirklichkeit, in der wir leben? Der
einführende Artikel vom Herausgeber und der Beitrag von E. von Glasersfeld wollen zeigen, daß diese Streitfrage sich durch die ganze abendländische Philosophiegeschichte zieht.
In dem Sammelband wird der Streit
auf der Grundlage alter und neuer
Argumente noch einmal ausgefochten. Stützen sich die einen auf die
wissenschaftliche Erforschung unseres Gehirns und unserer kognitiven
Fähigkeiten, um ihre These der
Nichterkennbarkeit einer von uns unabhängig existierenden Welt zu untermauern, so meinen die anderen,
diese Argumentation sei zirkulär, ja,
habe der Radikale Konstruktivismus
recht, so sei er widersprüchlich und
damit falsch (156). Hinter dem konstruktivistischen Paradigma verberge
sich zudem letztlich ein naiver Naturalismus, der glaubt, mit Hilfe wissenschaftlicher Forschungen allein erkenntnistheoretische Aussagen machen
zu
können,
so
die
Argumentation von H.J. Wendel (217).
Auch die Beiträge von Zitterbarth,
Groeben, Linke/Kurthen und Locker
weisen besonders auf die Inkonsistenz dieses Ansatzes hin. Hingegen
sind es vor allem Literatur- und Sozialwissenschaftler, die in etwas abgewandelter Form den Konstruktivismus durchaus als wissenschaftliches
Paradigma akzeptieren. So verteidigt
Wolfgang Frindte einen Sozialen Konstruktivismus, der die Auffassung
vertritt, wir erzeugten unsere Wirklichkeit zusammen im Diskurs. S.J.
Schmidt geht davon aus, daß soziale
Systeme über Wirklichkeitsmodelle
verfügen, die „in der gesellschaftlichen Evolution über die Konstitution
und Thematisierung für essentiell gehaltener Unterscheidungen“ (244)
entstehen.
Verschiedene Beiträge beziehen sich
explizit auf die Theorie von Humberto
Maturana. Busse, Locker und Nüse erörtern in ihren Aufsätzen besonders die
Problematik, die sich aus dem Konzept der Autopoiese und der daraus
resultierenden Geschlossenheit des
zentralen Nervensystems ergeben. O.
Breidbach nimmt auf die biologische
Forschung Bezug und zieht den
Schluß, daß es noch viel zu verfrüht
ist, um auf dem heutigen Kenntnisstand bereits Aussagen über unsere
Erkenntnisfähigkeit zu machen.
Einige Beiträge befassen sich mehr
mit den praktischen Auswirkungen
konstruktivistischer Annahmen z.B.
in der Familientherapie (Stierlin) oder
in der Lerntheorie (Simon). Von Interesse sind auch die Beiträge von Hans
Geisslinger, die beschreiben, wie sich
unsere Wirklichkeit mit Hilfe einiger
weniger Parameter verändern läßt.
Insgesamt erfährt man in diesem
Buch viel über konstruktivistische
Theorieansätze in verschiedenen
Wissenschaftsbereichen. Die Logik
der Anordnung der einzelnen Aufsätze wird jedoch nicht recht ersichtlich.
Man hätte sich einige Unterthemen
gewünscht, um die verschiedenen
Beiträge besser einordnen zu können.
Sibylle Weicker
Ernst von Glasersfeld
Radikaler Konstruktivismus. Ideen, Ergebnisse, Probleme
Übersetzt von Wolfram K. Köck,
Frankfurt/Main 1996 (Suhrkamp),
375 S., 58.- DM.
In seinem neuesten, im letzten Jahr
auf englisch erschienenen Buch zieht
Ernst v. Glasersfeld die Bilanz seines
wissenschaftlichen Lebens für den
Konstruktivismus. Er beschreibt seinen intellektuellen Werdegang, rechtfertigt sein Konzept des „Radikalen
Konstruktivismus“ im historischen
Rückgriff und stellt aus dieser Perspektive wesentliche Elemente der
Erkenntnisgewinnung und Wissenserzeugung, der Reflexion und Abstraktion, des Akteurs und der Kommunikation, dar. Das Buch endet mit
einem Streitgespräch, das v. Glasersfeld mit Vertretern des Konstruktivismus in Siegen geführt hat.
V.Glasersfeld wuchs, als Diplomatensohn in München geboren, in Prag,
Österreich, Südtirol und in der
Schweiz auf. Seine frühe Erfahrung
mit unterschiedlichen Sprachen konfrontierte ihn, wie er schreibt, schon
bald mit der epistemologischen Frage: Welche der Sprachen beschreibt,
„wie es wirklich ist“? Eine Frage, die
er bald als unsinnig zurückwies: Jede
Sprache konstruiert ihre Wirklichkeit.
Damit war der Konstruktivist
v.Glasersfeld geboren. Er schildert,
wie er den konstruktivistischen Ansatz zunächst in Italien, dann in den
USA anhand semantischer Probleme
computerisierter Übersetzungsarbeit
und lerntheoretischer Konzepte der
Psychologie und Pädagogik fruchtbar
machte, und wie das neue Paradigma
sich allmählich ausbreitete und zu einem Schlagwort wurde.
So radikal der „Radikale Konstruktivismus“ sich auch zu geben scheint, v.Glasersfeld macht deutlich, daß das
Verständnis von Wissen, das er artikuliert, keineswegs neu ist, sondern
daß seine Ursprünge bis in die Antike
zurückreichen. Wenngleich vielleicht
nicht so konsequent formuliert, so
sieht er in der pyrrhonischen Skepsis
Ansätze einer konstruktivistischen
Kritik der traditionellen Abbildtheorie, eine Skepsis, die insbesondere
vom neuzeitlichen Empirismus Berkeleys und Humes aufgenommen
und weitergeführt wurde. Vor allem
aber Vicos Satz „verum est factum“
habe schon deutlich den konstruktivistischen Charakter von Wissen ausgesprochen. Seine Position selbst
sieht er durchaus in der Nähe von
Poppers Wissenschaftstheorie. Auch
für Popper bestehe Wissenschaft im
konstruierenden Aufbau von Modellen, die die Erfahrungen organisieren.
Entscheidend aber sei, daß Popper
nicht die Idee eines „wissenschaftlichen Fortschritts“ aufgibt und die
Theorien an einer „objektiven Realität“ mißt, der sie sich gleichsam asymptotisch annäherten. Diese Idee
einer „objektiven Realität“ habe in
der Wissenschaft nichts zu suchen, da
sie ein mystisches Ding sei, das mit
den Mitteln wissenschaftlicher Vernunft nicht erkennbar sei. Sein eigenes radikal-konstruktivistisches Credo
formuliert v.Glasersfeld in den zwei
Sätzen: „(a) Wissen wird vom denkenden Subjekt nicht passiv aufgenommen, sondern aktiv aufgebaut.
(b) Die Funktion der Kognition ist
adaptiv und dient der Organisation
der Erfahrungswelt, nicht der Entdeckung der ontologischen Realität.“
(48) Diese „Organisation der Erfahrungswelt“ bestimmt er dann näher
als Mittel des organischen Überlebens
des Einzelnen sowie der, wie er es
nennt, „kognitiven Äquilibration“.
Auf diesen Gleichgewichtszustand
strebe auch die Wissenschaft hin.
Werden Perturbationen festgestellt,
etwa der ungemütliche WelleKorpuskel-Dualismus in der Physik,
strebe die Wissenschaft danach, diese
störenden Einflüsse zu überwinden,
um wieder einen Gleichgewichtszustand herzustellen. Dieses kybernetisch explizierte Wissenschaftsverständnis entspräche auch dem internen
Selbstverständnis
der
Wissenschaften weit mehr als die
nach außen demonstrierte Attitüde
einer Beschreibung der Wirklichkeit,
„wie sie ist“.
Vielleicht am deutlichsten wird
v.Glasersfelds ethisches Anliegen, das
er mit dieser Wissenstheorie verbindet, im Bereich der Pädagogik und
des Lernens. Er wendet sich ausdrücklich, gegen die Schulpraxis, die
das (nicht nur) kindliche Lernen als
Übernahme eines „fertigen Wissens“,
als Hineintragen eines objektiv Vorhandenen in das Gehirn des Kindes
versteht. Dieser Praxis setzt er das
selbstkonstruierende Lernen und den
selbständigen Aufbau des eigenen
Wissens entgegen. „Lehren statt dressieren“ (286) nennt er die Alternative.
Statt ein irgendwie vorhandenes Wissen zu vermitteln, sei es die Aufgabe
des Lehrenden, die Kunst des Lernens auszubilden, damit die Schüler
selbst Wissen aufbauen können.
Im letzten Teil des Buches, dem
Streitgespräch, wird insbesondere auf
die Kritik am radikalen Konstruktivismus eingegangen, daß er seiner
Individualkonzeption von Wissen
wegen weder über ethische, allgemeingültige Sätze noch über eine Gesellschaftstheorie verfüge, daß er also
keine Antwort auf die Fragen zu geben habe, wie man handeln soll, und
von welchen gesellschaftlichen Bedingungen der Einzelne abhängt.
v.Glasersfeld bleibt hier erfreulich
konsequent: es ist wahr: Konstruktivisten ist es unmöglich, Vorschriften
zu erlassen, wie man handeln soll.
Denn dies betreffe Werturteile, „und
die Werte kann der Konstruktivismus
nicht bestimmen. Das kann aber,
glaube ich, keine rationale Wissenstheorie“ (337). Auch hinsichtlich der
Gesellschaftstheorie
macht
v.Glasersfeld deutlich, daß es ihm im
Kern um die Abwehr des soziologischen Anspruchs auf ein Wissen von
der Gesellschaft geht. Gesellschaft
bestehe immer aus Einzelnen und gesellschaftliches Wissen ist immer im
Kopf des Einzelnen, und daher
nichts Objektives, sondern ein Konstrukt des Einzelnen unter den Bedingungen der kognitiven Äquilibration. „Wenn ich kein Modell habe,
wie die einzelnen funktionieren, dann
hängt alles Gerede über Gesellschaft
in der Luft. Das scheint mir unwiderleglich.“ (348)
Gerade v.Glasersfelds Engagement
im Pädagogischen und sein Insistieren auf dem Vorrang des Einzelnen
zeigen, daß es ihm nicht nur um eine
widerspruchsfreie und aussagekräftige
Theorie des Wissens geht. Auch
wenn sich wohl gute Gründe anführen lassen, daß de facto das Wissen
nicht nur durch die Leistung des isoliert Einzelnen zustandekommt, so
imponiert doch v.Glasersfelds Einsatz für das Recht des Einzelnen und
für die Kantische Forderung, die er
zustimmend zitiert, „selbst zu denken“.
Alexander von Pechmann
Helmut Hildebrandt/Eckart Scheerer
(Hg)
Interdisziplinäre Perspektiven der
Kognitionsforschung
Bern 1993 (Peter Lang), 258 S., 79.DM
Dieser Band in der Reihe „Europäische Hochschulschriften“ vereinigt
die Abhandlungen von Mitgliedern
einer Forschergruppe, die 1989/90 an
der Universität Bielefeld an einem
Projektjahr mit dem Thema „Mind
and Brain - Problems in Theoretical
Psychology and Philosophy of Mind“
teilgenommen haben. Die Beiträge
wurden bereits in unterschiedlichen
englischsprachigen Fachzeitschriften
veröffentlicht. Mit dieser Sammlung
soll zum einen ein Überblick über die
gegenwärtige Forschungslage in den
Kognitionswissenschaften gegeben
werden; zum anderen soll deutschen
Studenten muttersprachliches Lehrmaterial zur Verfügung gestellt werden.
Das wissenschaftliche Niveau sämtlicher Beiträge ist ausnahmslos sehr
hoch. Der Leser gewinnt einen Einblick in die Problematik der interdisziplinären Kognitionswissenschaft,
die gerade in den letzten Jahren an
Brisanz gewonnen hat.So wird vor allem der Begriff der mentalen Repräsentation diskutiert, der in der Vorstellung des menschlichen Geistes als einer symbolverarbeitenden Maschine
eine große Rolle gespielt hat, von der
modernen Gehirnforschung jedoch
zunehmend in Frage gestellt wird. Es
werden unterschiedliche Ansätze vor
allem konnektionistischer Modelle
vorgestellt, wobei sich zeigt, daß das
Konzept des ökologischen Realismus
von Gibson für die menschliche
Wahrnehmung wieder an Bedeutung
zu gewinnen scheint.
Alles in allem bietet das Buch für den
wissenschaftlich interessierten Leser
eine gute Grundlage, um sich in die
Kognitionswissenschaften einzuarbeiten.
Sibylle Weicker
Nicholas Humphrey
Die Naturgeschichte des Ich
Hamburg 1995 (Hoffmann und
Campe). Aus dem Englischen von
U.Enderwitz, 304 S., geb., 44.- DM.
Über drei entscheidende Stufen entwickelt sich die Naturgeschichte des
Ich oder die Evolution des menschlichen Bewußtseins. Erstens die Ausbildung eines Körpers und, damit
verbunden, einer Grenze zwischen
einer Innen- und einer Außenwelt;
nichtkörperliche Wesen können kein
Bewußtsein entwickeln. Zweitens die
Ausbildung eines Interesses an sich
selbst und der eigenen Selbsterhaltung, wodurch die aus der Außenwelt
aufgenommen Reize bewertet werden, in solche, die für das eigene Bestehen förderlich sind und solche, die
es behindern oder bedrohen. Drittens
die Entwicklung der Empfindung bis
zu dem Stadium, in dem sie nicht
mehr auf den Berührungspunkt der
Körperoberfläche begrenzt, sondern
in Rückkopplungsschleifen mit dem
Gehirn verbunden ist. Damit insbesondere wird die Aussage legitimiert,
daß das Bewußtsein nicht so sehr das
Resultat einer langen Entwicklung,
sondern plötzlich und sprunghaft entstanden sei, „in dem Augenblick, als
die Aktivität in der Rückkopplungsschleife sich als Nachhallaktivität etablierte“ (269).
Der Autor dieser Theorie ist Biologe
an der Universität Cambridge und hat
sich durch seine Verhaltensexperimente mit Affen einen Namen gemacht. In seinen Denk- und Argumentationsstrukturen wurzelt er im
schottischen bzw. englischen Empirismus oder Sensualismus (Thomas
Reid, John Locke). Deren Ansichten
vom
menschlichen
Bewußtsein
möchte Humphrey mit Hilfe der aktuellen wissenschaftlichen Ergebnisse
konkretisieren. Bezeichnend dafür ist
die Fundierung des Ich oder des Bewußtseins in der Empfindung.
Mit der Ausbildung von Körpern und
der Scheidung von Innen- und Außenwelt einher geht die Scheidung
von Empfindung und Wahrnehmung.
„Empfindung“ bezeichnet die Beziehung der Außenwelt (des Objekts)
auf die Innenwelt (das Subjekt), sie
beantwortet die Frage „was geht mit
mir vor?“ angesichts der Reize, die
auf mich einwirken. „Wahrnehmung“
oder Erkenntnis dagegen beruht auf
der Anerkennung der Außenwelt als
einer von der Empfindung unabhängigen und selbständigen Realität. Sie
beantwortet die Frage: „was geht
draußen vor?“. Das Eigentümliche
von Humphreys Erklärung des Bewußtsein besteht nun einerseits darin,
daß sie Empfindung und Wahrnehmung als zwei parallele, völlig eigenständige und voneinander unabhängige Kanäle zur Wirklichkeit oder Wege der
Datenverarbeitung darstellt (55ff.).
Empfindung ist nicht („seriell“) die
subjektive Vorstufe der objektiven
Wahrnehmung, sondern ein eigener
Weg der Evolution. Andererseits vertritt Humphrey die Auffassung, daß
das (Selbst-) Bewußtsein, das Wissen
des Ich von sich selbst ausschließlich
auf dem Weg der Empfindung entsteht. Bewußtsein beruht also nicht
auf Wahrnehmung, Denken, Selbsterkenntnis etc., sondern „einzig und
allein“ auf dem „Haben von Empfindungen“ (249). Ich empfinde, also bin ich.
Das ist die sensualistische Gegenthese zu Descartes' Rationalismus. „Ich
denke, also bin ich“, so wird gespottet, könne nur als die überhebliche
Feststellung eines Intellektuellen hingehen, der Zahnschmerzen unterschätzt.
Läßt man sich auf Humphreys Prämisse einer „Naturgeschichte“ des Ich
ein, dann ist die Konsequenz zu bewundern, mit der dieser Ansatz bis
zuletzt durchgeführt wird. Von Wundern, göttlichen Blitzen etc. ist nicht
die Rede, im Gegenteil: das Wunder
des Bewußtseins soll wissenschaftlich
aufgeklärt werden und es bleibt kein
Zweifel, daß dies auch möglich sei.
Andererseits aber stellt sich die Frage,
ob die wissenschaftliche Aufklärung
insbesondere, was die dritte Stufe der
Bewußtseinsbildung, die Rückkopplung der sensorischen Reaktion über
das Gehirn angeht, weit genug vorangetrieben ist. Erklärtermaßen klammert Humphrey die Fragen der
künstlichen Intelligenz ebenso aus,
wie die Diskussion der gegenwärtigen
Gehirn- und Kognitionsforschung;
Vorbehalte werden vor allem gegen
Dennett geäußert. Sein eigener Hinweis, das Buch hätte „in vieler Hinsicht auch vor hundert Jahren geschrieben sein können“ (15), erweckt
menschliche Sympathie, allerdings
auch wissenschaftlichen Verdacht.
Das gleiche gilt für die ganze Form
der Darstellung, die überall die Individualität der Autors durchscheinen
läßt, seine persönlichen Lebensumstände, Kindheitserinnerungen etc.
ebenso, wie seine Emotionalität. Die
Rekapitulation der Hauptthesen z.B.
werden unter der bezeichnenden Kapitelüberschrift „Hurra!“ dargeboten.
Läßt man sich dagegen nicht auf die
Prämisse der „Naturgeschichte“ des
Ich ein, so wäre prinzipiell zu fragen,
ob die Natur zur Erklärung des Ich
überhaupt hinreicht und nicht durch
die Gesellschaft ergänzt werden muß
bzw. wo die biologische in eine soziale Evolution einmündet oder von ihr
überlagert wird. Bewußtsein ist bewußtes Sein, das Sein des Menschen erschöpft sich aber nicht in der Aufnahme von Empfindungen. Es besteht vor allem auch darin, daß der
Mensch tätig ist, Bedürfnisse befriedigt, Ziele verfolgt etc. und zwar in
Gemeinschaft mit anderen Menschen.
Bewußtsein umfaßt die Reflexion der
ganzen Lebenspraxis, nicht nur der
Empfindungen. Solche Überlegungen
bleiben der Reduktion auf die Naturgeschichte des Ich fremd, sie werden
von Humphrey nicht einmal angedeutet.
Erhellend sind die Ausführungen über das Wesen der sinnlichen Empfindung, ihre Subjektivität und Kör-
perlichkeit, vor allem über die qualitative Verschiedenheit und die
Irreduzierbarkeit der fünf Sinne
(167ff.). Auch dort besticht Humphreys Darstellung, wo er die Entwicklung der Sinne skizziert, etwa die Entstehung des Auges aus den über die
gesamte Körperoberfläche verteilten
Photorezeptoren der niederen Tieren.
Richtig ist zweifellos, daß die Bildung
der fünf Sinne eine Angelegenheit der
ganzen Weltgeschichte ist, nur: die
Weltgeschichte läßt sich nicht einfach
auf die Naturgeschichte reduzieren.
Konrad Lotter
Werner Künzel/Peter Bexte
Maschinendenken - Denkmaschinen. An den Schaltstellen zweier
Kulturen
Frankfurt/Main 1996 (Insel-Verlag),
262 S., brosch., 16,80 DM.
Werner Künzel und Peter Bexte haben mit ihrem Buch „Allwissen und
Absturz. Der Ursprung des Computers“ eine, wie sie es selbst nennen,
„Archäologie
des
ComputerZeitalters“ projektiert. Diese Archäologie wird mit dem vorliegenden
Band „Maschinendenken / Denkmaschinen“ fortgesetzt und um weiteres,
beachtliches Material ergänzt. Es ist
die besondere Kombination von gemeinhin Disparaten, die hier in einer
Walter Benjamin verwandten Form
zusammengefügt wird und das Lesen
zu einer spannenden und im guten
Sinne unterhaltenden Abenteuerreise
des abseitigen Denkens macht. Wie
Benjamin Grandville und Hegel mit-
einander konfrontierte, um etwas über die Funktionsmechanik moderner
Kultur und Gesellschaft zu erfahren,
so verfolgen Künzel und Bexte die
Seitenlinien der Philosophie- und
Technikgeschichte - und bringen beide fruchtbar zusammen. Programmatisch heißt das: „Genealogie der
Computergeschichte aus dem Geiste
der Philosophie“.
Das entscheidende Problem liegt dabei nicht darin, wieviel menschlicher
Geist in Maschinen oder Maschinenkonzepten materialisiert ist. Die Kardinalfrage lautet vielmehr: „wo ist das
philosophische Denken selbst ein
maschinelles Denken, ein Denken der
Maschine im genitivus subjektivus“.
Oder anders formuliert: „wo und wie
ist das Denken als Agent der Maschine aufgetreten, die wir als universelle
symbolische
Maschine
begreifen“(78).
Archäologie und Genealogie verweisen dabei nicht nur methodisch auf
Nähen zu Foucault und Nietzsche;
die Autoren verfolgen sozusagen die
Spur des Modernsten der Moderne,
den Herkunftsweg der Computertechnologie. Und sie legen eine Entwicklung frei, deren Anfang nicht
unbedingt mit den großen Zielen der
Neuzeit zusammenfällt, sondern mit
den abseitigen Ideen, mit dem Barock, mit Leibniz' „ars combinatoria“
und der langen Geschichte von Maschinenerfindern, deren Konstruktionen im Zeitalter der Vernunft zu verrückt erschienen, um ernst genommen zu werden. Erst im Rückspiegel
der Philosophiegeschichte kommen
die verschrobenen Erfinder zu ihrem
Recht. Es gibt ein neuronales, nicht
der Linearität von Geschichte folgendes Netz: Hegels Wissenschaft
der Logik und Charles Babbages
„Difference Engine“ bzw. „Analytical
Engine“; Jean Paul als Datenverarbeiter; Marquis de Sade ließe sich in die
Programmiersprache COBOL übersetzen etc. Vor allem aber gibt es die
große Linie zwischen Leibniz und
dem Computererfinder Konrad Zuse.
Diese Erzählperspektive der Computergeschichte lebt vom Charakter der
Anekdote. In einer kleinen Erzählungen lesen wir z.B., warum das Befreien des Rechners von Viren „debugging“ genannt wird: weil nämlich in
den ersten Großrechnern einmal
Mottenkäfer in den Relais für Störungen gesorgt haben. Oder mit welchem Feinsinn Konrad Zuse vom
„Rechnenden Raum“ spricht, wo erst
Jahre später die Rede vom Cyberspace gängig wird.
Künzel und Bexte arbeiten gewissermaßen mit anderen Speicherkapazitäten; sie erzählen nicht die Geschichte
des Computers, die selbst nur ein Teil
der Geschichte der Menschheit ist,
sondern subsumieren die Menschheitsgeschichte der Maschinengeschichte. Dabei verfallen sie genau
dem, was sie aufdecken wollen. Die
Maschinen gewinnen keine reale
Macht über den Menschen, sondern
beherrschen seine Vorstellungen.
Wer aber in jedem Philosophen nur
einen Datenverarbeiter und Softwareentwickler sieht, betreibt selbst
nur noch Datenverarbeitung und
Softwareentwicklung. Der phänomenologische Schlachtruf „Zu den Ma-
schinen selbst“ wird zur Phrase, die
nur bestätigt, was man insgeheim unterstellte: daß die Welt so oder so nur
eine Maschine, machina mundi, ist.
Die Maschine und der Computer verlieren den Status eines Modells, Sein
und Schein verschwimmen, und der
Schaltkreis wird zum sozialen Feld.
Leibniz, der Philosoph und Maschinenbastler, der schon eine Sprache
aus Nullen und Einsen für denkmöglich hielt, ohne freilich ihre computerdigitale Realmöglichkeit zu erkennen, wird in Künzels und Bextes
Darstellung zum reinen Maschinenapologeten. Übergangen wird gerade
der wertvollste Impuls, den Leibniz
gegen die mechanistische Verengung
der Welt gegeben hat: „Und denkt
man sich aus, daß es eine Maschine
gäbe, deren Bauart es bewirke, zu
denken, zu fühlen und Perzeptionen
zu haben, so wird man sie sich unter
Beibehaltung der gleichen Maßstabverhältnisse derart vergrößert vorstellen können, daß man in sie wie in eine Mühle einzutreten vermöchte.
Dies gesetzt, wird man in ihr, sobald
man sie besucht, nur Stücke finden,
die einander stoßen, und niemals etwas, das eine Perzeption erklären
möchte. So muß man die Perzeption
in der einfachen Substanz und nicht
in dem Zusammengesetzten oder in
der Maschine suchen.“ Künzel und
Bexte kontern lax: „Etwas mehr als
zwei Jahrhunderte später sieht die Sache anders aus. Auf der Tagesordnung der Naturwissenschaften stehen
Themen, deren Brisanz diese Leibnizsche Polemik in den Schatten stellen.“ (210f.) Kurzum: Leibniz irrt,
menschliche „Denk- und Empfindungsvorgänge“ können sehr wohl
mechanisch erklärt werden, spätestens seit Zuses Z 1, dem, wie Zuse
ihn nannte, „Intelligenz-Verstärker“.
Abgesehen davon, daß Künzel und
Bexte den Begriff der Perzeption mit
der Übersetzung „Denk- und Empfindungsvorgänge“ unterbieten, verhüllen sie auch den ganzen Kontext
der Leibnizschen Überlegung, die ja
schließlich gegen Descartes' Weltmodell von res extensa und res cogitans gerichtet war. Das Hauptargument von
Leibniz ist nicht die Allegorie der
Maschine, sondern der Verweis auf
die „einfache Substanz“. Welche Brisanz es hat, diese Kritik an Descartes'
Philosophie zu unterschlagen, kann
hier nur angedeutet werden. Künzel
und Bexte sind nämlich selbst nicht
mehr als digitale Cartesianer: die
Trennung der Welt in res extensa und
res cogitans ist ihnen heilig, sonst
ginge nämlich ihre Rechnung nicht
auf, die alles in die Kategorien von
Hard- oder Software einteilt. Hardware = res extensa, Software = res cogitans.
Das rührt vermutlich vom Begriff der
Maschine selbst her, die Christian
Wolff als „ein zusammengesetztes
Werk“ definiert, „dessen Bewegungen in der Art der Zusammensetzung
gegründet ist“. Heinz von Foerster
dagegen definiert Maschine als „eine
Anordnung von Regeln und Gesetzen, durch die gewisse Tatbestände in
andere transformiert werden“. Beiden
Definitionen, die Künzel und Bexte
als Grenzrahmen benutzen, machen
schließlich alles zur Maschine und zur
Technik. Die Untersuchung wird somit zur self-fulfilling prophecy. Zwar
klingen die Begriffe gewaltig, letztlich
aber sind sie unpräzise. Zwischen
beiden Definitionen erstreckt sich ein
unendlicher Raum, ein wahrer Cyberspace, in dem eben alles zur Maschine
wird, ja längst ist.
Künzel und Bexte schrecken vor der
logischen Konsequenz ihres erklärten
Weltzustands Technik nicht zurück:
„Gesucht sind also jene Diskurstypen
der Philosophiegeschichte, in denen
die Autoren im Medium des Textes
agierten wie Maschinenbauer, gesucht
werden damit Texte, deren immanente Funktionsweise einer maschinellen
Produktion nahe kommt“ (78). Und
sie finden diese Diskurstypen oder
Texte bei Ernst Jünger, Oswald
Spengler, Carl Schmitt und selbstverständlich Martin Heidegger (Natur
wird „als ein System von Informationen bestellbar“). Die Autoren erläutern: Die Vorwürfe gegen Heidegger,
„mit ausgefallenen Wörterbildungen
zu blenden oder durch die Umbesetzung von Wortbedeutungen etwaige
Differenzierungen
herbeizureden,
treffen einfach nicht den Kern der
Sache. Ausdrücke wie 'In-der-Weltsein' oder 'Ge-stell' sind technische
Erfindungen - Notationen, wie sie jeder Programmierer nachvollziehen
kann. Heideggers Kunstsprache ist
im Wesen eine Sprache der Technik,
verwandt den Computersprachen,
Text-Coding“ (236).
Rettet das die Philosophie, daß die
Programmierer ihre Sprache verstehen? Bill Gates als Interpret Heideggers?! Künzels und Bextes Exkursion
in die Welt der universellen Rechenmaschinen endet „an einem Fluchtpunkt, wo sich Zuse, Heidegger und
Marshall McLuhan unversehens begegnen: im globalen Dorf“ (242). So
wird heute postmodern auf Heideggers Frage geantwortet, warum man
in der Provinz bleiben solle. Dabei
fing doch alles als großer Reise- und
Aufbruchsplan an.
Roger Behrens
Humberto Maturana
Was ist Erkennen?
München 1994 (Piper), 244 S., 36,DM.
Alles ganz einfach. So ließen sich
doppelsinnig die aus einer Einladung
zu den „Karl Jaspers Vorlesungen“
zu Fragen der Zeit (Kloster Hude)
resultierenden und ins Deutsche übersetzten Vorträge und Kolloquiumsbeiträge des Bandes titulieren.
„Einfach“ sind Maturanas Darlegungen, insofern Maturana hier in einer
leicht lesbaren und allgemeinverständlichen Form seine Theorie mitsamt ihrer Entwicklung präsentiert was sicherlich wünschenswert ist;
„allzu einfach“ dürften aber leider
auch viele seiner hier erläuterten theoretischen Konzepte zur Beschreibung und Erklärung komplexer philosophischer und sozialer Sachverhalte sein. Doch dazu später mehr.
Der Titel des Bandes „Was ist Erkennen?“ erinnert sicherlich und zunächst einmal an eine der früheren
populären Schriften Maturanas: „Erkennen.“ (dt., Braunschweig 1982).
Maturana ist das Thema des Bandes
also nicht neu, im Gegenteil. Schon
seit Jahrzehnten versucht er, die biologischen Wurzeln des Erkennens
aufzudecken, und von Anfang an
zeigte er sich dabei nicht so naiv, Erkennen im Sinne von (wissenschaftlicher) Erkenntnis zu definieren. Eher
zielt der Begriff „Erkennen“ bei ihm
(nicht ohne neokybernetische Anleihen) auf Unterscheidungsprozesse
und die darauf bezogenen Interaktionen.
Maturana leitet seine Vorlesungen
ebenso humorvoll wie gekonnt zunächst einmal mit einer historischbiographischen Darstellung seines
Werdegangs und der Entwicklung
seiner Theorie ein, bevor er „zur Sache“ kommt. Eigentlich, so bemerkt
er an einer Stelle ironisch, verdanke
er einige grundlegende Erkenntnisse
der Tatsache, daß er sich mit den
komplizierten Geräten im Labor
„nicht auskannte und befürchtete,
etwas kaputtzumachen“. Also mußte
er, um nichts kaputt zu machen, andere Wege gehen - und entdeckte Erstaunliches: Vor allem die Strukturdeterminiertheit von Organismen, also
das, was er später mit dem Titel Autopoiesis“ bezeichnete.
Wie schon angesprochen, läßt der
Band an Klarheit und Verständlichkeit nichts zu wünschen übrig, aber
dies liegt bedauerlicherweise nicht
nur an Maturanas gekonntem Vortragsstil: So kommt es häufig dann,
wenn Maturana Gegenstände behandelt, die nicht unmittelbar ins Reich
der Biologie als Disziplin fallen, zu
bedenklichen Vereinfachungen. Bei-
spiel Macht/Politik: Spekulativ erklärt
Maturana den Krieg zum Resultat der
frühzeitlichen Viehzucht. Der Wolf
mußte bekämpft und getötet werden,
um die Herde zu schützen, „was die
Emotionalität tiefgreifend veränderte.“ Dieser Kampf leitete über in die
gegenseitige Bekämpfung der Menschen, also den Krieg. Nebenbei: Vor
der Tötung des Wolfes war die Welt
noch in Ordnung, und das heißt natürlich: sie war - in Maturanas eigenwilligem Duktus - 'matristisch'. Beispiel Wirtschaft: In einer allzu simplen Adaption Hegels erklärt Maturana
die Wirtschaft aus der Begehrensstruktur des Menschen („Wenn Sie
mir zwei Stunden Zeit geben, kann
ich biologisch (!) erklären, was Hegel
meint.“): Der Mensch begehrt Salz,
so führt er aus, und dieses Begehren
werde zum Prinzip der Salzwirtschaft.
Die Wirtschaft ist also ein kleines
Anhängsel des (biologischen?) Begehrens. Man mag mit „Begehren“ erklären können, daß Menschen sich um
Salz bemühen; aber die Wirtschaft
folgt sicherlich nicht einfach den Gesetzen der Begehrensstruktur des
Konsumenten, sondern komplexen,
eigendynamischen Funktionsprinzipien/Kommunikationsmedien (z.B.
„Geld“ bei Luhmann; „Kapital“ bei
Marx), die das Begehren allenfalls
zwecks
Gelderwerb/Kapitalakkumulation
mitberücksichtigen. Und auch Hegel kannte komplizierte Differenzierungen
(„subjektiver“, „objektiver“ und „absoluter Geist“), die nicht zuletzt eine
Rolle spielen beim Verständnis des
Bewußtseins, des Rechts, der (bürger-
lichen) Wirtschaft sowie des Staates.
Aber auch den „Geist“ respektive die
Psyche und sogar das Selbstbewußtsein löst Maturana hier (wie an anderen Stellen) nach dem Vorbild des
neuesten sprachidealistischen Nominalismus (Analytischen Philosophie)
in nichts weiter auf als ein sprachliches Phänomen „koordinierter Verhaltenskoordination“, ein „In-derSprache-Leben“.
Maturanas Theorie ist hier wie in anderen seiner Werke immer dann besonders originell und brisant, wenn es
um ein Verständnis des „Lebens“,
des „Organischen“ geht. Er zwingt
die Biologie zum Umdenken. So steht
seine Theorie der Farbwahrnehmung,
wie er explizit feststellt, der mehr
wahrnehmungsbezogenen Farblehre
Goethes näher als der physikalischen
Newtons. Und schon darum ist Maturana immer lesenswert. Geht es aber um fachübergreifende Theorienbildung (Soziologie/Philosophie), so
dürften seine Vereinfachungen und
sein biologistischer Reduktionismus
schwerlich zu akzeptablen Theorien
führen. Dies rührt sicherlich nicht zuletzt daher, daß er Ansätzen anderer
Disziplinen häufig ablehnend gegenübersteht. Auch der Philosophie
kann er wenig abgewinnen, da Philosophen laut Maturana heute wie früher nur ihre Prinzipien zu retten
wünschten. Aber mit diesem „alten
Hut“ läßt sich leben.
Harald Wasser
Thomas Metzinger (Hg)
Bewußtsein. Beiträge aus der Gegenwartsphilosophie
2.Auflage, Paderborn 1996 (Schöningh), 792 S., 68.- DM.
In der Einleitung schreibt Th. Metzinger bedauernd, daß von der deutschen Philosophie „komplette Innovationsschübe verpaßt“ (12) wurden,
die im angelsächsischen Bereich in
der jüngsten Vergangenheit geschehen sind. Zwar sei das Thema „Bewußtsein“ so tief und vielfältig in der
deutschsprachigen Philosophie verankert wie kaum ein anderes; aber die
neuen Theoriemodelle, nicht zuletzt
angeregt durch die Ergebnisse und
Hypothesen der neurowissenschaftlichen Gehirnforschung, sowie die intensiven Debatten darüber würden
hierzulande verspätet registriert. Hinzu geselle sich die Zögerlichkeit des
hiesigen Publikums, „englischsprachige Texte überhaupt im Original zu
lesen“ (12). Ihr trägt das Buch durch
die Erstübersetzungen der englischsprachigen Texte Rechnung. Verstehe
ich das Anliegen recht, so ist der
Band über die Kenntnisnahme hinaus
auch der Versuch, den Theorieaustausch und das Gespräch wieder zu
beleben. Der Band versammelt deutsche Beiträge, etwa von P. Bieri, M.
Nida-Rümelin, A. Beckermann, sowie
angelsächsischerseits Artikel von G.
Rey, D. Papineau, P.S. Churchland,
Daniel Dennett und vielen anderen,
die bei weitem die Mehrheit bilden.
Das Resultat ist eindrucksvoll. Es
stellt zu den wesentlichen Themen
der gegenwärtigen Philosophie und
Theorie des Bewußtseins die ver-
schiedenen Standpunkte sowie ihre
Diskussion dar. Was „Bewußtsein“
eigentlich meint, ob es so etwas überhaupt gibt, die verschiedenen Typen von Bewußtsein, die Frage nach
einem „künstlichen Bewußtsein“ sowie das alt-neue Geist/Körper- bzw.
Seele/Leib-Problem sind die wesentlichen Themenkomplexe. Diese sind
ausgezeichnet gegliedert: auf einen
einführenden Überblick des Herausgebers folgen Beiträge, die teils kontroverse Standpunkte vertreten, teils
die Bandbreite des jeweiligen Themas
vorstellen, und die, fächerübergreifend, von Philosophen, Psychologen,
Neurologen und Kognitionswissenschaftlern verfaßt wurden. Jedem
Beitrag und Themenkomplex ist eine
ausführliche Übersicht der Literatur
beigefügt, auf die die Beiträge sich
beziehen, oder die relevant für dieses
Thema ist. Den Anhang des Buches
bildet eine umfassende Bibliographie
über die Philosophie des Bewußtseins, der Kognitions- und die Neurowissenschaft, sowie die Liste der hierzulande oft unbekannten - Autoren.
Es ist (mir) nicht möglich, die Textsammlung der 26 Autoren in der
Kürze angemessen zu besprechen.
Die Gesamtanlage des Buches drängt
dem Leser jedoch den Eindruck auf,
als bestehe die Philosophie des Bewußtseins in erster Linie darin, das
Qualitative und Eigene des Bewußtseins vor den oft allzu schnellen
Zugriffen durch die Neurowissenschaften zu schützen, als nehme die
Philosophie des Bewußtseins also die
kritische Funktion wahr, auf die Er-
klärungslücken und die Unvollständigkeit des neurologischen Wissens
hinzuweisen. Doch in dieser Frontstellung läge ein verkürzter Begriff
von Philosophie. Ein Indiz für diesen
Eindruck ist, daß in dem Band keine
Auseinandersetzung um den Begriff
der Emergenz geführt wird, der eine
philosophische Antwort auf die Entstehungsfrage des Bewußtseins geben
und dem Eigensein des Bewußtseins
Rechnung tragen will.
Doch dieser Einwand soll den Gesamteindruck nicht trüben: wer sich
eingehender über den gegenwärtigen
Stand der Theorie und der Diskussionslage über das Thema Bewußtsein
informieren und Anschluß an die aktuelle Debatte halten will, für den ist
der von Metzinger in ungewöhnlich
sorgfältiger Weise erarbeitete Band
Pflicht.
Alexander von Pechmann
Roger Penrose
Schatten des Geistes
Heidelberg 1995 (Spektrum Akademischer Verlag), geb. 561 S, 58.- DM.
Der englische Mathematiker Sir Roger Penrose wählt für seine neueste
Publikation einen geradezu paradigmatischen Titel. Alle bisherigen Erklärungen und Beschreibungen von
Geist trafen lediglich auf seinen
Schatten, die Sonne seiner wahren
Natur blieb uns bis jetzt verschlossen.
Doch der Geist sei der naturwissenschaftlichen Erklärung zugänglich.
Innerhalb der geläufigen Paradigmen
allerdings könne diesem Unterfangen
kein Erfolg beschieden sein. Selbst
die avanciertesten, Relativitätstheorie
und Quantenmechanik, erscheinen
ihm als unzulänglich und zwar aufgrund ihrer Berechenbarkeit. Penrose
wendet sich gegen die Position einer
algorithmischen Natur des Geistes
und erklärt damit alle gegenwärtigen
Versuche der Geistsimulation und KI
für fruchtlos. Geist, das ist Penroses
explizite These, ist eine nichtrechnerische Erscheinung. Aus diesem Grunde wird eine ebensolche
Physik benötigt, die sie beschreibt.
Penrose hat nichts Geringeres im
Sinn, als, ganz in der Tradition
Plancks und Einsteins, die mathematisch-physikalische Wissenschaft und
mit ihr Wissenschaft überhaupt zu
revolutionieren.
Für Penrose sind die die entscheidenden, bis heute weder erklär- noch
simulierbaren Kriterien von Geist:
Bewußtsein und - darauf hebt er besonders ab - Verstehen. Konsequent
verläßt er sich dabei auf einen intuitiven Begriff, denn die Intuition
scheint für ihn eine Äquivokation
von Intuition zu sein. Verstehen gehe
prinzipiell über Algorithmen hinaus,
wobei algorithmisch all das ist, was
eine idealisierte Turing-Maschine oder eben ein Computer ausführen
kann, nämlich einer beliebigen Menge
wohl definierter mathematischer Regeln zu folgen. Mit einem GödelTuring-Argument versucht Penrose
nun zu beweisen, daß menschliches
Verstehen über alles, was mit Algorithmen erreicht werden kann, hinausgeht, aus diesem Grunde nichtrechnerisch und mit rechnerischen
Mitteln nicht simulierbar ist. Das
Gödel-Turing-Argument besagt erstens, daß formale mathematische Systeme nie gleichzeitig vollständig und
widerspruchsfrei sein können, da die
Widerspruchsfreiheit eines formalen
Systems nicht innerhalb seiner Grenzen bewiesen werden kann. Jeder
Beweis, der zunächst das System überschreitet, ist gleichwohl ein Teil
desselben. Ein nicht sicher widerspruchsfreies System kann Sätze enthalten wie 1=2 und kann deshalb
nicht die Grundlage unbezweifelbarer
Sätze sein. Der zweite Teil des Arguments bezieht sich auf das sog.
„Halte-Problem“. Danach gibt es
keinen Algorithmus, der Probleme
wie: „finde eine ungerade Zahl, die
die Summe zweier geraden Zahlen
ist“ systematisch löst. Denn gegeben:
eine algorithmische Maschine, die alle
Rechenverfahren enthält, mit denen
bewiesen werden kann, daß eine
Rechnung unendlich ist, soll dann
zum Halten kommen, wenn sie herausfindet, daß eine Rechnung nicht
anhält. Dies aber führt im Fall der
Anwendung zur Paradoxie: Die Maschine hält an, obwohl sie nicht anhält. Die Maschine ist hier „ratlos“;
unserem Verständnis aber sind diese
Überlegungen zugänglich. Also, so
Penroses Schlußfolgerung, ist der
Geist keine Turing-Maschine.
Im zweiten Teil zeigt Penrose, daß
bei aller Seltsamkeit quantenmechanischer Phänomene die gegenwärtige
Theorie keinen wesentlichen Beitrag
zur Erklärung des Bewußtseins liefern kann. Denn sie ist zum einen
rechnerisch, zum anderen unvoll-
ständig. Diese Unvollständigkeit wird
durch die Paradoxien bezeichnet, die
sich im Übergang von der Quantenzur klassischen Ebene ergeben, etwa
die Viele-Welten-Deutung. Nach ihr
schließen sich die, durch Schrödingers Wellengleichung erzeugten Möglichkeiten nicht aus, wie in der Kopenhagener Deutung, sondern erzeugen verschiedene Ebenen der
Realität. Zur Klärung der Frage, was
der Zusammenbruch der Wellenfunktion denn ist, möchte Penrose
ein neues Kriterium einführen. Er
nennt es „Objektive Reduktion“. Für
ihn soll die Theorie der Quantengravitation, die Quantentheorie mit der
allgemeinen Relativitätstheorie vereinigt, die Notwendigkeit und die Möglichkeit einer nicht-rechnerischen
Physik und Mathematik begründen,
die, wenn sie gefunden wären, auch
den Geist einer naturwissenschaftlichen Erklärung zugänglich machen
würden.
Im dritten und letzten Teil wendet
sich Penrose der Frage zu, wo der mit
einer hypothetischen Physik erklärbare Geist denn seine biologische Heimat haben könne. Neuronale Prozesse scheiden wegen ihre „digitalen“
Erscheinung grundsätzlich aus; sie
sind mit klassischen Mitteln hinreichend zu beschreiben, auch wenn die
Aktionspotentiale und die chemischen Prozesse der Neurotransmitter
quantenmechanischen
Ursprungs
sind. Penrose nimmt an, die Mikrotubuli, ein Röhrensystem im Cytoskelett jeder Zelle, dessen Erforschung
noch am Anfang steht, könnten aufgrund bestimmter, z.B. dielektrischer,
Eigenschaften der Ort sein, an dem
eine hinreichend globale Quantenkohärenz lange genug aufrecht erhalten
wird, um die Nicht-Berechenbarkeit
des Geistes zu ermöglichen. Der Begriff Quantenkohärenz bezeichnet Zustände, in denen sehr viele Teilchen
einen gemeinsamen Quantenzustand
bilden, der von der Umwelt isoliert
bleibt. Dadurch geht er nicht in deren
Prozessen unter, und die Quanteneigenschaften der Nicht-Lokalität und
Kontrafaktizität bleiben erhalten. Wie
aber kommt Penrose gerade auf die
Mikrotubuli? Pantoffeltierchen, einzellige Lebewesen, bewegen sich zielgerichtet auf Nahrung zu, entfernen
sich bei Gefahr und können möglicherweise aus Erfahrung lernen, - für
Einzeller erstaunliche Leistungen der
Informationsverarbeitung, ganz ohne
Neuronen, Synapsen und Neurotransmitter. Die Struktur, die mit
der Informationsverarbeitung in diesem Organismus zusammengebracht
werden kann, sind die Mikrotubuli.
Was auch immer man von Penroses
Spekulationen im einzelnen halten
mag, sein Buch ist äußerst lehrreich
und, für mich jedenfalls, spannend.
Mir erscheint es nur konsequent, so
Merkwürdiges, Subtiles und auch
Seltsames wie Bewußtsein mit so
merkwürdigen und seltsamen Theorien erklären zu wollen, wie es die
Quanten- und Relativitätstheorie
sind. Möglicherweise wird tatsächlich
eine neue nicht-rechnerische Theorie
der Quantengravitation des Bewußtseins, oder wie immer sie dann heißen mag, gefunden. Wahrscheinlich
wird sie nur die Seltsamkeit steigern.
Rainer Limmer
Gerhard Roth
Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und
ihre philosophischen Konsequenzen
Frankfurt/Main 1996 (Suhrkamp), 4.
Aufl., geb., 345 S., 48.- DM.
Als Philosoph und Biologe setzt sich
Gerhard Roth mit der größten wissenschaftlichen Herausforderung seit
der Entschlüsselung des genetischen
Codes auseinander: Der Wirkungsweise des menschlichen Gehirns.
Dabei will er einen Erklärungsansatz
bieten für die Darstellung der neuronalen Prozesse im Gehirn, denen
Leistungen wie Wahrnehmung, Denken und Bewußtsein zugrunde liegen.
Seiner Auffassung nach bilden diese
Prozesse unsere Erlebniswelt, die
Wirklichkeit. Dabei wird das Gehirn
zwar über die Sinnesorgane durch die
Umwelt erregt, erhält aber dadurch
keine bedeutungshafte und verläßliche Information, „vielmehr muß das
Gehirn über den Vergleich und die
Kombination von sensorischen Elementarereignissen Bedeutungen erzeugen und diese Bedeutungen anhand interner Kriterien überprüfen“
(19). Unsere Erlebniswelt, in der wir
eine Außenwelt, unseren Körper und
unsere mentalen Zustände unterscheiden, erweist sich als Konstrukt
unseres Gehirns. Zwar müssen wir
eine bewußtseinsunabhängige Realität
annehmen, in der auch ein „reales“
Gehirn existiert, das als Konstrukteur
die Wirklichkeit erzeugt, wir als „bewußte Subjekte“ haben jedoch lediglich Zugang zur bewußtseinsabhängigen Welt, der Wirklichkeit.
Wie kommt Roth als Wissenschaftler
zu solch spektakulären erkenntnistheoretischen Aussagen? Da ist einmal seine Überzeugung, daß empirische Wissenschaft nicht ohne Erkenntnistheorie auskommt, daß aber
umgekehrt ebenso philosophische
Erkenntnistheorie einer empirischen
Basis bedarf. „Beide Bereiche bedingen sich gegenseitig, und keiner ist
dem anderen vorgeordnet“ (22).
Die empirische Basis findet Roth in
der Neurobiologie. Er stützt seine
These in erster Linie auf Forschungsergebnisse, die sich mit der Arbeitsweise des Gehirns beschäftigen. Aufgabe des Gehirns ist es, „ein Verhalten zu erzeugen, mit dem der
Organismus in seiner Umwelt überleben kann“ (21). Dabei zeigt Roth,
daß sich Aufbau und Arbeitsweise
des menschlichen Gehirns nicht wesentlich von der stammesgeschichtlich nahestehender Tierarten unterscheiden. Die hohe Leistungsfähigkeit des menschlichen Gehirns
bestehe vielmehr in der „Kombination von Merkmalen, die sich einzeln
auch bei Tieren finden“ (64). Er erwähnt hier vor allem den aufrechten
Gang, durch den die Hände freigesetzt werden und der Werkzeuggebrauch ermöglicht wird, und die
Entwicklung einer grammatischen
Sprache, die zusammen mit dem
stark vergrößerten präfrontalen Cortex dazu führt, daß der Mensch mehr
als andere Tiere in der Lage ist,
Handlungs- und Zukunftsplanung zu
treiben.
Wahrnehmung als Orientierung an
Umweltmerkmalen zum Zweck des
Lebens und Überlebens dient Roth
zur Untermauerung seiner konstruktivistischen Sichtweise. Er unterteilt
den Wahrnehmungsprozeß hierbei in
einen präkognitiven Bereich, der unbewußt abläuft, und einen kognitiven
Bereich. Dieser Vorgang ist, insbesondere bezüglich der visuellen
Wahrnehmung, bereits gut bekannt
und wird von Roth detailliert und
kenntnisreich geschildert. Aufgrund
der Selektivität unserer Sinnesorgane,
die lediglich einen kleinen Bereich der
physikalischen und chemischen Ereignisse aufnehmen, deren Verarbeitung in den neutralen neuronalen
Codes, der lediglich aus elektrischen
Aktionspotentialen und deren Hemmung und Erregung vermittels chemischer Übertragungsstoffe, sogenannter Neurotransmitter, besteht,
und der Nichteindeutigkeit bei der
Übersetzung der Außenreize in neuronale Erregungszustände kommt
Roth zu dem Schluß, daß unsere
Wahrnehmung keinesfalls Abbildcharakter besitzen könne, zudem ein
Abbild ja eine Instanz benötige, die
dieses Abbild betrachtet. So eine Instanz kann jedenfalls im Gehirn nicht
gefunden werden, es gibt „kein oberstes Wahrnehmungs- oder Verhaltenssteuerungszentrum“ (138). Damit
gilt für Roth der Konstruktionscharakter der einfachen und komplexen
Wahrnehmungsinhalte als erwiesen.
Allerdings sind diese Konstruktionen
keineswegs
willkürlich,
sondern
„vollziehen sich nach Kriterien, die
teils angeboren, teils frühkindlich erworben wurden oder auf späterer Erfahrung beruhen“ (112).
Erfahrungen, die aufgrund der Interaktion mit der Umwelt entstehen,
werden im Hinblick auf den Organismus bewertet und im Gedächtnissystem gespeichert. Bewertung von
Verhalten und das Gedächtnis erweisen sich damit als wesentliche Voraussetzungen für die sogenannten
höheren Funktionen wie bewußte
Wahrnehmung, Denken, Sprechen
und andere mentale Ereignisse, ja,
„kortikale und subkortikale Zentren
arbeiten untrennbar zusammen“
(191).
Auch an eine Erklärung für Bewußtsein in Beziehung auf neuronale Prozesse wagt sich Roth heran. Seine
These klingt aufregend und originell:
„Bewußtsein entsteht unter Beteiligung der verschiedensten, das gesamte Gehirn durchziehenden Systeme“
und stellt das „Eigensignal des Gehirns für die Bewältigung eines neuen
Problems“ (213) dar. Zur Bewältigung werden neue neuronale Verknüpfungen geschaffen und damit
neue Netzwerke angelegt. Bewußtsein
ist demnach bei Roth das charakteristische Merkmal des Gehirns, um neuartige von bereits bekannten Situationen unterscheiden zu können.
Unter Berücksichtigung der dargestellten neurobiologischen Erkenntnisse gibt Roth einen Überblick und
eine Bewertung der Gehirn-GeistDiskussion. Dabei lehnt er dualistische Positionen ab, da diese mit naturwissenschaftlichem Denken nicht
vereinbar seien. Er selbst bekennt
sich
zu
einem
nichtreduktionistischen
Physikalismus.
Zusammen mit dem Physiker H.
Schwegler vertritt er dabei die Ansicht, daß nicht alle Phänomene auf
physikalische Gesetzmäßigkeiten zurückführbar sein müssen. Allerdings
dürfen sie diesen nicht widersprechen. Neuronale Prozesse genügen
diesen Bedingungen vollauf, ohne
völlig in physikalisch-chemischen Bedingungen aufzugehen. Auch Geist
muß keineswegs total auf die neuronalen Prozesse im Gehirn rückführbar sein. Im Gehirn gibt es eine Unmenge von unbewußt ablaufenden
neuronalen Prozessen, es gibt aber
auch ganz bestimmte neuronale Prozesse , die notwendig von Geist und
Bewußtsein begleitet sind. „Geistzustände als subjektiv erlebte Zustände
sind also Kennzeichnungen spezifischer Gehirnprozesse, die das Gehirn
sich selber gibt, um sich in seiner eigenen ungeheuren Komplexität zurechtzufinden“ (276).
Abschließend gibt Gerhard Roth auf
dem Hintergrund seiner Ausführungen über die Arbeitsweise des Gehirns und den daraus abgeleiteten erkenntnistheoretischen Überlegungen
Antworten auf uralte philosophische
Fragen. So verneint er die Möglichkeit objektiver Erkenntnis und urteilt
in diesem Zusammenhang schnell
noch die Evolutionäre Erkenntnistheorie ab. Desgleichen verneint er
die Möglichkeit von objektiver
Wahrheit. Die Erkenntnis einer bewußtseinsunabhängigen Realität wird
ebenfalls verneint, ihre Existenz jedoch nicht in Frage gestellt.
Das Buch ist trotz umfangreich dargestelltem Fachwissen keinesfalls
langweilig. Es wendet sich gleichermaßen an Neurowissenschaftler wie
an Philosophen und interessierte Laien. Besonders die Darstellung verschiedener Positionen in der GehirnGeist-Debatte wie in der philosophischen Erkenntnistheorie besticht.
Vermißt habe ich allerdings die Auseinandersetzung mit anderen Positionen in den Neurowissenschaften. So
überzeugt in meinen Augen keineswegs die geringe Rolle, die Roth der
Interaktion mit der Umwelt zugesteht, wenn man die Kriterien, nach
denen das Gehirn Wahrnehmungsinhalte konstruiert, als im Laufe der
Jahrmillionen in den Genen gespeicherte phylogenetische und die im
Gedächtnissystem gespeicherte ontogenetische Erfahrung auffaßt. Erfahrung wird jedoch immer, auch von
Roth, als Interaktion mit der Umwelt
bezeichnet. So erweisen sich die Überlegungen Roths nicht unbedingt
als zwingend und seine erkenntnistheoretischen Schlußfolgerungen aus
der Arbeitsweise unseres Gehirns
keinesfalls als die einzig plausible und
konsistente Sichtweise. Möglicherweise könnte ein erkenntnistheoretischer Ansatz, der nicht so sehr die
Arbeitsweise des Gehirns in den
Vordergrund stellt, sondern diese
mehr in Abhängigkeit und bezogen
auf menschliches Handeln betrachtet,
hier für mehr Klarheit sorgen.
Sibylle Weicker
Hans Jörg Sandkühler (Hg)
Konstruktion und Realität. Wissenschaftsphilosophische Studien
Frankfurt/Main 1994 (Peter Lang),
200 S.
Das Buch versammelt Beiträge zum
Thema „Konstruktion und Realität“,
das überwiegend aus der Perspektive
einer eher historisierenden „Geistphilosophie“ behandelt wird. Dabei
macht W. Krohn deutlich, was man einer solchen Betrachtungsweise abgewinnen kann, wenn man die Begriffe
„Konstruktion“ und „Realität“ aus
dem „Gegensatz von Konstruktivismus und Realismus“ befreit. Dazu
stellt Krohn die „großen Geister“ des
abendländischen Denkens, Platon,
Aristoteles, Kant und Humboldt vor,
bzw. rekonstruiert deren Konstruktion der Realitätskonstrukteure. Platon
habe den Realitätskonstrukteur als
„Weltordner“, Aristoteles als „Natur“, Kant als „Mensch“ und Humboldt als „Sprache“ konstruiert. Dabei hebt Krohn darauf ab, daß in allen Fällen der Konstruktionsplan so
abgefaßt war, die Realität in der Weise zu konstruieren, daß sie Bestand
hat, d.h. daß sie sich aus ihren eigenen Bedingungen reproduziert und
erhält. In erkenntnistheoretischer
Sicht seien auch nur die Konstruktionen einer solchen Realität interessant,
die Bestand habe. Für Platon war
hierfür das Vorbild das „Leben“ (und
der geordnete Kosmos daher ein 'lebendiges Ganzes') und für Aristoteles
die „Herrschaft“, die die Teile zu einem funktionsfähigen Ganzen verbindet. Kant deutet Krohn so, daß er
gesagt habe, der Realitätskonstrukteur
sei kein kleiner (oder großer) Ingenieur in der Natur, sondern der Mensch,
der selbst der Natur ihre Gesetze
vorschreibt. Nach Kant sei der
„Konstrukteur der Realität ... der seine eigene Erkenntnis konstruierende
Konstrukteur“
(23).
Humboldt
scheint hier etwas aus dem Rahmen
zu fallen. Aber durch ihn, so Krohn,
wurde „die erkenntnistheoretische
Diskussion durch einen neuen Akteur
bereichert: die Sprache.“ (24) Humboldt war der erste, der sagte, daß die
Konstruktion der Realität nicht nur
von Sprache, sondern von Sprachen
abhängt und daher im Rahmen der
Sprache einer Kultur stattfindet. Krohn
schließt seine Rekonstruktion mit der
Frage nach der Universalisierbarkeit
einer Sprache bzw. eines Sprachspiels. Er scheint sich Rortys Konzept eines „ethnozentrischen Pragmatismus“ anzuschließen, das es als unbegründbar ansieht, eine - und das
bedeutet für Abendländer die abendländische - Konstruktionsart als universal auszuzeichnen.
Diesen historisch-kritischen Blick auf
die „großen Geister“ lassen die weiteren Beiträge vermissen. H.J. Sandkühler - so jedenfalls meine internkonstruktive Repräsentation seines
Beitrags - scheint Wiedergutmachung
zu leisten und kämpft jetzt den ideologischen Kampf gegen die Materialisten bzw. Realisten. Er ist entzürnt
ob der Dummheit mancher Alltagsund Labormenschen, die noch immer
nicht eingesehen haben, daß alles
Geist ist, und die noch immer von
der absurden Vorstellung ergriffen
sind, daß es so etwas wie theorieu-
nabhängige Erfahrung oder Beobachtung gebe. Philosophie im Sandkühlerschen Sinne sei die „strenge Wissenschaft“, die nicht mehr den Paradigmata
des
Naturalismus/Reduktionismus/Physikalismus
ihren Tribut zollt. Wer das nicht erkennt, wie unter vielen anderen Franz
v.Kutschera, dem hält Sandkühler
etwas hilflos entgegen, daß dies „ein
Rückfall hinter kritische Verständnisse von Repräsentation (wäre), wie sie
seit dem späten 19. Jahrhundert in
Physik und Philosophie entwickelt
worden sind.“ (65)
Gelehrte historische Linien zieht D.
Pätzold vom aristotelischen nous
poietikos zu Kants Einbildungskraft,
einem Vermögen der synthesis
intellectualis im Unterschied zur
bloßen synthesis speciosa, das
seinerseits auf Siger von Brabants
intellectus
intrinsecus
operans
zurückverweist,
der
noch
in
Descartes' Selbstgewißheit als einer
intellectio pura aufscheint ... und will
so offenbar andeuten, daß ein
konstruktiver Rest bleibe, der sich
dem Naturalisierungsprogramm des
menschlichen Geistes entzieht. J. Erpenbeck ist noch immer mit der Aufarbeitung des dialektischen Materialismus beschäftigt und rekonstruiert
fleißig die kontroversen Widerspiegelungskonzepte
und
LeninRezeptionen. U. Röseberg faßt die Geschichte der Relativitätstheorie und
der Quantenmechanik zusammen
und stellt fest, daß gerade die Erfolge
der Atom- und Kernphysik „in der
physikalischen und populärwissenschaftlichen Literatur zu einer gran-
diosen Renaissance erkenntnistheoretisch unreflektierten ontologischen
Redens über die Natur geführt“ haben (137).
Erhellend für die Debatte der Theorie(un)abhängigkeit der Empirie ist B.
Falkenburgs Beitrag, der der Frage
nachgeht, ob es „Teilchen gibt“. Habe ich sie richtig verstanden, so unterscheidet sie zwischen zwei epistemologischen Begriffen von „Realität“, die in der Diskussion oft
vermischt werden. Das eine Mal bezeichnet „Realität“ „ein theoretisches
Universum von Qualitäten oder Eigenschaften, die in Klassen systematisiert sind“ (160). In diesem Sinne bildet die Realität der Physik ein Universum von Meßgrößen wie Länge,
Zeit, Masse, Temperatur etc. Und
diese Realität ist in der Tat nicht theorieunabhängig, da die Größen unsere Konstrukte sind. Das andere Mal
bezeichnet „Realität“ die „kontingenten Eigenschaften“ (160), d.h. im
Rahmen der Physik die Meßwerte
selbst, die zwar durch jene Größen
als den Bedingungen festgelegt sind,
die aber selbst keine der Bedingungen
sind. „Was man als kontingente Daten bezeichnet, sind diejenigen Züge
der Wirklichkeit, die nicht (H.v.m.)
durch eine Theorie festgeschrieben
sind und die an einzelnen Raum-ZeitStellen durch Beobachtung oder
Messung ermittelt werden.“ (161).
Dieser Realitätsbegriff im Sinne der
allein durch Beobachtung zu ermittelnden Kontingenz spricht, wie Falkenburg sagt, „gegen jede überzogene
Variante von Konstruktivismus, nach
der die empirische Wirklichkeit sei's
der Wissenschaft, sei's der Alltagserfahrung durchgängig als ein theoretisches Konstrukt gilt.“ (162). Deuten
wir diesen letzteren Realitätsbegriff
als das Verifikationsprinzip, dem
Theorien Rechnung zu tragen haben,
und die das Geschäft der Labormenschen ausmachen, so wäre das Maß
des Wissens nicht die Theorie, sondern die Realität. H.J. Sandkühler, so
scheint es, wird noch viel Überzeugungskraft aufbieten müssen.
Alexander von Pechmann
Siegfried J. Schmidt
Kognitive Autonomie und soziale
Orientierung. Konstruktivistische
Bemerkungen zum Zusammenhang von Kognition, Kommunikation, Medien und Kultur
Frankfurt/Main 1994 (Suhrkamp),
362 S., 22.80 DM.
Ausgehend von konstruktivistischen
Ansätzen zur Kognition ist es ein Anliegen Schmidts, diesen Diskurs um
eine neue Akzentuierung zu erweitern: die Fixierung auf das Individuum soll aufgegeben und die Argumentation um soziale und kulturelle
Aspekte erweitert werden. Es geht
um die Wendung von einer faktenzu einer sozialorientierten Erkenntnistheorie. Ausgangspunkt ist, daß jedes Individuum bereits in eine sinnhaft konstruierte Umwelt hineingeboren und auf sie hin sozialisiert wird.
Daraus ergibt sich, daß individuelles
Wahrnehmen, Denken, Fühlen, Erinnern, Handeln und Kommunizieren
entscheidend bestimmt ist von den
Mustern und Möglichkeiten, die jeden
Menschen als Gattungswesen, als
Gesellschaftsmitglied, als Sprecher
einer Muttersprache und als Angehörigen einer bestimmten Kultur prägen. Der Autor verweist darauf, daß
menschliche Wahrnehmung immer in
Handlungszusammenhängen
geschieht, die zugleich als Interpretationsrahmen dienen, weil sie mit Erfahrung, Wissen, Gedächtnis und Gefühl verbunden sind.
Nachdem dieser Hintergrund aufgespannt wurde, rückt Schmidt die
konkreten Prozesse von Kognition
und Kommunikation, ihre Bedingungen, Regeln und Kriterien in den
Vordergrund des Interesses. Der vom
Autor postulierte Übergang von Wasauf Wie-Fragen bedeutet, die Rede
über die Wirklichkeit durch die Rede
vom letzten Stand der Dinge zu ersetzen, also einen sozio-historisch
kontextbezüglichen Zugang.
Bei der Auseinandersetzung mit dem
Kommunikationsbegriff wird besondere Aufmerksamkeit dessen systemtheoretisch orientierter Modellierung
durch N. Luhmann gewidmet. Luhmann konzipiert Kommunikation als
ein operativ selbständiges System.
Kommunikation treibe „Autopoiesis“, soweit sie Anschlußfähigkeit organisiere. Gedankenarbeit geschehe
in kognitiven Systemen, Kommunikation im sozialen System der Gesellschaft. Luhmanns Vorschlag, Wissen
radikal von Bewußtsein auf Kommunikation umzurechnen, macht nach
Schmidt nur Sinn, wenn man Wissen
als Bestand und nicht als Fähigkeit
konzipiere. Die neuere Gedächtnis-
forschung tendiert aber dazu, Wissen
nicht als sedimentierten Bestand
kognitiver Inhalte zu konzipieren,
sondern als Fähigkeit, in einer entsprechenden Situation adäquate kognitive Operationen durchführen zu
können, um ein Problem zu lösen.
Luhmanns Vorgehen, Wissen und
Kommunikation sozialen Systemen
zuzurechnen, Individuen deren Umwelten, neutralisiert den traditionellen
Individuen- oder Subjektbegriff. Damit aber, führt Schmidt aus, werde
das Individuum aus seiner philosophischen Rolle als Garant der Einheit
von Wissen und Kommunikation gedrängt.
Kognitive Systeme beeinflussen
Kommunikation als soziales System
durchaus, setzt Schmidt Luhmanns
Thesen entgegen. Auch Wissen werde im kognitiven System nach sozialen Regeln erzeugt: „Mir scheint kein
gewichtiger Grund dagegen zu sprechen, auch Individuen mit der Unterscheidung
Kognition/Kommunikation zu beobachten,
um zu sehen, wie kognitive Systeme
es schaffen, trotz operationaler
Schließung an Kommunikation teilzunehmen, die in ihrer Umwelt abläuft“.
Sowohl in Luhmanns systemtheoretischem als auch im radikalen Konstruktivismus ist die zentrale Frage
weithin ungelöst, wie die theoretisch
scharf voneinander getrennten Dimensionen Kognition und Kommunikation in eine operative Beziehung
zueinander gebracht werden können,
faßt der Autor zusammen. Bewußtsein- und Kommunikationsprozesse
laufen getrennt voneinander, aber
zeitlich synchron (in der jeweiligen
Systemgegenwart) ab. Ihre Beziehung
kann mit dem Begriff der strukturellen Koppelung beschrieben werden,
der ein Verhältnis der Gleichzeitigkeit, nicht der Kausalität bezeichnet.
Die strukturelle Koppelung wird in
Publikationen durch sprachliche Sozialisation angenommen. Die Leistung der Sprache ist, die in sozialen
Systemen erfolgende Reduktion von
Komplexität in zeitlicher, sachlicher
und sozialer Hinsicht als Selektionen
verfügbar zu halten, zitiert Schmidt
H. Feilke.
H. Maturana verstehe beispielsweise
Sprache als System des Orientierungsverhaltens für kognitive Systeme. Nach ihm leben Menschen in einer kognizierten Realität, d. h. in einer Um-Welt, die sie über urteilende
Wahrnehmung, Kognition, Kommunikation und auch praktische Handlungen informationell selbst erzeugen
und erhalten. Irritiere die Umwelt ein
kognitives System etwa mit sprachlichen Medienangeboten, dann verlaufe die Wahrnehmung und Verarbeitung solcher Angebote zwar notwendigerweise im System und allein nach
dessen Operationsmodi. Aber eben
diese Operationsmodi sind durch Sozialisation und Handlungserfahrungen signifikant sozial habitualisiert.
Kollektives Wissen, das individuelles
Handeln orientiert und reguliert, resultiert aus kommunikativem Handeln der Individuen und orientiert
wiederum deren kommunikatives
Handeln. Medienangebot koppeln
strukturell kommunikative und kogni-
tive Prozesse, da sie - vermittelt über
kollektives Wissen - in beiden voneinander getrennten Bereichen in je
bereichsspezifische Prozesse transformiert werden können.
Bei der umfassenden Begründung
seiner Erweiterung konstruktivistischer Ansätze um soziale und kulturelle Einflußfaktoren arbeitet Schmidt
die Standpunkte verschiedener Autoren heraus. Besonders günstig ist dabei, daß er sich nicht nur auf theoretische Argumentation beschränkt. Gelegentlich bricht er die Erörterung
des Gegenstands bis auf ganz konkrete, in der Alltagspraxis auftauchende
Fragen wie: „Was ist wahr, was ist
gut, was soll getan werden?“ herunter. Sehr spannend und erhellend ist
auch die Darstellung der Entwicklung
neuer Massenmedien und ihrer Wirkungen auf Wahrnehmungsgewohnheiten. In diesem Zusammenhang
greift er die Diskussion um einen
damit zusammenhängenden kulturellen Wandel auf, was die Aktualität
des Buchs unterstreicht.
Jadwiga Adamiak
John R. Searle
Die Wiederentdeckung des Geistes
Übersetzt von Harvey P. Gavagai,
Frankfurt/Main 1996 (Suhrkamp),
303 S., 17,80 DM. - Erstausgabe: Zürich/München 1993 (Artemis).
Den Anlaß für dieses Buch biete, wie
Searle schreibt, „ein sehr sonderbares
Spektakel“. Was in der Sprachphilosophie unüblich sei, die Existenz von
Sätzen zu bestreiten, sei in der Philosophie des Geistes die Regel: hier
„bestreiten viele - vielleicht sogar die
meisten - der auf diesem Gebiet führenden Denker ganz routinemäßig die
offenkundigsten Tatsachen“, nämlich
daß „wir subjektive, bewußte Geisteszustände wirklich haben“ (15). Ihnen gegenüber will Searle auf die „offensichtlichen Tatsachen über Geisteszustände“ verweisen. Mit einer
durchgängigen Common SenseAusrichtung plädiert er für die These:
der „Geist“ (mind) und seine Merkmale wie Intentionalität und Bewußtsein (consciousness; awareness) sind
„emergente Eigenschaften“ von höherstufigen neuronalen Systemen,
von menschlichen Gehirnen. Searle
nennt es daher als „eines der Hauptziele des Buchs, ... Bewußtsein wieder
als ein biologisches Phänomen wie
jedes andere in den Gegenstandsbereich der Wissenschaft zurückzuführen“ (104). Leitend für einen solchen
„biologischen Naturalismus“ sei eine
„cartesianische
Intuition“
ohne
„cartesianischen Dualismus“: „Ich
bin etwas Denkendes, also bin ich
etwas Physisches“ (26ff). Das „Körper/Geist-Problem“ in der Philosophie findet so für Searle „eine einfache Lösung“ (13).
Da Searles Ausgangspunkt lautet:
Geistige Zustände sind Eigenschaften
des menschlichen Gehirns, wendet er
sich sowohl gegen cartesianistische
Auffassungen eines Dualismus, wie
sie Th. Nagel und C. McGinn vertreten haben, als auch und vor allem gegen eine materialistische Reduktion
von Geistigem auf Körperliches. Die-
sen Reduktionsversuchen hält er vor,
sie nähmen eine unangemessene
„Dritte-Person-Perspektive“ ein und
bestätigten zudem den Dualismus,
den sie überwinden wollen (40f);
denn zurückgeführt kann immer nur
etwas werden, von dem ausgegangen
wurde. Zudem verfehlten diese materialistischen Ansätze die Erlebensaspekte von Bewußtseinszuständen, die
sog. „Qualia“. Seine Kritik richtet
sich unter anderem gegen J.J.C.
Smart, U.T. Place und D.M. Armstrong, die eine „Identität“ von Geistes- und Gehirnzuständen annehmen,
sowie gegen einen „eliminativen Materialismus“ (P. Feyerabend, R. Rorty,
P.M. Churchland, S.P. Stich), der behauptet, es gäbe überhaupt keine
Geisteszustände. Ihm gegenüber
wendet Searle ein, daß eine Eliminierung des Vokabulars nicht die Phänomene beseitigen könne, auf die
sich das Vokabular beziehe. Durchaus in Nähe zum eliminativen Materialismus steht für Searle auch eine auf
W.V.O. Quine zurückgehende Kritik
des Alltagsvokabulars in der Philosophie des Geistes (D. Dennett, G.
Rey, auch P.M. Churchland). Diese
Kritiker einer sogenannten „folk psychology“ lehnen es zwar ab, Wörtern
wie „Geist“ und „Bewußtsein“ einen
ontologischen Bezug einzuräumen;
nach Searle müßten sie letztlich aber
auch ihre eigenen Alltagserfahrungen,
wie etwa Wünsche zu haben, bestreiten. Searles Haupteinwand lautet: Alltagserfahrungen lassen sich nicht
bestreiten.
Weiterhin grenzt Searle sein Konzept
gegen behavioristische Ansätze, ge-
gen eine kognitionswissenschaftliche
Forschung und die KI-Forschung ab.
Während der „methodologische Behaviorismus“ lediglich eine „Forschungsstrategie“ entwickelt habe,
„die Korrelationen zwischen ReizEingaben und Verhaltens-Ausgaben“
betraf (J.B. Watson), beanspruche der
„logische Behaviorismus“ von C.G.
Hempel und G. Ryle, mentalistische
Ausdrücke „ohne jedweden Rest in
Sätze über Verhalten“ zu übersetzen
(48f). Ein „subjektives Erlebnis des
Denkens“ werde hierbei ausgeschlossen, und Kausalbeziehungen zwischen mentalen Zuständen und Verhalten würden nicht berücksichtigt
(50). Die „kognitionswissenschaftlichen Ansätze“ H. Gardners, N.
Chomskys, J. Fodors u.a. beanspruchten gleichfalls eine „wissenschaftliche Untersuchung des Geistes“, ohne jedoch „Bewußtsein und
Subjektivität“ zu berücksichtigen.
Zentral sei hier das Modell einer
„Computation“, mit dem beansprucht wird, auch semantische Verhältnisse durch syntaktische darzustellen (vgl. 222f). Die Einwände
hiergegen führt Searle präzisierend in
seiner Kritik der sogenannten „starken“ KI-Forschung fort. Diese versuche, das menschliche Gehirn als digitalen Computer aufzufassen, zu
dem der Geist das Programm sei. Für
Searle ist diese Annahme absurd: Semantische Verhältnisse sind syntaktischen Verhältnissen nicht inhärent
(225). Vor allem aber, wendet Searle
jetzt ein, ist eine Syntax nichts Physisches und die Zuschreibung syntaktischer Eigenschaften daher stets be-
obachter-relativ. Folglich bestehe
keine Möglichkeit zu entdecken, „daß
ein System intrinsischermaßen ein digitaler Computer ist“ (236). Die
Hypothese, das menschliche Gehirn
sei ein digitaler Computer, sei daher
inkohärent. Hinzu komme der sogenannte „Homunculus-Fehlschluß“:
„das Hirn so zu behandeln, als wäre
da jemand drin, der es zum Rechnen
benutzt“ (238).
Soweit zu Searles „Abrechnung“ mit
einer Philosophie des Geistes, die,
statt ihn zu erklären, ihn eliminiert.
Doch wie steht es mit Searles Auffassung, Bewußtsein und Intentionalität
seien schlicht unbestreitbare Tatsachen? Hatte er nicht diese Bewußtseinsakte eingeführt, um das Funktionieren der natürlichen Sprache zu
erklären? Es lohnt sich, seine Sprechakttheorie (Sprechakte. Ein sprachphilosophischer Versuch, 1969; dt.
1983) in Erinnerung zu rufen.
Dort ging er davon aus, daß die
„Grundeinheit der sprachlichen
Kommunikation“ nicht „das Symbol,
das Wort oder der Satz“, „sondern
die Hervorbringung des Symbols oder Wortes oder Satzes“ sei. Der gelingende Vollzug deute auf Handlungsregeln, über die verfügt werden
muß. Handeln durch Sprachverwendung verweise auf Vermögen, eindeutige Absichten auszudrücken. Gegen
die Annahme einer solchen Eindeutigkeit ist nun aber eingewandt worden, daß es durchaus indirekte Vollzüge gibt, Metaphern, auch Fiktionales in literarischen Texten, die sich
dem Eindeutigkeitskriterium entziehen; Geschriebenes überhaupt schei-
ne sich einer eindeutigen Intentionalitätszuweisung zu entziehen (vgl. J.
Derrida, Marges de la philosophy; M.
Frank, Das Sagbare und das Unsagbare). In „Ausdruck und Bedeutung“
(1979; dt. 1982) begegnete Searle derartigen Einwänden, solche offenen
Artikulationen seien defiziente Modi
eines originär eindeutig intentionalen
Modus des Sprechens; sie seien letztlich „non-serious“.
In „Intentionalität. Eine Abhandlung
zur Philosophie des Geistes“ (1983;
dt. 1987) nun hat Searle versucht,
diese eindeutige Intentionalität der
Sprachverwendung auf eine intrinsische Intentionalität geistiger Zustände zurückzuführen. Intentionale Zustände werden dargestellt als F (p),
wobei F für „geistige Modi“, p für
„propositionale Gehalte“ steht. Folgende Schlußkette verbindet nun das
jeweils Bedingte mit dem jeweils Bedingenden: „Sprechhandlung“ - „Intentionalität“ - „Geist“ - „Bewußtsein“. Im anschließenden Buch
„Geist, Hirn und Wissenschaft“
(1984; dt. 1986) geht es vor allem um
Fragen und Schwierigkeiten der
Vermittlung „traditioneller mentalistischer Vorstellungen“ mit einem naturwissenschaftlichen,
physikalistischen Weltbild. Hier werden einige
Erörterungen der „Wiederentdeckung des Geistes“ vorbereitet. Zeigt
nicht das Gesamtwerk Searles, wie
wenig offensichtlich die „offensichtlichen Tatsachen über Geisteszustände“ sind?
Es gibt nicht nur materiale oder kausale Reduktionen wie die Rückführung des Mentalen auf das Neurona-
le, die Searle in seiner Materialismuskritik ablehnt, sondern auch „theoretische“ Schlußfolgerungen von einem
Bedingten auf ein Bedingendes, von
denen Searle durchaus Gebrauch
macht; nämlich von den Sprechhandlungen auf eine „intrinsische Intentionalität“ geistiger Zustände. Doch
diese gelten in einem formallogischen
Diskurs bekanntlich als besonders
schwierig, da sie weder aussagenlogisch dargestellt noch prädikatenlogisch entschieden werden können.
Searles Schlußfolgerung, so ließe sich
sagen,
haben
die
logischsemantischen Eigenschaften, die P.F.
Strawson als „presuppositions“ skizziert hat, und gegen die D. Dennett
eingewandt hat, sie gehörten mit zu
dem intentionalen System, das sie
herzuleiten versuchten.
Wie dem auch sei, die Intentionalität,
die Searle als offensichtliche Tatsache
annimmt, ist als intrinsische Eigenschaft des Geistes weder erfahrbar
noch intuitiv erfaßbar. Searle räumt
daher durchaus ein sogenanntes
„Hintergrund-Problem“ ein (198).
Bewußt erfahrbar seien nur „repräsentationale Vorgänge“; diesen aber
müssen nicht-repräsentationale Vorgänge vorausgesetzt werden, nämlich
„diejenigen Fähigkeiten und allgemeinen praktischen Kenntnisse“,
„dank deren unsere Geisteszustände
funktionieren“ (198). Searles Konsequenz ist nun aber nicht, aufgrund
dieses „Hintergrund-Problems“ mit
den Zuweisungen von Formen intrinsischer Intentionalität vorsichtiger
umzugehen. Ihm reicht aus, „daß es
nützlich ist, eine Taxonomie zu ha-
ben, die unserer Intuition gerecht
wird, daß es zwischen Gedanke und
Bedeutung eine Übereinstimmung
gibt“ (208). Im Gespräch mit
F.Waismann über Fragen von „Intention, Meinen, Bedeuten“ hat L. Wittgenstein Skepsis geäußert: „Der Satz
ist dazu da, daß wir mit ihm operieren. (Auch das, was ich tue, ist eine
Operation). Die Ansicht, gegen die
ich mich in diesem Zusammenhang
kehren möchte, ist die, daß es sich bei
dem Verstehen um einen Zustand
handelt, der in mir vorhanden ist
(H.d.V.), wie z.B. bei den Zahnschmerzen.“ (Werkausgabe Bd.3,
1984, S.167). Searles Nützlichkeitsargument räumt diese Skepsis keineswegs aus (vgl. 207).
Eine vertiefende Lektüre des Buches
sollte Searles Grundbehauptung Beachtung schenken, von der aus er argumentiert, nämlich daß es eindeutige
mentale Dispositionen gäbe. Dies aber ist nicht so offensichtlich, wie er
sagt. Schließlich sei noch auf die
Einwände N.Luhmanns (Die Wissenschaft der Gesellschaft, 1992) und die
Kritik von B. Waldenfels (Antwortregister, 1994) an Searles Konzeption
intrinsischer Intentionalität verwiesen. Fragen nach einer materialistischen Reduktion intentionaler Zustände sowie nach Möglichkeiten
neurophysiologischer Beschreibungen
und Erklärungen scheinen zweitrangig zu sein, solange nicht geklärt ist,
was auf was zurückgeführt und was
erklärt werden soll.
Ignaz Knips
Herunterladen