In: Widerspruch Nr. 29 Geist und Gehirn (1996), S. 104-153 Bücher zum Thema Rezensionen Besprechungen Bücher zum Thema William H. Calvin/George A. Ojemann Einsicht ins Gehirn. Wie Denken und Sprache entstehen Aus dem Englischen von Hartmut Schickert, München/Wien 1995 (Hanser), 392 S., geb., 58.- DM. In ihrem gemeinsam verfaßten Buch geben der Neurobiologe W.H. Calvin und der Neurochirurg G.A. Ojemann anhand des Leitfadens einer Gehirnoperation einen aktuellen Überblick über den Stand der praktischen Neurochirurgie und der Erforschung der neuronalen Grundlage von Denken und Sprache. Ungewöhnlich ist dabei die Art und Weise der Darstellung: In einer locker gereihten, episodischen Erzählfolge wechseln kurze Dialogpartien mit längeren fachlichen Ausführungen eines Erzählers, sodaß der Leser Schritt für Schritt tiefer in den Aufbau und die Funktion des Gehirns eingeführt wird. Der Patient, an dem die Gehirnoperation durchgeführt wird - von den Autoren Neil genannt - repräsentiert dabei laut Nachwort keinen realen Patienten, sondern ist eine künstliche Figur. Auch in früheren Veröffentlichungen der Autoren war der dargestellte Patient ebenfalls Neil genannt worden. Dort wie hier vereinigt die Figur die typischen Elemente mehrerer Fallgeschichten. Weggelassen wurden zufällige Komplikationen, hinzugefügt hingegen typische Merkmale, so daß der Patient Neil „alle dem klassischen Lehrbuch-Fall entsprechenden Merkmale komplex-partieller epileptischer Anfälle personifizieren konnte“ (344). Durch diesen Kunstgriff einer Zusammenziehung aller typischen Merkmale in eine exemplarische Figur bei gleichzeitiger Verwendung eines dialogischen Erzählstils erreichen die Autoren angesichts der hochkomplexen Materie ein hohes Maß an Allgemeinverständlichkeit ohne auf den wissenschaftlichen Standard eines Fachbuchs verzichten zu müssen. Der didaktisch geschickte Aufbau des Buchs zeigt sich auch darin, daß die Figur des Patienten Neil einen zwar betroffenen, aber in die fachliche Ma- terie nicht eingearbeiteten Laien repräsentiert. Der Patient Neil steht damit stellvertretend auch für den Leser, der keine oder nur wenig fachliche Vorkenntnisse besitzt. Neil stellt in den arrangierten Dialogen des Buchs die 'naiven' Fragen, die dem Leser den Einstieg in die hochkomplexe Materie erleichtern. Der ganze Aufbau des Buches ist darauf angelegt, hochspezialisiertes Fachwissen in alltägliche Dimensionen zurückzuführen und einem allgemein interessierten Nicht-Fachmann einen anschaulichen und unterhaltsamen Zugang zur praktischen Gehirnforschung, ihren Ergebnissen und systematischen Fragestellungen zu ermöglichen. Die Autoren bedienen sich dabei vieler veranschaulichender Beispiele und Analogien (meistens aus der Geschäftswelt und der Computerbranche) und geben trotz unsicherer Wissenslage des öfteren 'vorläufige Gesamteinschätzungen' (die als Orientierungspunkte für interessierte Laien sehr hilfreich sind, weil in der streng wissenschaftlichen Fachliteratur eher selten anzutreffen). Genauer handelt es sich bei der geschilderten Gehirnoperation um die teilweise Entfernung des rechten Temporallappens, eines Teils der Großhirnrinde. Durchgeführt werden soll sie, da man in diesem Bereich den Auslöser für die epileptischen Anfälle des Patienten vermutet. Im Falle Neils führte eine Gehirnquetschung infolge eines Autounfalls zur Bildung von vernarbtem Gehirngewebe, das man für die Auslösung epileptischer Anfälle verantwortlich macht. Allge- mein werden solche Operationen nur durchgeführt, wenn Häufigkeit und Intensität epileptischer Anfälle zunehmen, ohne daß die zur Verfügung stehenden Medikamente anschlagen (was aufgrund der Übererregung der Nervenzellen bei einem Anfall zu bleibenden Schädigungen führt). Um Persönlichkeitsveränderungen und bleibende Einbußen der Gehirnfunktion des Patienten auszuschließen, ist es für den Neurochirurgen dabei nötig, die an die vernarbten Bereiche des Temporallappens angrenzenden Hirnareale exakt zu lokalisieren und ihre oft hochspezialisierte Funktion festzustellen. Dies geschieht nach der Öffnung des Schädels bei vollem Bewußtsein des Patienten. Meist werden dem Patienten auf einem Bildschirm verschiedene Bilder gezeigt, die er mit einem kurzen Satz benennen soll, während der Neurochirurg gleichzeitig kleine Bereiche des Gehirns mit einem schwachen elektrischen Strom reizt. Der elektrische Strom stört dabei die normale neuronale Funktion. Ist der Patient zur Bildung eines korrekten Satzes nicht in der Lage, kann man je nach Versuchsanordnung die gereizten Bereiche der Benennung, Artikulation oder semantischen Verknüpfung der visuell aufgenommenen Information zuordnen. So gelangt man nach und nach zu einer exakten Kartierung der Gehirnfunktionen. Erst wenn die Kartierung der angrenzenden Hirnareale vollständig erfolgt ist, entfernt der Chirurg die Teile des Temporallappens, in denen er vernarbtes Gewebe festgestellt hat. Daß sich Calvin und Ojemann gerade der Erforschung der neuronalen Denk- und Sprachfunktion und dabei besonders des semantischen Aspekts von Sprache verschrieben haben, liegt vor allem darin begründet, daß die Vernarbungen, wie sie aufgrund von Gehirnquetschungen entstehen, aus anatomischen Gründen oft in der Nähe der Sprachzentren liegen, sodaß diese bei einer Öffnung des Schädels zum Zweck der Entfernung eines epileptischen Herdes frei zugänglich sind. In diesen Fällen bietet eine Operation die seltene Möglichkeit, direkte Untersuchungen am offenen Hirn durchführen zu können und zudem den speziellen Zweck einer Entfernung von vernarbtem Hirngewebe mit dem allgemeinen Zweck der Erforschung der Organisation des Sprachkortex zu verbinden. Die verschiedenen Gehirnareale, die mit der Spracherzeugung in Verbindung gebracht werden, können - wenn sich der Patient zuvor schriftlich einverstanden erklärt hat - gezielt untersucht und einzelne Neuronenverbände oder Areale verschiedenen Funktionen des menschlichen Sprachvermögens zugeordnet werden. Dabei schließen sich die Autoren der Theorie Noam Chomskys an, daß es „eine biologische Grundlage für Syntax und Grammatik geben müsse“ (226), und zwar im Sinne einer „biologisch festgelegte Tendenz“ (230) oder 'Prädisposition' des kindlichen Gehirns zur Entwicklung von Syntax und Sprache, wobei die genauen Regeln der Satzkonstruktion jedoch von den Kindern „allein durch Beobachtung“ (229) erlernt würden. Implizit gehen Calvin und Ojemann in ihren Ausführungen von der Auffassung aus, daß das Denken und die Sprache der Vermittlung des menschlichen Organismus mit seiner Umwelt dient, und daß in den dabei erzeugten semantischen Verknüpfungen Informationen über die Umwelt repräsentiert sind (die gespeichert werden und selbst wiederum das Handeln des Organismus in seiner Umwelt beeinflussen). Im Gehirn ereigne sich ein ständiger Kampf „zwischen Stabilität und Flexibilität“ und die Außenwelt sei dabei „der oberste Schiedsrichter“ (315). Explizit und wiederholt dagegen sprechen die Autoren vom „Darwinschen Prozeß“, den sie als „Standardprozeß der Natur“ (342) bezeichnen. Dessen sechs Hauptmerkmale „Muster, Kopien, Variationen, Wettbewerb“, „eine vielgestaltige Umwelt“ und die „vielen Wiederholungen der Variations- und Ausleseschritte“ (334) sehen Calvin und Ojemann nicht nur auf der Ebene der evolutionären Entstehung der Arten oder innerhalb des Immunsystems bezüglich der Bildung „immer besserer Antikörper“ (164) am Werk, sondern sehen in ihnen auch die Hauptmerkmale für Prozesse im Gehirn. Entscheidend ist für die Autoren - die in diesem Zusammenhang vom „neuronalen Darwinismus“ (334) sprechen -, daß die Bildung von Sätzen sich nicht einzelnen „Stellen“ zuordnen, sondern sich nur als ein parallel prozessierendes, evolutionäres Zusammenspiel verschiedener Hirnareale fas- sen läßt. „In deinem Geist“, schreiben die Autoren, „läuft vermutlich derselbe Darwinsche Prozeß ab, wenn du einen neuen Satz aussprichst oder dich entscheidest, was du heute zum Abendessen kaufen sollst. Anders gesagt, in einem Wettstreit zwischen mehreren möglichen Kandidaten wird in einem Zeitraum von Millisekunden bis zu Minuten ein immer besserer Satz geformt. In der Regel sind binnen ein bis zwei Sekunden genügend viele Generationen durchgespielt worden, so daß dir der Satz hinreichend gut erscheint, um ihn über die Zunge kommen zu lassen. ... Es muß ein Prozeß sein, wenn innerhalb von ein oder zwei Sekunden etwas Sinnvolles dabei herauskommen soll.“ (165). Die Grundelemente jedes Sprachprozesses und damit auch der Gehirntheorie sind nach Calvin und Ojemann die räumliche Codierung von Gegenständen der Umwelt in neuronalen Zellverbänden (den sog. „Hebbschen Zellverbänden“), ihre Wiedererschaffung als „vollausgebildete raumzeitliche Muster“ (341) während des Erinnerns und die Verknüpfung dieser neuronalen Muster zu Kategorien und Metaphern. Als Hauptorganisationsprinzip des Sprachkortex bestimmen die Autoren jedoch „nicht das Erkennen oder Erinnern von Einzelheiten“ (339), sondern die mittels eines neuronalen Darwinismus erzeugte, sequenzierende, syntaktische und logische Verknüpfung von (erkannten und in raumzeitlichen Mustern gespeicherten) Gegenständen. Daß das Buch aufgrund seiner Darstellungsweise kein Fachbuch sein will, das nur vom kleinen Kreis der Fachleute zur Kenntnis genommen wird, mag auch einer pragmatischen Absicht der Autoren geschuldet sein. Den Hintergrund dazu bildet die angespannte Finanzlage im Bereich der Grundlagenforschung. Da die Forschung am menschlichen Gehirn aufgrund der hochtechnischen Einrichtungen eine äußerst kostspielige Angelegenheit ist und private Firmen nur Interesse zeigen, wenn sich mittel- oder langfristig pekuniäre Gewinnchancen abzeichnen, ist sie eine Sache des Staates. Dessen Zuwendungen aber sind knapp, und so werden zwischen den 'unproduktiven' Sparten der Grundlagenforschung harte Konkurrenzkämpfe um die Finanzierung ausgetragen. Mit ihrer breitenwirksamen Aufbereitung des fachlichen Wissens und seiner möglichen Bedeutung - vor allem für eine Kostensenkung im Gesundheitsbereich infolge genauerer Kenntnisse und Prophylaxemöglichkeiten bei Gehirnerkrankungen - betreiben die Autoren in diesem Verteilungskampf mit ihrem Buch auch Werbung in eigener Sache. Den Autoren, die ihrem Anspruch zufolge „eine für allgemein interessierte Leser verständliche Geschichte erzählen wollten“ (343), ist dies ohne Einschränkung gelungen. Wolfgang Thorwart Francis Crick Was die Seele wirklich ist München 1994 (Artemis & Winkler), 392 S., 64.- DM. 1962 hat Francis Crick (zusammen mit James D. Watson) den MedizinNobelpreis für die Entdeckung der DNA-Doppelhelix bekommen. Was aber veranlaßt einen erfolgreichen Naturwissenschaftler, auf eine philosophische bzw. religiöse Frage eine Antwort geben zu wollen. „Was die Seele wirklich ist“ - ein vielversprechender Titel. Doch schon auf den ersten Seiten zeichnet sich ab, daß die Antwort in diesem Buch nicht zu finden ist. Die Einleitung macht klar, wo Cricks Interessensschwerpunkt liegt: das menschliche Bewußtsein, und die vielfältigen Weisen, mit denen die Wissenschaft ihm zu Leibe rückt. Er macht auch gleich klar, für welche Richtungen er bei der Erforschung des Bewußtseins „zur Zeit“ keine Begeisterung aufbringt: die Funktionalisten, die Behavioristen, einige Physiker und Mathematiker und natürlich die Philosophen, denen er in seinem Buch mehrere Seitenhiebe erteilt. Was bleibt, ist die experimentelle Untersuchung des Bewußtseins. Diese in Angriff zu nehmen ist sein Ziel. Dazu ruft er auf. Das Buch ist in drei Teile gegliedert: Teil I enthält die Beschreibung des status quo der psychologischen Ansätze zum Bewußtsein, Teil II beschäftigt sich mit neurobiologischen und neuronalen Grundlagen und Teil III fügt schließlich die Ergebnisse zu- sammen und führt den Leser zu Cricks Bewußtseinsmodell. Ausgangspunkt des Buches ist Cricks „erstaunliche Hypothese“: „Sie, Ihre Freuden und Leiden, Ihre Erinnerungen, Ihre Ziele, Ihr Sinn für Ihre eigene Identität und Willensfreiheit bei alledem handelt es sich in Wirklichkeit nur um das Verhalten einer riesigen Ansammlung von Nervenzellen und dazugehörigen Molekülen.“ Und schon hat er die Antwort auf den Titel des Buches gegeben: die Seele? Nichts als Nervenzellen; ein antiquierter Begriff aus metaphysischen Zeiten, in denen der unwissende Mensch sich in seiner Hilflosigkeit auf die Religion gestützt hat. Über 2500 Jahre, so Crick, hatten Philosophen und Theologen Zeit, uns eine Antwort auf die Fragen unseres Bewußtseins zu geben, und haben dabei kläglich versagt. Ein moderner Neurobiologe könne sich solche mystisch-metaphysischen Überlegungen sparen und sollte sich auf die Erforschung der Zusammenhänge zwischen Neuronen und Bewußtsein konzentrieren. Crick geht dabei davon aus, daß die Außenwelt real ist auch wenn wir niemals vollständiges Wissen über sie erhalten können -, daß das Leib-Seele Problem mangels Seele nicht mehr vorhanden ist und daß die Frage nach den „Qualia“ und der Wirklichkeit der Außenwelt den Philosophen zu überlassen ist, die sich in „scharf geschliffenen Zänkereien“ darüber auseinandersetzen können. Wer nach dieser Erledigung der Frage, „was die Seele wirklich ist“, das Buch nicht enttäuscht zur Seite legt, kommt nun zu den eigentlichen Ansätzen Cricks. Ausgehend von der oben erwähnten „erstaunlichen Hypothese“ expliziert Crick die ihr zugrunde liegenden einzelnen Ausgangspunkte und Grundannahmen. Zuerst einmal ist das Gehirn für Crick eine außergewöhnliche, neuronale Maschine, die sich im Laufe der Evolution entwickelt hat. Das menschliche Bewußtsein sei daher bei der Geburt auch keine tabula rasa, sondern bereits mit einer „Voreinstellung“ versehen. Im Laufe des Lebens paßt sich diese Maschine dann immer mehr den Notwendigkeiten von Körper und Umwelt an - es erfolgt sozusagen die „Feineinstellung“. Das ganze System Gehirn verhält sich emergent, was nach Crick nicht nur mehr als die Summe aller Teile bedeutet, sondern auch das Verhalten und die Interaktionsweisen seiner Einzelteile umfaßt. Genau hier setzt Crick nun an, wenn er behauptet, daß sich im Prinzip alle verschiedenen Aspekte des Bewußtseins auf einen Mechanismus (oder wenige) zurückführen lassen. Weiterhin glaubt er, daß der Unterschied zwischen bewußten und unbewußten Vorgängen sich auf neuronaler Ebene wiederfinden läßt. Interessant ist nun, daß Crick einer Definition von Bewußtsein aus dem Wege geht - mit der Begründung, daß Definitionen nur irreführend sein können. Ebenso sei die Frage nach dem Sinn des Bewußtseins verfrüht. Für ihn steht schlicht fest, daß wir „es“ (das nicht Definierte) brauchen, um in unserer Umwelt zurechtzukommen. Dabei ist für Crick die Sprache eine kaum bedeutende Bereicherung des Bewußtseins, und auch das Selbstbewußtsein nur ein Sonderfall. Zudem meint er, daß es sich nicht lohne, über die Existenz von Bewußtsein bei anderen Lebensformen zu streiten. Cricks wissenschaftlicher Ansatz konzentriert sich im weiteren nur auf das visuelle Bewußtsein. Er begründet dies mit dem bereits vorhandenen, umfangreichen Wissen über das Sehen, mit den Möglichkeiten, (behavioristische) Versuche mit Menschen und „ethisch vertretbare“ Tierversuche durchzuführen. Als den bedeutendsten Grund für seine Konzentration auf das visuelle Bewußtsein nennt Crick jedoch die Vielfältigkeit der Verarbeitungsschritte und ebenen. In verschiedenen kortikalen Arealen werden die visuellen Informationen rezipiert und konstruiert, und vermitteln so dem Menschen, ausgehend von dem zweidimensionalen Netzhautbild des Auges, „in Echtzeit“ einen dreidimensionalen Eindruck. Dabei arbeitet das Gehirn scheinbar mit Symbolisierungen, Scheinwerfereffekten und anderen Mechanismen, um eine innere Repräsentation der Umwelt zu ermöglichen. Crick stellt im folgenden die verschiedenen psychologischen Ansätze der visuellen Wahrnehmung vor. Er warnt hier vor der Verführung durch den Homunculus-Fehlschluß, vor dem „Mann im Kopf“, der die Aufgaben des Geistes erledige, wie vor den Ansätzen eines Materie-GeistDualismus. Für ihn spielen vielmehr Aufmerksamkeit und Gedächtnis als neuronale Funktionen die entscheidende Rolle beim Bewußtsein. Im zweiten Teil geht Crick auf die Funktionsweise des Neurons, des Nervensystems und des Gehirns ein, bevor er anhand von experimentellen Erkenntnissen über das Gehirn Verbindungen zu den psychologischen Ergebnissen knüpft. Obwohl Crick den Vergleich des menschlichen Gehirns mit einem Computer für nicht angemessen hält, sind Neuronale Netzwerke seiner Meinung nach jedoch eine gute Möglichkeit, die Funktionsweise von Neuronen besser zu verstehen. Sie seien einer der möglichen Ansatzpunkte für den Zugang zum Bewußtsein. Die grundlegenden Fragen sind für ihn die, nach der Art, der Qualität, des Verhaltens und des Ortes der für Bewußtsein relevanten Neuronen. Zusammenfassend läßt sich Cricks Bewußtseinsmodell folgendermaßen darstellen: Bewußtsein ist gleichzusetzen mit neuronaler Aktivität, die sich weitgehend im Kortex abspielt. Es handelt sich sozusagen um das Ergebnis „kortikaler Berechnungen“, an denen wahrscheinlich in erster Linie Pyramidenzellen beteiligt sind. Eine notwendige Bedingung für Bewußtsein ist die Beteiligung des Ultrakurzzeitgedächtnisses, das wahrscheinlich durch rückgekoppelte Schleifen zwischen Kortex und Thalamus funktioniert. Daraus folgt, daß nur die Areale des Kortex, die eine Rückverbindung zum Thalamus ha- ben, auch Bewußtsein haben können. Der Thalamus ist ebenfalls wesentlich an der Steuerung der Aufmerksamkeit beteiligt. Aufmerksamkeit hat die Aufgabe, das herauszufiltern, was in unsere höheren kortikalen Areale, also in unser Bewußtsein vordringt. Crick ist sich durchaus der Schwächen und der Angreifbarkeit seines Ansatzes bewußt. Er erhebt aber auch nicht den Anspruch, grundlegende Wahrheiten erkannt, sondern einen - wenn auch zum Teil „über den Daumen gepeilten“ - Denk- und Forschungsanstoß gegeben zu haben. Er ist davon überzeugt, daß sich die neuronale Sprache des Gehirns analysieren und verstehen läßt, wenn vielleicht auch niemals vollständig. Würden wir allerdings erst einmal die grundlegenden Funktionsweisen verstanden haben, dann sei es wahrscheinlich möglich, weitere Schlüsse zu ziehen und komplexere Vorgänge wie Wahrnehmung, Denken oder Verhalten zu erklären. Sollten wir soweit kommen, könnten wir eventuell sogar Qualitäten wie Gefühle oder Ästhetik erklären. Dann hätten die Crickianer erreicht, was die Philosophen und Theologen in 2500 Jahren nicht geschafft haben. André Panné Antonio R. Damasio Descartes' Irrtum. Fühlen, Denken und das menschliche Gehirn München\Leipzig 1995 (List-Verlag), 384 S., 44.- DM. Daß Antonio R. Damasio, einer der renommiertesten Neurologen der Welt, sich schon im Titel seines Buches so weit in Bereiche des Geistes vorwagt, mag für streng akademisch orientierte Philosophen unannehmbar sein. Zu der Überzeugung, daß Themen wie Geist, Bewußtsein und Identität traditionell im Bereich der Philosophie angesiedelt sind, kommt die für Philosophen typische arrogante Meinung hinzu, Naturwissenschaftler hätten außer für Materie, in welcher Form auch immer, keinen Blick. Dabei vergessen sie, daß nicht nur die philosophische Tradition des Abendlandes mit der Vertreibung des Körpers aus dem Reich des Geistes und der negativen Bewertung des Sinnlichen verantwortlich für die beharrliche Trennung zwischen Leib und Seele ist. Auch die moderne Wissenschaft und Technik mit ihrem Anspruch auf Objektivität haben einen großen Beitrag zur Spaltung zwischen der rationalen Erkenntnis und den irrationalen, weil oft unerklärbaren, Gefühlen und Empfindungen geleistet. Wer sich darauf einläßt, das Buch von Damasio ohne Vorurteile zu lesen und sich bei einem interessanten, auch für interessierte Laien verständlichen Spaziergang durch die Aktivitäten unseres Gehirns führen läßt, wird bald bemerken, welche Vorteile sich aus diesem Perspektivwechsel auch für die philosophische Reflexion gewinnen lassen. Entgegen der weit verbreiteten Idee, daß Denken und vernünftiges Handeln durch Gefühle und Empfindung nur gestört werden, fragt sich Damasio, ob es eine Rationalität ohne Beteiligung von Gefüh- len überhaupt geben könne. Historischer Ausgangspunkt dieser Fragestellung ist die Rekonstruktion eines der spektakulärsten Fälle von erworbener Hirnschädigung, der Fall von Phineas Gage. Der amerikanische Bahnarbeiter Phineas Gage wurde im Sommer 1848 bei einer Sprengung Opfer eines tragischen Unfalls. Mit der vollen Kraft der Explosion drang eine zentimeterdicke und meterlange Eisenstange durch seine linke Wange, durchbohrte die Schädelbasis, und durchquerte den vorderen Teil des Gehirns, um dann wieder aus dem Schädeldach auszutreten. Die Folgen der brutalen Verletzung waren erstaunlich. Gage verlor zwar das linke Augenlicht, doch seine intellektuellen Fähigkeiten und die Sinnesvermögen blieben intakt. Unmittelbar nach dem Unfall konnte er gehen, reden und sich normal verhalten. Was aber einigen Wochen danach mit Gage passierte, konnte man sich kaum erklären. Er hatte den schweren Unfall und die anschließende Wundinfektion überlebt und schien geheilt. Aber Gage war nicht mehr derselbe Mensch, der er bis dahin gewesen war. Sein Charakter und seine Persönlichkeit hatten sich absolut verändert mit der tragischen Konsequenz, daß er nicht mehr in der Lage war, sich vernünftig und sozial angemessen zu verhalten. Warum Gage nicht mehr Gage war, läßt sich heute mit Hilfe neuer Untersuchungsverfahren des menschlichen Gehirns rekonstruieren. Durch die Gehirnverletzung wurden Gages emotionale Fähigkeiten schwer beein- trächtigt. so daß er unfähig war, sein Denken mit Inhalten aus realen Lebenssituationen zu verbinden. Bedeutet der Fall Gage etwa, daß es einen genau benennbaren Ort in unserem Gehirn gibt, wo unsere Gefühle entstehen und zu Hause sind? Eine Lektüre in dieser Richtung würde sowohl der Arbeit Damasios als auch der Komplexität des Themas nicht gerecht. Keine Rationalität ohne Gefühle bedeutet zunächst, daß unser Denken und vernünftiges Handeln kontextabhängig sind. Dies mag sich banal anhören und wird erst interessanter, wenn man genauer überlegt, an welche Art von Kontext gedacht wird. Kontext meint hier nicht so sehr soziale und geschichtlich-kulturelle Umstände, sondern die Tatsache, daß Menschen mit einem Körper geboren werden, und daß nur in diesem Körper unser Gehirn sich entwickeln kann. Genauso wie alle normalen Menschen ein Gesicht mit zwei Augen, einer Nase und einem Mund besitzen, das dann durch individuelle Erlebnisse ganz persönliche Zügen bekommt, könnte man sich die Entwicklung unseres Gehirns vorstellen. Bei allen Menschen gleich, bei allen Individuen verschieden. Von daher ist Damasios Buch auch ein Buch über die „Priorität des Körpers“, der ein ständiger „Orientierungsrahmen“ (18-19) für die Aktivität unseres Geistes ist. Nur, weil es einen Körper gibt, gibt es auch ein Gehirn (132); und nur, weil beide „einen unauflöslichen Organismus“ bilden (18), in dem eine ständige Interaktion bio- chemischer und neuronaler Natur stattfindet, kann so etwas wie Geist überhaupt entstehen. In letzter Konsequenz wird damit die Frage, ob Denken und Geist sich im Gehirn lokalisieren läßt, belanglos. Die Aktivität unseres Geistes, egal ob es sich um Erinnerungsbilder oder ob um zukunftsorientierte Vorstellungsbilder handelt, ist auf die unaufhörliche Grundreferenz unseres Körpers angewiesen. Ohne diese Grundreferenz scheint so etwas wie Bewußtsein, ja sogar Identität, schwer beeinträchtigt. Unser Körper ist Geist und unser Geist ist ebenso Körper. Und unsere Gefühle? Wir könnten sie als fleißige Berichterstatter verstehen. Sie signalisieren jede Veränderung in unserer organischen Landschaft und sorgen damit für die Erhaltung der individuellen Einheit, die jeder Mensch darstellt. Vor nicht allzu langer Zeit fragte ein berühmter Philosoph, ob man ohne Körper denken könne, und antwortete: „Das Denken läßt sich nicht vom phänomenologischen Körper absetzen“.1 Nach der Lektüre von Damasios Buch fällt es schwer, das Denken je wieder ohne den biologischen Körper zu verstehen.María Isabel Peña Aguado John C. Eccles Wie das Selbst sein Gehirn steuert Cf. Jean-François Lyotard, Ob man ohne Körper denken kann. In: Das Inhumane. Plaudereien über die Zeit, Wien 1989, S.48. 1 München 1994 (Piper). Aus dem Englischen von Malte Heim, 281 S., geb., 42.- DM. In der Diskussion, wie das allgemein als 'eng' konstatierte Verhältnis von neuronalen und mentalen Prozessen genauer zu bestimmen sei, bezieht der Medizin-Nobelpreisträger und Gehirnforscher John C. Eccles mit seinem neuesten Buch eine extreme Position. Denn der Titel - im Original „How the Self controls his Brain“-, der die Enthüllung der Art und Weise der Steuerung des Gehirns durch das Selbst ankündigt, unterstellt, daß es das „Selbst“ sei, das sein Gehirn steuere. Mit dieser These, die Eccles seit den 50er Jahren in zunehmend radikaler Form reformuliert (und die ihn in der wissenschaftlichen Gemeinschaft nach wie vor zum Außenseiter macht), setzt er seinen lebenslangen Kampf gegen die „religionsfeindliche Philosophie des monistischen Materialismus“ (31) fort. Gegen den Monismus der modernen Naturwissenschaft, der als Erklärungsmodell nur zuläßt, was sich auch wissenschaftlich beschreiben und ableiten läßt, setzt Eccles seine Position eines „dualistischen Interaktionismus“. Das heißt, er führt hinsichtlich des Verhältnisses von neuronalen und mentalen Prozessen ein zweites Erklärungsprinzip in die Debatte ein, das den naturwissenschaftlichen Monismus nicht nur durchbricht, sondern das gar das dominierende Prinzip sei: Nach Eccles sind es mentale Ereignisse, die, selbst autonom und ursächlich, die neuronalen Ereignisse steuern. Die Mehrzahl der Theorien erklärt die mentalen Prozesse als eine neue Qualitätsstufe der hochkomplexen Organisation neuronaler Hirnareale. Ihr zufolge sind mentale Prozesse Funktionen neuronaler Prozesse. Sie kommen ohne neuronale Grundlage nicht zustande, sind aber nicht auf neuronale Einzelaktivität reduzierbar. Mentale Prozesse werden als etwas qualitativ Neues und offensichtlich 'anderes' als neuronale Vorgänge verstanden. Sie entstehen erst durch das äußerst komplexe Zusammenspiel höchst spezifizierter neuronaler Hirnareale. Dabei ist das Phänomen des Auftauchens neuer Qualitätsstufen, die nicht auf die Summe ihrer Einzelteile reduzierbar sind, sogenannte „Emergenzen“, auch außerhalb neuronaler Organisation bekannt und, so argumentieren die Vertreter des wissenschaftlichen Monismus, in der Natur etwas 'ganz Gewöhnliches'. So führe etwa die Verbindung bestimmter Quanta chemischer Stoffe zur Bildung neuer Stoffe mit völlig veränderten Eigenschaften. Beispielsweise reagieren zwei Gase, Wasserstoff und Sauerstoff, zu einer Flüssigkeit, Wasser. Das Auftauchen neuer Qualitätsstufen sei in monistische Erklärungsmodelle sehr wohl integrierbar und hätte die Wissenschaft auch bisher nicht dazu veranlaßt, ein zweites Erklärungsprinzip einzuführen. Ein solches Prinzip nun gerade bei neuronalen Organisationsformen einzuführen - und nicht etwa schon beim qualitativen Sprung der Entstehung organischen Lebens - sei daher will- kürlich und unwissenschaftlich. (so z.B. der Gehirnforscher G. Roth). Demgegenüber hatte Eccles schon in seinem vorangehenden Buch „Die Evolution des Gehirns - die Erschaffung des Selbst“ darauf beharrt, monistische Erklärungsansätze, wie der Evolutionsgedanke, gälten nicht universell, sondern nur bis zur Ausbildung des Gehirns als Organ und zur Erklärung niederer Bewußtseinsfunktionen. Beim Auftreten des „Selbst“ Eccles sagt auch: Geist, Seele - müsse man jedoch ein völlig neues Prinzip annehmen, das den Erklärungsmonismus überwindet. Mentale Phänomene, wie der 'freie Wille' und vor allem die Moralität, die für das „Selbst“ konstitutiv sind, können Eccles zufolge aus der Evolution prinzipiell nicht abgeleitet werden. Eccles verwirft damit den Evolutionsgedanken nicht vollständig, sondern beschränkt ihn auf die Entwicklung dessen, was dann, bei genügender Komplexität, vom „Selbst“ in Besitz genommen werden kann. Dies aber bedeutet, daß das von der Evolution unabhängige Prinzip des „Selbst“ mit dem Prinzip der Evolution und dem wissenschaftlichen Monismus kompatibel sein muß. Bisher aber widersprachen die Erhaltungsgesetze der Physik der Annahme, nicht-materielle Ereignisse könnten auf materielle Ereignisse, wie sie neuronale Prozesse darstellen, ursächlich einwirken. Demzufolge sieht Eccles die Leistung seines neuesten Buches auch gerade darin begründet, „daß zum ersten Mal in Detailliertheit eine Hypothese zum Geist-Gehirn-Problem entwickelt wurde, und daß sie den sie den Erhaltungsgesetzen der Physik nicht widerspricht“ (11). Eccles' Problem bei der Durchführung seiner Hypothese besteht demnach erstens darin, den 'Mechanismus' anzugeben, der das „Wie“ einer ursächlichen Einflußnahme mentaler Prozesse auf neuronale Prozesse erklärt, ohne daß dabei Energie übertragen wird; und zweitens muß im Gehirn ein eindeutiger Ort angegeben werden, an dem diese Einflußnahme erfolgen soll. Eccles' hypothetischer Lösungsversuch liegt in der Annahme quantenphysikalischer Prozesse auf der molekularen Ebene spezieller Nervenzellen der Großhirnrinde. Er nimmt an, „daß alle mentalen Erfahrungen einen einheitlichen Aufbau besitzen und ihre Einheiten - die Psychonen - für jede Art von Erfahrung typisch sind“ (209). Jedem dieser als mentale Grundeinheit postulierten und ursächlich wirkenden „Psychonen“ ordnet er eine Rezeptoreinheit zu, von ihm „Dendron“ genannt. Diese Dendronen bestünden aus Bündeln in die erste der sechs Schichten des Neokortex aufsteigender Dendriten von Pyramidenzellen und stellten jeweils eine „funktionelle Einheit“ (273) dar. Eccles nimmt nun einen quantenmechanischen Auslösemechanismus für die Exozytose (die Freisetzung von Transmittersubstanz) an den Synapsen der zu „Dendronen“ gebündelten Dendriten an. „Psychon“ und „Dendron“ verhalten sich dann analog den Wahrscheinlichkeitsfeldern der Quantenphysik. Da diese weder Materie noch Energie aufwiesen, sei die Einhaltung des Materie/EnergieErhaltungsgesetzes gewährleistet, und eine ursächliche Beeinflussung neuronaler Prozesse - die demnach immer in der Auslösung eines Aktionspotentials besteht - sowie „die vollständige Herrschaft des Selbst über das Gehirn“ (244) anzunehmen. Daß Eccles der Aufstellung dieser spekulativen Hypothese einen so großen Stellenwert beimißt, liegt an der - von Karl R. Popper in seinem Buch „Logik der Forschung“ entwickelten und von Eccles zustimmend angeführten - eigentümlichen Auffassung von Wissenschaft. Wissenschaftliches Vorgehen besteht demnach im wesentlichen in einem „Hypothetico-Deduktivismus: Zu Beginn steht die Entwicklung einer Hypothese anhand einer Problemsituation, dann folgt ihre Überprüfung anhand der Summe des relevanten Wissens, und am Schluß wird ihre Fähigkeit geprüft, etwas zu erklären“ (11). Zwar ist die spekulative Hypothesenbildung eine durchaus legitime Vorgehensweise in der Wissenschaft, so wie auch irrationale Elemente wie Intuitionen in ihr eine Rolle spielen können. Entscheidend ist aber, daß die Hypothesenbildungen nach Popper dem Kriterium der Falsifizierbarkeit unterliegen. Theorien, die prinzipiell nicht empirisch falsifizierbar sind, gelten als unwissenschaftlich. Damit stellt sich an Eccles' Hypothese hinsichtlich ihrer eigenen wissenschaftstheoretischen Voraussetzungen die grundsätzliche Frage: Ist eine Hypothese, die sich eines autonomen, wis- senschaftlich oder evolutionär nicht ableitbaren Prinzips, der „Psychonen“, bedient, überhaupt falsifizierbar? Wissenschaftlich zugänglich und überprüfbar sind allein die Rezeptoren der behaupteten Einflußnahme, die „Dendronen“. Ob die Bündel der aufsteigenden Dendriten und die Prozesse an ihren Synapsen Rezeptoreinheiten darstellen, die die Quantenmechanik zulassen, ist in der Forschungsliteratur umstritten. Hier können weitere Forschungen die Verifikation oder Falsifikation erbringen. Eccles' Prinzip der „Psychonen“ dagegen besitzt einen prekären Status: Es ist, weil lediglich hypothetisch eingeführt, weder wissenschaftlich bewiesen, noch überhaupt falsifizierbar. „Psychonen“ sind als prinzipiell „eigenständige Entität“ (27) aufgrund eben dieser unterstellten Eigenständigkeit immun gegen alle weitere Forschungsresultate. Es läßt sich daher vermuten, daß Eccles - sollte der von ihm behauptete Einflußort falsifiziert werden - seinem seit Jugendzeiten vertretenen „natürlichen dualistischen Glauben“ (244) treu bleiben und seine aktuelle Hypothese durch eine entsprechend modifizierte neue Hypothese ersetzen wird. Die wissenschaftlich problematische Konstante all seiner Hypothesenbildung ist und bleibt aber die wissenschaftliche Unableitbarkeit des von ihm neu eingeführten Prinzips eigenständiger „Psychonen“. Wenn Eccles im Vorwort die Vertreter monistischer Erklärungstheorien dazu auffordert, ihm das Gegenteil seiner Hypothese zu beweisen, dann begeht er zudem eine in der Wissenschaft unzulässige Umdrehung der Beweislast: „Somit stellt dieses Buch eine Herausforderung dar, der sich die Materialisten stellen müssen. Können sie behaupten, daß das Selbst nicht das Gehirn steuert, und können sie diese Behauptung durch wissenschaftliche Untersuchungen des menschlichen Neokortex in seiner ganzen Komplexität stützen?“ (13f.). Solange der Anspruch auf Wissenschaftlichkeit noch erhoben wird, hat die Beweislast immer noch derjenige zu tragen, der eine Behauptung aufstellt. Eccles selbst müßte also erst einmal einen Beweis für die Existenz der von ihm behaupteten „Psychonen“ liefern (wozu er aufgrund der angenommenen Autonomie nicht in der Lage ist). Gälte dies nicht, dann ließe sich mit wissenschaftlichem Ernst auch behaupten, auf der Rückseite des Plutomondes „Charon“ warte ein Fährmann auf die Seelen der Verstorbenen, um sie ins Jenseits überzusetzen. Beweist erst mal das Gegenteil! Wolfgang Thorwart Gerald M. Edelman Göttliche Luft, vernichtendes Feuer. Wie der Geist im Gehirn entsteht München 1995 (Piper), geb., 396 S., 48.- DM. Edelman legt eine komplexe und differenzierte Theorie der Entwicklung von Bewußtsein vor, die vor allem neurobiologische und psychologischen Erkenntnisse mit der Selektionstheorie Darwins zu verbinden sucht. Dabei geht er davon aus, daß es eine wirkliche Welt gibt, die durch allgemeine physikalische Gesetze beschrieben wird, daß wir uns in dieser realen Welt aus früheren Ursprüngen entwickelt haben, und daß sich der mit uns entstandene Geist naturwissenschaftlich fassen läßt, indem seine Verkörperung, unser Gehirn, als Organ der natürlichen Auslese verstanden wird (228). Seine Theorie der Selektion neuronaler Prozesse (TSNG) umfaßt drei Grundprinzipien: 1. Die Selektion neuronaler Gruppen, die während der embryonalen Entwicklung stattfindet und den topobiologischen Aufbau des Gehirns bildet, das primäre Repertoire; 2. Die Erfahrungsselektion, die dazu führt, daß bestimmte synaptische Verbindungen aufgrund des Verhaltens des Organismus in seiner Umwelt selektiv verstärkt oder geschwächt werden, und die das sekundäre Repertoire bildet; und 3. die reziproke Koppelung, die die im primären und sekundären Repertoire entstandenen Karten, die für bestimmte sensorische und motorische Aktivitäten zuständig sind, miteinander über parallele und wechselseitige Leitungen verbindet. Werden Neuronengruppen aus einer bestimmten Karte gereizt, so können gleichzeitig Neuronengruppen in anderen, mit dieser Karte reziprok gekoppelten Karten gereizt werden. Im Laufe der Zeit werden die Wechselbeziehungen, die am häufigsten auftreten, immer mehr verstärkt. So entstehen Gruppen von neuronalen Verbindungen, die aus mehreren Karten stammen. Die Koppelung dieser Mehrfachkarten mit der Sensomotorik des Lebewesens führt in Verbindung mit internen Wertkriterien, die im Laufe der Evolution entstanden sind, zur Wahrnehmung von Objekten und Ereignissen, zur „Kategorisierung“ von Wahrnehmung. Erneute Verschaltung mit anderen Gehirnregionen führt zu Gedächtnis, Lernen und zur Begriffsbildung. Diese geschieht unabhängig von Sprache, erfolgt in einem eigens dafür entwickelten Bereich in der Großhirnrinde, im Vorderhirn, und benötigt keinerlei Außenreize. Begriffe werden gebildet, indem das Gehirn die globalen Karten, die aufgrund der Interaktion zwischen Organismus und Umwelt bereits angelegt wurden, kategorisiert, vergleicht und neu zusammensetzt. „Durch seine Verbindung zu den Basalganglien, dem limbischen System einschließlich des Hippokampus kann das Vorderhirn auch Beziehungen herstellen, die der Kategorisierung von Werten und Sinneserfahrungen selbst dienen“ (160). Damit wird das Begriffsgedächtnis sowohl von Werten als auch von aktuellen Sinnesdaten beeinflußt. In den drei Tätigkeiten, Wahrnehmungskategorisierung, Gedächtnis und Begriffsbildung, sowie einer weiteren Veränderung des Systems der reziproken Koppelungen auf einer höheren Verschaltungsebene liegt für Edelman der Schlüssel zum Verständnis von Bewußtsein. Bewußtsein selbst unterteilt er in primäres Bewußtsein, das auf einen kurzen zeitlichen Ausschnitt beschränkt ist und über einfache Empfindungen und Wahrnehmungserfahrungen verfügt, und das Bewußtsein höherer Ordnung, das Selbstbewußtsein und Sprache umfaßt. Führt uns Edelman in diesen ersten Teilen seines Buches in die faszinierende Welt der Architektur und Arbeitsweise des Gehirns ein und stellt Hypothesen für die Entwicklung kognitiver Vorgänge auf, die letztlich zu Bewußtsein und Selbstbewußtsein führen sollen, so legt er im zweiten Teil dar, welche Konsequenzen seine Theorie des Gehirns für menschliche Belange möglicherweise haben mag. So glaubt er, daß die Neurowissenschaften sowohl für die wissenschaftliche Erkenntnis an sich wie auch für philosophische Überlegungen wertvolle Anregungen bieten könne. Er plädiert für eine genaue Erforschung der Grundlagen des menschlichen Geistes, die seiner Ansicht nach zu einer Verbesserung menschlichen Handelns führen könnte. Als ebenso wichtig sieht er die Erforschung von Geisteskrankheiten an, die für ihn auf Veränderungen in den reziprok gekoppelten Bahnen und in der Kategorisierung beruhen. „Die Erforschung von Geisteskrankheiten auf allen Ebenen ist offensichtlich ebenso wichtig für ein Verständnis der Wirkungsweise des Gehirns wie für das Verständnis dessen was es bedeutet, ein Einzelwesen in einer Gesellschaft zu sein“ (269). Um die Wirkungsweise unseres Gehirns besser verstehen zu lernen, müssen wir auch die Computertechnologie nutzen. So sei es möglich, Maschinen zu bauen, deren neurale Schaltungen so programmiert sind, daß sie auf Wertigkeit reagieren (z.B. ist Licht besser als Dunkelheit), und die ein Verhalten entwickeln, das „sehr an Wahrnehmungskategorisierung erinnert“ (274). Computer sind zwar für Edelman keine besonders guten Modelle für unser Gehirn, „aber sie sind die mächtigsten heuristischen Hilfsmittel, mit denen wir versuchen können, die Materie des Geistes zu verstehen“ (278). In „einem kritischen Nachwort“ setzt sich Edelman mit verschiedenen Theorien auseinander, die den „Geist ohne Biologie“ fassen wollen. Er weist darauf hin, daß die physikalischen Gesetze allgemeingültig sind, daß Lebewesen jedoch aufgrund ihrer biologischen Beschaffenheit noch weiteren Gesetze unterliegen. Besonders unter Beschuß nimmt er die Auffassung, unser Gehirn funktioniere wie ein Computer, die längere Zeit das vorherrschende Paradigma in den Kognitionswisenschaften war. Sehr interessant ist seine Darstellung linguistischer Theorien, die Semantik und Syntax unserer Sprache mit dem Körper in Beziehung setzen. Das Buch will kein wissenschaftliches Werk sein. Es liest sich trotz der komplexen Materie recht locker. Übersichtliche Grafiken erleichtern da- rüberhinaus den Zugang zu manch verwickelten Gedankengängen. Eine umfangreiche aktuelle Literaturliste bietet die Möglichkeit zur Vertiefung und Erweiterung. Insgesamt liegt mit diesem Buch eine Darstellung über Geist und Gehirn vor, die begreiflich macht, warum sich so viele Forscher dieser Thematik zuwenden. Sibylle Weicker Hans Rudi Fischer (Hg) Die Wirklichkeit des Konstruktivismus. Zur Auseinandersetzung um ein neues Paradigma Carl Auer Verlag 1995, 406 S., 59.DM. Erkennen wir die Welt so, wie sie wirklich ist oder konstruieren wir die Wirklichkeit, in der wir leben? Der einführende Artikel vom Herausgeber und der Beitrag von E. von Glasersfeld wollen zeigen, daß diese Streitfrage sich durch die ganze abendländische Philosophiegeschichte zieht. In dem Sammelband wird der Streit auf der Grundlage alter und neuer Argumente noch einmal ausgefochten. Stützen sich die einen auf die wissenschaftliche Erforschung unseres Gehirns und unserer kognitiven Fähigkeiten, um ihre These der Nichterkennbarkeit einer von uns unabhängig existierenden Welt zu untermauern, so meinen die anderen, diese Argumentation sei zirkulär, ja, habe der Radikale Konstruktivismus recht, so sei er widersprüchlich und damit falsch (156). Hinter dem konstruktivistischen Paradigma verberge sich zudem letztlich ein naiver Naturalismus, der glaubt, mit Hilfe wissenschaftlicher Forschungen allein erkenntnistheoretische Aussagen machen zu können, so die Argumentation von H.J. Wendel (217). Auch die Beiträge von Zitterbarth, Groeben, Linke/Kurthen und Locker weisen besonders auf die Inkonsistenz dieses Ansatzes hin. Hingegen sind es vor allem Literatur- und Sozialwissenschaftler, die in etwas abgewandelter Form den Konstruktivismus durchaus als wissenschaftliches Paradigma akzeptieren. So verteidigt Wolfgang Frindte einen Sozialen Konstruktivismus, der die Auffassung vertritt, wir erzeugten unsere Wirklichkeit zusammen im Diskurs. S.J. Schmidt geht davon aus, daß soziale Systeme über Wirklichkeitsmodelle verfügen, die „in der gesellschaftlichen Evolution über die Konstitution und Thematisierung für essentiell gehaltener Unterscheidungen“ (244) entstehen. Verschiedene Beiträge beziehen sich explizit auf die Theorie von Humberto Maturana. Busse, Locker und Nüse erörtern in ihren Aufsätzen besonders die Problematik, die sich aus dem Konzept der Autopoiese und der daraus resultierenden Geschlossenheit des zentralen Nervensystems ergeben. O. Breidbach nimmt auf die biologische Forschung Bezug und zieht den Schluß, daß es noch viel zu verfrüht ist, um auf dem heutigen Kenntnisstand bereits Aussagen über unsere Erkenntnisfähigkeit zu machen. Einige Beiträge befassen sich mehr mit den praktischen Auswirkungen konstruktivistischer Annahmen z.B. in der Familientherapie (Stierlin) oder in der Lerntheorie (Simon). Von Interesse sind auch die Beiträge von Hans Geisslinger, die beschreiben, wie sich unsere Wirklichkeit mit Hilfe einiger weniger Parameter verändern läßt. Insgesamt erfährt man in diesem Buch viel über konstruktivistische Theorieansätze in verschiedenen Wissenschaftsbereichen. Die Logik der Anordnung der einzelnen Aufsätze wird jedoch nicht recht ersichtlich. Man hätte sich einige Unterthemen gewünscht, um die verschiedenen Beiträge besser einordnen zu können. Sibylle Weicker Ernst von Glasersfeld Radikaler Konstruktivismus. Ideen, Ergebnisse, Probleme Übersetzt von Wolfram K. Köck, Frankfurt/Main 1996 (Suhrkamp), 375 S., 58.- DM. In seinem neuesten, im letzten Jahr auf englisch erschienenen Buch zieht Ernst v. Glasersfeld die Bilanz seines wissenschaftlichen Lebens für den Konstruktivismus. Er beschreibt seinen intellektuellen Werdegang, rechtfertigt sein Konzept des „Radikalen Konstruktivismus“ im historischen Rückgriff und stellt aus dieser Perspektive wesentliche Elemente der Erkenntnisgewinnung und Wissenserzeugung, der Reflexion und Abstraktion, des Akteurs und der Kommunikation, dar. Das Buch endet mit einem Streitgespräch, das v. Glasersfeld mit Vertretern des Konstruktivismus in Siegen geführt hat. V.Glasersfeld wuchs, als Diplomatensohn in München geboren, in Prag, Österreich, Südtirol und in der Schweiz auf. Seine frühe Erfahrung mit unterschiedlichen Sprachen konfrontierte ihn, wie er schreibt, schon bald mit der epistemologischen Frage: Welche der Sprachen beschreibt, „wie es wirklich ist“? Eine Frage, die er bald als unsinnig zurückwies: Jede Sprache konstruiert ihre Wirklichkeit. Damit war der Konstruktivist v.Glasersfeld geboren. Er schildert, wie er den konstruktivistischen Ansatz zunächst in Italien, dann in den USA anhand semantischer Probleme computerisierter Übersetzungsarbeit und lerntheoretischer Konzepte der Psychologie und Pädagogik fruchtbar machte, und wie das neue Paradigma sich allmählich ausbreitete und zu einem Schlagwort wurde. So radikal der „Radikale Konstruktivismus“ sich auch zu geben scheint, v.Glasersfeld macht deutlich, daß das Verständnis von Wissen, das er artikuliert, keineswegs neu ist, sondern daß seine Ursprünge bis in die Antike zurückreichen. Wenngleich vielleicht nicht so konsequent formuliert, so sieht er in der pyrrhonischen Skepsis Ansätze einer konstruktivistischen Kritik der traditionellen Abbildtheorie, eine Skepsis, die insbesondere vom neuzeitlichen Empirismus Berkeleys und Humes aufgenommen und weitergeführt wurde. Vor allem aber Vicos Satz „verum est factum“ habe schon deutlich den konstruktivistischen Charakter von Wissen ausgesprochen. Seine Position selbst sieht er durchaus in der Nähe von Poppers Wissenschaftstheorie. Auch für Popper bestehe Wissenschaft im konstruierenden Aufbau von Modellen, die die Erfahrungen organisieren. Entscheidend aber sei, daß Popper nicht die Idee eines „wissenschaftlichen Fortschritts“ aufgibt und die Theorien an einer „objektiven Realität“ mißt, der sie sich gleichsam asymptotisch annäherten. Diese Idee einer „objektiven Realität“ habe in der Wissenschaft nichts zu suchen, da sie ein mystisches Ding sei, das mit den Mitteln wissenschaftlicher Vernunft nicht erkennbar sei. Sein eigenes radikal-konstruktivistisches Credo formuliert v.Glasersfeld in den zwei Sätzen: „(a) Wissen wird vom denkenden Subjekt nicht passiv aufgenommen, sondern aktiv aufgebaut. (b) Die Funktion der Kognition ist adaptiv und dient der Organisation der Erfahrungswelt, nicht der Entdeckung der ontologischen Realität.“ (48) Diese „Organisation der Erfahrungswelt“ bestimmt er dann näher als Mittel des organischen Überlebens des Einzelnen sowie der, wie er es nennt, „kognitiven Äquilibration“. Auf diesen Gleichgewichtszustand strebe auch die Wissenschaft hin. Werden Perturbationen festgestellt, etwa der ungemütliche WelleKorpuskel-Dualismus in der Physik, strebe die Wissenschaft danach, diese störenden Einflüsse zu überwinden, um wieder einen Gleichgewichtszustand herzustellen. Dieses kybernetisch explizierte Wissenschaftsverständnis entspräche auch dem internen Selbstverständnis der Wissenschaften weit mehr als die nach außen demonstrierte Attitüde einer Beschreibung der Wirklichkeit, „wie sie ist“. Vielleicht am deutlichsten wird v.Glasersfelds ethisches Anliegen, das er mit dieser Wissenstheorie verbindet, im Bereich der Pädagogik und des Lernens. Er wendet sich ausdrücklich, gegen die Schulpraxis, die das (nicht nur) kindliche Lernen als Übernahme eines „fertigen Wissens“, als Hineintragen eines objektiv Vorhandenen in das Gehirn des Kindes versteht. Dieser Praxis setzt er das selbstkonstruierende Lernen und den selbständigen Aufbau des eigenen Wissens entgegen. „Lehren statt dressieren“ (286) nennt er die Alternative. Statt ein irgendwie vorhandenes Wissen zu vermitteln, sei es die Aufgabe des Lehrenden, die Kunst des Lernens auszubilden, damit die Schüler selbst Wissen aufbauen können. Im letzten Teil des Buches, dem Streitgespräch, wird insbesondere auf die Kritik am radikalen Konstruktivismus eingegangen, daß er seiner Individualkonzeption von Wissen wegen weder über ethische, allgemeingültige Sätze noch über eine Gesellschaftstheorie verfüge, daß er also keine Antwort auf die Fragen zu geben habe, wie man handeln soll, und von welchen gesellschaftlichen Bedingungen der Einzelne abhängt. v.Glasersfeld bleibt hier erfreulich konsequent: es ist wahr: Konstruktivisten ist es unmöglich, Vorschriften zu erlassen, wie man handeln soll. Denn dies betreffe Werturteile, „und die Werte kann der Konstruktivismus nicht bestimmen. Das kann aber, glaube ich, keine rationale Wissenstheorie“ (337). Auch hinsichtlich der Gesellschaftstheorie macht v.Glasersfeld deutlich, daß es ihm im Kern um die Abwehr des soziologischen Anspruchs auf ein Wissen von der Gesellschaft geht. Gesellschaft bestehe immer aus Einzelnen und gesellschaftliches Wissen ist immer im Kopf des Einzelnen, und daher nichts Objektives, sondern ein Konstrukt des Einzelnen unter den Bedingungen der kognitiven Äquilibration. „Wenn ich kein Modell habe, wie die einzelnen funktionieren, dann hängt alles Gerede über Gesellschaft in der Luft. Das scheint mir unwiderleglich.“ (348) Gerade v.Glasersfelds Engagement im Pädagogischen und sein Insistieren auf dem Vorrang des Einzelnen zeigen, daß es ihm nicht nur um eine widerspruchsfreie und aussagekräftige Theorie des Wissens geht. Auch wenn sich wohl gute Gründe anführen lassen, daß de facto das Wissen nicht nur durch die Leistung des isoliert Einzelnen zustandekommt, so imponiert doch v.Glasersfelds Einsatz für das Recht des Einzelnen und für die Kantische Forderung, die er zustimmend zitiert, „selbst zu denken“. Alexander von Pechmann Helmut Hildebrandt/Eckart Scheerer (Hg) Interdisziplinäre Perspektiven der Kognitionsforschung Bern 1993 (Peter Lang), 258 S., 79.DM Dieser Band in der Reihe „Europäische Hochschulschriften“ vereinigt die Abhandlungen von Mitgliedern einer Forschergruppe, die 1989/90 an der Universität Bielefeld an einem Projektjahr mit dem Thema „Mind and Brain - Problems in Theoretical Psychology and Philosophy of Mind“ teilgenommen haben. Die Beiträge wurden bereits in unterschiedlichen englischsprachigen Fachzeitschriften veröffentlicht. Mit dieser Sammlung soll zum einen ein Überblick über die gegenwärtige Forschungslage in den Kognitionswissenschaften gegeben werden; zum anderen soll deutschen Studenten muttersprachliches Lehrmaterial zur Verfügung gestellt werden. Das wissenschaftliche Niveau sämtlicher Beiträge ist ausnahmslos sehr hoch. Der Leser gewinnt einen Einblick in die Problematik der interdisziplinären Kognitionswissenschaft, die gerade in den letzten Jahren an Brisanz gewonnen hat.So wird vor allem der Begriff der mentalen Repräsentation diskutiert, der in der Vorstellung des menschlichen Geistes als einer symbolverarbeitenden Maschine eine große Rolle gespielt hat, von der modernen Gehirnforschung jedoch zunehmend in Frage gestellt wird. Es werden unterschiedliche Ansätze vor allem konnektionistischer Modelle vorgestellt, wobei sich zeigt, daß das Konzept des ökologischen Realismus von Gibson für die menschliche Wahrnehmung wieder an Bedeutung zu gewinnen scheint. Alles in allem bietet das Buch für den wissenschaftlich interessierten Leser eine gute Grundlage, um sich in die Kognitionswissenschaften einzuarbeiten. Sibylle Weicker Nicholas Humphrey Die Naturgeschichte des Ich Hamburg 1995 (Hoffmann und Campe). Aus dem Englischen von U.Enderwitz, 304 S., geb., 44.- DM. Über drei entscheidende Stufen entwickelt sich die Naturgeschichte des Ich oder die Evolution des menschlichen Bewußtseins. Erstens die Ausbildung eines Körpers und, damit verbunden, einer Grenze zwischen einer Innen- und einer Außenwelt; nichtkörperliche Wesen können kein Bewußtsein entwickeln. Zweitens die Ausbildung eines Interesses an sich selbst und der eigenen Selbsterhaltung, wodurch die aus der Außenwelt aufgenommen Reize bewertet werden, in solche, die für das eigene Bestehen förderlich sind und solche, die es behindern oder bedrohen. Drittens die Entwicklung der Empfindung bis zu dem Stadium, in dem sie nicht mehr auf den Berührungspunkt der Körperoberfläche begrenzt, sondern in Rückkopplungsschleifen mit dem Gehirn verbunden ist. Damit insbesondere wird die Aussage legitimiert, daß das Bewußtsein nicht so sehr das Resultat einer langen Entwicklung, sondern plötzlich und sprunghaft entstanden sei, „in dem Augenblick, als die Aktivität in der Rückkopplungsschleife sich als Nachhallaktivität etablierte“ (269). Der Autor dieser Theorie ist Biologe an der Universität Cambridge und hat sich durch seine Verhaltensexperimente mit Affen einen Namen gemacht. In seinen Denk- und Argumentationsstrukturen wurzelt er im schottischen bzw. englischen Empirismus oder Sensualismus (Thomas Reid, John Locke). Deren Ansichten vom menschlichen Bewußtsein möchte Humphrey mit Hilfe der aktuellen wissenschaftlichen Ergebnisse konkretisieren. Bezeichnend dafür ist die Fundierung des Ich oder des Bewußtseins in der Empfindung. Mit der Ausbildung von Körpern und der Scheidung von Innen- und Außenwelt einher geht die Scheidung von Empfindung und Wahrnehmung. „Empfindung“ bezeichnet die Beziehung der Außenwelt (des Objekts) auf die Innenwelt (das Subjekt), sie beantwortet die Frage „was geht mit mir vor?“ angesichts der Reize, die auf mich einwirken. „Wahrnehmung“ oder Erkenntnis dagegen beruht auf der Anerkennung der Außenwelt als einer von der Empfindung unabhängigen und selbständigen Realität. Sie beantwortet die Frage: „was geht draußen vor?“. Das Eigentümliche von Humphreys Erklärung des Bewußtsein besteht nun einerseits darin, daß sie Empfindung und Wahrnehmung als zwei parallele, völlig eigenständige und voneinander unabhängige Kanäle zur Wirklichkeit oder Wege der Datenverarbeitung darstellt (55ff.). Empfindung ist nicht („seriell“) die subjektive Vorstufe der objektiven Wahrnehmung, sondern ein eigener Weg der Evolution. Andererseits vertritt Humphrey die Auffassung, daß das (Selbst-) Bewußtsein, das Wissen des Ich von sich selbst ausschließlich auf dem Weg der Empfindung entsteht. Bewußtsein beruht also nicht auf Wahrnehmung, Denken, Selbsterkenntnis etc., sondern „einzig und allein“ auf dem „Haben von Empfindungen“ (249). Ich empfinde, also bin ich. Das ist die sensualistische Gegenthese zu Descartes' Rationalismus. „Ich denke, also bin ich“, so wird gespottet, könne nur als die überhebliche Feststellung eines Intellektuellen hingehen, der Zahnschmerzen unterschätzt. Läßt man sich auf Humphreys Prämisse einer „Naturgeschichte“ des Ich ein, dann ist die Konsequenz zu bewundern, mit der dieser Ansatz bis zuletzt durchgeführt wird. Von Wundern, göttlichen Blitzen etc. ist nicht die Rede, im Gegenteil: das Wunder des Bewußtseins soll wissenschaftlich aufgeklärt werden und es bleibt kein Zweifel, daß dies auch möglich sei. Andererseits aber stellt sich die Frage, ob die wissenschaftliche Aufklärung insbesondere, was die dritte Stufe der Bewußtseinsbildung, die Rückkopplung der sensorischen Reaktion über das Gehirn angeht, weit genug vorangetrieben ist. Erklärtermaßen klammert Humphrey die Fragen der künstlichen Intelligenz ebenso aus, wie die Diskussion der gegenwärtigen Gehirn- und Kognitionsforschung; Vorbehalte werden vor allem gegen Dennett geäußert. Sein eigener Hinweis, das Buch hätte „in vieler Hinsicht auch vor hundert Jahren geschrieben sein können“ (15), erweckt menschliche Sympathie, allerdings auch wissenschaftlichen Verdacht. Das gleiche gilt für die ganze Form der Darstellung, die überall die Individualität der Autors durchscheinen läßt, seine persönlichen Lebensumstände, Kindheitserinnerungen etc. ebenso, wie seine Emotionalität. Die Rekapitulation der Hauptthesen z.B. werden unter der bezeichnenden Kapitelüberschrift „Hurra!“ dargeboten. Läßt man sich dagegen nicht auf die Prämisse der „Naturgeschichte“ des Ich ein, so wäre prinzipiell zu fragen, ob die Natur zur Erklärung des Ich überhaupt hinreicht und nicht durch die Gesellschaft ergänzt werden muß bzw. wo die biologische in eine soziale Evolution einmündet oder von ihr überlagert wird. Bewußtsein ist bewußtes Sein, das Sein des Menschen erschöpft sich aber nicht in der Aufnahme von Empfindungen. Es besteht vor allem auch darin, daß der Mensch tätig ist, Bedürfnisse befriedigt, Ziele verfolgt etc. und zwar in Gemeinschaft mit anderen Menschen. Bewußtsein umfaßt die Reflexion der ganzen Lebenspraxis, nicht nur der Empfindungen. Solche Überlegungen bleiben der Reduktion auf die Naturgeschichte des Ich fremd, sie werden von Humphrey nicht einmal angedeutet. Erhellend sind die Ausführungen über das Wesen der sinnlichen Empfindung, ihre Subjektivität und Kör- perlichkeit, vor allem über die qualitative Verschiedenheit und die Irreduzierbarkeit der fünf Sinne (167ff.). Auch dort besticht Humphreys Darstellung, wo er die Entwicklung der Sinne skizziert, etwa die Entstehung des Auges aus den über die gesamte Körperoberfläche verteilten Photorezeptoren der niederen Tieren. Richtig ist zweifellos, daß die Bildung der fünf Sinne eine Angelegenheit der ganzen Weltgeschichte ist, nur: die Weltgeschichte läßt sich nicht einfach auf die Naturgeschichte reduzieren. Konrad Lotter Werner Künzel/Peter Bexte Maschinendenken - Denkmaschinen. An den Schaltstellen zweier Kulturen Frankfurt/Main 1996 (Insel-Verlag), 262 S., brosch., 16,80 DM. Werner Künzel und Peter Bexte haben mit ihrem Buch „Allwissen und Absturz. Der Ursprung des Computers“ eine, wie sie es selbst nennen, „Archäologie des ComputerZeitalters“ projektiert. Diese Archäologie wird mit dem vorliegenden Band „Maschinendenken / Denkmaschinen“ fortgesetzt und um weiteres, beachtliches Material ergänzt. Es ist die besondere Kombination von gemeinhin Disparaten, die hier in einer Walter Benjamin verwandten Form zusammengefügt wird und das Lesen zu einer spannenden und im guten Sinne unterhaltenden Abenteuerreise des abseitigen Denkens macht. Wie Benjamin Grandville und Hegel mit- einander konfrontierte, um etwas über die Funktionsmechanik moderner Kultur und Gesellschaft zu erfahren, so verfolgen Künzel und Bexte die Seitenlinien der Philosophie- und Technikgeschichte - und bringen beide fruchtbar zusammen. Programmatisch heißt das: „Genealogie der Computergeschichte aus dem Geiste der Philosophie“. Das entscheidende Problem liegt dabei nicht darin, wieviel menschlicher Geist in Maschinen oder Maschinenkonzepten materialisiert ist. Die Kardinalfrage lautet vielmehr: „wo ist das philosophische Denken selbst ein maschinelles Denken, ein Denken der Maschine im genitivus subjektivus“. Oder anders formuliert: „wo und wie ist das Denken als Agent der Maschine aufgetreten, die wir als universelle symbolische Maschine begreifen“(78). Archäologie und Genealogie verweisen dabei nicht nur methodisch auf Nähen zu Foucault und Nietzsche; die Autoren verfolgen sozusagen die Spur des Modernsten der Moderne, den Herkunftsweg der Computertechnologie. Und sie legen eine Entwicklung frei, deren Anfang nicht unbedingt mit den großen Zielen der Neuzeit zusammenfällt, sondern mit den abseitigen Ideen, mit dem Barock, mit Leibniz' „ars combinatoria“ und der langen Geschichte von Maschinenerfindern, deren Konstruktionen im Zeitalter der Vernunft zu verrückt erschienen, um ernst genommen zu werden. Erst im Rückspiegel der Philosophiegeschichte kommen die verschrobenen Erfinder zu ihrem Recht. Es gibt ein neuronales, nicht der Linearität von Geschichte folgendes Netz: Hegels Wissenschaft der Logik und Charles Babbages „Difference Engine“ bzw. „Analytical Engine“; Jean Paul als Datenverarbeiter; Marquis de Sade ließe sich in die Programmiersprache COBOL übersetzen etc. Vor allem aber gibt es die große Linie zwischen Leibniz und dem Computererfinder Konrad Zuse. Diese Erzählperspektive der Computergeschichte lebt vom Charakter der Anekdote. In einer kleinen Erzählungen lesen wir z.B., warum das Befreien des Rechners von Viren „debugging“ genannt wird: weil nämlich in den ersten Großrechnern einmal Mottenkäfer in den Relais für Störungen gesorgt haben. Oder mit welchem Feinsinn Konrad Zuse vom „Rechnenden Raum“ spricht, wo erst Jahre später die Rede vom Cyberspace gängig wird. Künzel und Bexte arbeiten gewissermaßen mit anderen Speicherkapazitäten; sie erzählen nicht die Geschichte des Computers, die selbst nur ein Teil der Geschichte der Menschheit ist, sondern subsumieren die Menschheitsgeschichte der Maschinengeschichte. Dabei verfallen sie genau dem, was sie aufdecken wollen. Die Maschinen gewinnen keine reale Macht über den Menschen, sondern beherrschen seine Vorstellungen. Wer aber in jedem Philosophen nur einen Datenverarbeiter und Softwareentwickler sieht, betreibt selbst nur noch Datenverarbeitung und Softwareentwicklung. Der phänomenologische Schlachtruf „Zu den Ma- schinen selbst“ wird zur Phrase, die nur bestätigt, was man insgeheim unterstellte: daß die Welt so oder so nur eine Maschine, machina mundi, ist. Die Maschine und der Computer verlieren den Status eines Modells, Sein und Schein verschwimmen, und der Schaltkreis wird zum sozialen Feld. Leibniz, der Philosoph und Maschinenbastler, der schon eine Sprache aus Nullen und Einsen für denkmöglich hielt, ohne freilich ihre computerdigitale Realmöglichkeit zu erkennen, wird in Künzels und Bextes Darstellung zum reinen Maschinenapologeten. Übergangen wird gerade der wertvollste Impuls, den Leibniz gegen die mechanistische Verengung der Welt gegeben hat: „Und denkt man sich aus, daß es eine Maschine gäbe, deren Bauart es bewirke, zu denken, zu fühlen und Perzeptionen zu haben, so wird man sie sich unter Beibehaltung der gleichen Maßstabverhältnisse derart vergrößert vorstellen können, daß man in sie wie in eine Mühle einzutreten vermöchte. Dies gesetzt, wird man in ihr, sobald man sie besucht, nur Stücke finden, die einander stoßen, und niemals etwas, das eine Perzeption erklären möchte. So muß man die Perzeption in der einfachen Substanz und nicht in dem Zusammengesetzten oder in der Maschine suchen.“ Künzel und Bexte kontern lax: „Etwas mehr als zwei Jahrhunderte später sieht die Sache anders aus. Auf der Tagesordnung der Naturwissenschaften stehen Themen, deren Brisanz diese Leibnizsche Polemik in den Schatten stellen.“ (210f.) Kurzum: Leibniz irrt, menschliche „Denk- und Empfindungsvorgänge“ können sehr wohl mechanisch erklärt werden, spätestens seit Zuses Z 1, dem, wie Zuse ihn nannte, „Intelligenz-Verstärker“. Abgesehen davon, daß Künzel und Bexte den Begriff der Perzeption mit der Übersetzung „Denk- und Empfindungsvorgänge“ unterbieten, verhüllen sie auch den ganzen Kontext der Leibnizschen Überlegung, die ja schließlich gegen Descartes' Weltmodell von res extensa und res cogitans gerichtet war. Das Hauptargument von Leibniz ist nicht die Allegorie der Maschine, sondern der Verweis auf die „einfache Substanz“. Welche Brisanz es hat, diese Kritik an Descartes' Philosophie zu unterschlagen, kann hier nur angedeutet werden. Künzel und Bexte sind nämlich selbst nicht mehr als digitale Cartesianer: die Trennung der Welt in res extensa und res cogitans ist ihnen heilig, sonst ginge nämlich ihre Rechnung nicht auf, die alles in die Kategorien von Hard- oder Software einteilt. Hardware = res extensa, Software = res cogitans. Das rührt vermutlich vom Begriff der Maschine selbst her, die Christian Wolff als „ein zusammengesetztes Werk“ definiert, „dessen Bewegungen in der Art der Zusammensetzung gegründet ist“. Heinz von Foerster dagegen definiert Maschine als „eine Anordnung von Regeln und Gesetzen, durch die gewisse Tatbestände in andere transformiert werden“. Beiden Definitionen, die Künzel und Bexte als Grenzrahmen benutzen, machen schließlich alles zur Maschine und zur Technik. Die Untersuchung wird somit zur self-fulfilling prophecy. Zwar klingen die Begriffe gewaltig, letztlich aber sind sie unpräzise. Zwischen beiden Definitionen erstreckt sich ein unendlicher Raum, ein wahrer Cyberspace, in dem eben alles zur Maschine wird, ja längst ist. Künzel und Bexte schrecken vor der logischen Konsequenz ihres erklärten Weltzustands Technik nicht zurück: „Gesucht sind also jene Diskurstypen der Philosophiegeschichte, in denen die Autoren im Medium des Textes agierten wie Maschinenbauer, gesucht werden damit Texte, deren immanente Funktionsweise einer maschinellen Produktion nahe kommt“ (78). Und sie finden diese Diskurstypen oder Texte bei Ernst Jünger, Oswald Spengler, Carl Schmitt und selbstverständlich Martin Heidegger (Natur wird „als ein System von Informationen bestellbar“). Die Autoren erläutern: Die Vorwürfe gegen Heidegger, „mit ausgefallenen Wörterbildungen zu blenden oder durch die Umbesetzung von Wortbedeutungen etwaige Differenzierungen herbeizureden, treffen einfach nicht den Kern der Sache. Ausdrücke wie 'In-der-Weltsein' oder 'Ge-stell' sind technische Erfindungen - Notationen, wie sie jeder Programmierer nachvollziehen kann. Heideggers Kunstsprache ist im Wesen eine Sprache der Technik, verwandt den Computersprachen, Text-Coding“ (236). Rettet das die Philosophie, daß die Programmierer ihre Sprache verstehen? Bill Gates als Interpret Heideggers?! Künzels und Bextes Exkursion in die Welt der universellen Rechenmaschinen endet „an einem Fluchtpunkt, wo sich Zuse, Heidegger und Marshall McLuhan unversehens begegnen: im globalen Dorf“ (242). So wird heute postmodern auf Heideggers Frage geantwortet, warum man in der Provinz bleiben solle. Dabei fing doch alles als großer Reise- und Aufbruchsplan an. Roger Behrens Humberto Maturana Was ist Erkennen? München 1994 (Piper), 244 S., 36,DM. Alles ganz einfach. So ließen sich doppelsinnig die aus einer Einladung zu den „Karl Jaspers Vorlesungen“ zu Fragen der Zeit (Kloster Hude) resultierenden und ins Deutsche übersetzten Vorträge und Kolloquiumsbeiträge des Bandes titulieren. „Einfach“ sind Maturanas Darlegungen, insofern Maturana hier in einer leicht lesbaren und allgemeinverständlichen Form seine Theorie mitsamt ihrer Entwicklung präsentiert was sicherlich wünschenswert ist; „allzu einfach“ dürften aber leider auch viele seiner hier erläuterten theoretischen Konzepte zur Beschreibung und Erklärung komplexer philosophischer und sozialer Sachverhalte sein. Doch dazu später mehr. Der Titel des Bandes „Was ist Erkennen?“ erinnert sicherlich und zunächst einmal an eine der früheren populären Schriften Maturanas: „Erkennen.“ (dt., Braunschweig 1982). Maturana ist das Thema des Bandes also nicht neu, im Gegenteil. Schon seit Jahrzehnten versucht er, die biologischen Wurzeln des Erkennens aufzudecken, und von Anfang an zeigte er sich dabei nicht so naiv, Erkennen im Sinne von (wissenschaftlicher) Erkenntnis zu definieren. Eher zielt der Begriff „Erkennen“ bei ihm (nicht ohne neokybernetische Anleihen) auf Unterscheidungsprozesse und die darauf bezogenen Interaktionen. Maturana leitet seine Vorlesungen ebenso humorvoll wie gekonnt zunächst einmal mit einer historischbiographischen Darstellung seines Werdegangs und der Entwicklung seiner Theorie ein, bevor er „zur Sache“ kommt. Eigentlich, so bemerkt er an einer Stelle ironisch, verdanke er einige grundlegende Erkenntnisse der Tatsache, daß er sich mit den komplizierten Geräten im Labor „nicht auskannte und befürchtete, etwas kaputtzumachen“. Also mußte er, um nichts kaputt zu machen, andere Wege gehen - und entdeckte Erstaunliches: Vor allem die Strukturdeterminiertheit von Organismen, also das, was er später mit dem Titel Autopoiesis“ bezeichnete. Wie schon angesprochen, läßt der Band an Klarheit und Verständlichkeit nichts zu wünschen übrig, aber dies liegt bedauerlicherweise nicht nur an Maturanas gekonntem Vortragsstil: So kommt es häufig dann, wenn Maturana Gegenstände behandelt, die nicht unmittelbar ins Reich der Biologie als Disziplin fallen, zu bedenklichen Vereinfachungen. Bei- spiel Macht/Politik: Spekulativ erklärt Maturana den Krieg zum Resultat der frühzeitlichen Viehzucht. Der Wolf mußte bekämpft und getötet werden, um die Herde zu schützen, „was die Emotionalität tiefgreifend veränderte.“ Dieser Kampf leitete über in die gegenseitige Bekämpfung der Menschen, also den Krieg. Nebenbei: Vor der Tötung des Wolfes war die Welt noch in Ordnung, und das heißt natürlich: sie war - in Maturanas eigenwilligem Duktus - 'matristisch'. Beispiel Wirtschaft: In einer allzu simplen Adaption Hegels erklärt Maturana die Wirtschaft aus der Begehrensstruktur des Menschen („Wenn Sie mir zwei Stunden Zeit geben, kann ich biologisch (!) erklären, was Hegel meint.“): Der Mensch begehrt Salz, so führt er aus, und dieses Begehren werde zum Prinzip der Salzwirtschaft. Die Wirtschaft ist also ein kleines Anhängsel des (biologischen?) Begehrens. Man mag mit „Begehren“ erklären können, daß Menschen sich um Salz bemühen; aber die Wirtschaft folgt sicherlich nicht einfach den Gesetzen der Begehrensstruktur des Konsumenten, sondern komplexen, eigendynamischen Funktionsprinzipien/Kommunikationsmedien (z.B. „Geld“ bei Luhmann; „Kapital“ bei Marx), die das Begehren allenfalls zwecks Gelderwerb/Kapitalakkumulation mitberücksichtigen. Und auch Hegel kannte komplizierte Differenzierungen („subjektiver“, „objektiver“ und „absoluter Geist“), die nicht zuletzt eine Rolle spielen beim Verständnis des Bewußtseins, des Rechts, der (bürger- lichen) Wirtschaft sowie des Staates. Aber auch den „Geist“ respektive die Psyche und sogar das Selbstbewußtsein löst Maturana hier (wie an anderen Stellen) nach dem Vorbild des neuesten sprachidealistischen Nominalismus (Analytischen Philosophie) in nichts weiter auf als ein sprachliches Phänomen „koordinierter Verhaltenskoordination“, ein „In-derSprache-Leben“. Maturanas Theorie ist hier wie in anderen seiner Werke immer dann besonders originell und brisant, wenn es um ein Verständnis des „Lebens“, des „Organischen“ geht. Er zwingt die Biologie zum Umdenken. So steht seine Theorie der Farbwahrnehmung, wie er explizit feststellt, der mehr wahrnehmungsbezogenen Farblehre Goethes näher als der physikalischen Newtons. Und schon darum ist Maturana immer lesenswert. Geht es aber um fachübergreifende Theorienbildung (Soziologie/Philosophie), so dürften seine Vereinfachungen und sein biologistischer Reduktionismus schwerlich zu akzeptablen Theorien führen. Dies rührt sicherlich nicht zuletzt daher, daß er Ansätzen anderer Disziplinen häufig ablehnend gegenübersteht. Auch der Philosophie kann er wenig abgewinnen, da Philosophen laut Maturana heute wie früher nur ihre Prinzipien zu retten wünschten. Aber mit diesem „alten Hut“ läßt sich leben. Harald Wasser Thomas Metzinger (Hg) Bewußtsein. Beiträge aus der Gegenwartsphilosophie 2.Auflage, Paderborn 1996 (Schöningh), 792 S., 68.- DM. In der Einleitung schreibt Th. Metzinger bedauernd, daß von der deutschen Philosophie „komplette Innovationsschübe verpaßt“ (12) wurden, die im angelsächsischen Bereich in der jüngsten Vergangenheit geschehen sind. Zwar sei das Thema „Bewußtsein“ so tief und vielfältig in der deutschsprachigen Philosophie verankert wie kaum ein anderes; aber die neuen Theoriemodelle, nicht zuletzt angeregt durch die Ergebnisse und Hypothesen der neurowissenschaftlichen Gehirnforschung, sowie die intensiven Debatten darüber würden hierzulande verspätet registriert. Hinzu geselle sich die Zögerlichkeit des hiesigen Publikums, „englischsprachige Texte überhaupt im Original zu lesen“ (12). Ihr trägt das Buch durch die Erstübersetzungen der englischsprachigen Texte Rechnung. Verstehe ich das Anliegen recht, so ist der Band über die Kenntnisnahme hinaus auch der Versuch, den Theorieaustausch und das Gespräch wieder zu beleben. Der Band versammelt deutsche Beiträge, etwa von P. Bieri, M. Nida-Rümelin, A. Beckermann, sowie angelsächsischerseits Artikel von G. Rey, D. Papineau, P.S. Churchland, Daniel Dennett und vielen anderen, die bei weitem die Mehrheit bilden. Das Resultat ist eindrucksvoll. Es stellt zu den wesentlichen Themen der gegenwärtigen Philosophie und Theorie des Bewußtseins die ver- schiedenen Standpunkte sowie ihre Diskussion dar. Was „Bewußtsein“ eigentlich meint, ob es so etwas überhaupt gibt, die verschiedenen Typen von Bewußtsein, die Frage nach einem „künstlichen Bewußtsein“ sowie das alt-neue Geist/Körper- bzw. Seele/Leib-Problem sind die wesentlichen Themenkomplexe. Diese sind ausgezeichnet gegliedert: auf einen einführenden Überblick des Herausgebers folgen Beiträge, die teils kontroverse Standpunkte vertreten, teils die Bandbreite des jeweiligen Themas vorstellen, und die, fächerübergreifend, von Philosophen, Psychologen, Neurologen und Kognitionswissenschaftlern verfaßt wurden. Jedem Beitrag und Themenkomplex ist eine ausführliche Übersicht der Literatur beigefügt, auf die die Beiträge sich beziehen, oder die relevant für dieses Thema ist. Den Anhang des Buches bildet eine umfassende Bibliographie über die Philosophie des Bewußtseins, der Kognitions- und die Neurowissenschaft, sowie die Liste der hierzulande oft unbekannten - Autoren. Es ist (mir) nicht möglich, die Textsammlung der 26 Autoren in der Kürze angemessen zu besprechen. Die Gesamtanlage des Buches drängt dem Leser jedoch den Eindruck auf, als bestehe die Philosophie des Bewußtseins in erster Linie darin, das Qualitative und Eigene des Bewußtseins vor den oft allzu schnellen Zugriffen durch die Neurowissenschaften zu schützen, als nehme die Philosophie des Bewußtseins also die kritische Funktion wahr, auf die Er- klärungslücken und die Unvollständigkeit des neurologischen Wissens hinzuweisen. Doch in dieser Frontstellung läge ein verkürzter Begriff von Philosophie. Ein Indiz für diesen Eindruck ist, daß in dem Band keine Auseinandersetzung um den Begriff der Emergenz geführt wird, der eine philosophische Antwort auf die Entstehungsfrage des Bewußtseins geben und dem Eigensein des Bewußtseins Rechnung tragen will. Doch dieser Einwand soll den Gesamteindruck nicht trüben: wer sich eingehender über den gegenwärtigen Stand der Theorie und der Diskussionslage über das Thema Bewußtsein informieren und Anschluß an die aktuelle Debatte halten will, für den ist der von Metzinger in ungewöhnlich sorgfältiger Weise erarbeitete Band Pflicht. Alexander von Pechmann Roger Penrose Schatten des Geistes Heidelberg 1995 (Spektrum Akademischer Verlag), geb. 561 S, 58.- DM. Der englische Mathematiker Sir Roger Penrose wählt für seine neueste Publikation einen geradezu paradigmatischen Titel. Alle bisherigen Erklärungen und Beschreibungen von Geist trafen lediglich auf seinen Schatten, die Sonne seiner wahren Natur blieb uns bis jetzt verschlossen. Doch der Geist sei der naturwissenschaftlichen Erklärung zugänglich. Innerhalb der geläufigen Paradigmen allerdings könne diesem Unterfangen kein Erfolg beschieden sein. Selbst die avanciertesten, Relativitätstheorie und Quantenmechanik, erscheinen ihm als unzulänglich und zwar aufgrund ihrer Berechenbarkeit. Penrose wendet sich gegen die Position einer algorithmischen Natur des Geistes und erklärt damit alle gegenwärtigen Versuche der Geistsimulation und KI für fruchtlos. Geist, das ist Penroses explizite These, ist eine nichtrechnerische Erscheinung. Aus diesem Grunde wird eine ebensolche Physik benötigt, die sie beschreibt. Penrose hat nichts Geringeres im Sinn, als, ganz in der Tradition Plancks und Einsteins, die mathematisch-physikalische Wissenschaft und mit ihr Wissenschaft überhaupt zu revolutionieren. Für Penrose sind die die entscheidenden, bis heute weder erklär- noch simulierbaren Kriterien von Geist: Bewußtsein und - darauf hebt er besonders ab - Verstehen. Konsequent verläßt er sich dabei auf einen intuitiven Begriff, denn die Intuition scheint für ihn eine Äquivokation von Intuition zu sein. Verstehen gehe prinzipiell über Algorithmen hinaus, wobei algorithmisch all das ist, was eine idealisierte Turing-Maschine oder eben ein Computer ausführen kann, nämlich einer beliebigen Menge wohl definierter mathematischer Regeln zu folgen. Mit einem GödelTuring-Argument versucht Penrose nun zu beweisen, daß menschliches Verstehen über alles, was mit Algorithmen erreicht werden kann, hinausgeht, aus diesem Grunde nichtrechnerisch und mit rechnerischen Mitteln nicht simulierbar ist. Das Gödel-Turing-Argument besagt erstens, daß formale mathematische Systeme nie gleichzeitig vollständig und widerspruchsfrei sein können, da die Widerspruchsfreiheit eines formalen Systems nicht innerhalb seiner Grenzen bewiesen werden kann. Jeder Beweis, der zunächst das System überschreitet, ist gleichwohl ein Teil desselben. Ein nicht sicher widerspruchsfreies System kann Sätze enthalten wie 1=2 und kann deshalb nicht die Grundlage unbezweifelbarer Sätze sein. Der zweite Teil des Arguments bezieht sich auf das sog. „Halte-Problem“. Danach gibt es keinen Algorithmus, der Probleme wie: „finde eine ungerade Zahl, die die Summe zweier geraden Zahlen ist“ systematisch löst. Denn gegeben: eine algorithmische Maschine, die alle Rechenverfahren enthält, mit denen bewiesen werden kann, daß eine Rechnung unendlich ist, soll dann zum Halten kommen, wenn sie herausfindet, daß eine Rechnung nicht anhält. Dies aber führt im Fall der Anwendung zur Paradoxie: Die Maschine hält an, obwohl sie nicht anhält. Die Maschine ist hier „ratlos“; unserem Verständnis aber sind diese Überlegungen zugänglich. Also, so Penroses Schlußfolgerung, ist der Geist keine Turing-Maschine. Im zweiten Teil zeigt Penrose, daß bei aller Seltsamkeit quantenmechanischer Phänomene die gegenwärtige Theorie keinen wesentlichen Beitrag zur Erklärung des Bewußtseins liefern kann. Denn sie ist zum einen rechnerisch, zum anderen unvoll- ständig. Diese Unvollständigkeit wird durch die Paradoxien bezeichnet, die sich im Übergang von der Quantenzur klassischen Ebene ergeben, etwa die Viele-Welten-Deutung. Nach ihr schließen sich die, durch Schrödingers Wellengleichung erzeugten Möglichkeiten nicht aus, wie in der Kopenhagener Deutung, sondern erzeugen verschiedene Ebenen der Realität. Zur Klärung der Frage, was der Zusammenbruch der Wellenfunktion denn ist, möchte Penrose ein neues Kriterium einführen. Er nennt es „Objektive Reduktion“. Für ihn soll die Theorie der Quantengravitation, die Quantentheorie mit der allgemeinen Relativitätstheorie vereinigt, die Notwendigkeit und die Möglichkeit einer nicht-rechnerischen Physik und Mathematik begründen, die, wenn sie gefunden wären, auch den Geist einer naturwissenschaftlichen Erklärung zugänglich machen würden. Im dritten und letzten Teil wendet sich Penrose der Frage zu, wo der mit einer hypothetischen Physik erklärbare Geist denn seine biologische Heimat haben könne. Neuronale Prozesse scheiden wegen ihre „digitalen“ Erscheinung grundsätzlich aus; sie sind mit klassischen Mitteln hinreichend zu beschreiben, auch wenn die Aktionspotentiale und die chemischen Prozesse der Neurotransmitter quantenmechanischen Ursprungs sind. Penrose nimmt an, die Mikrotubuli, ein Röhrensystem im Cytoskelett jeder Zelle, dessen Erforschung noch am Anfang steht, könnten aufgrund bestimmter, z.B. dielektrischer, Eigenschaften der Ort sein, an dem eine hinreichend globale Quantenkohärenz lange genug aufrecht erhalten wird, um die Nicht-Berechenbarkeit des Geistes zu ermöglichen. Der Begriff Quantenkohärenz bezeichnet Zustände, in denen sehr viele Teilchen einen gemeinsamen Quantenzustand bilden, der von der Umwelt isoliert bleibt. Dadurch geht er nicht in deren Prozessen unter, und die Quanteneigenschaften der Nicht-Lokalität und Kontrafaktizität bleiben erhalten. Wie aber kommt Penrose gerade auf die Mikrotubuli? Pantoffeltierchen, einzellige Lebewesen, bewegen sich zielgerichtet auf Nahrung zu, entfernen sich bei Gefahr und können möglicherweise aus Erfahrung lernen, - für Einzeller erstaunliche Leistungen der Informationsverarbeitung, ganz ohne Neuronen, Synapsen und Neurotransmitter. Die Struktur, die mit der Informationsverarbeitung in diesem Organismus zusammengebracht werden kann, sind die Mikrotubuli. Was auch immer man von Penroses Spekulationen im einzelnen halten mag, sein Buch ist äußerst lehrreich und, für mich jedenfalls, spannend. Mir erscheint es nur konsequent, so Merkwürdiges, Subtiles und auch Seltsames wie Bewußtsein mit so merkwürdigen und seltsamen Theorien erklären zu wollen, wie es die Quanten- und Relativitätstheorie sind. Möglicherweise wird tatsächlich eine neue nicht-rechnerische Theorie der Quantengravitation des Bewußtseins, oder wie immer sie dann heißen mag, gefunden. Wahrscheinlich wird sie nur die Seltsamkeit steigern. Rainer Limmer Gerhard Roth Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen Frankfurt/Main 1996 (Suhrkamp), 4. Aufl., geb., 345 S., 48.- DM. Als Philosoph und Biologe setzt sich Gerhard Roth mit der größten wissenschaftlichen Herausforderung seit der Entschlüsselung des genetischen Codes auseinander: Der Wirkungsweise des menschlichen Gehirns. Dabei will er einen Erklärungsansatz bieten für die Darstellung der neuronalen Prozesse im Gehirn, denen Leistungen wie Wahrnehmung, Denken und Bewußtsein zugrunde liegen. Seiner Auffassung nach bilden diese Prozesse unsere Erlebniswelt, die Wirklichkeit. Dabei wird das Gehirn zwar über die Sinnesorgane durch die Umwelt erregt, erhält aber dadurch keine bedeutungshafte und verläßliche Information, „vielmehr muß das Gehirn über den Vergleich und die Kombination von sensorischen Elementarereignissen Bedeutungen erzeugen und diese Bedeutungen anhand interner Kriterien überprüfen“ (19). Unsere Erlebniswelt, in der wir eine Außenwelt, unseren Körper und unsere mentalen Zustände unterscheiden, erweist sich als Konstrukt unseres Gehirns. Zwar müssen wir eine bewußtseinsunabhängige Realität annehmen, in der auch ein „reales“ Gehirn existiert, das als Konstrukteur die Wirklichkeit erzeugt, wir als „bewußte Subjekte“ haben jedoch lediglich Zugang zur bewußtseinsabhängigen Welt, der Wirklichkeit. Wie kommt Roth als Wissenschaftler zu solch spektakulären erkenntnistheoretischen Aussagen? Da ist einmal seine Überzeugung, daß empirische Wissenschaft nicht ohne Erkenntnistheorie auskommt, daß aber umgekehrt ebenso philosophische Erkenntnistheorie einer empirischen Basis bedarf. „Beide Bereiche bedingen sich gegenseitig, und keiner ist dem anderen vorgeordnet“ (22). Die empirische Basis findet Roth in der Neurobiologie. Er stützt seine These in erster Linie auf Forschungsergebnisse, die sich mit der Arbeitsweise des Gehirns beschäftigen. Aufgabe des Gehirns ist es, „ein Verhalten zu erzeugen, mit dem der Organismus in seiner Umwelt überleben kann“ (21). Dabei zeigt Roth, daß sich Aufbau und Arbeitsweise des menschlichen Gehirns nicht wesentlich von der stammesgeschichtlich nahestehender Tierarten unterscheiden. Die hohe Leistungsfähigkeit des menschlichen Gehirns bestehe vielmehr in der „Kombination von Merkmalen, die sich einzeln auch bei Tieren finden“ (64). Er erwähnt hier vor allem den aufrechten Gang, durch den die Hände freigesetzt werden und der Werkzeuggebrauch ermöglicht wird, und die Entwicklung einer grammatischen Sprache, die zusammen mit dem stark vergrößerten präfrontalen Cortex dazu führt, daß der Mensch mehr als andere Tiere in der Lage ist, Handlungs- und Zukunftsplanung zu treiben. Wahrnehmung als Orientierung an Umweltmerkmalen zum Zweck des Lebens und Überlebens dient Roth zur Untermauerung seiner konstruktivistischen Sichtweise. Er unterteilt den Wahrnehmungsprozeß hierbei in einen präkognitiven Bereich, der unbewußt abläuft, und einen kognitiven Bereich. Dieser Vorgang ist, insbesondere bezüglich der visuellen Wahrnehmung, bereits gut bekannt und wird von Roth detailliert und kenntnisreich geschildert. Aufgrund der Selektivität unserer Sinnesorgane, die lediglich einen kleinen Bereich der physikalischen und chemischen Ereignisse aufnehmen, deren Verarbeitung in den neutralen neuronalen Codes, der lediglich aus elektrischen Aktionspotentialen und deren Hemmung und Erregung vermittels chemischer Übertragungsstoffe, sogenannter Neurotransmitter, besteht, und der Nichteindeutigkeit bei der Übersetzung der Außenreize in neuronale Erregungszustände kommt Roth zu dem Schluß, daß unsere Wahrnehmung keinesfalls Abbildcharakter besitzen könne, zudem ein Abbild ja eine Instanz benötige, die dieses Abbild betrachtet. So eine Instanz kann jedenfalls im Gehirn nicht gefunden werden, es gibt „kein oberstes Wahrnehmungs- oder Verhaltenssteuerungszentrum“ (138). Damit gilt für Roth der Konstruktionscharakter der einfachen und komplexen Wahrnehmungsinhalte als erwiesen. Allerdings sind diese Konstruktionen keineswegs willkürlich, sondern „vollziehen sich nach Kriterien, die teils angeboren, teils frühkindlich erworben wurden oder auf späterer Erfahrung beruhen“ (112). Erfahrungen, die aufgrund der Interaktion mit der Umwelt entstehen, werden im Hinblick auf den Organismus bewertet und im Gedächtnissystem gespeichert. Bewertung von Verhalten und das Gedächtnis erweisen sich damit als wesentliche Voraussetzungen für die sogenannten höheren Funktionen wie bewußte Wahrnehmung, Denken, Sprechen und andere mentale Ereignisse, ja, „kortikale und subkortikale Zentren arbeiten untrennbar zusammen“ (191). Auch an eine Erklärung für Bewußtsein in Beziehung auf neuronale Prozesse wagt sich Roth heran. Seine These klingt aufregend und originell: „Bewußtsein entsteht unter Beteiligung der verschiedensten, das gesamte Gehirn durchziehenden Systeme“ und stellt das „Eigensignal des Gehirns für die Bewältigung eines neuen Problems“ (213) dar. Zur Bewältigung werden neue neuronale Verknüpfungen geschaffen und damit neue Netzwerke angelegt. Bewußtsein ist demnach bei Roth das charakteristische Merkmal des Gehirns, um neuartige von bereits bekannten Situationen unterscheiden zu können. Unter Berücksichtigung der dargestellten neurobiologischen Erkenntnisse gibt Roth einen Überblick und eine Bewertung der Gehirn-GeistDiskussion. Dabei lehnt er dualistische Positionen ab, da diese mit naturwissenschaftlichem Denken nicht vereinbar seien. Er selbst bekennt sich zu einem nichtreduktionistischen Physikalismus. Zusammen mit dem Physiker H. Schwegler vertritt er dabei die Ansicht, daß nicht alle Phänomene auf physikalische Gesetzmäßigkeiten zurückführbar sein müssen. Allerdings dürfen sie diesen nicht widersprechen. Neuronale Prozesse genügen diesen Bedingungen vollauf, ohne völlig in physikalisch-chemischen Bedingungen aufzugehen. Auch Geist muß keineswegs total auf die neuronalen Prozesse im Gehirn rückführbar sein. Im Gehirn gibt es eine Unmenge von unbewußt ablaufenden neuronalen Prozessen, es gibt aber auch ganz bestimmte neuronale Prozesse , die notwendig von Geist und Bewußtsein begleitet sind. „Geistzustände als subjektiv erlebte Zustände sind also Kennzeichnungen spezifischer Gehirnprozesse, die das Gehirn sich selber gibt, um sich in seiner eigenen ungeheuren Komplexität zurechtzufinden“ (276). Abschließend gibt Gerhard Roth auf dem Hintergrund seiner Ausführungen über die Arbeitsweise des Gehirns und den daraus abgeleiteten erkenntnistheoretischen Überlegungen Antworten auf uralte philosophische Fragen. So verneint er die Möglichkeit objektiver Erkenntnis und urteilt in diesem Zusammenhang schnell noch die Evolutionäre Erkenntnistheorie ab. Desgleichen verneint er die Möglichkeit von objektiver Wahrheit. Die Erkenntnis einer bewußtseinsunabhängigen Realität wird ebenfalls verneint, ihre Existenz jedoch nicht in Frage gestellt. Das Buch ist trotz umfangreich dargestelltem Fachwissen keinesfalls langweilig. Es wendet sich gleichermaßen an Neurowissenschaftler wie an Philosophen und interessierte Laien. Besonders die Darstellung verschiedener Positionen in der GehirnGeist-Debatte wie in der philosophischen Erkenntnistheorie besticht. Vermißt habe ich allerdings die Auseinandersetzung mit anderen Positionen in den Neurowissenschaften. So überzeugt in meinen Augen keineswegs die geringe Rolle, die Roth der Interaktion mit der Umwelt zugesteht, wenn man die Kriterien, nach denen das Gehirn Wahrnehmungsinhalte konstruiert, als im Laufe der Jahrmillionen in den Genen gespeicherte phylogenetische und die im Gedächtnissystem gespeicherte ontogenetische Erfahrung auffaßt. Erfahrung wird jedoch immer, auch von Roth, als Interaktion mit der Umwelt bezeichnet. So erweisen sich die Überlegungen Roths nicht unbedingt als zwingend und seine erkenntnistheoretischen Schlußfolgerungen aus der Arbeitsweise unseres Gehirns keinesfalls als die einzig plausible und konsistente Sichtweise. Möglicherweise könnte ein erkenntnistheoretischer Ansatz, der nicht so sehr die Arbeitsweise des Gehirns in den Vordergrund stellt, sondern diese mehr in Abhängigkeit und bezogen auf menschliches Handeln betrachtet, hier für mehr Klarheit sorgen. Sibylle Weicker Hans Jörg Sandkühler (Hg) Konstruktion und Realität. Wissenschaftsphilosophische Studien Frankfurt/Main 1994 (Peter Lang), 200 S. Das Buch versammelt Beiträge zum Thema „Konstruktion und Realität“, das überwiegend aus der Perspektive einer eher historisierenden „Geistphilosophie“ behandelt wird. Dabei macht W. Krohn deutlich, was man einer solchen Betrachtungsweise abgewinnen kann, wenn man die Begriffe „Konstruktion“ und „Realität“ aus dem „Gegensatz von Konstruktivismus und Realismus“ befreit. Dazu stellt Krohn die „großen Geister“ des abendländischen Denkens, Platon, Aristoteles, Kant und Humboldt vor, bzw. rekonstruiert deren Konstruktion der Realitätskonstrukteure. Platon habe den Realitätskonstrukteur als „Weltordner“, Aristoteles als „Natur“, Kant als „Mensch“ und Humboldt als „Sprache“ konstruiert. Dabei hebt Krohn darauf ab, daß in allen Fällen der Konstruktionsplan so abgefaßt war, die Realität in der Weise zu konstruieren, daß sie Bestand hat, d.h. daß sie sich aus ihren eigenen Bedingungen reproduziert und erhält. In erkenntnistheoretischer Sicht seien auch nur die Konstruktionen einer solchen Realität interessant, die Bestand habe. Für Platon war hierfür das Vorbild das „Leben“ (und der geordnete Kosmos daher ein 'lebendiges Ganzes') und für Aristoteles die „Herrschaft“, die die Teile zu einem funktionsfähigen Ganzen verbindet. Kant deutet Krohn so, daß er gesagt habe, der Realitätskonstrukteur sei kein kleiner (oder großer) Ingenieur in der Natur, sondern der Mensch, der selbst der Natur ihre Gesetze vorschreibt. Nach Kant sei der „Konstrukteur der Realität ... der seine eigene Erkenntnis konstruierende Konstrukteur“ (23). Humboldt scheint hier etwas aus dem Rahmen zu fallen. Aber durch ihn, so Krohn, wurde „die erkenntnistheoretische Diskussion durch einen neuen Akteur bereichert: die Sprache.“ (24) Humboldt war der erste, der sagte, daß die Konstruktion der Realität nicht nur von Sprache, sondern von Sprachen abhängt und daher im Rahmen der Sprache einer Kultur stattfindet. Krohn schließt seine Rekonstruktion mit der Frage nach der Universalisierbarkeit einer Sprache bzw. eines Sprachspiels. Er scheint sich Rortys Konzept eines „ethnozentrischen Pragmatismus“ anzuschließen, das es als unbegründbar ansieht, eine - und das bedeutet für Abendländer die abendländische - Konstruktionsart als universal auszuzeichnen. Diesen historisch-kritischen Blick auf die „großen Geister“ lassen die weiteren Beiträge vermissen. H.J. Sandkühler - so jedenfalls meine internkonstruktive Repräsentation seines Beitrags - scheint Wiedergutmachung zu leisten und kämpft jetzt den ideologischen Kampf gegen die Materialisten bzw. Realisten. Er ist entzürnt ob der Dummheit mancher Alltagsund Labormenschen, die noch immer nicht eingesehen haben, daß alles Geist ist, und die noch immer von der absurden Vorstellung ergriffen sind, daß es so etwas wie theorieu- nabhängige Erfahrung oder Beobachtung gebe. Philosophie im Sandkühlerschen Sinne sei die „strenge Wissenschaft“, die nicht mehr den Paradigmata des Naturalismus/Reduktionismus/Physikalismus ihren Tribut zollt. Wer das nicht erkennt, wie unter vielen anderen Franz v.Kutschera, dem hält Sandkühler etwas hilflos entgegen, daß dies „ein Rückfall hinter kritische Verständnisse von Repräsentation (wäre), wie sie seit dem späten 19. Jahrhundert in Physik und Philosophie entwickelt worden sind.“ (65) Gelehrte historische Linien zieht D. Pätzold vom aristotelischen nous poietikos zu Kants Einbildungskraft, einem Vermögen der synthesis intellectualis im Unterschied zur bloßen synthesis speciosa, das seinerseits auf Siger von Brabants intellectus intrinsecus operans zurückverweist, der noch in Descartes' Selbstgewißheit als einer intellectio pura aufscheint ... und will so offenbar andeuten, daß ein konstruktiver Rest bleibe, der sich dem Naturalisierungsprogramm des menschlichen Geistes entzieht. J. Erpenbeck ist noch immer mit der Aufarbeitung des dialektischen Materialismus beschäftigt und rekonstruiert fleißig die kontroversen Widerspiegelungskonzepte und LeninRezeptionen. U. Röseberg faßt die Geschichte der Relativitätstheorie und der Quantenmechanik zusammen und stellt fest, daß gerade die Erfolge der Atom- und Kernphysik „in der physikalischen und populärwissenschaftlichen Literatur zu einer gran- diosen Renaissance erkenntnistheoretisch unreflektierten ontologischen Redens über die Natur geführt“ haben (137). Erhellend für die Debatte der Theorie(un)abhängigkeit der Empirie ist B. Falkenburgs Beitrag, der der Frage nachgeht, ob es „Teilchen gibt“. Habe ich sie richtig verstanden, so unterscheidet sie zwischen zwei epistemologischen Begriffen von „Realität“, die in der Diskussion oft vermischt werden. Das eine Mal bezeichnet „Realität“ „ein theoretisches Universum von Qualitäten oder Eigenschaften, die in Klassen systematisiert sind“ (160). In diesem Sinne bildet die Realität der Physik ein Universum von Meßgrößen wie Länge, Zeit, Masse, Temperatur etc. Und diese Realität ist in der Tat nicht theorieunabhängig, da die Größen unsere Konstrukte sind. Das andere Mal bezeichnet „Realität“ die „kontingenten Eigenschaften“ (160), d.h. im Rahmen der Physik die Meßwerte selbst, die zwar durch jene Größen als den Bedingungen festgelegt sind, die aber selbst keine der Bedingungen sind. „Was man als kontingente Daten bezeichnet, sind diejenigen Züge der Wirklichkeit, die nicht (H.v.m.) durch eine Theorie festgeschrieben sind und die an einzelnen Raum-ZeitStellen durch Beobachtung oder Messung ermittelt werden.“ (161). Dieser Realitätsbegriff im Sinne der allein durch Beobachtung zu ermittelnden Kontingenz spricht, wie Falkenburg sagt, „gegen jede überzogene Variante von Konstruktivismus, nach der die empirische Wirklichkeit sei's der Wissenschaft, sei's der Alltagserfahrung durchgängig als ein theoretisches Konstrukt gilt.“ (162). Deuten wir diesen letzteren Realitätsbegriff als das Verifikationsprinzip, dem Theorien Rechnung zu tragen haben, und die das Geschäft der Labormenschen ausmachen, so wäre das Maß des Wissens nicht die Theorie, sondern die Realität. H.J. Sandkühler, so scheint es, wird noch viel Überzeugungskraft aufbieten müssen. Alexander von Pechmann Siegfried J. Schmidt Kognitive Autonomie und soziale Orientierung. Konstruktivistische Bemerkungen zum Zusammenhang von Kognition, Kommunikation, Medien und Kultur Frankfurt/Main 1994 (Suhrkamp), 362 S., 22.80 DM. Ausgehend von konstruktivistischen Ansätzen zur Kognition ist es ein Anliegen Schmidts, diesen Diskurs um eine neue Akzentuierung zu erweitern: die Fixierung auf das Individuum soll aufgegeben und die Argumentation um soziale und kulturelle Aspekte erweitert werden. Es geht um die Wendung von einer faktenzu einer sozialorientierten Erkenntnistheorie. Ausgangspunkt ist, daß jedes Individuum bereits in eine sinnhaft konstruierte Umwelt hineingeboren und auf sie hin sozialisiert wird. Daraus ergibt sich, daß individuelles Wahrnehmen, Denken, Fühlen, Erinnern, Handeln und Kommunizieren entscheidend bestimmt ist von den Mustern und Möglichkeiten, die jeden Menschen als Gattungswesen, als Gesellschaftsmitglied, als Sprecher einer Muttersprache und als Angehörigen einer bestimmten Kultur prägen. Der Autor verweist darauf, daß menschliche Wahrnehmung immer in Handlungszusammenhängen geschieht, die zugleich als Interpretationsrahmen dienen, weil sie mit Erfahrung, Wissen, Gedächtnis und Gefühl verbunden sind. Nachdem dieser Hintergrund aufgespannt wurde, rückt Schmidt die konkreten Prozesse von Kognition und Kommunikation, ihre Bedingungen, Regeln und Kriterien in den Vordergrund des Interesses. Der vom Autor postulierte Übergang von Wasauf Wie-Fragen bedeutet, die Rede über die Wirklichkeit durch die Rede vom letzten Stand der Dinge zu ersetzen, also einen sozio-historisch kontextbezüglichen Zugang. Bei der Auseinandersetzung mit dem Kommunikationsbegriff wird besondere Aufmerksamkeit dessen systemtheoretisch orientierter Modellierung durch N. Luhmann gewidmet. Luhmann konzipiert Kommunikation als ein operativ selbständiges System. Kommunikation treibe „Autopoiesis“, soweit sie Anschlußfähigkeit organisiere. Gedankenarbeit geschehe in kognitiven Systemen, Kommunikation im sozialen System der Gesellschaft. Luhmanns Vorschlag, Wissen radikal von Bewußtsein auf Kommunikation umzurechnen, macht nach Schmidt nur Sinn, wenn man Wissen als Bestand und nicht als Fähigkeit konzipiere. Die neuere Gedächtnis- forschung tendiert aber dazu, Wissen nicht als sedimentierten Bestand kognitiver Inhalte zu konzipieren, sondern als Fähigkeit, in einer entsprechenden Situation adäquate kognitive Operationen durchführen zu können, um ein Problem zu lösen. Luhmanns Vorgehen, Wissen und Kommunikation sozialen Systemen zuzurechnen, Individuen deren Umwelten, neutralisiert den traditionellen Individuen- oder Subjektbegriff. Damit aber, führt Schmidt aus, werde das Individuum aus seiner philosophischen Rolle als Garant der Einheit von Wissen und Kommunikation gedrängt. Kognitive Systeme beeinflussen Kommunikation als soziales System durchaus, setzt Schmidt Luhmanns Thesen entgegen. Auch Wissen werde im kognitiven System nach sozialen Regeln erzeugt: „Mir scheint kein gewichtiger Grund dagegen zu sprechen, auch Individuen mit der Unterscheidung Kognition/Kommunikation zu beobachten, um zu sehen, wie kognitive Systeme es schaffen, trotz operationaler Schließung an Kommunikation teilzunehmen, die in ihrer Umwelt abläuft“. Sowohl in Luhmanns systemtheoretischem als auch im radikalen Konstruktivismus ist die zentrale Frage weithin ungelöst, wie die theoretisch scharf voneinander getrennten Dimensionen Kognition und Kommunikation in eine operative Beziehung zueinander gebracht werden können, faßt der Autor zusammen. Bewußtsein- und Kommunikationsprozesse laufen getrennt voneinander, aber zeitlich synchron (in der jeweiligen Systemgegenwart) ab. Ihre Beziehung kann mit dem Begriff der strukturellen Koppelung beschrieben werden, der ein Verhältnis der Gleichzeitigkeit, nicht der Kausalität bezeichnet. Die strukturelle Koppelung wird in Publikationen durch sprachliche Sozialisation angenommen. Die Leistung der Sprache ist, die in sozialen Systemen erfolgende Reduktion von Komplexität in zeitlicher, sachlicher und sozialer Hinsicht als Selektionen verfügbar zu halten, zitiert Schmidt H. Feilke. H. Maturana verstehe beispielsweise Sprache als System des Orientierungsverhaltens für kognitive Systeme. Nach ihm leben Menschen in einer kognizierten Realität, d. h. in einer Um-Welt, die sie über urteilende Wahrnehmung, Kognition, Kommunikation und auch praktische Handlungen informationell selbst erzeugen und erhalten. Irritiere die Umwelt ein kognitives System etwa mit sprachlichen Medienangeboten, dann verlaufe die Wahrnehmung und Verarbeitung solcher Angebote zwar notwendigerweise im System und allein nach dessen Operationsmodi. Aber eben diese Operationsmodi sind durch Sozialisation und Handlungserfahrungen signifikant sozial habitualisiert. Kollektives Wissen, das individuelles Handeln orientiert und reguliert, resultiert aus kommunikativem Handeln der Individuen und orientiert wiederum deren kommunikatives Handeln. Medienangebot koppeln strukturell kommunikative und kogni- tive Prozesse, da sie - vermittelt über kollektives Wissen - in beiden voneinander getrennten Bereichen in je bereichsspezifische Prozesse transformiert werden können. Bei der umfassenden Begründung seiner Erweiterung konstruktivistischer Ansätze um soziale und kulturelle Einflußfaktoren arbeitet Schmidt die Standpunkte verschiedener Autoren heraus. Besonders günstig ist dabei, daß er sich nicht nur auf theoretische Argumentation beschränkt. Gelegentlich bricht er die Erörterung des Gegenstands bis auf ganz konkrete, in der Alltagspraxis auftauchende Fragen wie: „Was ist wahr, was ist gut, was soll getan werden?“ herunter. Sehr spannend und erhellend ist auch die Darstellung der Entwicklung neuer Massenmedien und ihrer Wirkungen auf Wahrnehmungsgewohnheiten. In diesem Zusammenhang greift er die Diskussion um einen damit zusammenhängenden kulturellen Wandel auf, was die Aktualität des Buchs unterstreicht. Jadwiga Adamiak John R. Searle Die Wiederentdeckung des Geistes Übersetzt von Harvey P. Gavagai, Frankfurt/Main 1996 (Suhrkamp), 303 S., 17,80 DM. - Erstausgabe: Zürich/München 1993 (Artemis). Den Anlaß für dieses Buch biete, wie Searle schreibt, „ein sehr sonderbares Spektakel“. Was in der Sprachphilosophie unüblich sei, die Existenz von Sätzen zu bestreiten, sei in der Philosophie des Geistes die Regel: hier „bestreiten viele - vielleicht sogar die meisten - der auf diesem Gebiet führenden Denker ganz routinemäßig die offenkundigsten Tatsachen“, nämlich daß „wir subjektive, bewußte Geisteszustände wirklich haben“ (15). Ihnen gegenüber will Searle auf die „offensichtlichen Tatsachen über Geisteszustände“ verweisen. Mit einer durchgängigen Common SenseAusrichtung plädiert er für die These: der „Geist“ (mind) und seine Merkmale wie Intentionalität und Bewußtsein (consciousness; awareness) sind „emergente Eigenschaften“ von höherstufigen neuronalen Systemen, von menschlichen Gehirnen. Searle nennt es daher als „eines der Hauptziele des Buchs, ... Bewußtsein wieder als ein biologisches Phänomen wie jedes andere in den Gegenstandsbereich der Wissenschaft zurückzuführen“ (104). Leitend für einen solchen „biologischen Naturalismus“ sei eine „cartesianische Intuition“ ohne „cartesianischen Dualismus“: „Ich bin etwas Denkendes, also bin ich etwas Physisches“ (26ff). Das „Körper/Geist-Problem“ in der Philosophie findet so für Searle „eine einfache Lösung“ (13). Da Searles Ausgangspunkt lautet: Geistige Zustände sind Eigenschaften des menschlichen Gehirns, wendet er sich sowohl gegen cartesianistische Auffassungen eines Dualismus, wie sie Th. Nagel und C. McGinn vertreten haben, als auch und vor allem gegen eine materialistische Reduktion von Geistigem auf Körperliches. Die- sen Reduktionsversuchen hält er vor, sie nähmen eine unangemessene „Dritte-Person-Perspektive“ ein und bestätigten zudem den Dualismus, den sie überwinden wollen (40f); denn zurückgeführt kann immer nur etwas werden, von dem ausgegangen wurde. Zudem verfehlten diese materialistischen Ansätze die Erlebensaspekte von Bewußtseinszuständen, die sog. „Qualia“. Seine Kritik richtet sich unter anderem gegen J.J.C. Smart, U.T. Place und D.M. Armstrong, die eine „Identität“ von Geistes- und Gehirnzuständen annehmen, sowie gegen einen „eliminativen Materialismus“ (P. Feyerabend, R. Rorty, P.M. Churchland, S.P. Stich), der behauptet, es gäbe überhaupt keine Geisteszustände. Ihm gegenüber wendet Searle ein, daß eine Eliminierung des Vokabulars nicht die Phänomene beseitigen könne, auf die sich das Vokabular beziehe. Durchaus in Nähe zum eliminativen Materialismus steht für Searle auch eine auf W.V.O. Quine zurückgehende Kritik des Alltagsvokabulars in der Philosophie des Geistes (D. Dennett, G. Rey, auch P.M. Churchland). Diese Kritiker einer sogenannten „folk psychology“ lehnen es zwar ab, Wörtern wie „Geist“ und „Bewußtsein“ einen ontologischen Bezug einzuräumen; nach Searle müßten sie letztlich aber auch ihre eigenen Alltagserfahrungen, wie etwa Wünsche zu haben, bestreiten. Searles Haupteinwand lautet: Alltagserfahrungen lassen sich nicht bestreiten. Weiterhin grenzt Searle sein Konzept gegen behavioristische Ansätze, ge- gen eine kognitionswissenschaftliche Forschung und die KI-Forschung ab. Während der „methodologische Behaviorismus“ lediglich eine „Forschungsstrategie“ entwickelt habe, „die Korrelationen zwischen ReizEingaben und Verhaltens-Ausgaben“ betraf (J.B. Watson), beanspruche der „logische Behaviorismus“ von C.G. Hempel und G. Ryle, mentalistische Ausdrücke „ohne jedweden Rest in Sätze über Verhalten“ zu übersetzen (48f). Ein „subjektives Erlebnis des Denkens“ werde hierbei ausgeschlossen, und Kausalbeziehungen zwischen mentalen Zuständen und Verhalten würden nicht berücksichtigt (50). Die „kognitionswissenschaftlichen Ansätze“ H. Gardners, N. Chomskys, J. Fodors u.a. beanspruchten gleichfalls eine „wissenschaftliche Untersuchung des Geistes“, ohne jedoch „Bewußtsein und Subjektivität“ zu berücksichtigen. Zentral sei hier das Modell einer „Computation“, mit dem beansprucht wird, auch semantische Verhältnisse durch syntaktische darzustellen (vgl. 222f). Die Einwände hiergegen führt Searle präzisierend in seiner Kritik der sogenannten „starken“ KI-Forschung fort. Diese versuche, das menschliche Gehirn als digitalen Computer aufzufassen, zu dem der Geist das Programm sei. Für Searle ist diese Annahme absurd: Semantische Verhältnisse sind syntaktischen Verhältnissen nicht inhärent (225). Vor allem aber, wendet Searle jetzt ein, ist eine Syntax nichts Physisches und die Zuschreibung syntaktischer Eigenschaften daher stets be- obachter-relativ. Folglich bestehe keine Möglichkeit zu entdecken, „daß ein System intrinsischermaßen ein digitaler Computer ist“ (236). Die Hypothese, das menschliche Gehirn sei ein digitaler Computer, sei daher inkohärent. Hinzu komme der sogenannte „Homunculus-Fehlschluß“: „das Hirn so zu behandeln, als wäre da jemand drin, der es zum Rechnen benutzt“ (238). Soweit zu Searles „Abrechnung“ mit einer Philosophie des Geistes, die, statt ihn zu erklären, ihn eliminiert. Doch wie steht es mit Searles Auffassung, Bewußtsein und Intentionalität seien schlicht unbestreitbare Tatsachen? Hatte er nicht diese Bewußtseinsakte eingeführt, um das Funktionieren der natürlichen Sprache zu erklären? Es lohnt sich, seine Sprechakttheorie (Sprechakte. Ein sprachphilosophischer Versuch, 1969; dt. 1983) in Erinnerung zu rufen. Dort ging er davon aus, daß die „Grundeinheit der sprachlichen Kommunikation“ nicht „das Symbol, das Wort oder der Satz“, „sondern die Hervorbringung des Symbols oder Wortes oder Satzes“ sei. Der gelingende Vollzug deute auf Handlungsregeln, über die verfügt werden muß. Handeln durch Sprachverwendung verweise auf Vermögen, eindeutige Absichten auszudrücken. Gegen die Annahme einer solchen Eindeutigkeit ist nun aber eingewandt worden, daß es durchaus indirekte Vollzüge gibt, Metaphern, auch Fiktionales in literarischen Texten, die sich dem Eindeutigkeitskriterium entziehen; Geschriebenes überhaupt schei- ne sich einer eindeutigen Intentionalitätszuweisung zu entziehen (vgl. J. Derrida, Marges de la philosophy; M. Frank, Das Sagbare und das Unsagbare). In „Ausdruck und Bedeutung“ (1979; dt. 1982) begegnete Searle derartigen Einwänden, solche offenen Artikulationen seien defiziente Modi eines originär eindeutig intentionalen Modus des Sprechens; sie seien letztlich „non-serious“. In „Intentionalität. Eine Abhandlung zur Philosophie des Geistes“ (1983; dt. 1987) nun hat Searle versucht, diese eindeutige Intentionalität der Sprachverwendung auf eine intrinsische Intentionalität geistiger Zustände zurückzuführen. Intentionale Zustände werden dargestellt als F (p), wobei F für „geistige Modi“, p für „propositionale Gehalte“ steht. Folgende Schlußkette verbindet nun das jeweils Bedingte mit dem jeweils Bedingenden: „Sprechhandlung“ - „Intentionalität“ - „Geist“ - „Bewußtsein“. Im anschließenden Buch „Geist, Hirn und Wissenschaft“ (1984; dt. 1986) geht es vor allem um Fragen und Schwierigkeiten der Vermittlung „traditioneller mentalistischer Vorstellungen“ mit einem naturwissenschaftlichen, physikalistischen Weltbild. Hier werden einige Erörterungen der „Wiederentdeckung des Geistes“ vorbereitet. Zeigt nicht das Gesamtwerk Searles, wie wenig offensichtlich die „offensichtlichen Tatsachen über Geisteszustände“ sind? Es gibt nicht nur materiale oder kausale Reduktionen wie die Rückführung des Mentalen auf das Neurona- le, die Searle in seiner Materialismuskritik ablehnt, sondern auch „theoretische“ Schlußfolgerungen von einem Bedingten auf ein Bedingendes, von denen Searle durchaus Gebrauch macht; nämlich von den Sprechhandlungen auf eine „intrinsische Intentionalität“ geistiger Zustände. Doch diese gelten in einem formallogischen Diskurs bekanntlich als besonders schwierig, da sie weder aussagenlogisch dargestellt noch prädikatenlogisch entschieden werden können. Searles Schlußfolgerung, so ließe sich sagen, haben die logischsemantischen Eigenschaften, die P.F. Strawson als „presuppositions“ skizziert hat, und gegen die D. Dennett eingewandt hat, sie gehörten mit zu dem intentionalen System, das sie herzuleiten versuchten. Wie dem auch sei, die Intentionalität, die Searle als offensichtliche Tatsache annimmt, ist als intrinsische Eigenschaft des Geistes weder erfahrbar noch intuitiv erfaßbar. Searle räumt daher durchaus ein sogenanntes „Hintergrund-Problem“ ein (198). Bewußt erfahrbar seien nur „repräsentationale Vorgänge“; diesen aber müssen nicht-repräsentationale Vorgänge vorausgesetzt werden, nämlich „diejenigen Fähigkeiten und allgemeinen praktischen Kenntnisse“, „dank deren unsere Geisteszustände funktionieren“ (198). Searles Konsequenz ist nun aber nicht, aufgrund dieses „Hintergrund-Problems“ mit den Zuweisungen von Formen intrinsischer Intentionalität vorsichtiger umzugehen. Ihm reicht aus, „daß es nützlich ist, eine Taxonomie zu ha- ben, die unserer Intuition gerecht wird, daß es zwischen Gedanke und Bedeutung eine Übereinstimmung gibt“ (208). Im Gespräch mit F.Waismann über Fragen von „Intention, Meinen, Bedeuten“ hat L. Wittgenstein Skepsis geäußert: „Der Satz ist dazu da, daß wir mit ihm operieren. (Auch das, was ich tue, ist eine Operation). Die Ansicht, gegen die ich mich in diesem Zusammenhang kehren möchte, ist die, daß es sich bei dem Verstehen um einen Zustand handelt, der in mir vorhanden ist (H.d.V.), wie z.B. bei den Zahnschmerzen.“ (Werkausgabe Bd.3, 1984, S.167). Searles Nützlichkeitsargument räumt diese Skepsis keineswegs aus (vgl. 207). Eine vertiefende Lektüre des Buches sollte Searles Grundbehauptung Beachtung schenken, von der aus er argumentiert, nämlich daß es eindeutige mentale Dispositionen gäbe. Dies aber ist nicht so offensichtlich, wie er sagt. Schließlich sei noch auf die Einwände N.Luhmanns (Die Wissenschaft der Gesellschaft, 1992) und die Kritik von B. Waldenfels (Antwortregister, 1994) an Searles Konzeption intrinsischer Intentionalität verwiesen. Fragen nach einer materialistischen Reduktion intentionaler Zustände sowie nach Möglichkeiten neurophysiologischer Beschreibungen und Erklärungen scheinen zweitrangig zu sein, solange nicht geklärt ist, was auf was zurückgeführt und was erklärt werden soll. Ignaz Knips