Geist, Gehirn, Computer Zur Ontologie des Mentalen 30.12.05 17.03.06 2 Zielvorgabe 3 Die erste Teilung 4 Definitionen, Postulate, Begründungen 5 Zeichen, Symbole, Aussagen 8 Computer, recht verstanden 11 Symbole oder Platzhalter? 11 Computerformalismen und Bedeutung 12 Formale Abstraktion 13 Codetabelle, Verständnis, Umschreibung 14 Fazit 15 Neuronensystem 17 Repräsentation, das Mentale, Transparenz 17 Abstraktion als neuronale Strategie 21 Wer erlebt die Inhalte? 22 Zur Verursachung in Computern und Menschen 24 Steuerung, Programmierung, Verursachung 24 Die Deutung mentaler Vorgänge 25 Mentale Verursachung im Konkreten 25 Illusion 27 Nachbemerkung 28 Neuro-Realismus 28 Konzepte 29 Freiheit des Menschen 30 Fazit 32 Danksagung 33 Bibliographie 33 3 Zielvorgabe Ontologie, die Suche nach der Natur der Dinge, ist eine säkulare Form von Metaphysik und damit ein zentrales Thema der Philosophie. Ontologie zu treiben heißt, sich über die grundsätzliche Typisierung der Dinge der Welt, ihr Wesen und ihrer Wechselwirkungen klar zu werden. Leider gibt es zu diesem 'Klarwerden' keinen Kanon anerkannter Regeln. So bleibt es bei den Regeln der generellen Ökonomie, man strebt nach Einfachheit Plausibilität Widerspruchsfreiheit Nutzen durch Anschluss an die Wissenschaft im allgemeinen1. Wie geht man vor? Man könnte eine Liste von bekannten 'Seinsformen' und Dingen zusammenstellen, die man dann nach Kategorien und Typen ordnet. Die Definition der Kategorien und Typen würde man so abstimmen, dass das entstehende 'Weltbild' den genannten Kriterien genügt. Die Ontologie der westlichen Philosophie begann mit Platons Phaedon. Es hat viele Versuche gegeben, das klassische Denkgebäude abzuändern und auszuweiten. Vor allem hat man für die geistige Dimension des Menschen immer neue Plätze gesucht. Fast scheint es, als sei die Suche 'nach unserem Platz in der Welt' mehr als die Suche 'nach der Natur der Dinge' das geheime Motiv der Ontologen. Man darf wohl unterstellen, dass die konkurrierenden Versuche aus guten Gründen vorgenommen wurden und dass ihre Resultate jeweils einen Teil der Wahrheit einfingen. Die Entwürfe schienen ihren Autoren plausibel, erwiesen sich jedoch als widersprüchlich und der Anschluss an die experimentelle Wissenschaft war und ist oft fraglich. Ein allgemein akzeptierter Wurf blieb also aus. Hier wird abermals versucht, eine einfache und anschlussfähige Ontologie des Mentalen herzuleiten. Der Anlass wurde durch die jüngsten Fortschritte der experimentellen Neurobiologie gegeben. Diese Fortschritte zwingen uns, das Wesen des Mentalen und der Abstrakta zu überdenken. Die Mittel meines Versuches sind sparsam, benötigt werden Definitionen, eine Analogie, eine Regel und eine Hypothese. Die Methode ist analytisch im modernen Sinne [1]. Das Resultat gilt, wie immer, nur unter den Voraussetzungen, die bei der Herleitung explizit oder stillschweigend angenommen wurden. Der wichtigste Vorbehalt zu den Überlegungen ist einer, der für die Philosophie insgesamt zutrifft: dass sie ja von Menschen erarbeitet wird, deren Geist einer bestimmten Abhängigkeit unterliegt. Er ist geprägt oder doch mitbestimmt von einem Neuronensystem, welches durch die biologische Evolution entstand, das vielen Zwecken dient aber nicht unbedingt tauglich sein mag, unser Verständnis ontologischer Wahrheiten zu fördern. Natürliches Empfinden und Plausibilität könnten da schlechte Ratgeber sein. Deshalb mögen schon die klassischen ontologischen Unterscheidungen, die anfangs getroffen werden müssen, mehr über die Besonderheiten unseres Geistes oder unseres Neuronensystems aussagen als über die 'Natur der Dinge'. 1 Allerdings, Einfachheit und Plausibilität sind zwar gefällig, jedoch keine Garantie für Wahrheit. Ist die Wahrheit einfach? Und woher wissen wir das? Widersprüchlichkeit heißt Fehlerhaftigkeit, aber Widerspruchsfreiheit ist noch keine Garantie für Wahrheit. Was den Anschluss anlangt, so sind gerade produktive Hypothesen zunächst nur begrenzt angeschlossen. copyright invoco-verlag 2006 www.bernd-lindemann.de 4 Die erste Teilung Schon gleich der erste Schritt vieler analytisch-ontologischer Ableitungen [2, 3, siehe auch 4], die Einteilung der Welt in Konkretes und Abstraktes, mag uns notwendig und plausibel erscheinen deshalb, weil unser Gehirn eben sehr geübt ist, Abstraktionen durchzuführen. Im weiteren Verlauf dieser Argumentation werden Abstraktionen als mentale Leistungen des Menschen erscheinen, Abstrakta sind gewissermaßen das Merkmal unseres Geistes. Somit sind Abstrakta nicht 'real', sie existieren nicht unabhängig von uns. Weiterhin, in einem gewissen Sinne ist unser Geist selbst ein so gewonnenes Abstraktum. Eine Einteilung der Welt in Konkretes und Abstraktes hat deshalb einen anthropozentrischen Beigeschmack: angesichts des riesigen physikalischen Universums, das uns zum allergrößten Teil unbekannt ist und wahrscheinlich bleiben wird, an dem gemessen unsere Zivilisation in ihrer zeitlichen und räumlichen Ausdehnung vernachlässigbar erscheint, sagen wir dennoch: es gibt zwei Weltteile, das Universum und unseren Geist. Welt = Universum (Konkreta) + Abstrakta Heute genügt es jedoch nicht, konkrete Dinge von ihren abstrakten Eigenschaften sowie die physikalische Welt von der mentalen zu unterscheiden und ihre Relation 'more geometrico' zu reflektieren. Vielmehr wird klar, dass bei diesen Unterscheidungen das Neuronensystem unseres Gehirns eine Art Mittlerrolle hat, die in vergangenen Jahrhunderten kaum abzusehen war. Es ist ja Teil der (konkreten) physikalischen Realität und gleichzeitig unabdinglich für die Existenz unserer (abstrakten) mentalen Objekte, für den Ablauf unserer mentalen Vorgänge und unseren Begriffshorizont. Überdies ist das Neuronensystem das erste Ziel jeder mentalen Verursachung. Seine Mittlerrolle zu berücksichtigen, philosophisch und doch in dem heller werdenden Lichte der experimentellen Wissenschaften, ist die große Aufgabe einer modernen Ontologie. Es gibt eine andere Besonderheit der Beziehung Geist-Gehirn: dass wir zwar einige Resultate der Arbeit unseres Gehirns, nicht aber die Technikalitäten dieser Arbeit mental erleben können. Es ist, als wenn wir zwar durch unser Hirn hindurch das sehen können, was gerade Thema seiner 'Signalverarbeitung' ist, nicht aber den komplexen neuronalen Apparat, der diese Verarbeitung durchführt. Dieser Umstand wird in der Folge als Transparenz bezeichnet. Die 'Unsichtbarkeit' des Neuronensystems lässt uns den gesamten Stoff der Neurobiologie fremdartig erscheinen, obwohl er uns doch in hohem Maße selbst betrifft. Dieser Stoff blieb der Menschheit und der Philosophie fast unbekannt bis Mediziner und Biologen ihn entdeckten. Er ist unserem natürlichen Empfinden nicht zugänglich und das mag der Grund sein, warum einige Philosophen ihn heute noch als irrelevant einschätzen. Er ist jedoch von großer Signifikanz wenn wir die alten Fragen stellen: was ist die Welt?, was ist der Mensch? copyright invoco-verlag 2006 www.bernd-lindemann.de 5 Definitionen, Postulate, Begründungen. Im Folgenden soll versucht werden, mit einem Satz wohldefinierter Begriffe ein System von Konzepten darzustellen, in dem materielle Objekte und geistige Leistungen widerspruchsfrei miteinander verknüpft sind. Def Objekt Ein Ding, ein von seiner Umgebung abgrenzbares Ganzes mit einem charakteristischen Satz von Eigenschaften. 'Real' ist ein Objekt, wenn es unabhängig von unseren mentalen (oder neuronalen) Leistungen existiert. Def Konkreta Was raum-zeitlich einzuordnen ist. Beispiel: ein Bild. Def Abstrakta Was nicht raum-zeitlich einzuordnen ist. Beispiel: 'rot sein' Def Abstraktion Bildung eines Abstraktums. Ein Prozess, durch den ein (überindividuelles) Konzept von einem konkreten Objekt oder einer Gruppe konkreter Objekte gelöst wird. Typisierende oder Begriffsabstraktion: (= Generalisierende Abstraktion) Bildung einer übergeordneten Klasse (Typ), die sich auf einige selektierte Eigenschaften der Klassenmitglieder (Token) stützt, die diesen gemeinsam sind. Bedeutungsabstraktion: (= Isolierende Abstraktion) Die Loslösung2 oder besser das Ablesen eines Abstraktums wie Information, Bezug, Inhalt usw. von einem konkreten Träger. Def Konkretisierung (Verdinglichung, Implementierung) (Exemplifikation bei Eigenschaften) Bei Zeichen die Umkehrung der Bedeutungsabstraktion: die Zuordnung einer Bedeutung zu einem Konkretum, so dass ein Zeichen entsteht. Def Eigenschaften Eigenschaften sind die objektiv gedachten Teilaspekte, Merkmale, Qualitäten eines Objektes. Eigenschaften sind überindividuell und, im Gegensatz zu ihrem Objekt, nicht raum-zeitlich, also abstrakt. Sie sind somit nicht Teil des konkreten Universums, sondern bilden einen ontologischen Weltteil (eine Kategorie) für sich, den der Universalia. 2 Schon nach Aristoteles wird "das in Gedanken fortgelassen, was man dennoch dem betreffenden Objekt in Wirklichkeit zugehörig weiß" [5]. Aristoteles nannte diesen Prozess Aphairesis (von fortnehmen, fortlassen) und definierte das Produkt, durch Boethius als "abstractum" ins Lateinische übersetzt, als die "Bestimmtheit, die man zwar getrennt denken kann, die aber in der Wirklichkeit nie getrennt von einem Substrat existiert " [6]. Was Abstraktion im Kern bedeutet und ob die Aphairesis oder Loslösung von einem konkreten Träger überhaupt möglich ist, wird ein wesentliches Thema der folgenden Seiten werden. copyright invoco-verlag 2006 www.bernd-lindemann.de 6 Begründung: Warum sind Eigenschaften nicht raum-zeitlich einzuordnen? Sie sind nicht spezifisch für ein Objekt, denn ein Objekt teilt Eigenschaften mit anderen Objekten. Diese Objekte haben verschiedene Orte und Zeiten. Hätte nun eine Eigenschaft selbst einen bestimmten Ort und eine bestimmte Zeit, wäre sie nur an einem aber nicht an vielen verschiedenen Objekten exemplifizierbar. Erst das Abstrahieren von Ort und Zeit erlaubt es, Eigenschaften auf mehrere Konkreta anzuwenden. Somit ist die überindividuelle Natur der Eigenschaften, wie die der Typen, die Folge eines Abstraktionsprozesses. Eigenschaften gelten als unveränderlich. Denn in der Denktradition der Ontologie erfordern Änderung Raum und Zeit. Die sogenannte 'Unveränderlichkeit' kommt überraschend wenn man bedenkt, dass die Eigenschaft 'Länge' sich doch sicherlich ändern kann. Das Objekt besitzt jedoch unveränderlich die Eigenschaft 'eine Länge haben', veränderbar ist nur der Zahlenwert der Länge, bei unverändertem qualitativen Aspekt. Die Unterscheidung wird sich als unverzichtbar erweisen, wenn Abstraktionen durchgeführt werden, denn diese vergleichen oft nur den qualitativen Aspekt der Eigenschaften (Beispiele in 'Formale Abstraktion'). Def Zustand Kombination von Eigenschaften, die wir einem Objekt zusprechen oder die in dem Objekt exemplifiziert sind. Def Ereignis Änderung eines Objektzustands. Ein Ereignis benötigt typischerweise zwei Objekte, die in eine Wechselwirkung treten. Ereignis im Konkreten: Verlust oder Gewinn von Eigenschaften eines konkreten Objektes durch Interaktion mit einem anderen konkreten Objekt zu einer bestimmten Zeit an einem bestimmten Ort. An jedem der beteiligten Objekte findet eine Zustandsänderung statt derart, dass die Summe der Energieänderungen null ist. Ereignis im Mentalen: Änderung der Attribute eines (abstrakten) mentalen Objektes. Änderung seiner Verknüpfung, seines Kontextes, mit anderen Objekten und mit dem Selbst. Findet vielleicht zu einem bestimmten Zeitpunkt statt, aber nicht an einem uns bewussten Ort. Def Prozess Ein Vorgang, eine Folge von Zustandsänderungen (Ereignissen), die einen Zweck verfolgt. Def Simulation Die Imitation eines Prozesses durch einen anderen. Der simulierende Prozess hat eine abweichende physikalische Realisierung, ist aber darauf optimiert, wenigstens einige charakteristische Züge des simulierten Prozesses zu reproduzieren. Beispiel: ein Computerlauf simuliert einen Evolutionsprozess mit dem Ziel, dessen Ausbreitungsgeschwindigkeit getreu zu ermitteln. Der simulierte Prozess kann auch abstrakt sein (Beispiel: ein Programm, das einen Algorithmus darstellt, 'läuft' auf einem Computer). Def Kausalität In der Ontologie die konsequente Verbindung der Zustandsänderungen zweier konkreter Objekte, die dabei Eigenschaften gewinnen oder verlieren oder quantitativ ändern (Energie). Wie diese Objekte ist auch die Verursachung raum-zeitlich einzuordnen. Wir sprechen also von einer Ursache (causa) immer dann, wenn eine Zustandsveränderung in einem Objekt eine Zustandsveränderung in einem anderen Objekt hervorruft. Bei Fortnahme der Ursache wird die copyright invoco-verlag 2006 www.bernd-lindemann.de 7 Wirkung ebenfalls entfallen. Zur Abklärung des Zusammenhanges sollte man auch einen Mechanismus angeben, der die Wirkung mit der Ursache verknüpft. Def Strukturierende Ursachen Nach Fred I. Dretske kann man auslösende Ursachen von vorbereitenden, strukturierenden Ursachen unterscheiden, die auf dieselbe Wirkung konvergieren [7]. Auslösend: das Umfallen eines ersten Dominosteines bewirkt das Umfallen eines zweiten Dominosteines. Strukturierend: die Steine werden so aufgestellt, dass die Auslösung möglich wird. Strukturierende Ursachen sind vielgestaltig: der Hebb-Mechanismus an Synapsen [8], die Konstruktion eines Computers und (wie wir sehen werden) die Programmierung eines Computers gehören dazu. Parametrische Einwirkungen dieser Art haben zur Folge, dass man statt Kausalketten Kausalnetze vorfindet. Die nichtlineare Komplexität der Netze macht Vorhersagen schwierig. Def Regel-1 Eine Interaktion und damit ein Ereignis kann im physikalischen Universum nur dann stattfinden, wenn sich die Objekte raum-zeitlich begegnen3. Aber: Entitäten aus verschiedenen Kategorien, wie Konkreta und Abstrakta, können sich nicht begegnen4. Im Sinne von Regel-1 ist oft betont worden, dass eine Verursachung im physikalischen Universum nur durch konkrete Objekte ausgelöst werden kann: das Universum ist kausal geschlossen. To be real means to have causal power (Samuel Alexander, [9]). Abstrakta hingegen haben keine Wirkung auf Konkreta, 'abstracta non agunt in concreto'. In der Stanford Encyclopaedia of Philosophy schreibt G. Rosen: 'Abstract objects are normally supposed to be causally inert in every sense' und zitiert dann Frege: ' An abstract entity is a non-spatial (or non-spatiotemporal) causally inert thing' [10]. Deshalb gilt es als Kategorienfehler, einem Abstraktum die ursächliche Wirkung im Konkreten zuzuschreiben, die nur Konkreta zukommt. In der klassischen Logik hieß dieser Fehler 'metabasis eis allo genos', heute findet man die Bezeichnung 'Reifikation' oder spezifischer, mit Whitehead 'The Fallacy of Mistaken Concreteness' [S. 51, 55, 58 in 11]. (Im Folgenden wird jedoch argumentiert werden, dass Abstrakta ohne konkreten physikalischen Träger gar nicht existieren. Nicht nur sind sie nicht real, es gibt sie nicht, sie sind eine Illusion. Abstrakta gibt es nur in der nicht abstrahierten Form, implementiert in einer physikalischen Struktur. Welche Form diese Struktur hat, wird näher spezifiziert werden. Sie ist raum-zeitlich einzuordnen und kausal zu handhaben.) 3 Dies geht aus der Definition von 'Ereignis im Konkreten' hervor. Eigenschaften (abstrakt) können an Objekten (konkret) exemplifiziert sein. Dies gilt jedoch nicht als Interaktion. 4 copyright invoco-verlag 2006 www.bernd-lindemann.de 8 Zeichen, Symbole, Aussagen Def Assoziation Die durch Lernen erworbene unwillkürliche Kopplung von vorher getrennten Denkinhalten. Assoziationsraum: eine Menge von Denkinhalten, die von einem Assoziationsvorgang zusammengebunden werden. Def Zeichen Ein Konkretum, dessen Wahrnehmung eine bestimmte Assoziation auslöst und das dadurch für etwas anderes steht (Bezug, Relation), das unabhängig von dem Zeichen existiert. Diese Kopplung von Denkinhalten gilt nur für die Entitäten, welche die Assoziation gelernt haben. Das Zeichen kann schon durch seine Form an den Bezug erinnern (Ikone) oder dies nicht tun (Symbol)5. Platzhalter haben keinen Bezug, sind also keine Zeichen im eigentlichen Sinne. Def Platzhalter Eine bedeutungslose Struktur (z.B. 'y'), für die ein Bedeutungsträger (z.B. das Symbol 'E' für Energie), eingesetzt werden kann. Synonym: 'allgemeine Variable', 'Bezeichner'. Def Symbol Ein Zeichen mit feststehendem Bezug, das nicht durch seine Form an diesen Bezug erinnert. Durch seine assoziative Verknüpfung verweist es auf ein bestimmtes Realobjekt oder auf ein Konzept, das unabhängig von dem Symbol existiert [12]. Komplexe Symbole sind aus einfacheren aufgebaut. Def Symbolverarbeitung Manipulation von Symbolen oder Symbolgruppen in kombiniert formal-syntaktischer (regelhafter) und semantischer Form (abhängig von deren Bezug). Die verarbeitende Entität muss den Bezug verstehen. Spielt der Bezug bei der Verarbeitung keine Rolle, so werden die Symbole nicht als solche, sondern nur syntaktisch als Platzhalter verarbeitet. Def Kommunikation Kommunikation = Übermittlung von Information mit einem physikalischen Träger. Def Information [13, 14] Hat einen 1. syntaktischen & technischen Aspekt, Informationstheorie im engeren Sinne, 2. semantischen Aspekt, Inhalt, 3. pragmatischen Aspekt, Wirkung. Information entsteht durch Abstraktion aus konkreten Objekten, in denen sie enthalten ist. R. Landauer hat jedoch betont, dass Information als Abstraktum eigentlich nicht real ist. Infor5 Nach Charles Sanders Peirce, siehe u.a. http://de.wikipedia.org/wiki/Symbol copyright invoco-verlag 2006 www.bernd-lindemann.de 9 mation kann nicht von ihrem physikalischen Träger getrennt werden, ohne ihre Wirksamkeit zu verlieren [15]. (Dies gilt für Information. Wie steht es aber mit Inhalten oder generell mit Abstrakta: existieren sie nur in der implementierten Form, an einen konkreten 'Träger' gebunden, oder gibt es sie auch ‚frei schwebend’?) Def Inhalt Die Bedeutung einer Kommunikation, ihr semantischer Aspekt, wovon sie handelt, was zutreffen kann (Synonym: der propositionale Gehalt einer Aussage). Ein Abstraktum. Bedeutung gibt es nicht für sich (real), sondern immer für jemanden. Def Aussage Proposition. Ein Inhalt, der als Information auf einem physikalischen Träger kommuniziert wird. Def Umschreibung alternative Aussage mit gleichem propositionalen Gehalt aber verschiedenen Vokabeln und verschiedener syntaktischer Struktur. - Mit Umschreibungen kann man prüfen, ob eine Entität einen Sachverhalt nicht nur formal behandelt, sondern inhaltlich versteht. Allerdings könnte Verständnis vorgetäuscht werden, wenn die Umschreibung nur Wortsubstitution einsetzt, diese Synonyme aber einer vorgefertigten Codetabelle entnommen werden können. Deshalb sollte die Umschreibung auch die Syntax variieren (der erste Vogel in der Reihe Æ von hier gesehen das vorderste gefiederte Tier.) Def Verständnis Ein Prozess, der einen gesetzmäßigen Zusammenhang mit (neuronalen) Symbolen nachbildet und dabei deren problemrelevante Bedeutung auswertet. Sein Resultat sind Assoziationen, deren Inhalt bewusst wird. Im Gegensatz hierzu simuliert der Lauf eines digitalen Computers einen mit Platzhaltern formulierten Algorithmus, den 'gesetzmäßigen Zusammenhang', schrittweise durch variable physikalische Strukturen. Problemrelevante Bedeutung spielt dabei keine Rolle. Ein anderer Computertyp, das 'neuronale Netzwerk', ermittelt den gesetzmäßigen Zusammenhang selbst. Auch dies geschieht ohne semantische Auswertung einer problemrelevanten Bedeutung von Symbolen. Def Verständnis von Vorgängen Die Simulation des Vorganges mit Hilfe seiner spezifischen Gesetzmäßigkeiten und das Bewusstwerden des Resultates. Test: Umschreibungen der Gesetzmäßigkeiten werden als sinngleich erkannt. Def Verständnis von einfachen Zeichen Lexikalische Auswertung der gelernten Assoziation von Zeichenstruktur und Bedeutung (Codetabelle). Fehlt das Zeichen in der Tabelle, so bleibt seine hypothetische Deutung durch Klassifizierung oder durch Raten aus dem Zusammenhang. Das Bewusstwerden der Bedeutung. Test: Umschreibungen mit komplexen Zeichen werden als sinngleich erkannt (Maus das kleine graue Tier mit der spitzen Schnauze). copyright invoco-verlag 2006 www.bernd-lindemann.de 10 Def Verständnis von komplexen Zeichen (Sätzen) Zerlegung in einfache Zeichen mit bekannter Bedeutung, Rekonstruktion des Komplexes mit dem Struktur-Bildungsgesetz (Syntax) bei gleichzeitigem Aufbau des Bedeutungskomplexes. Bewusstwerden des Resultates und seiner Begründung. Test: Umschreibungen werden als sinngleich erkannt. Def Verständnis von neuen Beobachtungen Rückführen auf Bekanntes, z.B. durch Klassifizieren als neuer Token eines schon bekannten Typs. copyright invoco-verlag 2006 www.bernd-lindemann.de 11 Computer, recht verstanden Die folgenden Betrachtungen über Computer und Programme sind notwendig, um die sog. Computeranalogie des Mentalen einschätzen zu können. Symbole oder Platzhalter? Nach D. Hilbert (1922) verwendet ein Formalismus "bedeutungslose Zeichen" (zitiert auf S.143 in [16].) In anderen Worten, ein Formalismus ist syntaktisch, aber nicht semantisch. Da nun Computerprogramme Formalismen sind und Computerläufe diese Formalismen simulieren, wird eine etwaige Bedeutung der Zeichen des Programms für den Ablauf des Rechenprozesses keine Rolle spielen. Jedoch, mit beginnendem Siegeszug digitaler Rechner formuliert A. Newell in den fünfziger Jahren "...we insisted that computers were symbol manipulation machines and not number manipulation machines." (zitiert auf S.137 in [17].) Newell und Simon meinten mit 'Symbol' nicht nur ein 'alphanumerisches Kürzel' im Gegensatz zu einer Zahl, sondern sie betonten die semantischen Eigenschaften. Sie sprachen von 'Physikalischen Symbol-Systemen' (PSS), die zu kognitiv-intelligenten Leistungen fähig seien, sofern einige Zusatzbedingungen erfüllt sind. Turingmaschinen und Computer gehören zu den PSS oder sind ihnen sehr ähnlich [17, 18], siehe auch S. 303 ff in [19]. Eine unterstellte Symbolmanipulation wirft jedoch Fragen auf, denn schon bei der algebraischen Niederschrift eines Algorithmus verwendet man mit x , y usw. keineswegs Symbole oder Zeichen (beide hätten eine feste Bedeutung), sondern Platzhalter (ohne festgelegte Bedeutung). Der Terminus 'Symbolverarbeitung' impliziert eine Kenntnis der problemrelevanten Symbolbezüge, die im Computer wohl kaum vorhanden sein dürfte. Die Bezeichnung 'Platzhalterverarbeitung' würde diesem wichtigen Umstand Rechnung tragen. Heutige Lehrbücher und Fachwörterbücher wiederholen gleichwohl: Computer sind symbolverarbeitende Maschinen [z.B. 1, 12], bzw. gehören zu den 'Physical Symbol Systems' [19]. Anders äußert sich Sybille Krämer: Die Zeichen eines Formalismus bilden typographische Muster, also Strukturen. Die Zeichen in diesen Strukturen werden nach Regeln schematisch kombiniert, ohne dass eine Bedeutung bekannt sein müsste. Auch über die formale Richtigkeit des Resultates lässt sich entscheiden, ohne eine Bedeutung zu kennen (S.2 in [16]). Auch John R. Searle bezweifelt energisch eine semantische Kompetenz von heutigen Computern [20]. Gewiss wird den Zeichen, wenn das Resultat etwa einer Computerrechnung vorliegt, eine Bedeutung gegeben. Das geschieht aber nicht im Computer, sondern im Kopf. Heutige Computer, wie sogleich gezeigt werden soll, kennen keine problemrelevante Bedeutung6 und eine uns bewusste Bedeutung dieser Art ist für den Computerlauf irrelevant. Computerformalismen und Bedeutung Wenn ein Computer ein Stoppzeichen liest und dann stoppt, hat er dann ein Symbol verstanden? Hat er den semantischen Inhalt des Stoppzeichens richtig gedeutet? Nein, oder besser: das lässt sich aus der Tatsache des Stoppens nicht folgern. Ähnlich bei einer Kuckucksuhr: 6 "... machines are awful at figuring out what things mean..." [S. 13 in 21]. Das mag sich jedoch ändern, die Entwicklung der Computer ist ja keineswegs abgeschlossen. copyright invoco-verlag 2006 www.bernd-lindemann.de 12 wenn der Vogel um 12 Uhr hervorkommt und ruft, so beweist das nicht, dass er das Zifferblatt deuten kann.7 Im Falle der Uhr können wir Philosophen hinter dem Ziffernblatt ein Räderwerk entdecken. Vielleicht rufen wir dann "Heureka, hier ist nichts als Mechanik, Formalismus, Syntax!" Was aber entdecken wir in der Hardware eines digitalen Computers? Das Urbild der Computer ist die Turingmaschine. Diese nur gedachte Maschine kann virtuell alles leisten, was digitale Rechner leisten können. Sie ist deshalb so generell, weil sie durch Aneinanderreihung von nur wenigen Arten elementarer Operationen die komplexeren Instruktionen anderer Computer darstellen und befolgen kann. Ihre Operationen sind 'Zeichen vom Band lesen', 'Zeichen aufs Band schreiben', 'Band nach rechts bewegen', 'Stopp' usw. [23, 24]. Nur gestützt auf Zeichen die solche einfachen operationellen Bedeutungen haben, simuliert die Turingmaschine die komplizierten Instruktionen jedes beliebigen digitalen Computers. Wenn die Turingmaschine nun eines dieser operationellen Zeichen liest, versteht sie es dann? Es sieht so aus, denn wenn sie z.B. ein Stoppzeichen liest, dann stoppt sie das Band. Muss das nun bedeuten, dass sie das Zeichen im semantischen Sinne verstanden hat? Nein! Vielmehr ist (in der gedachten Hardware der Maschine) vorgesehen, dass das Lesen eines Zeichens eine bestimmte Aktion bewirkt. Dies wird mit einer lexikalischen wenn-dann-Bedingung erreicht, die in den Instruktionen der Turingmaschine enthalten ist. Turing [23]: "To 'programme a machine to carry out the operation A' means to put the appropriate instruction table into the machine so that it will do A." Wir können uns das ganz mechanisch vorstellen, wie ein Räderwerk. Wegen der implementierten wenn-dann-Bedingung kann man vielleicht sagen, dass die Maschine dieses Zeichen in einem passiv-lexikalischen Sinne 'kennt'. Doch das Stoppzeichen ist ja kein Zeichen mit problemrelevanter Bedeutung, sondern ein operationelles Zeichen. Die Bedeutung solcher 'house-keeping' Zeichen ist, unabhängig von dem bearbeiteten Algorithmus, immer gleich. Operationelle Zeichen sind wichtig für den Ablauf der Sequenz von Programmschritten, gehören in einem weiteren Sinne zur Syntax. Zeichen mit problemrelevanter Bedeutung würden wir in den Instruktionen und in dem Computer vergeblich suchen. Der Computer simuliert ja nur - mit einer schnellen elektronischen 'Mechanik' – den schrittweisen Ablauf des Algorithmus und schon dieser ist frei von problemrelevanter Bedeutung. Ein digitaler Computer ist ein elektrisches Räderwerk. Wenn nun die Turingmaschine von der Konstruktion her ohne problemrelevante Symbolbedeutung auskommt, aber alle Computer simulieren kann, dann kommen diese auch ohne eine solche Symbolbedeutung aus. Da Symbolverarbeitung eine Kenntnis der Symbolbedeutung impliziert, ist die verbreitete Charakterisierung eines Computers als 'symbolverarbeitende Maschine' also (ontologisch) irreführend.8 Was aber verarbeitet ein Computer? Nicht Symbole, nicht Zeichen, auch nicht Zahlen - auch nicht alphanumerische Kürzel im Gegensatz zu Zahlen, sondern schnell veränderliche physikalische Strukturen (s.u.), die wir als operationelle Zeichen interpretieren. Wir wollen einmal genauer betrachten, wie Computer arbeiten. Oder besser, wie sie mit uns zusammenarbeiten. Denn das Zusammenspiel von Programmierer, Problem, Programm und Hardware ist dabei zu beachten9. Also, das geht etwa so: (1) Der Programmierer hat ein formalisierbares Problem. Das schreibt er auf ein Blatt Papier unter Verwendung von Symbolen. Da steht zB. E für Energie, t für die Zeit usw. E und t nen- 7 In diesem Sinne argumentierte auch J.R. Searle mit seinem bekannten "Chinesischen Zimmer" [22]. Natürlich geht es nicht darum, Fehler nachzuweisen, sondern darum, diese künftig zu vermeiden. 9 Die 3 Ebenen wurden von Marr [25] und Newell [26]eingeführt. Gleichwohl sind für diese Autoren Computer symbolverarbeitende Maschinen. Dies gilt auch für einen großen Teil der heutigen Kognitionswissenschaft [19]. 8 copyright invoco-verlag 2006 www.bernd-lindemann.de 13 nen wir zu Recht Zeichen oder Symbole, weil sie ja für den Programmierer eine feste, problemrelevante Bedeutung haben. (2a) Dann sucht der Programmierer einen Algorithmus, mit dem E(t) dargestellt werden kann. Er findet einen, der aber generell ist und die Funktion y(x) ausrechnet. Darin sind y und x Platzhalter, sie haben keine feste Bedeutung (siehe D. Hilbert, zitiert in [16]). Nur so kann der gewählte Algorithmus auf viele verschiedene Probleme anwendbar sein. Deshalb drückt der Programmierer sein Problem nun mit y und x aus. Natürlich bleibt es ihm unbenommen, auch bei y an Energie zu denken, bei x an Zeit usw. Nur: für den Algorithmus ist das völlig gleichgültig. Er funktioniert formal syntaktisch. Problemrelevante Bedeutungen sind für ihn Luft, ohne jede Wirkung. (2b) Der Programmierer schreibt nun ein Programm, das den Algorithmus in Einzelschritte und schließlich in Instruktionen auflöst. Auf der Ebene des 'Maschinenprogramms' sind diese Instruktionen wenn-dann-Bedingungen der Art 'wenn Zeichen-Kennzahl = n, dann Operation m durchführen'. Die Zuordnung Zeichen -> Aktion ist also lexikalisch. (3) Die Hardware hat die Aufgabe, die Programmschritte und Platzhalter, die nun als Sequenz von Instruktionen vorliegen, mit physikalischen Strukturen darzustellen. Diese Strukturen sind schnell variable Potentialmuster auf den Chips. Die Hardware funktioniert rein formal, sie führt die wenn-dann-Instruktionen aus, eine problemrelevante Bedeutung spielt keine Rolle. Die ging ja schon beim Übergang zum Algorithmus verloren. (4) Das Resultat der Hardwarevorgänge wird in den algorithmischen Formalismus zurückübersetzt. (5) Das Resultat des Formalismus wird in die Variablen zurückübersetzt, die für den Programmierer eine problemrelevante Bedeutung haben. Man sieht also, eine problemrelevante Bedeutung von Symbolen (Variablen) spielt nur für den Programmierer bei der Formulierung des Problems und bei der Interpretation des Resultates eine Rolle, nicht aber für den Ablauf des Formalismus und schon gar nicht für die Hardwareprozesse. Im Übrigen ist die computatorische Leistung der Hardware durch ihren formalen, bedeutungsfreien Prozessablauf schon voll erklärt. Deshalb sind Computer keine symbolverarbeitenden Maschinen. Symbolverarbeitung müsste ja heißen, dass Zeichen nach Maßgabe ihrer (problemrelevanten) Bedeutung verarbeitet werden. Das kann nur der Programmierer, nur er kennt die Bedeutung. Der Computer versteht die Bedeutung nicht, er kennt sie auch nicht, das ist nicht vorgesehen, es ist auch nicht nötig, würde keinen Vorteil bringen. Der Computer liest nur seine immer gleichen operationellen Symbole. Er setzt sie lexikalisch um, versteht selbst ihre Bedeutung jedoch nicht. Problemrelevante Symbole aber versteht oder kennt der Computer schon deshalb nicht, weil diese Symbole die Hardware nie erreichen. So simuliert der Computer, mit seinen physikalischen Möglichkeiten, den schrittweisen Vollzug des Algorithmus, wie er in dem Programm festgehalten wird. copyright invoco-verlag 2006 www.bernd-lindemann.de 14 Formale Abstraktion Wie schon erwähnt, kann die universelle Turingmaschine alle berechenbaren Probleme lösen und jeden real existierenden Computer simulieren. Eine Kenntnis von problembezogener Bedeutung ist in der Konstruktion jedoch nicht vorgesehen. Gleichwohl argumentierte Alan Turing 1950, dass auch mentale Prozesse 'computable' sind und auf einer universalen Maschine realisiert werden können [23]. Das mag sein, aber werden die mentalen Prozesse auf der Maschine nicht nur formal simuliert? Der Unterschied zwischen einer Simulation und ihrem umfassenderen Vorbild ist hier zu berücksichtigen: computable (syntaktisch) heißt noch nicht content-conscious (semantisch).10 Nun könnte man spekulieren, dass in der Konstruktion der Turingmaschine eine Kenntnis oder ein Bewusstwerden von Bedeutung nicht das Ziel der Optimierung war, dass das Verstehen der Bedeutung aber doch bei hinreichender Komplexität durch Emergenz entstehen könnte. Wie kann man also erkennen, ob ein Computer oder eine andere Entität Bedeutung versteht? Bedeutung (semantischer Gehalt) ist ein Abstraktum, entsteht also durch Abstraktion. Um die Bedeutung eines Zeichens zu 'verarbeiten', muss ein Computer zunächst durch Abstraktion das Zeichen identifizieren, um dann dessen Bedeutung zu ermitteln und schließlich auf die Bedeutung zu reagieren. Das Abstrahieren ist ohne weiteres möglich, bei entsprechender Programmierung kann ein Computer sowohl Begriffsabstraktion (Typbildung) als auch Bedeutungsabstraktion (Abziehen) formal durchführen. In dem folgenden Beispiel wird eine typisierende Abstraktion computergerecht mit der logischen UND-Verknüpfung realisiert. Jede Position in Token A oder B soll eine mögliche Eigenschaft repräsentieren. Die Eigenschaft ist vorhanden, wenn der Zahlenwert auf der Eigenschafts-Position = 1 oder > 1 ist. Sie ist um so stärker ausgeprägt, je größer der Wert ist. (Für Boolsche Operationen wie UND wird jedoch jeder Wert > 1 als 1 gewertet.) Die Abstraktion C = A UND B sieht dann im Einzelnen so aus: Token A: Token B: UND Typ C: 034 203 040 300 --------------010 100 In dem Beispiel spielen quantitativen Aspekte von Eigenschaften für die Abstraktion keine Rolle. Entscheidend ist allein, dass die Eigenschaft überhaupt vorkommt. Um eine Bedeutungsabstraktion (Abziehen) formal durchzuführen, wird der Token mit einem Normmuster verglichen: Token Norm 030 422 010 010 UND Res -------------010 010 Wenn Res = Norm, dann ist die Abstraktion gelungen (Norm ist in dem Token enthalten, d.h. die Eigenschaften von Norm sind eine Untermenge der Eigenschaften von Token). Da Boolsche Operationen wie UND von heutigen digitalen Computern leicht durchgeführt werden, kann kein Zweifel sein, dass diese Maschinen beide Arten der formalen Abstraktion leisten können. Natürlich trennt der Computer nicht die Bedeutung von ihrem Träger ab. Er 10 Dieser Punkt wurde schon durch das bekannte "Chinesische Zimmer" von J.R. Searle verdeutlicht [22]. copyright invoco-verlag 2006 www.bernd-lindemann.de 15 führt nur eine Maskierung oder Filterung durch, die das gleiche formale Resultat hat wie eine Abstraktion. Tabelle 1 Vorgang verstehen lexikalisch konstruktiv Simulation mit Bildungsgesetz Test auf Verständnis Resultat bewusst. Erkennen von Umschreibungen der benutzten Gesetzmäßigkeiten Einfaches Zeichen verstehen Komplexes Zeichen verstehen Codetabelle auswerten Klassifizieren. Raten aus dem Zusammenhang Resultat bewusst. Erkennen von Umschreibungen Datenbank wird zu groß Mit den syntaktischen Regeln zerlegen und rekonstruieren Resultat bewusst. Erkennen von Umschreibungen Codetabelle, Verständnis, Umschreibung Nach der Abstraktion muss die Bedeutung des gefundenen Zeichens festgestellt werden. In dem obigen Beispiel ist 'Norm' ein solches Zeichen oder Symbol, das eine feste Bedeutung hat. Es gibt zwei prinzipielle Wege, die Bedeutung zu ermitteln: mit einer Codetabelle oder konstruktiv. Tabelle 1 stellt die schon gegebenen Definitionen des Verständnisses von Vorgängen sowie von einfachen und komplexen Zeichen zusammen. Hier interessiert zunächst das Verständnis von einfachen Zeichen. Eine Codetabelle oder eine lexikalische Datenbank stellt Assoziationen dar, die oft von einer anderen Entität dem Analysesystem verfügbar gemacht werden. Mit Hilfe der Tabelle kann ein Computer vor allem die Bedeutung einfacher Zeichen ermitteln, die Bedeutung ausdrucken, von ihr abhängige Schritte einleiten, usw. Dies kann rein formal geschehen, der Computer braucht die Bedeutung nicht zu verstehen. Der Nachteil dieses Verfahrens besteht darin, dass Zeichen, die nicht in der Tabelle enthalten sind, nur mit anderen, weniger sicheren Methoden bearbeitet werden können. Für komplexe Zeichen werden die Codetabellen unhandlich lang, es bleibt dann der Weg der konstruktiven Analyse. In Neuronensystemen führt dieser Weg zum Verständnis, seine detaillierte neurobiologische Aufklärung steht aber noch aus. In großen Zügen scheint die Analyse einer Struktur mit dem relevanten Struktur-Bildungsgesetz stattzufinden. Dabei werden Symbole verwendet, deren problemrelevante Bedeutung für den Prozess entscheidend ist. Das Resultat wird bewusst und kann begründet werden. Der Vorteil ist die Unabhängigkeit von einer vorgefertigten Tabelle, dass also auf neue Situationen flexibel reagiert werden kann. Als Beispiel wählen wir den sprachlichen Ausdruck "der vorderste Vogel in der Reihe". Dieses komplexe Zeichen wird zunächst zerlegt (parsing). Es besteht aus 3 sinntragenden Wörtern (vorderste, Vogel, Reihe), deren Bedeutung lexikalisch bekannt ist. Dazu kommen drei copyright invoco-verlag 2006 www.bernd-lindemann.de 16 Hilfswörter (der, in, der). Mit der bekannten Syntax der deutschen Sprache wird der Sinn des Komplexes aus dem Sinn der Wörter und der Teilkomplexe schrittweise konstruiert: Es gibt eine Reihe Es gibt einen Vogel Es gibt eine (Reihe von Vögeln) Es gibt ein Vorderstes Es gibt einen (vordersten Vogel) Es gibt einen (vordersten Vogel) in der (Reihe von Vögeln). In dieser Weise können generell Sprachausdrücke mit Hilfe der bekannten Syntax enträtselt werden. Um dasselbe mit einer Codetabelle zu leisten, müsste diese sehr lang sein. Nun lässt sich aber denken, dass zukünftige Computerprogramme auch die Verfahren der syntaktischen Sprachanalyse formal nachbilden. Wie kann man dann feststellen, ob das Verfahren formal war oder ob Verständnis im Spiel war? Verständnis bedeutet Analyse einer Struktur mit dem relevanten Struktur-Bildungsgesetz und Bewusstwerden des Resultates und seiner Begründung. Zu Prüfung auf Verständnis empfiehlt Tabelle 1 die Verwendung von Umschreibungen, die als sinngleich erkannt werden müssen. Eine Umschreibung wäre: "das erste gefiederte Tier, von hier aus gesehen". Man ändert also die Formulierung unter Erhaltung des Inhaltes möglichst überraschend so, dass eine vorgefertigte Codetabelle nichts nützt. Die beiden Formulierungen haben nichts gemeinsam außer ihrem Sinn. Wenn sie also nicht als gleichbedeutend erkannt werden, dann fehlt das Verständnis für mindestens eine der Formulierungen. Die Täuschung, vor der ein Tester auf der Hut sein muss, besteht darin, dass der Prüfling lexikalisches Wissen einsetzt, statt konstruktiv mit den relevanten Gesetzen zu arbeiten. Heutige Computerprogramme arbeiten sehr oft lexikalisch, mit bei der Programmierung eingelesenen Tabellen, um das richtige Resultat schnell zu erhalten. Mit Synonymtabellen wie 'vorderstes' manchmal = 'erstes', 'gefiedertes Tier' = 'Vogel' wäre das schon möglich. Deshalb kann man mit sehr umfangreichen Lexika, die auch sehr up-to-date sind, wie in dem 'Chinesische Zimmer' von J.R. Searle, Umschreibungen richtig zuordnen und so erfolgreich Verständnis vortäuschen [22]. Anders wenn man den Fall umdreht: sollte der Prüfling die semantische Identität von ursprünglicher und umschreibender Aussage nicht erkennen, so kann er die Bedeutung von mindestens einer der beidem Aussagen nicht erfasst haben. Der positive Beweis von Verständnis ist schwieriger. Er erfordert neben dem Erkennen von Umschreibungen auch noch den Nachweis der Bewusstwerdung, sowie die Begründung. Wir fragen hier nach semantischem Verständnis. Alan Turing hat 1950 eine ähnliche Frage gestellt: "Do machines think?" und zu ihrer Beantwortung (bzw. zur Beantwortung einer weiteren, abgeleiteten Frage) das 'imitation game' vorgeschlagen [23]. Ein direkterer Test schien nicht möglich zu sein. Das Imitationsspiel wird noch regelmäßig zur Beantwortung von "Ist der Prüfling ein Mensch (sprich: intelligent) oder ein implementiertes Programm (sprich: nur formal)?" als Loebner-Preis Wettbewerb Künstliche Intelligenz durchgeführt11. Für die Beantwortung unserer Frage: "Hat der Proband semantisches Verständnis?" können wir ein begründetes Testverfahren angeben, eben das der Umschreibung. Werden Umschreibungen erkannt, so ist die Antwort noch unbestimmt (Argument mit dem 'Chinesischen Zimmer') und erfordert den Nachweis der Bewusstwerdung und die Begründung. Wenn aber die 11 Siehe die ausführliche Beschreibung des Turing Tests bei P.M. Churchland [27]. copyright invoco-verlag 2006 www.bernd-lindemann.de 17 Umschreibungen partout nicht erkannt werden, dann fehlt das Verständnis für mindestens eine der alternativen Formulierungen. Das Resultat eines Umschreibungstests mit heutigen Computern lässt sich denken, denn die Programmierung strebt eben nur ein korrektes formales Resultat an. Ein Verständnis des Resultates durch die Hardware ist dabei weder notwendig noch hilfreich, zu den Zielen der Optimierung gehört es jedenfalls nicht. Fazit (1) Bei Symbolen unterscheidet man tunlichst die problemrelevanten von den operationellen. Die Frage ist dann nicht, ob Computer Symbole verarbeiten, sondern ob sie problemrelevante Symbole verarbeiten. Der Computer liest jedoch nur die operationellen 'housekeeping'Symbole. Diese setzt er lexikalisch um ohne ihre Bedeutung zu verstehen. Problemrelevante Symbole aber versteht oder kennt der Computer schon deshalb nicht, weil diese Symbole die Hardware nie erreichen. Symbole mit problemrelevanter Bedeutung spielen nur eine Rolle (a) bei der Formulierung des Problems durch den Programmierer und (b) bei der Auswertung des Computerresultates durch den Programmierer. (2) Generell erfordert eine Symbolverarbeitung, wenn sie über das Lexikalische hinausgeht, ein Verständnis der Symbolbedeutung. Dieses liegt vor, wenn (a) Umschreibungen als sinngleich erkannt werden und (b) das Resultat bewusst wird und begründet werden kann. Das ist bei heutigen Computern nicht der Fall. (3) Die Charakterisierung von heutigen Computern, Turingmaschinen und von anderen nichtneuronalen 'physikalischen Symbolsystemen (PSS)' als symbolverarbeitende Maschinen ist also falsch12 und Analogien zu Neuronensystemen sind irreführend, wenn sie von dieser Charakterisierung ausgehen. 12 Es führt nicht weiter zu argumentieren, dass ein Computer ja seine operationellen Zeichen verarbeite, wenn auch nur lexikalisch, und deshalb zurecht symbolverarbeitend genannt würde. Diese Zeichen sind nicht problembezogen. Ihre Bedeutung ist für jeden Algorithmus die gleiche. Ihre Verarbeitung kann digitale Rechner nicht in eine Klasse mit Neuronensystemen bringen, die semantische Verständnis für Symbole mit problembezogener Bedeutung zeigen. copyright invoco-verlag 2006 www.bernd-lindemann.de 18 Neuronensystem Repräsentation, das Mentale, Transparenz Def Repräsentation Darstellung durch komplexe Symbole von etwas, das nun nicht mehr gegenwärtig sein muss, um berücksichtigt zu werden. Ein Objekt wird in einer Entität repräsentiert, wenn seine vermeintlichen Eigenschaften (Attribute) verfügbar (auslesbar) gemacht oder dargestellt werden und in dieser Entität semantisch interpretiert werden können. (Symbole und Zeichen semantisch zu verarbeitet, heißt ihren Bezug zu verstehen. Das Verständnis kann mit Umschreibungen überprüft werden.) Def Bindung Integration von Attributen. Vorgang der Assoziation von Attributen, als verteilt gespeicherten Zeichen, zu einer neuronalen Repräsentation. Diese wird bewusst nicht als Summe ihrer Attribute, sondern als ein Ganzes (Gestalt). Die bekannte Hypothese von W. Singer et al. spezifiziert neuronale Synchronisation als Mechanismus der Bindung [28]. Def Bindung 2. Ordnung Integration von Repräsentationen. Vorgang der Assoziation von neuronalen Repräsentationen zu einer Szene oder zu einem anderen Zusammenhang. Beobachtung: Neuronensystem Das Gehirn des Menschen, von ca.1400 g, enthält mehr als 1010 Neurone mit mehr als 1012 Synapsen [29]. Es betreibt systematische Signal- oder Informationsverarbeitung mit einer eigenen Architektur und Strategie, wobei die Hebbsche Regel der synaptischen Plastizität eine wichtige Rolle spielt [8]. Das Gehirn ist in morphologischen und funktionellen Modulen organisiert, die miteinander über die Dendriten, Neuriten und Botenstoffe vieler Neurone kommunizieren. Im Gehirn sind ungezählte km von Neuritenkabel verlegt (Axone). Allein die Bahn von der Retina zum Thalamus enthält 1 Million parallele Axone13. Und die Axone sind nicht zur Zierde da, sie leiten die Nervenimpulse mit Raten bis zu 1000 pro Sekunde, mit Geschwindigkeiten bis zu 100 Metern pro Sekunde, über Distanzen von Millimetern bis Metern, jeder Impuls ein Argument für die kommunikative Leistung des Neuronensystems. Die Module sind Agenten, haben also eine gewisse Autonomie, so dass eine gleichzeitige Bearbeitung mehrerer Aufgaben möglich wird. Die dazu notwendigen neuronalen Kommunikationsvorgänge transportieren Information und haben somit, wie Kommunikation generell, bestimmte intrinsische Inhalte. In einfachen Fällen enthält schon die Spikefolge (Impulsrate) auf einer einzelnen Nervenfaser solche Inhalte. Die Übertragung geschieht mit dem konkreten Objekt 'Spikefolge auf dem Axon'. Die Bedeutung der Spikefolge muss dem Empfänger des Signals, einem neuronalen Modul, natürlich bekannt sein. Dabei spielt das Ortsprinzip (labeled line) eine wichtige Rolle: Information auf Axonen, die vom Zeh kommen, werden auf den Zeh bezogen. Der Grund ist aber, dass diese Axone oder Bahnen in dem Zehbereich des sen13 Auf jeder Seite. Aneinander gereiht sind das schon 50 km 'verlegtes Kabel' pro Seite. Die 'weiße Substanz' des menschlichen Gehirns enthält an die 135000 km 'verlegtes Kabel' und ein mm3 Cortex etwa 4 km [30]. copyright invoco-verlag 2006 www.bernd-lindemann.de 19 sorischen Cortex enden und alles, was dort eintrifft, wird auf den Zeh bezogen! Mehrere Prinzipien der neuronalen Codierung sind bekannt [31]. So beruht die effiziente neuronale Repräsentation von Schall auf einer nichtlinearen Populations-Spike-Kodierung [32]. Dass überhaupt Codierung stattfindet, ist unstrittig (S.330ff in [33]). Was codiert wird, ist Information und Information bedeutet Inhalt [13, 14]. Wie unten dargelegt wird, können wir die Neuromechanismen selbst (etwa Erregungsmuster, Aktivierungsmuster, Synchronisation) subjektiv nicht wahrnehmen, nur die Inhalte, welche sie dem Bewusstsein präsentieren. Deshalb kann man das Bewusstsein als 'Benutzeroberfläche' verstehen (engl. user-interface). Es ist eine Schnittstelle, die uns vor allem das zugänglich macht, was wir wissen müssen um zu überleben. Den Rest erspart sie uns, wenn wir uns nicht besonders darum bemühen. Erkenntnis bedeutet, über den Rand dieser Oberfläche hinauszublicken. Def Neuronale Repräsentationen (nR) Die Beobachtung, dass Neurone und neuronale Module kommunizieren, ist unstrittig. Aber repräsentieren sie auch? Hierüber wurde kürzlich in einer publizierten Diskussion ein wenigstens teilweiser Konsensus erreicht: Vielleicht nicht einzelne Neurone, sicher aber größere Komplexe (Module) repräsentieren, d.h. sie machen vermeintliche Eigenschaften eines Objektes verfügbar und erlauben ihre Interpretation [34, 35]. Die nR können in einfachen Fällen als Aktivierungsmuster von Neuronengruppen in einem Experiment objektiv dargestellt werden [z.B. 36]. Sie sind symbolische Darstellungen 'von etwas' durch konkrete Objekte, nämlich durch die mit der Repräsentationsaufgabe befassten Module. Somit, und das ist spannend, finden wir in dem Neuronensystem wichtige Leistungen (wie die Darstellung propositionaler Inhalte), die vormals nur dem Mentalen zugeschrieben wurden. Def Attribute Die neuronale Repräsentation eines konkreten Objektes besteht aus Zeichen (ist eine Art Stenogramm [25]) durch welche die Eigenschaften des Objektes zwar nicht exakt, aber für einen gegebenen Zweck hinlänglich beschrieben werden. Die Eigenschaften, auf die sich die Zeichen beziehen, sind vermeintliche Eigenschaften, hier Attribute genannt. Attribute (im Gegensatz zu Eigenschaften) haben einen semantischen Aspekt, sie können aber müssen nicht zutreffen, denn Attribute beziehen sich zwar auf echte Eigenschaften, sind aber nur im Idealfall identisch mit ihnen. Sie sind eingeschränkt, u.a. durch unsere genetisch vorgegebenen Ordnungsprinzipien (gelegentlich als Kategorien bezeichnet). Def Das Mentale Die Natur kann uns nicht sagen, was das Mentale ist, es liegt an uns, zu entscheiden, was wir so benennen wollen. Um die Grenzziehung möglichst einfach zu halten: mental wollen wir das nennen, was bewusst wird. Das Mentale umfasst die Phänomene des bewussten Erlebens und Erinnerns. Dazu gehören emotionelle und kognitive Eindrücke. Von beiden vermutet man mit guten Gründen, dass sie in einer festen Beziehung zu entsprechenden neuronalen Zuständen stehen. Diese Relation ist schwer zu fassen deshalb, weil unsere mentalen Phänomene nur uns selbst bekannt sind, nur wir haben das Privileg des Zuganges zu ihnen. Die doppelte Perspektive des Neuronal-Mentalen: konkret-öffentlich versus mental-privat, nennt man Perspektivendualismus. In erster Näherung können wir 'mental' also verstehen als 'nur subjektiv ercopyright invoco-verlag 2006 www.bernd-lindemann.de 20 lebbar' oder 'nur subjektiv zugänglich' und 'neuronal' als konkret-öffentlich, subjektiv nicht zugänglich aber mit dem Mentalen in noch unklarer Weise verknüpft. Def Mentale Objekte sind Denkinhalte, auch Konstrukte oder Konzepte genannt. Sie sind weder räumlich noch zeitlich einzuordnen. Dies, allerdings, trifft für kognitive und auch für emotionale Inhalte zu: Begriffe wie 'Gedicht', 'Zahl', 'Gesetz', aber auch Eindrücke wie 'Wohlbefinden', 'Ruhe', 'Unlust' erleben wir mental, ohne dass ihnen ein räumlicher und zeitlicher Eindruck zwingend zugeordnet wäre. Sie sind also Abstrakta. Im Gegensatz zu Konkreta gelten Abstrakta üblicherweise als eigenschaftslos, mentale Objekte wären dann weder veränderbar noch unveränderbar [2]. Aber hat die Zahl 12 nicht die Eigenschaft, durch 2, 3, 4 und 6 teilbar zu sein? Ist nicht die Länge eines Gedichtes oder der Grad seiner Berühmtheit eine seiner Eigenschaften? Und hat nicht der Dichter die Zeilen und Reime seines Gedichtes verändert bis sie ihm gefielen? Kann nicht eine Phantasie, etwa unsere Vorstellung von Hamlet, Prinz von Dänemark, heute so und morgen anders aussehen? Nein, wir müssen mentalen Objekten Eigenschaften und diesen quantitative Aspekte zugestehen! Postulat: Hypothese-1 Zu dem Funktionszusammenhang von neuronalen Zuständen und dem Mentalen wird postuliert, dass das mentale Erleben eine Inhaltsangabe und Inhaltsbewusstwerdung von neuronalen Kommunikationsprozessen ist, gleichsam ein 'Bild-und-Text-Erlebnis' darstellt. In der 'Philosophie des Geistes' wird betont, dass das Mentale 'vom Gehirn abhängt' (Supervenienz), dass es 'von neuronalen Zuständen bestimmt' wird. Diese Funktionalismus-Diskussion thematisiert oft nur Probleme der Begrifflichkeit, die eine genauere Beschreibung des Zusammenhanges verhindern. Da es aber unstrittig ist, dass neuronale Module miteinander kommunizieren, liegt es nahe, von dieser Tatsache auszugehen und dann zu konstatieren, dass jede Kommunikation einen Inhalt hat und dass es Inhalte sind, die uns bewusst werden. Hier aber wartet eine andere begriffliche Schwierigkeit. Nach F. Brentano wird zwar mentalen Objekten, nicht jedoch konkreten Objekten, ein Inhalt zugeordnet, der sie charakterisiert [37]. Der neue Ansatz widerspricht diesem Postulat: konkrete Objekte, etwa Salven von Aktionspotentialen auf bestimmten Bahnen des Neuronensystems, gehören zu Kommunikationsprozessen mit eigenem Inhalt. Es scheint an der Zeit, Brentanos Regel zu modifizieren: es gibt eigentlich keine 'mentalen Objekte mit Inhalt', sondern mentale Objekte sind Beschreibungen bzw. Erlebnisse eines Inhalts und der gehört zu einer Folge neuronaler Zustände. Fast könnte man mit Jerry Fodor sagen: "...there is no alternative" [38]. Das bewusste mentale Erleben steht in folgender fester Beziehung zu der Aktivität des Neuronensystems: es bildet Inhalte ab, während diese bearbeitet werden. Somit wäre das Mentale eine Hervorbringung des Neuronensystems, in welcher der neuronale Mechanismus mit seinem Code zurücktritt und Inhaltliches von diesen Technikalitäten getrennt hervortritt. Man kann hier von einer Abstraktion sprechen, im Sinne eines Ablesens der Bedeutung von ihrem Träger. Durch das Zurücktreten des Trägers, durch die Transparenz des neuronalen Mechanismus entsteht dann die Illusion, das Mentale sei von ihm unabhängig, sei eine Welt für sich. Das Gegenteil ist der Fall. Mental sind also die Inhalte, die wir bewusst erleben können. Dazu gehören kognitive aber auch emotionale Inhalte. Da wir recht komplexe Inhalte 'sehen' können, wird es der Inhalt mehrerer gleichzeitig ablaufender Kommunikationsprozesse sein, der betrachtet wird. Dadurch erhält das Bewusstsein eine integrierende Funktion, etwa in dem Sinne einer Bindung 2. Ordnung. Bemerkenswert ist also: copyright invoco-verlag 2006 www.bernd-lindemann.de 21 * dass uns die Inhalte bewusst werden. * dass uns nur die Inhalte bewusst werden, nicht aber (Transparenz) die Technikalitäten des neuronalen Mechanismus. Durch den Bewusstseinsakt werden kommunizierte Inhalte ohne ihre konkreten Träger betrachtet. Die Relation mental / neuronal ist die Relation Inhalt / Träger mit Inhalt. Dieser überraschend einfache Zusammenhang von nR mit mR setzt voraus, dass neuronale Module einen propositionalen Inhalt mitteilen, dass sie "über etwas" aussagen14, dass sie auch, wie J.R. Searle sagen würde, "intentional" sind. Konkrete neuronale Prozesse und viele andere biologische Prozesse sind in der Tat propositional und final. Denn Neurone kommunizieren miteinander, die Kommunikation hat einen Inhalt und geschieht zu einem Zweck. Das Mentale nur deskriptiv, ein Ablesen? Eine integrierende Inhaltsbewusstwerdung und sonst nichts? Ein Kino? Es versteht sich, dass dem Neuronensystem diese Inhalte zur Verfügung bleiben, sie sind ja in den Kommunikationsprozessen inhärent. Neuronale KontrollLeistungen wie Metakognition müssen von ihnen Gebrauch machen. Und auch die Inhalte von Kontrollvorgängen können dann wieder bewusst werden. Das Mentale verursacht nicht, sondern beschreibt oder bezieht sich auf Verursachungen, die im Neuronensystem des Gehirns stattfinden. Auf den folgenden Abschnitt 'Wer erlebt die Inhalte?' sei besonders hingewiesen. Def Mentale Repräsentationen mR sind mentale Objekte, erlebte kognitive Inhalte. Wie Patricia Churchland ausführt, sprach Hume von Ideen, Descartes von Gedanken, Kant von Konzepten und "representation is the term currently in fashion" [41]. Im Kontext unserer Ableitung ist eine mentale Repräsentation ein Abstraktum deshalb, weil sie den Inhalt einer neuronalen Kommunikation bzw. Repräsentation darstellt (wobei von dem konkreten Informationsträger abstrahiert wird). Die Repräsentation ist also doppelt vorhanden: als Konkretum nR im Neuronensystem und als Abstraktum mR im Mentalen. Das mR ist der bewusst gewordene Inhalt von nR. Beobachtung: Transparenz Es versteht sich, dass unser Neuronensystem als solches dem Universum angehört, seine Teile haben also den ontologischen Status konkreter Objekte. Wie andere konkrete Objekte sind sie öffentlich, also wissenschaftlich untersuchbar. Allerdings, als Erlebnis bleiben sie uns unbekannt, denn von Existenz und Funktionsweise der mehr als 1010 Neuronen unserer Hirnrinde haben wir subjektiv keine Kenntnis. Die Erkenntnis der subjektiven Unsichtbarkeit (Transparenz) unseres Neuronensystems ist eine wichtige Einsicht. Da ist etwas, das wir gar nicht wahrnehmen können und dieses Etwas hat vielleicht eine Schlüsselrolle. Während also das Mentale als evident erlebt wird, bleibt der ausgelassene neuronal-mechanistische Teil uns verborgen. Seine Kenntnis ist subjektiv nicht notwendig, vielleicht sogar unmöglich, weil sie Selbstreferenz bedeuten würde. (Zur Diskussion von Selbstreferenz, siehe [42, 43 , 44].) Es liegt nahe, die Vermeidung von Selbstreferenz als zwangsläufig aufzufassen und hierfür den folgenden Grund vorzuschlagen: 14 Dies ist seit der Formulierung der Representational Theory of Mind (RTM) durch Fodor [39, 40] in der Kognitiven Wissenschaft akzeptiert. copyright invoco-verlag 2006 www.bernd-lindemann.de 22 Die neuronale Kommunikation und Signalverarbeitung findet auf einer hierarchischen Ebene statt, die wir prozedurale Ebene nennen wollen. Aussagen über eben diese Signalverarbeitung wären nicht von der prozeduralen Ebene selbst, sondern nur von einer Metaebene aus möglich. Eine Metaebene aber ist von der prozeduralen Ebene her nicht erreichbar. Somit ist eine Selbstbetrachtung des Neuronensystems nicht nur verboten, sondern unmöglich. Gemeint ist hier eine das Ganze umfassende Selbstbetrachtung, eine Teilbetrachtung bliebe, entsprechend der hilfreichen Diskussion des Homunkulusproblems durch Fred Attneave [42], noch denkbar. Dies unterstellt, liegt der besagten Transparenz eine Selbsttransparenz des Neuronensystems zugrunde. Weil das Neuronensystem über sich selbst keine Aussagen machen kann, kommen solche Inhalte in der neuronalen Kommunikation nicht vor. Deshalb können wir unsere Neuromechanismen nicht bewusst erleben. So können wir uns selbst nur indirekt erfahren. Wir benötigen dazu ein Selbst-Modell, das wahrscheinlich ähnlich wie die Repräsentationen anderer Objekte angelegt ist und dessen abstrakter Inhalt uns repräsentiert (s.S. 203-208 in [45])15. Da nun der neuromechanistische Träger nicht bewusst erlebt werden kann, fehlt er der Alltagserfahrung. Deshalb entspricht er auch nicht unserem 'natürlichen Empfinden'. Philosophisch ist das Ausgelassene aber von großer Bedeutung. Abstraktion als neuronale Strategie Typisierung und Unterscheidung sind archaische Fähigkeiten, die der Einordnung des Neuen dienen und deren Vervollkommnung in der Vorzeit unserer Art große Vorteile mit sich brachte. Wenn ich ein gelbes Tier, das mir auf meinem Weg begegnet, als 'Typ Löwe' einstufen kann, dann werde ich ihm alle Eigenschaften zurechnen, die 'der Löwe' gemeinhin hat, und mir einen anderen Weg suchen. Begriffsabstraktion: Das typisierende Abstrahieren hat den Vorteil der Ökonomie. Statt tausend grüne Dinge mit separaten Namen zu belegen, kann man für viele Zwecke ökonomischer mit dem Kürzel "Pflanze" auskommen. Das Kürzel aber ist eine Kopfgeburt, in der realen Welt gibt es kein 'Pflanze', sondern nur die einzelnen grünen Dinger. Deshalb kann 'Pflanze' auch nichts verursachen. 'Pflanze' hat weder Ort noch Zeit. Warum nicht? Weil es 'Pflanze' im physikalischen Ort-Zeit-Universum nicht gibt, es ist 'nur' als Abstraktum in unserem Kopf präsent. Das Neuronensystem hat ein Talent zu Unterscheidungen und Abstraktionen, zum Ordnen und Einteilen. Hier ein Beispiel: Die Neurone in der Netzhaut des Auges zerlegen das auf sie projizierte Bild in relevante Teilaspekte oder Attribute (vermeintliche Eigenschaften) wie scharf begrenzte, stehende oder bewegte Scheiben, Kanten und Balken in verschiedener Orientierung, diffuse helle oder dunkle Schatten usw. [z.B. 25, 36]. Zerlegen heißt dabei, dass diese Inhalte an verschiedene Orte der auswertenden Module des Gehirns geschickt werden. So getrennt werden die Attribute des optisch erfassten Objektes auch gespeichert. Aus den zerstreut gespeicherten Attributen wird die neuronale Repräsentation aufgebaut, indem die Attribute in dem sogenannten Bindungsvorgang wieder zusammengeführt werden. Der ökonomische Vorteil scheint darin zu bestehen, gleiche Attribute diverser Objekte am 15 Man könnte fragen, ob mein Neuronensystem nicht doch über sich selbst Aussagen machen kann, wenn ich zB diesen Text schreibe. Aber hier macht ein Teil des Systems Aussagen über einen anderen Teil, nämlich über Konzepte, die er vorfindet (solche, die Neuronensysteme generell betreffen) und nicht über sich selbst als Ganzes. Solche Teilbetrachtungen führen nach Attneave nicht in den Zirkel der Selbstreferenz, sie sind unkritisch [42]. Das gleiche Argument verwenden J.A. Fodor, D. Dennett und S. Pinker [S. 79 in 43]. copyright invoco-verlag 2006 www.bernd-lindemann.de 23 gleichen Ort zu speichern. Die verschiedenen Repräsentationen entstehen dann als Kombinationen aus einem endlichen Satz von Attributen. Dieses Prinzip nennt man 'infinite use of finite media' [46]. Das gleiche Prinzip verwenden wir in unserem Zahlensystem, in der Bildung von Worten und Sätzen aus Buchstaben, in der Notierung von Musik usw. Es liegt deshalb nahe, vorzuschlagen, dass wir das Prinzip deshalb so erfolgreich verwenden, weil unser Neuronensystem es schon kennt, weil uns dieses Prinzip angeboren ist. Das gleiche Prinzip findet sich auch in den ersten Definitionen der Ontologie, wenn wir nämlich den konkreten Objekten charakteristische Sätze abstrakter Eigenschaften zuordnen. Diese Zuordnung beruft sich auf nichts als Plausibilität. Es ist aber auch plausibel, dass uns diese Zuordnung so 'in den Sinn kommt', weil sie uns angeboren ist, dass sie also mehr über uns aussagt, als über die Dinge 'da draußen'. Abstraktionen könnten im Neuronensystem dadurch entstehen, dass zunächst mehrere Token (individuelle Objekte) durch Bindung einzeln repräsentiert werden und dann unter den dabei benötigten Attributen diejenigen eliminiert werden, die nicht allen Token gemeinsam sind. Durch Bindung der gemeinsamen Attribute entsteht sodann der überindividuelle Typ, ein Abstraktum. Bedeutungsabstraktion: Abstrakta entstehen nicht nur durch typisierende Abstraktion, sondern auch durch 'Abziehen'16. Man kann z.B. von einem einzelnen Lochstreifen das Lochmuster geistig abziehen oder ablesen. Das gelingt durch bloßes Betrachten, allerdings nur, wenn man schon gelernt hat, wie ein Lochmuster bzw. das gewünschte Muster aussieht. Das Resultat (Muster "M1") ist ein Abstraktum. Es entsteht, indem eine Repräsentation der Lochung des Lochstreifens mit einer gelernten Norm für M1 verglichen wird, die ebenfalls als Repräsentation neuronal zu Verfügung steht. Somit sind doch zwei Repräsentationen im Spiel, eine für den Lochstreifen als konkretes Objekt mit Lochmuster und eine früher erworbene für das Referenzmuster. Auch das Abziehen wäre also ein Vergleich von Repräsentationen, wie die Typisierung. Um dann aus "M1" die enthaltene Information abzulesen, benötigt man die Kenntnis der Zuordnung von Zeichen und Bedeutungen. Diese Zuordnung, verfügbar als eine Codetabelle oder durch Rekonstruktion mit einem Bildungsgesetz (Verständnis), ist ebenfalls neuronal präsent. Das mit ihr gewonnene Resultat vom Typ Information "I1" ist wieder ein Abstraktum. Ähnlich ist das Verfahren beim Hören gesprochener Sätze, beim Lesen eines Textes usw. Nach Hypothese-1 sind mentale Inhalte die bewusst gewordenen Inhalte neuronaler Kommunikationsvorgänge. Auch beim Lesen eines solchen 'neuronalen Textes' wird Inhalt oder Bedeutung ohne seinen konkreten neuronalen Träger bewusst. Dass die bewusst gewordenen Inhalte Abstrakta sind, ist evident. Daneben wird man auch unbewusst vorgenommene Inhalts-Abstraktionen erwarten müssen. Deshalb sind Inhalte oder Bedeutungen nicht auf das Bewusst-Mentale beschränkt. Wir erwarten sie generell in Neuronensystemen, nicht aber, wie schon gezeigt wurde, in heutigen Computern. Wer erlebt die Inhalte? Das Selbst, die bewusste Person, könnte einer der neuronalen Agenten sein und die Funktion haben, die Kommunikation zwischen anderen Modulen vor allem dann inhaltlich darzustellen, wenn sie Besonderheiten aufweist. Diese Besonderheiten würden in einem logbuchartigen Gedächtnisteil eingetragen, der unsere Identität und Kontinuität darstellt. Das aber ist Spekulation. Die Frage, wie bewusstes Erleben möglich wird und wer, welche Instanz davon betrof16 Das, was Aristoteles Aphairesis nannte (s. oben, Fußnote 2). copyright invoco-verlag 2006 www.bernd-lindemann.de 24 fen ist, muss beim gegenwärtigen Stand der Erkenntnis offen bleiben. Ein Weg zu ihrer Beantwortung wird sich erst abzeichnen, wenn die Neurobiologie zur Entstehung des Bewusstseins einen experimentellen Ansatz gefunden hat. Im Augenblick gilt dieser Forschungszweig und seine philosophische Durchleuchtung noch als "the hard problem" [47] und namhafte Forscher haben vorgeschlagen, weitere Spekulationen vorläufig zurückzustellen [48, 49]. Es kann wohl nur ein Teil des Gehirns sein, durch den die Inhalte erlebt werden [50]. Man sucht deshalb nach neuronalen Modulen, deren Aktivierung sich ändert, wenn der Bewusstseinszustand sich ändert. Sie könnten lokalisiert oder disseminiert sein und in enger Beziehung zu der neuronalen Repräsentation unseres Selbst-Modells stehen. Hat man diese Module gefunden, dann kann man vielleicht Experimente durchführen, welche die Funktion von Bewusstseinszuständen objektiv charakterisieren. Unterschieden werden Hintergrund- und Aktualbewusstsein [51]. Beide sind Bündel inhaltlich verschiedener Zustände, gebunden an die Funktion des Neocortex, besonders an die sogenannten assoziativen Areale, - die Aufmerksamkeit fordern und deren Aktivitätsinhalt anscheinend zwanghaft erlebt wird. Von einigen Gruppen dieser Zustände kann sprachlich berichtet werden. Im Aktualbewusstsein verschmelzen Gedächtnisinhalte, sensorischen Input und aktuelle Interpretationen zu einem einheitlichen Erlebnis. Bewusstseinszustände haben keinen erlebten 'Ort'. Ihr Wechsel erfolgt kinoartig-automatisch mit Zeitintervallen von 1-3 Sekunden. Assoziationen und dringliche Anforderungen aus dem Unbewussten bestimmen, was nach einem Wechsel dargestellt wird. Hypothese-1 zufolge umfasst das Mentale alle bewusstseinsfähigen Inhalte der neuronalen Kommunikation. Uns bewusst wird der in einem gegebenen Moment zugängliche, aktuelle Teil. Dass der Vorgang der Bewusstmachung einen Zeitbedarf von Sekunden hat, weist auf einen komplexen Mechanismus hin. Es ist deshalb plausibel, dass sehr viele neuronale Vorgänge und Leistungen schneller, nämlich unbewusst-automatisiert ablaufen. Der Flaschenhals der Bewusstmachung wird von den unbewusst arbeitenden neuronalen Agenten vor allem dann in Anspruch genommen, wenn diese mit einer ungewohnten Situation konfrontiert sind ('Houston, we have a problem'). Die Aufgabe der Bewusstmachung würde darin bestehen, einen Handlungsplan als Lösung für die ungewohnte Situation zu suchen [52]. Dieser Aspekt wird im Folgenden als 'mentale Verursachung' thematisiert werden. Nach einer Idee von B.J. Baars [52] ist das Bewusstsein nicht nur eine Beobachtungsstation, es ist auch ein Koordinator, der Appelle an die vielen separaten Expertensysteme des Unbewussten richtet und die Arbeit dieser Module auf einen gemeinsamen Zweck ausrichtet. So könnten die spezialisierten neuronalen Agenten, deren Funktion unbewusst bleibt, durch einen bewussten 'Sammelruf' zum Austausch von Information veranlasst werden. Kognitive Problemlösungen, etwa, oder die Beurteilung von Handlungsplänen erfolgten dann so, dass per Sammelruf eine Frage an die Experten gestellt wird. Diese bearbeiten das Problem und präsentieren ihr Resultat im Scheinwerferkegel des Bewusstseins. Die Auslösung des Vorganges (Problembeschreibung und Appell) und die Betrachtung des Resultates wären bewusst, der eigentliche Vorgang der Bearbeitung bliebe jedoch unbewusst. Schon diese kurze Diskussion hat mit Selbst-Modell, Logbuch, Zeitbedarf, Flaschenhals, Handlungsplan und Koordination interessante Stichworte geliefert. Wie plausibel diese Spekulationen auch sein mögen, die experimentelle Neurobiologie wird das letzte Wort haben. Der Philosophie bleibt es gewiss unbenommen, in solchen Fragen der Empirie zu überprüfen, ob die Fragestellung Sinn macht, ob sie zum Beispiel frei von Kategorienfehlern ist, ob Resultate evt. überinterpretiert werden und dergleichen mehr. Die datenfreie philosophische Spekulation, hingegen, hat bisher wenig Konsensus erzielt. Sie ist selten 'anschlussfähig'. Empirie ist ein Kind des menschlichen Optimismus und so sei hier abschließend (aus Seite 289 in [41]) Patricia Churchland zitiert: "We will get there, but we are not there yet." copyright invoco-verlag 2006 www.bernd-lindemann.de 25 Zur Verursachung in Computern und Menschen Steuerung, Programmierung, Verursachung Digitale Computer werden auch 'programmgesteuerte Rechner' genannt. Diese Bezeichnung will sagen, dass ein vorgefertigtes Programm (Software) die Hardware des Rechners oder des Automaten zu vorgeplanten Änderungen oder Aktionen veranlasst. Somit ist anscheinend etwas Abstraktes, nicht Raum-zeitliches, nämlich das Programm, die Ursache von physikalischen Änderungen und Aktionen. Nach Regel-1 wäre das unmöglich... Bekanntlich wird der Code der Hochsprache durch einen Compiler in den binären Maschinencode umgewandelt. Letzteren kann man als Bauanleitung verstehen. Das Laden des Maschinenprogramms bewirkt nämlich einen Umbau der Hardware im Sinne einer (permissiven) strukturierenden Verursachung nach F. I. Dretske [7]. Die variablen physikalischen Strukturen der Speicherzellen und Register werden dadurch so verändert, dass die Hardware die gestellte Aufgabe lösen kann, sobald der 'Rechenvorgang' schließlich gestartet wird. Auch der Maschinencode, hier als Bauanleitung verstanden, ist noch ein Abstraktum, eine Beschreibung von gewünschten Strukturen in der Hardware. Was geschieht aber bei der Umstrukturierung? In einem einfache Fall kann der Programmierer durch Betätigung von Kippschaltern die Register des Computers laden, d.h. strukturieren. Seine Hand wird dabei innerviert von motorischen Nerven und es ist das Neuronensystem des Programmierers, das die Umstrukturierung vornimmt. Dieses Neuronensystem, nun, ist Teil des physikalischen Universums. Somit erfolgt die Umstrukturierung in der geschlossenen Kausalität der Physik. Nicht das Programm, sondern ein Konkretum, das Neuronensystem eines Menschen, verursacht die Umstrukturierung. In dem Neuronensystem enthalten ist die neuronale Repräsentation des Programms, auch sie ein Konkretum. Was die Hardware nun nach ihrer Umstrukturierung verarbeitet, sind nicht Symbole oder Zeichen (s.o.). Es sind vielmehr binäre physikalische Strukturen, zum Beispiel räumlich und zeitlich geordnete Folgen von schnell veränderlichen elektrischen Potentialen, die der Prozessor benötigt um andere binäre Strukturen dieser Art dem gewählten Algorithmus entsprechend zu verändern. Die den Bits und Bytes entsprechenden binäre Strukturen in den Speicherzellen und Registern können wir mit unterschiedlichen Bedeutungen belegen. Der Programmierer sieht in ihnen Platzhalter für seine Variablen, tatsächlich aber sind diese Strukturen Teil der Hardware, sind Physik. Wir halten also fest: Programmieren heißt nicht, etwas Konkretes mit etwas Abstraktem zu steuern, sondern es heißt umzubauen. Es bedeutet eine physikalische Umstrukturierung in der Hardware. Das Programm lässt sich als eine Beschreibung dieser physikalischen Umstrukturierung deuten. Es ist gleichsam eine Abstraktion dieser Prozesse, eben eine Bauvorschrift. Diese Resultate werden in der folgenden Betrachtung der Computeranalogie des Mentalen eine wichtige Rolle spielen. Die Deutung mentaler Vorgänge David Pitt schrieb kürzlich in der Stanford Encyclopedia of Philosophy "That mental processes are computations, that computations are rule-governed sequences of semantically evaluable objects, and that the rules apply to the symbols in virtue of their content, are central tenets of mainstream cognitive science" [53]. Diese Ideen haben ihren Ursprung in CTM und RTM, also in der Computational Theory of Mind [54, 55] (auch vertreten von Pylyshyn, copyright invoco-verlag 2006 www.bernd-lindemann.de 26 Minsky, Dennett und anderen) und der Representational Theory of Mind [39, 40] (auch vertreten von Pinker, Plotkin und anderen)17. In diesen Theorien wird Computation generell als 'formal symbol manipulation' verstanden18. Symbolmanipulation aber, wie wir gesehen haben, trifft nicht zu, wenn es um Computer geht. Ob es für mentale Vorgänge zutrifft, das ist die Frage. Die Computational Theory of Mind schlägt eine Analogie vor: (a) das Neuronensystem des Gehirns kann ähnlich wie Computerhardware Daten systematisch verarbeiten. Dieser Teil ist durch zahlreiche neurobiologische Experimente belegt [z.B. 28, 33, 56]. (b) Beide Verarbeitungssysteme sind Teil der physikalischen Wirklichkeit und partizipieren an deren geschlossener Kausalkette. Weiterhin (c): die Steuerung Geist Æ Gehirn entspricht der Steuerung Software Æ Hardware. Die Software, also, steuert die Hardware und der Geist steuert das Gehirn19. Aussage (c) trifft im 2. Teil nicht zu, denn die Software, wie wir gesehen haben, steuert nicht die Hardware. Vielleicht kann man die Analogie aber so lesen: die Relation Geist / Gehirn entspricht der Relation Software / Hardware, denn die Software ist eine Beschreibung von Hardwareprozessen und das Mentale ist eine Beschreibung (oder Inhaltswiedergabe) von neuronalen Prozessen? Mentale Verursachung im Konkreten Bei einer mentalen Verursachung oder 'downward causation' müsste ein mentales Phänomen auslösend sein für ein physikalisches Ereignis. Etwas Mentales, das nicht raum-zeitlich ist, müsste also in Wechselwirkung treten mit einem konkreten Objekt (einem Teil des Neuronensystems), das raum-zeitlich ist. Ist das denkbar? Es würde bedeuten, dass das Ereignis im Konkreten zu einem bestimmten Zeitpunkt stattfindet, im Mentalen jedoch nicht. Das klingt wie ein Verstoß gegen Regel-1. Zur Bearbeitung dieses Problems20 kann die schon betrachtete 'Steuerung eines Rechners durch ein Programm' hilfreich sein. Dass im Gehirn Signale verarbeitet und komplexe Aktionen geplant werden, ist offensichtlich. In diesem oberflächlichen Sinne ist das zerebrale Neuronensystem einem digitalen Computer ähnlich. Doch die bekannte Computeranalogie des Geistes geht ja weiter: sie besagt, dass die Relation Geist / Gehirn der Relation Software / Hardware entspricht [54, 55]. So wie im Computer das Programm auf die Hardware ursächlich einwirke, so wirke auch unser Geist auf die Neuronen des Gehirns ursächlich ein. Nun haben wir aber schon festgestellt, dass beim Computer eben nicht das Programm, sondern immer nur ein Teil der Physik ursächlich wirksam ist, nämlich der Teil der Hardware, den das Programm beschreibt, von dem es eine Bauvorschrift (Abstraktion) ist. Ist die Computeranalogie nun auch unter diesem Vorzeichen haltbar? Das Mentale 'ist' wohl kaum ein Programm, der Geist 'läuft' nicht auf der Plattform des Gehirns. Aber ist das Mentale eine Be17 Auf die ausführliche Kritik von CTM und RTM durch J.R. Searle [20, 22] sei besonders hingewiesen. Diese Formulierung ist in sich selbst widersprüchlich, denn 'Symbolverarbeitung' impliziert Bedeutungsverarbeitung, 'formal' aber impliziert regelhaft-mechanistisch, also 'ohne Kenntnis der Bedeutung'. 19 Der Analogie zufolge 'läuft' der Geist auf der 'Plattform' des Gehirns. Ähnlich argumentierte schon 1950 A. Turing: auch mentale Prozesse sind 'computable' und können auf einer universalen Maschine simuliert werden [23]. Die neurobiologische Plattform wäre also im Detail irrelevant, der Geist könnte auch auf einer anderen Plattform implementiert werden, allein auf das Programm, das Mentale käme es an. 20 Literatur zu dem modernen (Neuro-) Funktionalismus und zum Geist-Gehirn Problem findet sich in Illing, R.B., Seelenintuition, Freiheitsintuition und Gehirnforschung, in Gott - Geist - Gehirn. Religiöse Erfahrungen im Lichte der neuesten Hirnforschung., W. Achtner, et al., Editors. 2005, Haag + Herrchen Verlag: Frankfurt. p. 164. 18 copyright invoco-verlag 2006 www.bernd-lindemann.de 27 schreibung, eine Sammlung von beschreibenden, uns bewusste Abstrakta, die aus neuronalen Objekten durch ablesende Abstraktion gebildet werden? Genau das sagt Hypothese-1 und die Erklärung der anscheinend paradoxen mentalen Verursachung ist eine einfache Konsequenz aus dieser Hypothese. Ihr zufolge sind die mentalen Inhalte die Inhalte, über die neuronale Module miteinander kommunizieren. Sie wären dann Beschreibungen, 'erlebte Bilder und erlebter Text'. Die mentalen Beschreibungen beziehen sich auf konkrete neuronale Trägerprozesse nR, also etwa Kommunikation und Hebbsche Strukturänderungen, wie sie mit der Aktivierung funktioneller Module einhergehen. Aus diesen Prozessen entsteht das mentale Erleben durch Abbildung der Inhalte. Das Mentale handelt aber nicht, verursacht nichts im Konkreten. Es ist deskriptiv, nicht aktiv, es ist so etwas wie ein Kino [52]. Der Film stellt unter anderem die auf Handlungspläne und Handlungen bezogenen Kommunikationsinhalte dar. Verursachung und Handlung selbst bleiben aber auf das konkrete Neuronensystem beschränkt21. Das Mentale verursacht nicht, sondern beschreibt oder bezieht sich auf Verursachungen, die im Neuronensystem des Gehirns stattfinden. Die zugrundeliegenden neuronalen Prozesse, wie gesagt, haben einen eigenen inhaltlichen Bezug (being about). Sie können sich etwa auf ein Ereignis oder Objekt (K) der Umgebung beziehen. Das Mentale kann nun durch seinen transparenten deskriptiven Bezug (~) hindurch den inhaltlichen Bezug von nR betrachten. Das generiert dann die Illusion einer mentalen (statt richtig einer neuronalen) Verursachung. Die mR ist eine Inhaltsangabe (~) von nR, nRx usw.: mR ~(nR Æ nRx …) Æ K, d.h. die primäre Verursachung findet auf der Ebene von nR, im Neuronensystem, im Konkreten statt. Die Transparenz des neuronalen Prozesses ~(nR Æ nRx...) jedoch täuscht uns eine illusionäre mentale Verursachung mR Æ K vor. Illusion Wenn die mentale Verursachung eine Täuschung ist, wie steht es dann mit dem Mentalen selbst, ist das auch eine Täuschung? Hier sei an die Feststellung des Aristoteles erinnert, dass 'das Abgezogene' in Wirklichkeit nie getrennt von seinem Substrat existiert22. Um dem Rechnung zu tragen, wollen wir den Vorgang der Abstraktion als Ablesen des Inhaltes beschreiben und nicht als Abtrennung: der Komplex Inhalt-Träger bleibt unverändert zurück. Die Existenzform 'Abstrakta ohne Träger' gibt es nicht, sie ist eine Illusion, vorgespiegelt durch das Transparenzphänomen. Als 'frei schwebende Abstrakta' gibt es weder Information, noch Inhalte, noch (!) das Mentale. Abstrakta gibt es also, paradoxerweise, nur in der nicht abstrahierten Form, implementiert in physikalische Strukturen. In Strukturen, die zu den Kommunikationsprozessen des Neuronensystems gehören. Aber in dieser implementierten Form, gewissermaßen als Komplex, sind sie raum-zeitlich einzuordnen und kausal zu handhaben. Der Vorgang des Bewusstwerdens kann sie dort erkennen, gewissermaßen optisch darstellen, aber nicht wirklich ablösen. 21 Auch die erwähnten Koordinationsaufgaben des Bewusstseins (nach Baars [52]) wären Abläufe im konkreten Neuronensystem und nicht Einflüsse des 'Geistigen' auf dieses System. 22 Siehe Fußnote 2. copyright invoco-verlag 2006 www.bernd-lindemann.de 28 Nachbemerkung Die oben zitierte Formulierung von D. Pitt: "That mental processes are computations, that computations are rule-governed sequences of semantically evaluable objects, and that the rules apply to the symbols in virtue of their content" können wir nun wie folgt kommentieren: a. Mentale Prozesse sind keine 'Computationen', sondern eine Inhaltswiedergabe von Kommunikationsvorgängen des Neuronensystems (Hypothese-1). Die 'Computationen' finden im konkreten neuronalen Bereich statt, ihre Ergebnisse werden als Darstellungen bewusst. b. In der Computerhardware spielt problemrelevante Bedeutung keine Rolle, hier gibt es keine 'regelhafte Folge von Objekten mit Bedeutung'. In unserem Neuronensystem, jedoch, sind inhaltlich auswertbare Objekte (neuronale Repräsentationen) die normalen Gegenstände der Verarbeitung. Und c. Neuronale Repräsentationen sind komplexe Symbole, für deren Verarbeitung ihre Bedeutung entscheidend ist. Wenn wir also voraussetzen, dass Symbolverarbeitung semantisch ist, ein Verständnis der Symbolbezüge erfordert (siehe oben, Definition), dann kommen wir zu dem Schluss, dass Symbolverarbeitung zwar nicht in den (heute verfügbaren) Computern, wohl aber in Gehirnen stattfindet23. Das Neuronensystem des Menschen (und der höheren Tiere) ist die wahrscheinlich einzige Struktur, die Symbolverarbeitung mit nachweislicher Kenntnis der Bezüge (Test mit Umschreibungen) zu leisten vermag. Neuro-Realismus In dem vorliegenden Entwurf einer analytischen Ontologie des Mentalen wurde argumentiert, - dass unser Gehirn dem physikalischen Universum zugehört, also konkret ist. - dass neuronale Module unseres Gehirns miteinander kommunizieren. - dass diese Kommunikationsprozesse Inhalte haben und Symbole bedeutungsabhängig verarbeiten. - dass das mentale, bewusste Erleben ein Erleben dieser Inhalte ist, was mit einer (illusionären) Abstraktion der Inhalte von ihren neuronalen Kommunikationsprozessen einhergeht. Tatsächlich werden die Inhalte nicht abgezogen, sondern abgelesen. 23 Der 2. Teil dieser Folgerung entspricht weitgehend der in der kognitiven Wissenschaft verbreiteten Repräsentationstheorie des Geistes, RTM, wonach das Denken auf ein inneres System von Repräsentationen zurückgreift [40]. Diese setzen sich aus elementareren Repräsentationen zusammen und werden operativ wie oder als Symbole behandelt. Die RTM spekuliert über die Syntax dieser Operationen, die 'language of thought', oder LOT [57]. Im Gegensatz zu meinen Folgerungen besteht die RTM auf der Computeranalogie und aktiven mentalen Formalismen: "Mental processes are computations ... defined on the syntax of mental representations" [S. 19 in 21]. Der Gegensatz wäre erklärt, wenn in der RTM das Mentale nicht nur Bewusstes einschlösse, sondern auch unbewusst-computatorische neuronale Vorgänge. In der RTM wären 'mental representations' das, was hier neuronale Repräsentationen genannt wird. copyright invoco-verlag 2006 www.bernd-lindemann.de 29 - dass die subjektive Transparenz des Neuronenapparates dadurch entsteht, dass dieser Apparat sich nicht in Gänze selbst betrachten kann. - dass die Illusion des Mentalen als 'einer Welt für sich' und die Illusion der 'frei schwebenden Abstrakta' eine Folge dieser Transparenz ist. - dass Verursachung und Handlung in dem konkreten Neuronensystem ablaufen und vom Bewusstsein nur abgebildet werden. - dass wir formal ein Konkretum sind: ein Körper in einem evolutionären Zusammenhang, mit einem Neuronensystem mit seinem intrinsischen Kommunikationsinhalt. Mit Inhalten, Konzepten in einem biologischen und einem kulturellen Zusammenhang. Kein reines Geistwesen, also, sondern ein ganzer Mensch. Die Argumentation führte uns zu einer Spielform des physikalischen Monismus, der als neuronaler Kommunikationsfunktionalismus oder Neuro-Realismus bezeichnet werden könnte. Es geht um den Platz des Mentalen in dem großen Schema der Dinge. Dieser Platz wird nur zu gerne durch Wunschdenken bestimmt. Realismus heißt hier, etwas anderes als unsere Wünsche zum Maßstab zu machen. Das Mentale wird nüchtern eingeschätzt als Abbildung des Inhaltes von prinzipiell demonstrablen Kommunikationsvorgängen neuronaler Module. Wenn nun das Mentale abstrakt und deshalb (im philosophischen Sinne) nicht real sowie kausal unwirksam ist, ist das nicht eine Abwertung? Keineswegs! Der hier vertretene NeuroRealismus weist dem Mentalen eine ganz bestimmten wichtigen Platz zu. Es ist vielleicht der wichtigste denkbare Platz, den Inhalt der neuronalen Kommunikation bewusst zu machen. Nehmen wir als Beispiel ein Buch. Es kann in verschiedenen Formen vorliegen, neu oder durch den Gebrauch verschlissen, digitalisiert oder als Hörbuch, das Wichtigste an ihm bleibt sein Inhalt. Der Inhalt ist kein Epiphänomen, man kann ihn nicht negieren oder als Programm oder als Information (im technischen Sinne) abtun. Er ist die Hauptsache. Ja aber, wird so mancher hier einwenden, der Inhalt handelt ja nicht! Was tut's, würde ich erwidern, jemand handelt, und dieser jemand sind wir! Und wer sind wir? Wir sind die Ganzheit Träger plus Inhalt, natürlich, unsere Identität umfasst beide Welten. Und weil wir auf den Inhalt Einfluss haben, kommt es auch auf uns an, wer wir sind. Wer wollen wir sein? Konzepte Einige bekannte Ontologien begnügen sich nicht mit 2 Weltteilen, denen für physikalische Konkreta und für mentale Abstrakta, sondern fügen einen dritten Weltteil hinzu, welcher objektive oder allgemein verfügbare Abstrakta beherbergt. Bei Frege ist dies das 'dritte Reich', das der Gedanken. Für Frege sind diese nicht sinnlich erfahrbar, nicht kausal wirksam, nicht mental. Sie sind weder Dinge der Außenwelt noch Vorstellungen, ihre Existenz ist unabhängig von menschlichen Einsichten und Bemühungen [ siehe auch 10, 58]. Auch bei Popper ist Welt 3 überindividuell. Es ist die Welt der kulturell kommunizierten Ideen, Theorien, Argumente, Probleme, Kunstwerke [59, 60]. Poppers dritte Welt wurde deshalb eingeführt, weil die mentalen Produkte durch ihre Veröffentlichung von Anderen übercopyright invoco-verlag 2006 www.bernd-lindemann.de 30 prüfbar werden. Deshalb schienen diese Produkte selbständig zu sein und nicht in die mentale, private Welt zu passen. Heute wird oft argumentiert, dass die gedanklichen Dinge des dritten Reiches bei Frege - wie Abstrakta generell - mentalen Ursprungs sind, so wie auch die Dinge der Welt 3 bei Popper. Man könnte sie mit Dawkins auch Meme nennen [61-63], oder veröffentlichte Konzepte, Begriffe, Repräsentationen. Hier sollen sie als Konzepte bezeichnet werden. Konzepte sind komplexe Repräsentationen. Wie alle Abstrakta sind sie Hervorbringungen des Menschen, genauer eines menschlichen Neuronensystems. Sie sind aber nicht unbedingt privat, sondern zu einem großen Teil von anderen übernommen. Die Kommunizierbarkeit und Überprüfbarkeit durch Andere macht sie zu unverzichtbaren Bausteinen unserer Kultur [siehe S. 213-223 in 45]. Ein spannender, wenig beachteter Aspekt unserer geistigen Identität ergibt sich aus der Betrachtung derjenigen kommunizierten Konzepte, die unsere Werte und Weltanschauungen ausmachen. Auch sie sind weitgehend von Anderen übernommen. Ihre Verbreitung wird u.a. gefördert durch persönliche Vorteile bei Akzeptanz und persönliche Nachteile bei Nichtakzeptanz. Auch Konzepte, die eine Aufwertung des Menschen bedeuten, werden leicht akzeptiert. So werden diese Konzepte zu den dominierenden Wahrheiten (oder Vorurteilen), die Völkern und Generationen Identität verleihen. Sie scheinen schon wegen ihrer großen Verbreitung fraglos gültig zu sein und werden von ihren 'Trägern' energisch verteidigt. Tatsächlich aber sind diese weltanschaulichen Konzepte nicht fraglos gültig, sondern in ihrer Ausbreitung örtlich und zeitlich begrenzt. Sie sind örtlich begrenzt, weil sie in anderen Kulturen und Kontinenten anders sind, und sie sind zeitlich begrenzt, weil sie sich in der Vergangenheit ständig verändert haben und diese Wandlung fortsetzen werden (Zeitgeist). Ein ernsthafter Konzeptvergleich im Längsschnitt und Querschnitt der Kulturen müsste, wenn er tendenzfrei etwa aus der Vogelperspektive vorgenommen wird, interessante Einsichten zur Konzeptdynamik liefern. Der Vergleich würde die vermutete Relativität unserer Zeitgeistwahrheiten wahrscheinlich bestätigen. Eine neue Art von Toleranz könnte so begründet werden. Das meinte wohl J.R. Searle, als er seinen Mit-Philosophen eine letzte Richtlinie zurief: "Wir müssen den sozialen Charakter des Geistes wiederentdecken!" 24. In der Ontologie sind Konzepte nicht nur als Repräsentationen zu erwähnen. Sie spielen vielmehr eine besondere Rolle als Grundlage der ontologischen Arbeit selbst. Bei dieser Arbeit (einem 'Klarwerden', wie es in der Zielvorgabe genannt wurde) werden die verfügbaren Konzepte das Resultat wesentlich bestimmen. Die Natur der Dinge wird nicht als solche, sondern nur im Rahmen unserer zeitbedingten Vorstellungen in der Ontologie erfasst. Diese Vorstellungen, allerdings, haben in jüngster Zeit eine schnelle Entwicklung erlebt. Die Neurobiologie des Menschen wirft ein neues Licht auf das Wesen der Abstrakta und des Mentalen. Mit diesen Änderungen darf man wohl die Hoffnung verknüpfen, dass Philosophie und unser Menschenbild eine realistische Basis finden. 24 Schluss von [20]. copyright invoco-verlag 2006 www.bernd-lindemann.de 31 Freiheit des Menschen Dem Perspektivendualismus folgend, fließen zu diesem Thema empirische Resultate und introspektive Einsichten (bin ich frei?) ineinander. Interessant ist die Rolle der Philosophie, wenn sie das Wunschdenken, in der Empirie verpönt, zum Prinzip erhebt: wer wollen wir sein? Instinkte sind Handlungspläne, die auf der Erfahrung der biologischen Art gründen, die vererbt werden und die für das Einzelwesen festgeschrieben sind. Wir Menschen sind weniger von Instinkten gebunden als es die Tiere sind. Herder nannte uns 'die ersten Freigelassenen der Schöpfung'. Sind wir nun frei? Statt der festgelegten und vererbten Handlungspläne der Instinkte richten wir uns nach etwas anderem, nach den flexibleren Handlungsplänen, die auf eigener, bewusster Erfahrung gründen. Dazu kommen die vielen Handlungsmodelle, die wir als Konzepte von anderen übernehmen. Da nun die meisten dieser Modelle und Vorstellungen von Anderen übernommen wurden, sind wir immer noch nicht frei. Wir bleiben dann, nach Kant, unmündig (s. seine bekannte Definition von Aufklärung). Nur wenn wir auch die Fessel der übernommenen Konzepte abschütteln und uns unserer eigenen Mittel zur Erkenntnis bedienen, können wir mündig werden. Vermutlich erfahren wir dann das Maximum an Freiheit, das sich innerhalb unserer biologischen Grenzen erreichen lässt. Frei sein in diesem Sinne heißt, dass wir die Alternativen unserer Handlungsauswahl selbst erkennen und abwägen, um dann nach eigener Einsicht zwischen ihnen zu entscheiden. Dabei fließen allerdings viele Hintergrundskonzepte ein, Zeitgeist genannt. Das alles im Vorfeld einer Handlung kritisch aufzuarbeiten, dürfte wohl unmöglich sein. Im Prinzip, jedoch, liegt eine letzte Entscheidung dann bei uns. So bleiben wir Kinder unserer Zeit und unserer Kultur und sind doch auf dem Wege zur Freiheit. Wer sind wir? Homo sapiens scheint (nach eigenem Bekunden) so etwas wie die Speerspitze eines Experimentes der Evolution zu sein. Unsere Besonderheit ist eine - wenn auch nur partielle - Freiheit: wer wollen wir sein? Ihre Begründung und die notwendige Bodenhaftung erhält diese Freiheit durch eine - wenn auch nur partielle - Einsicht in die Zusammenhänge der Natur. copyright invoco-verlag 2006 www.bernd-lindemann.de 32 Fazit Von der klassischen Aufteilung der Welt in ein physikalisches Universum und abstrakte Universalia ausgehend, betrachteten wir neuronale Kommunikation und neuronale Repräsentationen als definitiv der Physik zugehörige Vorgänge und Objekte. Obwohl der Physik zugehörig, hat die neuronale Kommunikation einen Inhalt, ist eine Unterhaltung 'über etwas'. Mentale Objekte, andererseits, verstanden wir nach Hypothese-1 als Beschreibungen der Inhalte neuronaler Kommunikation. Diese minimalistische Hypothese ist naheliegend, sofern man die biologische Selbstverständlichkeit akzeptiert, dass eben Neurone kommunizieren und die Kommunikation einen Inhalt hat. Repräsentationen haben somit eine Doppelrolle: als Konkreta im Neuronensystem und als Abstrakta im Mentalen, wo sie als abgelesener Bezug und Inhalt der konkreten Repräsentationen verstanden werden. Der Vorgang der Abstraktion besteht darin, dass der Inhalt der neuronalen Kommunikation von dem kommunizierenden Konkretum 'optisch' getrennt wird. Eine wirklich Isolierung der Inhalte ist nicht möglich. Als Sammlung von Inhalts-Abbildungen, aber, kann das Mentale im Konkreten nichts verursachen (Regel-1: abstracta non agunt in concreto). Eine solche Verursachung scheint aber nach unserem subjektiven Eindruck gleichwohl stattzufinden. Die Abwärtsverursachung (mental-abstrakt Æ physikalisch-konkret) wurde per Analogie am Beispiel des programmgesteuerten Computers studiert (Programm-abstrakt Æ Hardwarekonkret). Dabei zeigte sich, dass eine abstrakt-konkret-Steuerung durch das Programm gar nicht stattfindet. Die Programmierung ist besser als eine zeitlich vorgezogene permissive Strukturänderung in der Hardware zu beschreiben. Da diese Änderung von einem ebenfalls konkreten Objekt ausgeht, dem Neuronenapparat des Programmierers, bleibt alles im Konkreten. Aber auch die 'mentale Verursachung' beruht auf einer Strukturänderung im Konkreten, nämlich einer, die mit der Aktivierung funktioneller Module im Neuronensystem des Verursachers einhergeht. Mental wird der Inhalt dieser Vorgänge abgelesen und bewusst miterlebt aber nicht verursacht. Wird das Wesen des Mentalen nach Hypothese-1 konzeptuell fixiert, so verschwinden die sonst beklagten Widersprüche, etwa des Bieri-Paradoxes25. Schließlich wird auch verständlich, wie der subjektive Eindruck der mentalen Verursachung entsteht. Der Illusion liegt die bekannte subjektive Transparenz des Neuronensystems zugrunde. Die Argumentation führt uns also zu einer Spielform des physikalischen Monismus, der als neuronaler Kommunikationsfunktionalismus oder Neuro-Realismus bezeichnet werden könnte. Streng genommen ist dieser weder monistisch noch dualistisch. Das Mentale wird nicht negiert noch wird es pauschal auf 'Information' oder auf ein 'Programm' oder auf ein Epiphänomen reduziert. Es wird auch nicht behauptet, dass mentale Prozesse mit neuronalen Prozessen oder Zuständen 'identisch' sind, oder dass sie aus ihnen durch Emergenz entstehen. Vielmehr wird das Mentale realistisch eingeschätzt als Darstellung des Inhaltes von prinzipiell demonstrablen Kommunikationsvorgängen neuronaler Module. 25 Peter Bieri, 1993, hat zur mentalen Verursachung drei Sätze formuliert, von denen jeder gewöhnlich für wahr gehalten wird, die sich aber dennoch widersprechen: (a) Mentale Phänomene sind nicht-physische Phänomene; (b) Mentale Phänomene sind im Bereich physischer Phänomene kausal wirksam; (c) Der Bereich physischer Phänomene ist kausal geschlossen [64]. Nun kann angegeben werden, welcher Fehler dem Paradox zugrunde liegt (Reifikation, (b) verstößt gegen Regel-1). copyright invoco-verlag 2006 www.bernd-lindemann.de 33 Danksagung Anstoß zur Abfassung des vorliegenden Entwurfs einer Ontologie war die Lektüre von: Mental Causation. Epiphenomenalism, Anomalous Monism and Supervenient Causation as Solutions to the Mind-Body Problem. With a new approach called nomic, overdetermining, superdupervenient mental causation (NOSMeC), which solves the mind-body problem. Aus Fachbereich 05 - Philosophie und Philologie, Johannes Gutenberg Universität, Mainz, 2005 [4]. Ich danke Herrn Stephan Schleim für eine Kopie seiner interessanten Arbeit. Bibliographie 1. Beckermann, A., Analytische Einführung in die Philosophie des Geistes. 2. Auflage ed. 2001: de Gruyter. 2. Bunge, M.A. and M. Mahner, Über die Natur der Dinge. 2004, Stuttgart: Hirzel. 273. 3. Grossmann, R., Die Existenz der Welt. 2004, Frankfurt: Ontos Verlag. 166. 4. Schleim, S., Mental Causation. Epiphenomenalism, Anomalous Monism and Supervenient Causation as Solutions to the Mind-Body Problem. With a new approach called nomic, overdetermining, superdupervenient mental causation (NOSMeC), which solves the mind-body problem., in Fachbereich 05 Philosophie und Philologie. 2005, Johannes Gutenberg Universität Mainz: Mainz. p. 108. 5. Aubenque, P., Abstraktion (Stichwort), in Historisches Wörterbuch der Philosophie, J. Ritter, Editor. 1971: Basel. p. S. 43. 6. Schlemm, A., "Die Abstraktion" in Annettes Philosophenstübchen http://www.thur.de/philo/. 2006. 7. Dretske, F., Mental events as structuring causes of behavior, in Mental Causation, J. Heil and A. Mele, Editors. 1995, Clarendon Press: Oxford. p. 121-136. 8. Hebb, D.O., Organization of Behavior. 1949, New York: John Wiley & Sons. 9. Alexander, S., Space, Time, and Deity. 1920, London: Macmillan. 10. Rosen, G., "Abstract Objects" in The Stanford Encyclopedia of Philosophy. 2001, Zalta, E.N., Editor, Stanford University. 11. Whitehead, A.N., Science and the Modern World (The Lowell Lectures, 1925). 1967 ed. 1967, New York: Free Press, Macmillan Publishing Co, Inc. 212. 12. Bunge, M.A., Philosophical Dictionary. 2003, New York: Prometheus Books. 315. 13. Lyre, H., Informationstheorie. Eine philosophisch-naturwissenschaftliche Einführung. 2002, Stuttgart: UTB. 280. 14. Morris, C.W., Foundations of the theory of signs, in International Encyclopedia of Unied Science, O. Neurath, Editor. 1938, University of Chicago Press, Chicago, MI, USA. 15. Landauer, R., Computation: A Fundamental Physical View. Physica Scripta, 1987. 35: p. 88-95. 16. Krämer, S., Symbolische Maschinen. Idee der Formalisierung im geschichtlichen Abriss. 1988, Darmstadt: Wissenschaftliche Buchgesellschaft. 227. 17. Newell, A., Physical Symbol Systems. Cognitive Science, 1980. 4: p. 135-183. copyright invoco-verlag 2006 www.bernd-lindemann.de 34 18. Newell, A. and H.A. Simon, Computer Science as Empirical Inquiry: Symbols and Search. Communications of the ACM, 1976. 19: p. 113-126. 19. Strube, G. and et.al., Wörterbuch der Kognitionswissenschaft. 1996, Stuttgart: Klett-Cotta. 20. Searle, J.R., The rediscovery of the mind. 1992, Cambridge, Mass.: MIT Press. 21. Fodor, J.A., The mind does not work that way. 2001, Cambridge, Mass: MIT Press. 126. 22. Searle, J.R., Minds, Brains, and Programs. Behavioral and Brain Sciences, 1980. 3: p. 417-424. 23. Turing, A.M., Computing Machinery and Intelligence. Mind, 1950. 50: p. 433-460. 24. Penrose, R., The Emperor's New Mind. 1991, New York: Penguin Books. 466. 25. Marr, D., Vision. 1982, San Francisco: Freeman. 26. Newell, A., The knowledge level. Artificial Intelligence, 1982. 18: p. 87-127. 27. Churchland, P.M., The Engine of Reason, The Seat of the Soul. 1995, Cambridge, MA: MIT Press. 330. 28. Singer, W. and C.M. Gray, Visual feature integration and the temporal correlation hypothesis. Annu Rev Neurosci, 1995. 18: p. 555-86. 29. Shepherd, G.M., ed. The Synaptic Organization of the Brain. 4 ed. 1998, Oxford University Press: New York. 638. 30. Braitenberg, V. and A. Schüz, Cortex: Statistics and Geometry of Neuronal Connectivity. 2. ed. 1998, Berlin: Springer-Verlag. 31. Martin, J.H., Coding and Processing of Sensory Information, in Priciples of Neural Science, E.R. Kandel, J.H. Schwartz, and T.M. Jessel, Editors. 1991, Elsevier: New York. p. 329-352. 32. Smith, E.C. and M.S. Lewicki, Efficient Auditory Coding. Nature, 2006. 439: p. 978-982. 33. Koch, C., Biophysics of Computation: Information processing in single neurons. 1998: Oxford University Press. 552. 34. Prinz, W., Neurons don't represent. Consciousness and Cognition, 2003. 12: p. 572-573. 35. Metzinger, T. and V. Gallese, Of course they do. Consciousness and Cognition, 2003. 12: p. 574-576. 36. Lettvin, J.Y., et al., What the frog's eye tells the frog's brain. Proc. Inst. rad. Engrs., 1959. 47(11): p. 19401951. 37. Brentano, F., Psychologie vom empirischen Standpunkt. 1874, Leipzig: Meiner Verlag 1924. 38. Fodor, J.A., Special Sciences, or The Disunity of Science as a Working Hypothesis, in Readings in Philosophy of Psychology, N. Block, Editor. 1980, Harvard: Cambridge, MA. 39. Fodor, J.A., The Language of Thought. 1975, Cambridge, MA: Harvard University Press. 214. 40. Fodor, J.A., Psychosemantics. The problem of meaning in the philosophy of mind. 1987, Cambridge, MA: A Bradford Book, MIT Press. 172. 41. Churchland, P.S., Brain-Wise. Studies in Neurophilosophy. 2002, Cambridge, MA: MIT Press. 472. copyright invoco-verlag 2006 www.bernd-lindemann.de 35 42. Attneave, F., In defense of homunculi, in Sensory Communication, W.A. Rosenblith, Editor. 1961, MIT Press: Cambridge, MA. p. 777-782. 43. Pinker, S., How the mind works. 1997, New York: W.W. Norton. 660. 44. Illing, R.-B., Seelenintuition, Freiheitsintuition und Gehirnforschung, in Gott - Geist - Gehirn. Religiöse Erfahrungen im Lichte der neuesten Hirnforschung., W. Achtner, et al., Editors. 2005, Haag + Herrchen Verlag: Frankfurt. p. 164. 45. Lindemann, B., Der innere Weg. 2004, Homburg: invoco-verlag. 46. Humboldt, W.v., Linguistic variability and intellectual development. 1836 / 1972, Philadelphia: University of Pennsilvania Press. 47. Shear, J., Explaining consciousness: The hard problem. 1997, Cambridge, MA: MIT Press. 422. 48. Crick, F. and C. Koch, The unconscious homunculus. Neuro-Psychoanalysis, 2000. 2(8): p. 3-11. 49. Crick, F. and C. Koch, A framework for consciousness. Nat Neurosci, 2003. 6(2): p. 119-26. 50. Damasio, A.R., The person within. Nature, 2003. 423: p. 227. 51. Roth, G., Aus Sicht des Gehirns. 2003, Frankfurt: Suhrkamp. 214. 52. Baars, B.J., In the theatre of consciousness: The workspace of the mind. 1997, Oxford: Oxford University Press. 193. 53. Pitt, D., "Mental Representation" in The Stanford Encyclopedia of Philosophy. 2005, Zalta, E.N., editor. 54. Putnam, H. Brains and Behavior. in American Association for the Advancement of Science, Section L (History and Philosophy of Science). 1961. 55. Putnam, H., The meaning of meaning, in Language, mind, and knowledge, K. Gunderson, Editor. 1975, University of Minnesota Press: Minneapolis. 56. McCulloch, W.S. and W. Pitts, A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 1943. 5: p. 115-133. 57. Margolis, E. and S. Laurence, "Concepts" in The Stanford Encyclopedia of Philosophy. 2005, Zalta, E.N., editor. 58. Frege, G., Logische Untersuchungen. 1918 (2003): Vanderhoeck & Ruprecht. 59. Popper, K.R., Objective Knowledge. 1972, Oxford: Clarendon Press. 60. Popper, K.R. and J.C. Eccles, The Self and its Brain. 1977, New York: Springer. 598. 61. Dawkins, R., The selfish gene. 1976, Oxford: Oxford University Press. 62. Brodie, R., Virus of the mind: The new science of the meme. 1996, Seattle, WA: Intergral Press. 63. Blackmore, S., The meme machine. 1999, Oxford: Oxford University Press. 264. 64. Bieri, P., ed. Analytische Philosophie des Geistes. Neue Wissenschaftliche Bibliothek. 1993, Bodenheim. 372. copyright invoco-verlag 2006 www.bernd-lindemann.de 36 17.03.06 Copyright invoco-verlag 2006 Dieses Dokument drucken